Адказны штучны інтэлект атрымлівае найвялікшае ўзмацненне праз дэкларацыю аб этыцы штучнага інтэлекту ад вышэйшага прафесійнага таварыства ACM

Вы бачылі ці чулі навіны?

Яшчэ адзін набор правілаў этыкі штучнага інтэлекту быў нядаўна абвешчаны.

Бурныя апладысменты, калі хочаце.

Зноў жа, вы маглі б ня заўважылі гэта з-за таго, што так шмат іншых указаў па этыцы штучнага інтэлекту лунаюць ужо некаторы час. Некаторыя кажуць, што, здавалася б, бесперапыннае прасочванне дэкларацый аб этычным штучным інтэлекте становіцца трохі здранцвелым. Колькі нам трэба? Хто-небудзь можа паспяваць за імі ўсімі? Які з іх лепшы? Магчыма, мы перашчыруем з прынцыпамі этыкі штучнага інтэлекту? І гэтак далей.

Што ж, у гэтым канкрэтным выпадку я кажу, што мы павінны асабліва вітаць гэтае апошняе папаўненне ў клубе.

Праз імгненне я пранікліва растлумачу чаму.

Па-першае, у якасці тлумачэння я маю на ўвазе набор правілаў этыкі штучнага інтэлекту, які цяпер афіцыйна вядомы як "Заява аб прынцыпах для адказных алгарытмічных сістэм” які нядаўна быў апублікаваны Саветам па тэхналагічнай палітыцы ACM 26 кастрычніка 2022 г. Падзяка групам экспертаў, якія сабралі гэты каштоўны дакумент, у тым ліку адным з вядучых аўтараў Жанне Мэцьюз (Універсітэт Кларксана) і Рыкарда Баеза-Йейтс (Універсітэт Пампеу Фабра ).

Тыя з вас, хто дасведчаны, могуць пры ўважлівым разглядзе зразумець, што гэты дакумент выглядае крыху знаёмым.

Добрае вока!

Гэта апошняе ўвасабленне, па сутнасці, з'яўляецца абноўленым і пашыраным варыянтам ранейшай сумеснай «Заявы аб алгарытмічнай празрыстасці і падсправаздачнасці», якая была апублікавана Камітэтам па тэхналагічнай палітыцы ACM ЗША і Камітэтам па тэхналагічнай палітыцы Еўропы ACM у 2017 годзе. Верныя чытачы маіх калонак могуць успомніць, што Я час ад часу згадваў указ 2017 года ў сваёй калонцы, у якой распавядалася пра ключавыя аспекты, якія ляжаць у аснове этыкі штучнага інтэлекту і заканадаўства аб штучным інтэлекце.

Для маёй шырокай і пастаяннай ацэнкі і аналізу тэндэнцый этыкі штучнага інтэлекту і права штучнага інтэлекту гл спасылка тут і спасылка тут, Проста назваць некалькі.

Гэтая апошняя заява ACM асабліва важная па некалькіх жыццёва важных прычынах.

Вось чаму.

ACM, што з'яўляецца зручным абрэвіятурай для Асацыяцыя вылічальнай тэхнікі, лічыцца найбуйнейшай у свеце асацыяцыяй, арыентаванай на вылічальную тэхніку. ACM, які налічвае каля 110,000 1947 членаў, з'яўляецца даўнім піянерам у галіне вылічальнай тэхнікі. ACM праводзіць некаторыя з найвышэйшых навуковых даследаванняў у галіне вылічальнай тэхнікі, а таксама забяспечвае прафесійныя сеткі і звяртаецца да спецыялістаў-практыкаў. Такім чынам, ACM з'яўляецца важным голасам, які ў асноўным прадстаўляе тыя, хто займаецца высокімі тэхналогіямі і ўстойліва імкнецца да развіцця камп'ютэрнай сферы (ACM быў заснаваны ў XNUMX годзе).

Я таксама мог бы дадаць невялікую асабістую заўвагу. Калі я ўпершыню пазнаёміўся з камп'ютарамі ў сярэдняй школе, я далучыўся да ACM і ўдзельнічаў у іх адукацыйных праграмах, асабліва ў захапляльнай магчымасці паўдзельнічаць у іх штогадовым конкурсе камп'ютэрнага праграмавання (такія спаборніцтвы ў наш час з'яўляюцца звычайнай з'явай і звычайна пазначаюцца як хакатон). Я працягваю ўдзельнічаць у ACM падчас вучобы ў каледжы праз аддзяленне мясцовага ўніверсітэта і атрымаў магчымасць даведацца пра лідэрства, стаўшы афіцэрам студэнцкага аддзялення. Прыйшоўшы ў галіну, я далучыўся да прафесійнага аддзялення і зноў узяў на сябе кіруючую ролю. Пазней пасля гэтага, калі я стаў прафесарам, я працаваў у камітэтах і рэдакцыйных саветах ACM, а таксама быў спонсарам студэнцкага аддзялення кампуса. Нават сёння я актыўна ўдзельнічаю ў ACM, у тым ліку працую ў Камітэце па тэхналагічнай палітыцы ACM ЗША.

Мне падабаецца мілае і трывалае бачанне ACM бесперапыннага навучання і развіцця кар'еры.

У любым выпадку, з пункту гледжання апошняй заявы аб этыцы штучнага інтэлекту, той факт, што гэта было выдадзена ACM, мае вялікую вагу. Вы можаце разумна сцвярджаць, што этычныя прынцыпы штучнага інтэлекту - гэта сукупнасць або калектыўны голас сусветнай групы прафесіяналаў у галіне вылічальнай тэхнікі. Гэта пра нешта гаворыць.

Існуе таксама той аспект, што іншыя ў кампутарнай галіне будуць натхнёныя ажывіцца і прыслухацца ў сэнсе належнай увагі да таго, што заяўляе іх калега-вылічальнік. Такім чынам, нават для тых, хто не з'яўляецца членам ACM або нічога не ведае пра шанаваную групу, мы спадзяемся, што будзе вялікая цікавасць да выяўлення таго, пра што ідзе гаворка.

Між тым тыя, што ёсць за межамі вылічальнай сферы можа быць прыцягнута да заявы як свайго роду закуліснага інсайдэрскага погляду на тое, што тыя, хто займаецца кампутарамі, кажуць пра этычны штучны інтэлект. Аднак я хачу падкрэсліць, што гэтая заява прызначана для ўсіх, а не толькі для тых, хто ў камп'ютэрнай супольнасці, і таму майце на ўвазе, што прадпісанні этыкі штучнага інтэлекту як бы паўсюдныя.

Нарэшце, ёсць дадатковы паварот, пра які мала хто падумае.

Часам староннія людзі лічаць, што вылічальныя асацыяцыі знаходзяцца па калена ў тэхналогіях і не асабліва ўсведамляюць уплыў камп'ютараў і ІІ на грамадства. У вас можа ўзнікнуць спакуса выказаць здагадку, што такія прафесійныя арганізацыі клапоцяцца толькі пра апошнія і самыя папулярныя прарывы ​​ў апаратным і праграмным забеспячэнні. Яны ўспрымаюцца грамадскасцю, папросту кажучы, як батанікі-тэхнары.

Каб расказаць прама, я быў пагружаны ў сацыяльныя наступствы вылічальнай тэхнікі з таго часу, як упершыню пазнаёміўся з камп'ютарамі, і таксама ACM таксама актыўна займаўся такімі тэмамі.

Усім, хто здзівіўся таму, што гэтая заява аб прынцыпах этыкі штучнага інтэлекту была складзена і апублікавана ACM, яны не звяртаюць увагі на працяглыя даследаванні і працу, якая праводзіцца па гэтых пытаннях. Я таксама заклікаю тых, хто зацікаўлены, добра паглядзець на ACM маральны кодэкс, жорсткі кодэкс прафесійнай этыкі, які развіваўся гадамі і падкрэслівае, што распрацоўшчыкі сістэм павінны ведаць, выконваць і быць пільнымі ў дачыненні да этычных наступстваў сваіх намаганняў і вырабаў.

Штучны інтэлект распальвае агонь, калі атрымлівае інфармацыю аб вылічальнай этыцы.

Са з'яўленнем сучаснага штучнага інтэлекту значна ўзрасла бачнасць этычных і прававых меркаванняў у вылічальнай сферы. Прафесіяналы інфармуюцца, а часам і гукаюць аб наданні належнай увагі этыцы штучнага інтэлекту і заканадаўству аб штучным інтэлекце. Заканадаўцы ўсё часцей усведамляюць аспекты этыкі штучнага інтэлекту і законаў аб штучным інтэлекце. Кампаніі разумеюць, што штучны інтэлект, які яны распрацоўваюць або выкарыстоўваюць, з'яўляецца выгадным, але часам стварае велізарныя рызыкі і патэнцыйныя недахопы.

Давайце разбяром тое, што адбывалася за апошнія некалькі гадоў, каб можна было стварыць адпаведны кантэкст, перш чым перайсці да гэтага апошняга набору правілаў этыкі штучнага інтэлекту.

Рост дасведчанасці аб этычным ІІ

Нядаўняя эра штучнага інтэлекту першапачаткова разглядалася як быццё ІІ Назаўсёды, што азначае, што мы можам выкарыстоўваць ІІ для паляпшэння чалавецтва. Па пятах ІІ Назаўсёды прыйшло разуменне таго, што мы таксама пагружаныя ў AI для дрэннага. Сюды ўваходзіць штучны інтэлект, які створаны або самастойна зменены, каб быць дыскрымінацыйным і робіць вылічальныя выбары, напаўняючы неапраўданымі прадузятасцямі. Часам штучны інтэлект пабудаваны такім чынам, а ў іншых выпадках ён збочвае на гэтую непрыемную тэрыторыю.

Я хачу пераканацца, што мы знаходзімся на адной старонцы адносна прыроды сучаснага ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на якім я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра разумны ІІ, гэтая дыскусія магла б пайсці ў кардынальна іншым кірунку. Мяркуецца, што разумны штучны інтэлект будзе чалавекам. Вам трэба ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што ў нас можа быць звышінтэлектуальны штучны інтэлект, можна ўявіць, што такі штучны інтэлект можа апынуцца разумнейшым за людзей (маё даследаванне звышінтэлектуальнага штучнага інтэлекту як магчымасці гл. асвятленне тут).

Я настойліва раю, каб мы трымаліся прыземлена і разглядалі сучасны вылічальны неразумны штучны інтэлект.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

Будзьце вельмі асцярожныя з антрапамарфізмам сучаснага ІІ.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі штучнага інтэлекту таксама могуць не разумець, што адбываецца. Тайная матэматыка ў ML/DL можа ўскладніць выяўленне схаваных цяпер прадузятасцей. Вы справядліва спадзяецеся і чакаеце, што распрацоўшчыкі штучнага інтэлекту правераць патэнцыйна схаваныя прадузятасці, хоць гэта складаней, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL будуць убудаваныя зрушэнні.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Усё гэта мае асабліва значныя наступствы для этыкі штучнага інтэлекту і прапануе зручнае акно ў атрыманыя ўрокі (нават да таго, як усе ўрокі адбудуцца), калі справа даходзіць да спробы заканадаўчага рэгулявання штучнага інтэлекту.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гуся, здушыўшы дасягненні ў галіне штучнага інтэлекту, якія даюць велізарныя перавагі для грамадства.

У папярэдніх калонках я асвятляў розныя нацыянальныя і міжнародныя намаганні па распрацоўцы і прыняцці законаў, якія рэгулююць ІІ, гл. спасылка тут, напрыклад. Я таксама разгледзеў розныя прынцыпы і рэкамендацыі па этыцы штучнага інтэлекту, якія вызначылі і прынялі розныя краіны, у тым ліку, напрыклад, намаганні Арганізацыі Аб'яднаных Нацый, такія як набор этыкі штучнага інтэлекту ЮНЕСКА, які прынялі амаль 200 краін, гл. спасылка тут.

Вось карысны асноўны спіс этычных крытэрыяў або характарыстык штучнага інтэлекту ў дачыненні да сістэм штучнага інтэлекту, якія я ўважліва вывучаў раней:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Мяркуецца, што гэтыя прынцыпы этыкі штучнага інтэлекту настойліва павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і абслугоўвае сістэмы штучнага інтэлекту.

Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграміруе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Як было падкрэслена раней, для распрацоўкі і ўкаранення штучнага інтэлекту патрэбна вёска, і для гэтага ўся вёска павінна ведаць і выконваць правілы этыкі штучнага інтэлекту.

Я таксама нядаўна агледзеў Біль аб правах AI што з'яўляецца афіцыйнай назвай афіцыйнага дакумента ўрада ЗША пад назвай «Праект Біля аб правах на штучны інтэлект: прымусіць аўтаматызаваныя сістэмы працаваць на карысць амерыканскага народа», які стаў вынікам гадавых намаганняў Упраўлення па навуковай і тэхналагічнай палітыцы (OSTP). ). OSTP - гэта федэральны орган, які служыць для кансультавання амерыканскага прэзідэнта і выканаўчага офіса ЗША па розных тэхналагічных, навуковых і інжынерных аспектах нацыянальнай важнасці. У гэтым сэнсе вы можаце сказаць, што гэты Біл аб правах на штучны інтэлект з'яўляецца дакументам, ухваленым і падтрыманым існуючым Белым домам ЗША.

У Білі аб правах на штучны інтэлект існуе пяць катэгорый ключавых камянёў:

  • Бяспечныя і эфектыўныя сістэмы
  • Алгарытмічныя сродкі абароны ад дыскрымінацыі
  • Канфідэнцыяльнасць дадзеных
  • Заўвага і тлумачэнне
  • Чалавечыя альтэрнатывы, разгляд і запасны варыянт

Я ўважліва прагледзеў гэтыя прадпісанні, бачыце спасылка тут.

Цяпер, калі я заклаў карысную аснову па гэтых звязаных тэмах па этыцы штучнага інтэлекту і заканадаўству аб штучным інтэлекце, мы гатовыя перайсці да нядаўна выпушчанага ACM «Заява аб прынцыпах для адказных алгарытмічных сістэм» (дарэчы, паколькі назва дакумента спасылаецца на адказны алгарытмічныя сістэмы, вы можаце зірнуць на маю ацэнку таго, што гэта значыць казаць Надзейны ІІГл. спасылка тут).

Падрыхтуйцеся да падарожжа ў гэты апошні набор прынцыпаў этыкі штучнага інтэлекту.

Уважліва паглыбіўшыся ў дэклараваныя ACM правілы этыкі штучнага інтэлекту

Заява ACM аб этычным AI складаецца з гэтых дзевяці ключавых камянёў:

  • Легітымнасць і кампетэнтнасць
  • Мінімізацыя шкоды
  • Бяспеку і канфідэнцыяльнасць
  • Празрыстасць
  • Інтэрпрэтатыўнасць і вытлумачальнасць
  • рамонтапрыдатнасць
  • Спаборнасць і правяральнасць
  • Падсправаздачнасць і адказнасць
  • Абмежаванне ўздзеяння на навакольнае асяроддзе

Калі вы параўноўваеце гэты апошні набор з іншымі даступнымі наборамі, вы ўбачыце вялікае падабенства або падобныя адпаведнасці паміж імі.

З аднаго боку, можна ўспрымаць гэта як добры знак.

У цэлым мы маглі б спадзявацца, што мноства прынцыпаў этыкі штучнага інтэлекту, якія лунаюць вакол, аб'ядноўваюцца ў адзін і той жа агульны ахоп. Бачачы, што адзін набор у чымсьці параўнальны з іншым наборам, вы адчуваеце падабенства ўпэўненасці, што гэтыя наборы знаходзяцца ў адным полі, а не ў незразумелым левым полі.

Некаторыя патэнцыйна скардзяцца на тое, што гэтыя розныя наборы выглядаюць прыкладна аднолькавымі, што, магчыма, стварае блытаніну ці, па меншай меры, жах з-за сумнення, што мы не павінны мець шматлікіх, здавалася б, паўтаральных спісаў. Ці не можа быць толькі адзін спіс? Праблема, вядома, у тым, што няма простага спосабу прымусіць усе такія спісы аднастайна быць аднолькавымі. Розныя групы і розныя арганізацыі па-рознаму падыходзілі да гэтага. Добрая навіна заключаецца ў тым, што практычна ўсе яны прыйшлі да аднолькавай высновы. Мы можам адчуць палёгку, што наборы не маюць вялікіх адрозненняў, якія, магчыма, выклікалі б у нас неспакой, калі б не было агульнага кансенсусу.

Супрацьлеглы можа заклікаць, што агульнасць гэтых спісаў бянтэжыць, сцвярджаючы, што, магчыма, існуе групавое мысленне. Магчыма, усе гэтыя розныя групы думаюць аднолькава і не могуць выйсці за межы нормы. Усе мы трапляем у аднолькавую пастку. Спісы нібыта замацоўваюць наша мысленне, і мы не можам бачыць далей за ўласны нос.

Глядзець далей, чым наш нос, несумненна, вартая справа.

Я, вядома, гатовы пачуць, што скажуць супрацьлеглыя. Часам яны ловяць нешта, што мае сваё Тытанічная накіроўваючыся да гіганцкага айсберга. Мы маглі б выкарыстоўваць некалькі арліных назіральнікаў. Але што тычыцца гэтых прынцыпаў этыкі штучнага інтэлекту, супрацьлеглымі не было нічога канчаткова сфармуляванага, што б відавочна падрывала або выклікала занепакоенасць з нагоды неапраўданай агульнасці. Думаю, у нас усё добра.

У гэтым наборы ACM ёсць некалькі асабліва прыкметных або выбітных момантаў, якія, на маю думку, заслугоўваюць асаблівай увагі.

Па-першае, мне падабаецца фармулёўка верхняга ўзроўню, якая некалькі адрозніваецца ад звычайнай.

Напрыклад, спасылаючыся на легітымнасць і кампетэнтнасць (першы маркіраваны пункт) выклікае падабенства важнасці як дызайнерскіх, так і кіраўніцкіх кампетэнцый, звязаных з ІІ. Акрамя таго, ст законнасць крылатая фраза ў выніку пераносіць нас у этыку штучнага інтэлекту і Сфера права AI. Я кажу гэта таму, што многія прадпісанні Этыкі штучнага інтэлекту амаль цалкам засяроджваюцца на этычных наступствах, але, здаецца, не звяртаюць увагі на прававыя наступствы або не заўважаюць іх. У прававым полі этычныя меркаванні часта рэкламуюць як «мяккае права», у той час як законы ў кнігах тлумачацца як «жорсткія законы» (гэта азначае, што яны маюць вагу судоў).

Адно з маіх любімых выказванняў усіх часоў было сказана знакамітым юрыстам Эрлам Уорэнам: «У цывілізаваным жыцці закон плавае ў моры этыкі».

Мы павінны пераканацца, што прадпісанні этыкі штучнага інтэлекту таксама ахопліваюць і падкрэсліваюць жорсткі юрыдычны бок рэчаў, напрыклад, пры распрацоўцы, прыняцці і забеспячэнні выканання законаў аб штучным інтэлекце.

Па-другое, я цаню, што спіс уключае канкурэнтаздольнасць і правяральнасць.

Я неаднаразова пісаў пра каштоўнасць магчымасці змагацца або падымаць чырвоны сцяг, калі вы падпарадкоўваецеся сістэме штучнага інтэлекту, гл. спасылка тут. Больш за тое, мы будзем усё часцей бачыць новыя законы, якія прымушаюць правяраць сістэмы штучнага інтэлекту, што я доўга абмяркоўваў пра закон горада Нью-Ёрка (Нью-Ёрк) аб аўдыце прадузятасцей сістэм штучнага інтэлекту, якія выкарыстоўваюцца для найму супрацоўнікаў і прасоўвання па службе, гл. спасылка тут. На жаль, і ў адпаведнасці з маёй адкрытай крытыкай новага закона Нью-Ёрка, калі гэтыя законы пра праверку памылковыя, яны, верагодна, створаць больш праблем, чым вырашаць.

Па-трэцяе, адбываецца паступовае абуджэнне таго, што штучны інтэлект можа вырашаць праблемы ўстойлівага развіцця, і я рады бачыць, што навакольны тэма атрымала аплату на вышэйшым узроўні ў гэтых правілах этыкі штучнага інтэлекту (гл. апошні пункт спісу).

Сам па сабе акт стварэння сістэмы штучнага інтэлекту можа спажываць шмат вылічальных рэсурсаў. Гэтыя вылічальныя рэсурсы могуць прама ці ўскосна быць узурпатарамі ўстойлівага развіцця. Варта разгледзець кампраміс паміж перавагамі, якія дае штучны інтэлект, і выдаткамі, звязанымі з гэтым. Апошні з маркіраваных пунктаў ACM адзначае ўстойлівае развіццё і экалагічныя меркаванні, якія ўзнікаюць з ІІ. Маё асвятленне праблем вугляроднага следу, звязаных са штучным інтэлектам, гл спасылка тут.

Цяпер, калі мы азнаёміліся са спісам правілаў этыкі штучнага інтэлекту ACM, мы глыбей акунемся ў ваду.

Вось афіцыйныя апісанні для кожнага з правілаў этыкі штучнага інтэлекту высокага ўзроўню (цытата з афіцыйнай заявы):

1. "Легітымнасць і кампетэнтнасць: Распрацоўшчыкі алгарытмічных сістэм павінны валодаць кампетэнтнасцю ў кіраванні і відавочным дазволам на стварэнне і разгортванне такіх сістэм. Яны таксама павінны валодаць вопытам у вобласці прымянення, навуковай асновай выкарыстання сістэм па прызначэнні і шырока разглядацца зацікаўленымі бакамі як сацыяльна легітымныя, на якія ўплывае сістэма. Прававая і этычная ацэнка павінна быць праведзена, каб пацвердзіць, што любыя рызыкі, звязаныя з сістэмамі, будуць прапарцыйныя праблемам, якія вырашаюцца, і што любыя кампрамісы паміж карысцю і шкодай разумеюць усе адпаведныя зацікаўленыя бакі».

2. "Мінімізацыя шкоды: Менеджэры, дызайнеры, распрацоўшчыкі, карыстальнікі і іншыя зацікаўленыя бакі алгарытмічных сістэм павінны ведаць аб магчымых памылках і прадузятасцях, звязаных з іх распрацоўкай, укараненнем і выкарыстаннем, а таксама аб патэнцыйнай шкодзе, якую сістэма можа нанесці людзям і грамадству. Арганізацыі павінны рэгулярна праводзіць ацэнку ўздзеяння на сістэмы, якія яны выкарыстоўваюць, каб вызначыць, ці можа сістэма нанесці шкоду, асабліва дыскрымінацыйную, і прымяніць адпаведныя меры па змякчэнні наступстваў. Калі магчыма, яны павінны вучыцца на мерах фактычнай дзейнасці, а не толькі на мадэлях мінулых рашэнняў, якія самі па сабе маглі быць дыскрымінацыйнымі».

3. "Бяспека і канфідэнцыяльнасць: Рызыку ад зламыснікаў можна знізіць шляхам укаранення перадавых практык бяспекі і канфідэнцыяльнасці на ўсіх этапах жыццёвых цыклаў сістэм, у тым ліку надзейных сродкаў кантролю для змякчэння новых уразлівасцяў, якія ўзнікаюць у кантэксце алгарытмічных сістэм».

4. "празрыстасць: Распрацоўшчыкам сістэм прапануецца дакладна задакументаваць спосаб, якім канкрэтныя наборы даных, зменныя і мадэлі былі выбраны для распрацоўкі, навучання, праверкі і тэсціравання, а таксама канкрэтныя меры, якія выкарыстоўваліся для гарантыі якасці даных і выходных дадзеных. Сістэмы павінны паказваць свой узровень даверу да кожнага выніку, і людзі павінны ўмешвацца, калі давер нізкі. Распрацоўшчыкі таксама павінны задакументаваць падыходы, якія выкарыстоўваліся для пошуку патэнцыйных прадузятасцей. Для сістэм, якія маюць крытычны ўплыў на жыццё і дабрабыт, павінны быць неабходныя працэдуры незалежнай праверкі і праверкі. Грамадскі кантроль дадзеных і мадэляў дае максімум магчымасцей для выпраўлення. Такім чынам, распрацоўшчыкі павінны садзейнічаць тэсціраванню трэціх асоб у грамадскіх інтарэсах».

5. "Інтэрпрэтацыя і вытлумачальнасць: Менеджэрам алгарытмічных сістэм прапануецца прадастаўляць інфармацыю як адносна працэдур, якім прытрымліваюцца алгарытмы (інтэрпрэтацыя), так і канкрэтных рашэнняў, якія яны прымаюць (тлумачальнасць). Вытлумачальнасць можа быць гэтак жа важнай, як і дакладнасць, асабліва ў кантэкстах дзяржаўнай палітыкі або ў любым асяроддзі, дзе ёсць заклапочанасць наконт таго, як алгарытмы могуць быць скажоны, каб прынесці карысць адной групе перад іншай без пацверджання. Важна адрозніваць тлумачэнні ад тлумачэнняў пасля фактаў, якія не адлюстроўваюць доказы або працэс прыняцця рашэнняў, якія выкарыстоўваюцца для прыходу да высновы, якая тлумачыцца».

6. "Рэмонтапрыдатнасць: Доказы спраўнасці ўсіх алгарытмічных сістэм павінны збірацца на працягу іх жыццёвых цыклаў, уключаючы дакументацыю аб сістэмных патрабаваннях, распрацоўку або ўкараненне змяненняў, тэставыя выпадкі і вынікі, а таксама журнал знойдзеных і выпраўленых памылак. Належнае абслугоўванне можа запатрабаваць перападрыхтоўкі сістэм з новымі навучальнымі дадзенымі і/або замены выкарыстоўваных мадэляў».

7. "Спаборнасць і праверка: Рэгулятары павінны заахвочваць прыняцце механізмаў, якія дазваляюць асобным асобам і групам ставіць пад сумнеў вынікі і шукаць кампенсацыі за неспрыяльныя наступствы ў выніку алгарытмічна абгрунтаваных рашэнняў. Менеджэры павінны гарантаваць, што даныя, мадэлі, алгарытмы і рашэнні будуць запісаны, каб іх можна было правяраць і паўтараць вынікі ў выпадках, калі ёсць падазрэнні або мяркуецца прычыненне шкоды. Стратэгіі аўдыту павінны быць апублікаваныя, каб дазволіць асобным асобам, грамадскім арганізацыям і даследчыкам праглядаць і рэкамендаваць паляпшэнні».

8. "Падсправаздачнасць і адказнасць: Дзяржаўныя і прыватныя арганізацыі павінны несці адказнасць за рашэнні, прынятыя з дапамогай алгарытмаў, якія яны выкарыстоўваюць, нават калі немагчыма падрабязна растлумачыць, як гэтыя алгарытмы далі вынікі. Такія органы павінны несці адказнасць за цэлыя сістэмы, разгорнутыя ў іх канкрэтных умовах, а не толькі за асобныя часткі, якія складаюць дадзеную сістэму. Пры выяўленні праблем у аўтаматызаваных сістэмах арганізацыі, адказныя за разгортванне гэтых сістэм, павінны задакументаваць канкрэтныя дзеянні, якія яны прымуць для ліквідацыі праблемы, і пры якіх абставінах выкарыстанне такіх тэхналогій павінна быць прыпынена або спынена».

9. "Абмежаванне ўздзеяння на навакольнае асяроддзе: Алгарытмічныя сістэмы павінны быць распрацаваны такім чынам, каб паведамляць аб ацэнках уздзеянняў на навакольнае асяроддзе, уключаючы выкіды вугляроду ў выніку навучальных і эксплуатацыйных вылічэнняў. Сістэмы штучнага інтэлекту павінны быць распрацаваны такім чынам, каб іх выкіды вугляроду былі разумнымі, улічваючы ступень дакладнасці, якую патрабуе кантэкст, у якім яны разгортваюцца».

Я веру, што вы ўважліва і раней прачытаеце кожны з гэтых найважнейшых правілаў этыкі штучнага інтэлекту. Калі ласка, прыміце іх блізка да сэрца.

заключэнне

Ёсць тонкая, але не менш важная частка выказвання ACM, якую, я лічу, многія могуць ненаўмысна прапусціць. Дазвольце мне звярнуць на гэта вашу ўвагу.

Я маю на ўвазе частку, у якой абмяркоўваецца пакутлівая галаваломка неабходнасці ўзважвання кампрамісаў, звязаных з правіламі этыкі штучнага інтэлекту. Разумееце, большасць людзей часта бессэнсоўна ківаюць галавой, чытаючы прынцыпы этычнага штучнага інтэлекту, і мяркуюць, што ўсе запаветы аднолькавыя па вазе, і ўсім запаветам заўсёды будзе надаваць аднолькавае аптымальнае падабенства павагі і каштоўнасці.

Не ў рэальным свеце.

Калі гума сустрэнецца з дарогай, любы выгляд штучнага інтэлекту, які мае хаця б невялікую складанасць, будзе жорстка правяраць прадпісанні этыкі штучнага інтэлекту на прадмет таго, што некаторыя з элементаў дастаткова дасягальныя ў параўнанні з некаторымі іншымі прынцыпамі. Я разумею, што вы можаце гучна ўсклікаць, што ўвесь штучны інтэлект павінен максімальна выкарыстоўваць усе прадпісанні этыкі штучнага інтэлекту, але гэта не вельмі рэалістычна. Калі вы хочаце заняць такую ​​пазіцыю, я адважуся сказаць, што вам, хутчэй за ўсё, трэба будзе сказаць большасці або амаль усім вытворцам і карыстальнікам штучнага інтэлекту закрыць працу і цалкам адмовіцца ад штучнага інтэлекту.

Неабходна ісці на кампрамісы, каб вывесці штучны інтэлект. З улікам сказанага, я не выступаю за тое, каб зрэзаць куты, якія парушаюць правілы этыкі штучнага інтэлекту, і не маю на ўвазе, што яны павінны парушаць законы аб штучным інтэлекце. Неабходна дасягнуць пэўнага мінімуму, вышэй за які трэба імкнуцца. У рэшце рэшт, трэба ўважліва ацэньваць баланс. Гэты акт балансавання павінен быць зроблены ўважліва, выразна, законна і з этыкай штучнага інтэлекту як добрасумленным і шчырым перакананнем (магчыма, вы захочаце паглядзець, як кампаніі выкарыстоўваюць саветы па этыцы штучнага інтэлекту, каб паспрабаваць атрымаць гэты ўрачысты падыход, гл. спасылка тут).

Вось некаторыя маркіраваныя пункты, якія згадваюцца ў дэкларацыі ACM аб складанасці кампрамісаў (цытата з афіцыйнага дакумента):

  • «Рашэнні павінны быць прапарцыйныя вырашаемай праблеме, нават калі гэта ўплывае на складанасць або кошт (напрыклад, адмова ад выкарыстання публічнага відэаназірання для простай задачы прагназавання)».
  • «Варта ўлічваць шырокі спектр паказчыкаў прадукцыйнасці, якія могуць быць узважаны па-рознаму ў залежнасці ад сферы прымянення. Напрыклад, у некаторых праграмах аховы здароўя наступствы ілжывых адмоўных вынікаў могуць быць значна горшымі, чым ілжывыя спрацоўванні, у той час як у крымінальным правасуддзі наступствы ілжывых спрацоўванняў (напрыклад, зняволенне невінаватага чалавека) могуць быць значна горшымі, чым ілжывыя адмоўныя. Самая жаданая налада аперацыйнай сістэмы рэдка бывае той з максімальнай дакладнасцю».
  • «Занепакоенасць прыватнасцю, абаронай камерцыйных сакрэтаў або выкрыццём аналітыкі, якая можа дазволіць зламыснікам абыграць сістэму, можа апраўдаць абмежаванне доступу кваліфікаваным асобам, але яны не павінны выкарыстоўвацца для апраўдання абмежавання кантролю трэціх асоб або для вызвалення распрацоўшчыкаў ад абавязацельстваў прызнаваць і выпраўляць памылкі».
  • «Празрыстасць павінна спалучацца з працэсамі падсправаздачнасці, якія дазваляюць зацікаўленым бакам, на якія ўплывае алгарытмічная сістэма, шукаць значнага кампенсацыі за прычыненую шкоду. Празрыстасць не павінна выкарыстоўвацца для легітымізацыі сістэмы або для перакладу адказнасці на іншыя бакі».
  • «Калі ўплыў сістэмы вялікі, больш зразумелая сістэма можа быць пераважней. У многіх выпадках няма кампрамісу паміж вытлумачальнасцю і дакладнасцю. Аднак у некаторых сітуацыях няправільныя тлумачэнні могуць быць нават горшымі, чым адсутнасць тлумачэнняў (напрыклад, у сістэмах аховы здароўя сімптом можа адпавядаць мноству магчымых захворванняў, а не толькі аднаму)».

Тыя, хто распрацоўвае або выкарыстоўвае штучны інтэлект, могуць адкрыта не ўсведамляць, з якімі кампрамісамі яны сутыкаюцца. Вышэйшыя кіраўнікі фірмы могуць наіўна выказаць здагадку, што ІІ адпавядае максімумам усіх прынцыпаў этыкі ІІ. Яны альбо вераць у гэта, таму што нічога не разумеюць у ІІ, альбо хочуць у гэта верыць і, магчыма, падміргваюць, каб ахвотна пераняць ІІ.

Хутчэй за ўсё, калі не ўдасца сур'ёзна і адкрыта супрацьстаяць кампрамісам, у канчатковым выніку атрымаецца штучны інтэлект, які нанясе шкоду. Гэтая шкода, у сваю чаргу, хутчэй за ўсё, прывядзе да патэнцыйна буйных абавязацельстваў фірмы. Акрамя таго, звычайныя законы могуць прыйсці да адказнасці за магчымыя злачынныя дзеянні, звязаныя з штучным інтэлектам, разам з новымі законамі, арыентаванымі на штучны інтэлект, якія таксама закранаюць гэта. Тона цаглін чакае над галовамі тых, хто думае, што зможа абыйсці кампрамісы, або тых, хто абсалютна не ведае, што кампрамісы існуюць (іх непазбежна ўсвядомяць).

Апошняе слова па гэтай тэме пакуль я аддам заключнаму аспекту выказвання ACM, таму што я думаю, што ён робіць надзейную працу, тлумачачы, што гэтыя этычныя запаведзі AI макраскапічна імкнуцца даць:

  • «Вышэйзгаданыя рэкамендацыі накіраваны на адказнае праектаванне, распрацоўку і выкарыстанне алгарытмічных сістэм; адказнасць павінна вызначацца законам і дзяржаўным парадкам. Павелічэнне магутнасці алгарытмічных сістэм і іх выкарыстанне ў жыццёва важных і непасрэдных прыкладаннях азначае, што неабходна праяўляць вялікую асцярожнасць пры іх выкарыстанні. Гэтыя дзевяць інструментальных прынцыпаў прызначаны для натхнення пры запуску дыскусій, ініцыяванні даследаванняў і распрацоўцы метадаў кіравання, каб прынесці карысць шырокаму колу карыстальнікаў, адначасова спрыяючы надзейнасці, бяспецы і адказнасці. У рэшце рэшт, гэта канкрэтны кантэкст, які вызначае правільны дызайн і выкарыстанне алгарытмічнай сістэмы ў супрацоўніцтве з прадстаўнікамі ўсіх закранутых зацікаўленых бакоў» (цытата з афіцыйнага дакумента).

Як пранікліва кажуць нам мудрыя словы, падарожжа ў тысячу міль пачынаецца з першага кроку.

Я прашу вас азнаёміцца ​​з этыкай штучнага інтэлекту і правам штучнага інтэлекту, зрабіць любы першы крок, які дапаможа вам пачаць працу, а потым дапамагчы ў далейшым у гэтых жыццёва важных пачынаннях. Прыгажосць у тым, што мы ўсё яшчэ знаходзімся ў зачаткавым стане, каб даведацца, як кіраваць ІІ і змагацца з ім у грамадстве, таму вы знаходзіцеся на першым паверсе, і вашы намаганні могуць дэманстратыўна сфармаваць вашу будучыню і будучыню ўсіх нас.

Шлях да штучнага інтэлекту толькі пачаўся, і важныя першыя крокі яшчэ працягваюцца.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- прафесійная-асацыяцыя-акм/