Этыка штучнага інтэлекту б'е трывогу аб навіслым прывіде ўхілаў штучнага інтэлекту ў велізарным глабальным маштабе, асабліва падсілкоўваемых праз набліжэнне цалкам аўтаномных сістэм

Платон адзначыў, што добрае рашэнне заснавана на ведах, а не на лічбах.

Гэта праніклівае разуменне сучаснага штучнага інтэлекту (ШІ) здаецца надзвычай празорлівым.

Разумееце, нягледзячы на ​​бурныя загалоўкі, якія зараз абвяшчаюць, што штучны інтэлект нейкім чынам дасягнуў пачуццяў і ўвасабляе чалавечыя веды і разважанні, майце на ўвазе, што гэтая завышаная гіпербала штучнага інтэлекту з'яўляецца падступным вычварнасцю, паколькі мы ўсё яшчэ разлічваем на дробны лік у сучасным алгарытме прыняцця рашэнняў (ADM ) у выкананні сістэм штучнага інтэлекту. Нават хваленыя машыннае навучанне (ML) і глыбокае навучанне (DL) складаюцца з супастаўлення вылічальных шаблонаў, што азначае, што лічбы па-ранейшаму ляжаць у аснове высокага выкарыстання ML/DL.

Мы не ведаем, ці магчыма ІІ дасягнуць разумення. Можа быць, можа і не быць. Ніхто не можа дакладна сказаць, як гэта можа адбыцца. Некаторыя мяркуюць, што мы будзем паступова ўдасканальваць нашы вылічальныя намаганні ІІ, каб адчуванне ўзнікла спантанна. Іншыя мяркуюць, што штучны інтэлект можа стаць своеасаблівай вылічальнай звышновай і дасягнуць разумення ў значнай ступені самастойна (звычайна гэта называецца сінгулярнасцю). Каб даведацца больш пра гэтыя тэорыі пра будучыню штучнага інтэлекту, глядзіце мой рэпартаж на спасылка тут.

Такім чынам, давайце не будзем падманваць сябе і ілжыва верыць, што сучасны ІІ здольны думаць як людзі. Я мяркую, што тады на першы план выходзіць пытанне аб заўвазе Платона адносна таго, ці можам мы прымаць добрыя рашэнні, заснаваныя на вылічальным ІІ, а не на разумным ІІ. Вы можаце быць здзіўлены, калі даведаецеся, што я б сцвярджаў, што мы сапраўды можам мець добрыя рашэнні, якія прымаюцца паўсядзённымі сістэмамі штучнага інтэлекту.

Іншы бок медаля заключаецца ў тым, што ў нас таксама могуць быць штодзённыя сістэмы штучнага інтэлекту, якія прымаюць дрэнныя рашэнні. Гнілыя рашэнні. Рашэнні, багатыя непрыемнымі прадузятасцямі і несправядлівасцю. Магчыма, вы ведаеце, што з пачаткам апошняй эры штучнага інтэлекту адбыўся велізарны ўсплёск энтузіязму да таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Маё шырокае асвятленне этыкі ІІ і этычнага штучнага інтэлекту можна знайсці па адрасе гэтая спасылка тут і гэтая спасылка тут, Проста назваць некалькі.

Для гэтай дыскусіі я хацеў бы закрануць асабліва трывожны аспект ІІ, пра які людзі, якія займаюцца этыкай ІІ, справядліва наракаюць і спрабуюць павысіць дасведчанасць аб ім. Выцвярэжвае і бянтэжыць пытанне на самай справе даволі проста адзначыць.

Вось яна: Штучны інтэлект мае рэальны патэнцыял распаўсюджвання прадузятасцей, звязаных з штучным інтэлектам, у трывожным глабальным маштабе.

І калі я кажу «ў маштабе», гэта відавочна азначае маштабны маштаб ва ўсім свеце. Велізарны маштаб. Маштаб, які зашкальвае.

Перш чым я паглыблюся ў тое, як будзе адбывацца маштабаванне прадузятасцей, звязаных з штучным інтэлектам, давайце ўпэўнімся, што ва ўсіх ёсць падабенства таго, як штучны інтэлект можа ўключаць празмерныя прадузятасці і няроўнасці. Яшчэ раз нагадаем, што гэта не разумная разнавіднасць. Усё гэта вылічальнага калібра.

Вы можаце быць збянтэжаныя тым, як штучны інтэлект можа выклікаць такія ж неспрыяльныя прадузятасці і няроўнасці, што і людзі. Мы схільныя думаць пра ІІ як аб цалкам нейтральным, непрадузятым, проста машыне, якая не мае эмацыйнага ўздзеяння і непрыемных меркаванняў, якія могуць быць у людзей. Адзін з найбольш распаўсюджаных спосабаў падзення ІІ у прадузятасці і няроўнасці адбываецца пры выкарыстанні машыннага навучання і глыбокага навучання, часткова ў выніку абапіраючыся на сабраныя даныя аб тым, як людзі прымаюць рашэнні.

Дазвольце мне падрабязна спыніцца.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Супадзенне вылічальных шаблонаў машыннага навучання або глыбокага навучання будзе проста спрабаваць адпаведна матэматычна імітаваць дадзеныя. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў або ADM ІІ аксіяматычна становіцца нагружаным няроўнасцямі.

Не добра.

Гэта падводзіць нас да праблемы ўхілаў штучнага інтэлекту ў маштабе.

Спачатку давайце паглядзім, як чалавечыя прадузятасці могуць ствараць няроўнасць. Кампанія, якая выдае іпатэчныя крэдыты, вырашае наняць агента па іпатэчных крэдытах. Агент павінен разглядаць звароты спажыўцоў, якія жадаюць атрымаць жыллёвы крэдыт. Пасля разгляду заяўкі агент прымае рашэнне аб прадастаўленні крэдыту або адмове ў яго выдачы. Лёгка-гарохава.

Для абмеркавання давайце ўявім, што крэдытны агент можа аналізаваць 8 крэдытаў у дзень, займаючы прыкладна адну гадзіну на агляд. За пяцідзённы працоўны тыдзень агент робіць каля 40 аглядаў крэдыту. Штогод агент звычайна робіць каля 2,000 разглядаў пазыкі.

Кампанія хоча павялічыць аб'ём разгляду крэдытаў, таму наймае 100 дадатковых крэдытных агентаў. Давайце выкажам здагадку, што ўсе яны маюць прыкладна аднолькавую прадукцыйнасць, і гэта азначае, што цяпер мы можам апрацоўваць каля 200,000 2,000 крэдытаў у год (пры хуткасці XNUMX аглядаў крэдытаў у год на аднаго агента). Здаецца, мы сапраўды павялічылі апрацоўку заявак на крэдыты.

Аказалася, што кампанія распрацавала сістэму штучнага інтэлекту, якая, па сутнасці, можа рабіць тыя ж агляды крэдытаў, што і агенты-людзі. ШІ працуе на кампутарных серверах у воблаку. З дапамогай воблачнай інфраструктуры кампанія можа лёгка дадаць больш вылічальнай магутнасці, каб улічыць любы аб'ём аглядаў крэдытаў, які можа спатрэбіцца.

З існуючай канфігурацыяй штучнага інтэлекту яны могуць рабіць 1,000 аглядаў крэдытаў у гадзіну. Гэта таксама можа адбывацца 24×7. ШІ не патрабуе водпуску. Перапынку на абед няма. ШІ працуе кругласутачна, не крычачы аб ператамленні. Мы скажам, што з такімі прыблізнымі тэмпамі штучны інтэлект можа апрацоўваць каля 9 мільёнаў заявак на пазыку ў год.

Звярніце ўвагу, што мы перайшлі ад 100 агентаў-людзей, якія маглі рабіць 200,000 9 пазык у год, і перайшлі ў шмат разоў да значна большай колькасці ў XNUMX мільёнаў аглядаў у год праз сістэму штучнага інтэлекту. Мы рэзка павялічылі апрацоўку заяў на пазыку. Без сумневу.

Рыхтуйцеся да ўдару, які, магчыма, прымусіць вас упасці з крэсла.

Выкажам здагадку, што некаторыя з нашых чалавечых агентаў прымаюць рашэнні аб пазыках на аснове непажаданых прадузятасцей. Магчыма, некаторыя надаюць расавым фактарам ключавую ролю ў рашэнні аб крэдыце. Магчыма, некаторыя выкарыстоўваюць гендэр. Іншыя выкарыстоўваюць узрост. І гэтак далей.

Колькі з 200,000 10 штогадовых праверак пазык праводзяцца пад несправядлівым позіркам неспрыяльных прадузятасцей і несправядлівасці? Магчыма, 20,000%, што складае каля 50 100,000 запытаў на крэдыт. Што яшчэ горш, выкажам здагадку, што гэта XNUMX% запытаў на пазыку, і ў гэтым выпадку ёсць даволі трывожныя XNUMX XNUMX штогадовых выпадкаў памылковага рашэння аб пазыцы.

Гэта дрэнна. Але нам яшчэ трэба разгледзець яшчэ больш страшную магчымасць.

Выкажам здагадку, што штучны інтэлект мае схаваны ўхіл, які складаецца з такіх фактараў, як раса, пол, узрост і таму падобнае. Калі 10% штогадовага аналізу пазыкі падвяргаюцца гэтаму непрыемнаму, у нас ёсць 900,000 100 запытаў на пазыку, якія разглядаюцца неналежным чынам. Гэта нашмат больш, чым тое, што маглі б зрабіць агенты-людзі, у першую чаргу з-за аспектаў аб'ёму. Гэтыя 200,000 агентаў, калі б усе яны праводзілі несправядлівы агляд, маглі б зрабіць гэта максімум на 9,000,000 XNUMX штогадовых аглядах крэдытаў. AI можа зрабіць тое ж самае ў значна большым маштабе з XNUMX XNUMX XNUMX штогадовых аглядаў.

Yikes!

Гэта сапраўды вялізны ўхіл, прасякнуты ІІ.

Калі ў сістэме штучнага інтэлекту закладзены непажаданыя ўхілы, тое ж маштабаванне, якое здавалася выгадным, цяпер пераварочваецца з ног на галаву і становіцца жахліва зманлівым (і трывожным) вынікам маштабавання. З аднаго боку, штучны інтэлект можа выгадна працаваць з большай колькасцю людзей, якія просяць крэдыты на жыллё. На паверхні гэта здаецца велізарным ІІ Назаўсёды. Мы павінны папляскаць сябе па плячах за тое, што мы, як мяркуецца, павялічваем шанцы людзей на атрыманьне неабходных крэдытаў. Між тым, калі штучны інтэлектуальны інтэлект мае ўбудаваныя прадузятасці, маштабаванне будзе вельмі няўдалым вынікам, і мы апынемся, нажаль, загразлі ў AI для дрэннага, у сапраўды масавым маштабе.

Праславутая палка аб двух канцах.

ШІ можа радыкальна павялічыць доступ да прыняцця рашэнняў для тых, хто шукае патрэбныя паслугі і прадукты. Няма больш вузкіх месцаў, звязаных з працай чалавека. Выдатны! Іншы бок мяча заключаецца ў тым, што калі штучны інтэлект утрымлівае такія паганыя рэчы, як схаваныя няроўнасці, тое ж масавае маштабаванне прывядзе да таго, што такія непрыемныя паводзіны будуць распаўсюджвацца ў неймаверных маштабах. Крыўдна, неправамерна, ганебна, і мы не можам дапусціць, каб грамадства звалілася ў такую ​​пачварную прорву.

Любы, хто быў збянтэжаны тым, чаму нам трэба адбівацца ад важнасці этыкі штучнага інтэлекту, цяпер павінен зразумець, што феномен маштабавання штучнага інтэлекту з'яўляецца чортава важнай прычынай для пошуку этычнага штучнага інтэлекту. Давайце коратка разгледзім некаторыя ключавыя этычныя прынцыпы штучнага інтэлекту, каб праілюстраваць, што павінна быць жыццёва важным для тых, хто займаецца стварэннем, укараненнем або выкарыстаннем штучнага інтэлекту.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента ў галіне штучнага інтэлекту будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў ІІ, у тым ліку з дапамогай празрыстых і падданых праверку метадалогій, крыніц дадзеных, а таксама працэдуры праектавання і дакументацыі.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як можна непасрэдна здагадацца, спроба вызначыць спецыфіку, якая ляжыць у аснове гэтых прынцыпаў, можа быць надзвычай складанай. Больш за тое, спроба ператварыць гэтыя агульныя прынцыпы ў нешта цалкам матэрыяльнае і дастаткова падрабязнае, каб выкарыстоўваць яго пры распрацоўцы сістэм штучнага інтэлекту, таксама з'яўляецца цвёрдым арэшкам. Увогуле, лёгка паразмахваць рукой наконт таго, што ўяўляюць сабой правілы этыкі штучнага інтэлекту і як іх звычайна трэба выконваць, у той час як сітуацыя значна больш складаная, калі кадзіраванне штучнага інтэлекту павінна быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і падтрымлівае сістэмы штучнага інтэлекту. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграміруе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Майце на ўвазе, што для распрацоўкі і выкарыстання штучнага інтэлекту патрэбна вёска. Дзеля гэтага ўся вёска павінна сачыць за этыкай штучнага інтэлекту.

Як працуе маштабаванне зрушэнняў з дапамогай штучнага інтэлекту

Цяпер, калі я зразумеў, што штучны інтэлект можа ўтрымліваць прадузятасці, мы гатовыя вывучыць некаторыя прычыны, чаму маштабаванне штучнага інтэлекту настолькі назойлівае.

Разгледзім гэты ключавы спіс з дзесяці асноўных прычын:

  1. Лёгка тыражавацца
  2. Мінімальны кошт для маштабавання
  3. Агідна паслядоўны
  4. Адсутнасць самарэфлексіі
  5. Сляпое падпарадкаванне
  6. Не адхіляе руку
  7. Атрымальнік нічога не падазраваў
  8. Схільны не падштурхоўваць да правакацый
  9. Фальшывая аўра справядлівасці
  10. Цяжка абвергнуць

Я коратка вывучу кожны з гэтых важных момантаў.

Калі вы паспрабуеце павялічыць маштаб з дапамогай чалавечай працы, хутчэй за ўсё, зрабіць гэта будзе надзвычай складана. Вы павінны знайсці і наняць людзей. Вы павінны навучыць іх выконваць працу. Вы павінны плаціць ім і ўлічваць жаданні і патрэбы чалавека. Параўнайце гэта з сістэмай штучнага інтэлекту. Вы распрацоўваеце яго і выкарыстоўваеце. За выключэннем некаторай колькасці пастаяннага абслугоўвання штучнага інтэлекту, вы можаце сядзець склаўшы рукі і дазваляць яму працаваць бясконца.

Гэта азначае, што штучны інтэлект лёгка прайграць. Вы можаце дадаць больш вылічальнай магутнасці ў залежнасці ад задачы і аб'ёму (вы не наймаеце і не звальняеце). Глабальнае выкарыстанне ажыццяўляецца адным націскам кнопкі і забяспечваецца даступнасцю Інтэрнэту ва ўсім свеце. Пашырэнне з'яўляецца мінімальным коштам у параўнанні з тым, каб зрабіць тое ж самае з чалавечай працай.

Чалавечая праца, як вядома, непаслядоўная. Калі ў вас вялікія каманды, у вас ёсць сапраўдная каробка шакаладных цукерак, у якой вы ніколі не ведаеце, што можа быць у вас на руках. Сістэма штучнага інтэлекту, верагодна, будзе вельмі ўзгодненай. Ён паўтарае адны і тыя ж дзеянні зноў і зноў, кожны раз, па сутнасці, такім жа, як і папярэдні.

Звычайна мы хацелі б атрымаць паслядоўнасць штучнага інтэлекту. Калі людзі схільныя да прадузятасці, у нас заўсёды будзе некаторая частка нашай чалавечай працы, якая збіваецца з шляху. ШІ, калі б ён быў абсалютна бесстароннім у сваёй канструкцыі і вылічальных намаганнях, быў бы значна больш паслядоўным. Праблема ў тым, што, калі штучны інтэлект мае схаваныя прадузятасці, узгодненасць цяпер вельмі агідная. Верагоднасць таго, што прадузятыя паводзіны будуць прымяняцца пастаянна, зноў і зноў.

Спадзяюся, у людзей будзе нейкае ўяўленне аб самарэфлексіі і, магчыма, злавяць сябе на прыняцці неаб'ектыўных рашэнняў. Я не кажу, што ўсе будуць так рабіць. Я таксама не кажу, што тыя, хто злавіў сябе, абавязкова выправяць свае крыўды. У любым выпадку, прынамсі некаторыя людзі часам выпраўляліся.

ШІ наўрад ці будзе мець якую-небудзь форму вылічальнай самарэфлексіі. Гэта азначае, што штучны інтэлект проста працягвае рабіць тое, што ён робіць. Здавалася б, верагоднасць таго, што штучны інтэлект выявіць, што ён супярэчыць капіталу, будзе роўная нулю. З улікам сказанага, я апісаў некаторыя намаганні па барацьбе з гэтым, напрыклад, стварэнне кампанентаў этыкі AI ў AI (гл. спасылка тут) і распрацоўка штучнага інтэлекту, які кантралюе іншы штучны інтэлект, каб распазнаваць неэтычную дзейнасць штучнага інтэлекту (гл. спасылка тут).

Пры адсутнасці якой-небудзь самарэфлексіі штучны інтэлект таксама, верагодна, будзе па сутнасці сляпо падпарадкоўвацца ўсім, што яму даручылі рабіць. Людзі могуць быць не такімі паслухмянымі. Вялікая верагоднасць таго, што некаторыя людзі, якія выконваюць заданне, будуць сумнявацца, ці не кіруюцца яны на тэрыторыю няроўнасці. Яны, як правіла, адхіляюць неэтычныя каманды або, магчыма, ідуць шляхам інфарматараў (гл. мой матэрыял на гэтая спасылка тут). Не чакайце, што паўсядзённы сучасны штучны інтэлект паставіць пад сумнеў яго праграмаванне.

Далей мы звернемся да тых, хто выкарыстоўвае штучны інтэлект. Калі вы шукалі пазыку на жыллё і размаўлялі з чалавекам, вы маглі б быць напагатове, ці сапраўды гэты чалавек вас паціскае. Пры выкарыстанні сістэмы штучнага інтэлекту большасць людзей, здаецца, менш падазроныя. Яны часта мяркуюць, што штучны інтэлект справядлівы і, такім чынам, не так хутка раздражняюцца. Здаецца, штучны інтэлект усыпляе людзей у транс «гэта проста машына». У дадатак да гэтага можа быць цяжка паспрабаваць пратэставаць супраць штучнага інтэлекту. Наадварот, пратэставаць супраць таго, як з вамі абыходзіўся чалавечы агент, нашмат прасцей і значна часцей прымаецца і лічыцца магчымым.

Увогуле, штучны інтэлект, прасякнуты прадузятасцямі, мае ганебную перавагу над людзьмі, прасякнутымі прадузятасцямі, а менавіта з пункту гледжання магчымасці прымусіць штучны інтэлект масава разгортваць гэтыя прадузятасці ў гіганцкіх маштабах, робячы гэта без такой жа лёгкасці быць злоўленым або мець спажыўцоў зразумець, што трывожна адбываецца.

На гэтым этапе абмеркавання я магу паспрачацца, што вы жадаеце атрымаць дадатковыя прыклады, якія маглі б прадэманстраваць галаваломку маштабных прадузятасцей, звязаных з ІІ.

Я рады, што вы спыталі.

Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці паказвае з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту што-небудзь пра маштабныя прадузятасці, звязаныя са штучным інтэлектам, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

Як удакладненне: сапраўдныя самакіравальныя машыны - гэта тое, што ШІ кіруе аўтамабілем цалкам самастойна, і падчас кіравання аўтамабілем няма дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Яшчэ няма сапраўднага самакіравання аўтамабіля ўзроўню 5, пра які мы нават не ведаем, ці ўдасца гэтага дасягнуць і колькі часу спатрэбіцца, каб дабрацца.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Масштабныя ўхілы беспілотных аўтамабіляў і штучнага інтэлекту

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Зараз мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і магчымасцей этычнага штучнага інтэлекту, што цягне за сабой вывучэнне шырокамаштабных ухілаў, звязаных з штучным інтэлектам.

Давайце скарыстаемся простым прыкладам. Самакіруючы аўтамабіль на аснове штучнага інтэлекту рухаецца па вуліцах вашага раёна і, здаецца, едзе бяспечна. Спачатку вы ўдзялялі асаблівую ўвагу кожнаму разу, калі ўдавалася зірнуць на самакіруючы аўтамабіль. Аўтаномны аўтамабіль вылучаўся стойкай з электроннымі датчыкамі, якія ўключалі відэакамеры, радары, прылады LIDAR і да т.п. Пасля многіх тыдняў беспілотнай машыны па вашай суполцы вы гэтага амаль не заўважаеце. Што тычыцца вас, то гэта проста яшчэ адзін аўтамабіль на і без таго ажыўленых дарогах агульнага карыстання.

Каб вы не падумалі, што азнаёміцца ​​з самакіраванымі аўтамабілямі немагчыма або неверагодна, я часта пісаў пра тое, як мясцовасці, якія ўваходзяць у сферу выпрабаванняў самакіраваных аўтамабіляў, паступова прывыклі бачыць дагледжаныя аўтамабілі, глядзіце мой аналіз на гэтая спасылка тут. Многія мясцовыя жыхары ў рэшце рэшт перайшлі ад захапленага пазірання з разяўленымі ротамі да шырокага нуды, каб стаць сведкамі гэтых вандроўных самакіраваных аўтамабіляў.

Верагодна, галоўная прычына, па якой яны могуць заўважыць аўтаномныя аўтамабілі, з-за фактару раздражнення і раздражнення. Сістэмы кіравання аўтамабілем па тэхніцы штучнага інтэлекту гарантуюць, што аўтамабілі выконваюць усе абмежаванні хуткасці і правілы дарожнага руху. Для мітуслівых кіроўцаў у іх традыцыйных аўтамабілях, якія кіруюцца людзьмі, вы часам раздражняецеся, калі затрымаецеся за строга законапаслухмянымі аўтамабілямі на аснове штучнага інтэлекту.

Гэта тое, да чаго нам усім, магчыма, трэба прывыкнуць, справядліва ці няправільна.

Вяртаемся да нашай казкі.

Аказваецца, пачынаюць узнікаць дзве непрыстойныя заклапочанасці адносна бяскрыўдных і, як правіла, вітаных аўтамабіляў на аснове штучнага інтэлекту, а менавіта:

а. Там, дзе штучны інтэлект блукае па самакіраваных аўтамабілях, каб забраць атракцыёны, вымалёўвалася як неспакой

б. Як AI ставіцца да чакаючых пешаходаў, якія не маюць права праезду, стала актуальнай праблемай

Спачатку ІІ разбіраўся ў самакіраваных аўтамабілях па ўсім горадзе. Любы, хто хацеў запытаць паездку на самакіраваным аўтамабілі, меў па сутнасці роўныя шанцы атрымаць яго. Паступова ІІ пачаў у першую чаргу трымаць аўтамабілі ў роўмінгу толькі ў адной частцы горада. Гэты раздзел быў больш заробленым, і сістэма ІІ была запраграмавана, каб паспрабаваць максымізаваць даход у рамках выкарыстання ў супольнасці.

Члены суполкі ў бедных раёнах горада радзей маглі сесці на самакіраваным аўтамабілі. Гэта адбылося таму, што аўтамабілі з аўтамабілем знаходзіліся далей і вандравалі ў мясцовасці з больш высокімі даходамі. Калі запыт паступаў з аддаленай часткі горада, любы запыт з бліжэйшага месца, якое, верагодна, было ў «паважанай» частцы горада, атрымліваў бы больш высокі прыярытэт. У рэшце рэшт, магчымасць атрымаць аўтамабілі ў любым іншым месцы, акрамя багатай часткі горада, стала амаль немагчымай, што вельмі раздражняла для тых, хто жыў у тых раёнах, дзе цяпер не хапае рэсурсаў.

Вы можаце сцвярджаць, што ІІ у значнай ступені прызямліўся да адной з формаў дыскрымінацыі праз проксі (таксама яе часта называюць ускоснай дыскрымінацыяй). ІІ не быў запраграмаваны, каб пазбягаць гэтых бедных кварталаў. Замест гэтага ён «навучыўся» рабіць гэта з дапамогай ML/DL.

Справа ў тым, што вадзіцелі-людзі былі вядомыя тым, што рабілі тое ж самае, хоць і не абавязкова з-за таго, што зарабляюць грошы. Былі некаторыя вадзіцелі-людзі, якія ездзілі на аўтамабілі, якія мелі непрыемную прадузятасць падбіраць гоншчыкаў у пэўных частках горада. Гэта была даволі вядомая з'ява, і горад увёў падыход да маніторынгу, каб злавіць кіроўцаў-людзей, якія робяць гэта. Вадзіцелі-людзі могуць патрапіць у праблемы з-за непрывабнай практыкі адбору.

Меркавалася, што ІІ ніколі не трапіць у такія ж зыбучыя пяскі. Не было створана ніякага спецыялізаванага маніторынгу, каб адсочваць, куды едуць аўтамабілі на аснове штучнага інтэлекту. Толькі пасля таго, як суполкі пачалі скардзіцца, кіраўніцтва горада зразумелі, што адбываецца. Больш падрабязную інфармацыю аб гэтых тыпах агульнагарадскіх праблем, якія будуць прадстаўляць аўтаномныя транспартныя сродкі і аўтамабілі, глядзіце мой матэрыял на гэтая спасылка тут і дзе апісваецца даследаванне пад кіраўніцтвам Гарварда, якое я быў сааўтарам па гэтай тэме.

Гэты прыклад аспектаў роўмінгу аўтамабіляў на аснове штучнага інтэлекту ілюструе ранейшыя прыкметы таго, што могуць узнікнуць сітуацыі, якія цягнуць за сабой непрыхільныя прадузятасці людзей, для якіх усталёўваецца кантроль, і што ІІ, які замяняе гэтых кіроўцаў-людзей, застаецца на месцы. бясплатна. На жаль, ІІ можа паступова загразнуць у роднасных ухілах і рабіць гэта без дастатковай агароджы.

Гэта таксама дэманструе ўхілы ІІ у праблеме маштабу.

У выпадку з кіроўцамі-людзьмі ў нас магло быць некалькі чалавек, якія праяўлялі нейкую форму несправядлівасці. Што тычыцца сістэмы ваджэння AI, гэта звычайна адзін такі ўніфікаваны AI для ўсяго парку беспілотных аўтамабіляў. Такім чынам, мы маглі б пачаць з пяцідзесяці беспілотных аўтамабіляў у горадзе (усе кіруюцца адным і тым жа кодам штучнага інтэлекту) і паступова давялі да, скажам, 500 беспілотных аўтамабіляў (усе кіруюцца адным кодам штучнага інтэлекту). Паколькі ўсімі гэтымі пяццю сотнямі беспілотных аўтамабіляў кіруе адзін і той жа штучны інтэлект, яны, адпаведна, падвяргаюцца аднолькавым вытворным прадузятасцям і няроўнасцям, убудаваным у штучны інтэлект.

Маштабаванне шкодзіць нам у гэтым плане.

Другі прыклад уключае ў сябе ІІ, які вызначае, ці варта спыняцца для чакання пешаходаў, якія не маюць права праезду пераходзіць вуліцу.

Вы, несумненна, ехалі і сустракалі пешаходаў, якія чакалі пераходу дарогі, але не мелі права праезду. Гэта азначала, што вы мелі магчымасць спыніцца і дазволіць ім перасекчы. Вы можаце працягваць рух, не дазваляючы ім перасякацца, і пры гэтым цалкам адпавядаць законным правілам ваджэння.

Даследаванні таго, як вадзіцелі-людзі вырашаюць спыніцца або не спыняцца для такіх пешаходаў, сведчаць аб тым, што часам вадзіцелі-людзі робяць выбар на аснове непрыхільных ухілаў. Чалавек-кіроўца можа паглядзець на пешахода і вырашыць не спыняцца, нават калі б ён спыніўся, калі б пешаход меў іншы выгляд, напрыклад, у залежнасці ад расы або полу. Я разгледзеў гэта на спасылка тут.

Уявіце сабе, што аўтамабілі на аснове штучнага інтэлекту запраграмаваны на тое, каб спыняцца ці не спыняцца для пешаходаў, якія не маюць права адводу. Вось як распрацоўшчыкі ІІ вырашылі запраграмаваць гэтую задачу. Яны сабралі дадзеныя з гарадскіх відэакамер, якія размешчаны па ўсім горадзе. Дадзеныя дэманструюць вадзіцелі-людзі, якія спыняюцца для пешаходаў, якія не маюць права праезду, і кіроўцы-людзі, якія не спыняюцца. Усё гэта сабрана ў вялікі набор дадзеных.

З дапамогай машыннага навучання і глыбокага навучання дадзеныя мадэлююцца вылічальна. Затым сістэма кіравання AI выкарыстоўвае гэтую мадэль, каб вырашыць, калі спыніцца або не спыняцца. Як правіла, ідэя заключаецца ў тым, што з чаго б ні складаўся мясцовы звычай, менавіта так ІІ будзе кіраваць самакіруючымся аўтамабілем.

Да здзіўлення кіраўнікоў горада і жыхароў, штучны інтэлект, відавочна, вырашаў спыняцца ці не спыняцца ў залежнасці ад знешняга выгляду пешахода, у тым ліку іх расы і полу. Датчыкі беспілотнага аўтамабіля будуць сканаваць пешахода, які чакае яго, перададуць гэтыя даныя ў мадэль ML/DL, і мадэль перадасць штучнаму інтэлекту інфармацыю аб тым, спыніцца ці працягнуць. На жаль, у горадзе ўжо было шмат прадузятасцяў кіроўцаў-людзей у гэтым плане, і штучны інтэлект зараз імітаваў тое ж самае.

Гэты прыклад паказвае, што сістэма штучнага інтэлекту можа проста дубляваць ужо існуючыя непрыемныя ўхілы людзей. Акрамя таго, ён робіць гэта ў маштабе. Любых кіроўцаў-людзей часам вучылі рабіць такую ​​непрыемную форму адбору або, магчыма, асабіста выбралі для гэтага, але вялікая верагоднасць таго, што асноўная частка кіроўцаў-людзей, верагодна, не робіць гэтага масава.

У адрозненне ад гэтага, сістэма кіравання AI, якая выкарыстоўваецца для кіравання беспілотнымі аўтамабілямі, хутчэй за ўсё, будзе агідна паслядоўна і ўпэўнена выконваць атрыманы зрух.

заключэнне

Існуе мноства спосабаў паспрабаваць пазбегнуць распрацоўкі штучнага інтэлекту, які мае непажаданыя ўхілы або які з часам набірае ўхілы. Наколькі гэта магчыма, ідэя складаецца ў тым, каб выявіць праблемы, перш чым перайсці да разгару і нарошчваць маштабы. Будзем спадзявацца, што прадузятасці, так бы мовіць, не выйдуць за межы.

Аднак выкажам здагадку, што так ці інакш у ІІ будуць узнікаць прадузятасці. Калі вы разгорнецеся ў масавых маштабах са штучным інтэлектам, вы не зможаце проста выканаць адно з тых часта абвешчаных тэхналогіямі паняццяў «стрэліў і забыўся». Вы павінны старанна сачыць за тым, што робіць штучны інтэлект, і імкнуцца выяўляць любыя непажаданыя ўхілы, якія неабходна выправіць.

Як адзначалася раней, адзін з падыходаў заключаецца ў тым, каб пераканацца, што распрацоўшчыкі штучнага інтэлекту ведаюць пра этыку штучнага інтэлекту і, такім чынам, падштурхоўваюць іх быць гатовымі запраграмаваць штучны інтэлект на прадухіленне гэтых праблем. Іншы шлях заключаецца ў тым, каб штучны інтэлект самастойна кантраляваў сябе на наяўнасць неэтычных паводзін і/або наяўнасць іншай часткі штучнага інтэлекту, якая кантралюе іншыя сістэмы штучнага інтэлекту на наяўнасць патэнцыйна неэтычных паводзін. У сваіх працах я апісваў мноства іншых магчымых рашэнняў.

Апошняя думка пакуль. Пачаўшы гэтую дыскусію з цытаты Платона, было б дарэчы завяршыць размову яшчэ адным праніклівым выказваннем Платона.

Платон казаў, што няма нічога дрэннага ў паўтарэнні добрага.

Лёгкасць маштабавання з дапамогай штучнага інтэлекту, безумоўна, з'яўляецца жыццяздольным сродкам для дасягнення такіх аптымістычных памкненняў, калі штучны інтэлект з'яўляецца ІІ Назаўсёды разнастайнасць. Мы любім паўтараць добрую рэч. Калі ІІ - гэта AI для дрэннага і напоўнены непрыемнымі прадузятасцямі і несправядлівасцю, мы маглі б абаперціся на заўвагі Платона і сказаць, што паўтарэнне дрэннага прыносіць вялікую шкоду.

Давайце ўважліва прыслухаемся да мудрых слоў Платона і распрацуем наш ІІ адпаведна.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- глабальны-масштаб-асабліва-запраўлены-праз-навіслыя-цалкам-аўтаномныя-сістэмы/