Этыка AI скептычна ставіцца да ўстанаўлення так званых законаў AI Red Flag для выкліку прадузятых алгарытмаў у аўтаномных сістэмах AI

Давайце пагаворым пра законы аб Чырвоным сцягу.

Вы, несумненна, ведаеце, што апошнім часам у навінах шырока асвятляецца паняцце Закона аб Чырвоным Сцягу. Загалоўкаў, якія ахопліваюць гэтую тэму, шмат. Страсці і гарачыя дэбаты па такіх пытаннях знаходзяцца ў галаве ў якасці грамадскай заклапочанасці і цягнуць за сабой сучасныя і хутка ўзнікаючыя законы аб зброі Чырвонага Сцяга.

Я адважуся сказаць, што вы, магчыма, не знаёмыя з іншымі законамі аб Чырвоным сцягу, прынятымі ў канцы 1800-х гадоў, якія адносяцца да матарызаваных транспартных сродкаў і папярэднікаў сучасных паўсядзённых сучасных аўтамабіляў. Так, гэта так, законы аб Чырвоным сцягу вяртаюцца ў гісторыю, хоць і ахопліваюць іншыя тэмы ў параўнанні з сучасным фокусам. Іх звычайна называюць Правілы аб дарожным руху з Чырвоным сцягам.

Гэтыя цяпер стагоддзі і зусім не дзеючыя законы патрабавалі, каб любая матарызаваная карэта або рухавік, які рухаўся парай, у той час павінен быў мець дарослага чалавека перад транспартным сродкам і несці чырвоны сцяг у мэтах папярэджання. Ідэя заключалася ў тым, што быдла можа ўстрывожыцца гэтымі шумнымі і сварлівымі прыстасаваннямі, якія павольна і нераўнамерна праносяцца па грунтавых або брукаваных дарогах, і таму, калі хто-небудзь ідзе перад прыстасаваннем, энергічна размахваючы чырвоным сцягам, можа, спадзяюся, пазбегнуць бедстваў. У выпадку, калі вам цікава, чыгункі і цягнікі лічыліся выключанымі з тых жа законаў, паколькі яны былі транспартнымі сродкамі, неад'емна прывязанымі да рэйак, і мелі іншыя законы, якія ахопліваюць іх дзеянні.

Уявіце сабе, што сёння трэба махаць чырвонымі сцягамі як патрабаванне для кожнага аўтамабіля на дарогах агульнага карыстання.

Напрыклад, звычайны аўтамабіліст, які едзе па вашай суседняй вуліцы, павінен быў бы пераканацца, што перад машынай, якая рухаецца, прысутнічае дарослы, які размахвае чырвоным сцягам. Гэта павінна было б мець месца для кожнага транспартнага сродку, які едзе па вашай вуліцы. Можа быць, людзі стануць чырвонымі сцягамі, якія наймаюць кіроўцаў аўтамабіляў, якія праязджаюць міма, у якіх у адваротным выпадку не было б сябра або сваяка, які мог бы ісці перад імі і выконваць прадугледжаныя дзеянні.

У наш час мы схільныя звязваць размах чырвонага сцяга на шашы з будаўнічымі пляцоўкамі. Калі вы наблізіцеся да разрытай дарогі, рабочыя будуць трымаць угары чырвоны сцяг, каб прыцягнуць вашу ўвагу. Гэта кажа вам запаволіць і быць напагатове. На вашым шляху можа быць бульдозер. Наперадзе можа быць гіганцкая дзірка, і вам трэба будзе асцярожна абыходзіць яе.

Але давайце вернемся да выкарыстання чырвоных сцягоў у 1800 годзе.

Верце ці не, але чырвоны сцяг павінен быў быць не менш за адну восьмую мілі наперадзе будучай матарызаванай машыны. Здаецца, гэта даволі вялікая адлегласць. Можна меркаваць, што ў тыя часы гэта мела вялікі сэнс. Ашаламляльных гукаў рухавіка і, магчыма, аднаго выгляду транспартнага сродку можа быць дастаткова, каб знерваваць жывёл. Некаторыя з законаў аб Чырвоным сцягу той эпохі таксама патрабавалі, каб у начны час узвышалася бліскучае чырвонае святло, каб візуальна відавочнае чырвонае папераджальнае папярэджанне было відаць з прыцемненай адлегласці.

Увогуле, я лічу, што справядліва сцвярджаць, што мы, як грамадства, схільныя асацыяваць чырвоны сцяг як свайго роду сігнал або знак таго, што нешта патэнцыйна не так ці, прынамсі, патрабуе нашай набожнай увагі.

Прыгатуйцеся да невялікага павароту гэтай з'явы чырвонага сцяга.

Існуе меркаванне, што мы павінны патрабаваць чырвоны сцяг, калі справа даходзіць да штучнага інтэлекту (AI).

Гэта крыху дзіўная і дзіўная канцэпцыя, якая выклікае шмат галоваў. Вы можаце быць здзіўленыя, як і чаму павінны быць т.зв Законы аб AI Чырвонага Сцяга. Калі ласка, звярніце ўвагу, што я пазначаю гэта як законы аб Чырвоным сцягу AI, каб адрозніць пытанне ад Законаў аб дарожным руху Чырвонага сцяга (напрыклад, з канца 1800-х), а таксама каб адрозніць іх ад іншых больш распаўсюджаных сёння законаў аб зброі Чырвонага сцяга.

Ці патрэбныя нам законы аб штучным інтэлектуальным індыкатары Red Flag, якія адназначна і выключна арыентаваны на пытанні штучнага інтэлекту?

Тыя, хто выступае за прапанаваны падыход, будуць настойваць на тым, што нам абсалютна патрэбныя юрыдычныя палажэнні, якія дапамогуць спыняць ІІ, які змяшчае неабгрунтаваныя прадузятасці і дзейнічае дыскрымінацыйнымі спосабамі. Прама цяпер стварэнне і разгортванне ІІ падобныя да акалічнасці Дзікага Захаду. Намаганні па стрымліванні дрэннага ІІ ў цяперашні час залежаць ад распрацоўкі і прыняцця кіруючых прынцыпаў па этыцы ІІ. Маё пастаяннае і шырокае асвятленне этыкі ІІ і этычнага ІІ гл спасылка тут і спасылка тут, Проста назваць некалькі.

Паволі распрацоўваюцца і прымаюцца законы, якія ўключаюць у сябе дрэнны ІІ, глядзіце ў маім асвятленні спасылка тут. Некаторыя непакояцца, што заканадаўцы ідуць недастаткова хутка. Падобна на тое, што шлюзы, якія дазваляюць заахвочваць перадузяты ІІ у свеце, у значнай ступені шырока адкрыты. Выкручванне рук кажа, што да таго часу, калі новыя законы ўвойдуць у кнігі, злы джын ужо выйдзе з бутэлькі.

Не так хутка, контраргументы ідуць. Неспакой палягае ў тым, што калі законы будуць уведзеныя занадта хутка, мы як бы заб'ем залатога гусака, у выніку чаго намаганні ІІ высахнуць, і мы не атрымаем перавагі новых сістэм ІІ, якія спрыяюць росту грамадства. Распрацоўшчыкі і фірмы, якія жадаюць выкарыстоўваць ІІ, могуць спалохацца, калі на федэральным, дзяржаўным і мясцовым узроўнях раптам будзе ўведзены шэраг новых законаў, якія рэгулююць ІІ, не кажучы ўжо пра міжнародныя законы, звязаныя з ІІ, якія таксама дзейнічаюць.

У гэтай бязладнай справе з'яўляецца заклік да правам AI Red Flag.

Перш чым спыніцца на мясных і бульбяных меркаваннях, якія ляжаць у аснове прадугледжанага Закона аб Чырвоным Сцягу аб штучным інтэлектуальным развіцці, давайце вызначым некаторыя дадатковыя асновы па вельмі істотных тэмах. Нам трэба ненадоўга акунуцца ў этыку ІІ і асабліва з'яўленне машыннага навучання (ML) і глыбокага навучання (DL).

Магчыма, вы цьмяна ведаеце, што адзін з самых гучных галасоў у нашы дні ў вобласці ІІ і нават па-за межамі ІІ складаецца ў тым, каб дамагацца большага падабенства этычнага ІІ. Давайце паглядзім, што азначае спасылка на этыку ІІ і этычны ІІ. Акрамя таго, мы вывучым, што я маю на ўвазе, калі кажу пра машыннае навучанне і глыбокае навучанне.

Адзін канкрэтны сегмент або частка этыкі ІІ, які прыцягвае вялікую ўвагу СМІ, складаецца з ІІ, які дэманструе непрыхільныя прадузятасці і няроўнасць. Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Праз хвіліну я падзялюся з вамі некаторымі агульнымі прынцыпамі, якія ляжаць у аснове этыкі ІІ. Тут і там шмат такіх спісаў. Можна сказаць, што пакуль не існуе адзінага спісу універсальнай прывабнасці і супадзення. Вось такая прыкрая навіна. Добрая навіна заключаецца ў тым, што, прынамсі, ёсць лёгка даступныя спісы этыкі AI, і яны, як правіла, вельмі падобныя. Увогуле, гэта сведчыць аб тым, што з дапамогай свайго роду аргументаванага збліжэння мы знаходзім шлях да агульнай агульнасці таго, з чаго складаецца этыка ІІ.

Спачатку давайце коратка азнаёмімся з некаторымі агульнымі запаветамі этычнага інтэлекту, каб праілюстраваць, што павінна быць важнай увагай для тых, хто стварае, вядзе або выкарыстоўвае ІІ.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента AI будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў AI, уключаючы празрыстыя і паддаюцца праверку метадалогіі, крыніцы даных, а таксама працэдуру праектавання і дакументацыю.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важная асаблівасць, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падлягаюць захаванню паняццяў этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Давайце таксама пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сённяшняга ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы ІІ, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Разумны ІІ нібыта быў бы чалавечага якасці. Вам трэба будзе ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што мы можам мець звышінтэлектуальны ІІ, можна ўявіць, што такі ІІ можа апынуцца разумнейшым за людзей (для майго даследавання звышінтэлектуальнага ІІ як магчымасці гл. асвятленне тут).

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Давайце вернемся да нашай засяроджвання на законах AI Red Flag.

Асноўная канцэпцыя заключаецца ў тым, што людзі змогуць падняць чырвоны сцяг кожны раз, калі лічаць, што сістэма ІІ працуе празмерна прадузята або дыскрымінацыйна. Вы б не падымалі фізічны сцяг сам па сабе, а проста выкарыстоўвалі б нейкія электронныя сродкі, каб паведаміць пра свае праблемы. Частка схемы або падыходу з чырвоным сцягам - гэта хутчэй метафара, чым фізічнае ўвасабленне.

Зрабіце выгляд, што вы падалі заяўку на жыллёвы крэдыт. Каб падаць заяўку на крэдыт, вы вырашыце скарыстацца паслугай інтэрнэт-банкінгу. Пасля ўводу некаторых асабістых даных вы на хвіліну чакаеце, пакуль сістэма ІІ выкарыстоўваецца, каб вырашыць, годныя вы крэдыту ці не. ІІ кажа вам, што вам адмовілі ў пазыцы. Пасля запыту тлумачэння, чаму вам было адмоўлена, тэкставая апавяданне, здаецца, мяркуе, што ІІ выкарыстоўваў неабгрунтаваныя прадузятыя фактары ў рамках алгарытму прыняцця рашэнняў.

Час падняць Чырвоны сцяг аб ІІ.

Дзе менавіта будзе лунаць гэты чырвоны сцяг?

Гэта пытанне на мільён долараў.

Адзін пункт гледжання заключаецца ў тым, што мы павінны стварыць агульнанацыянальную базу дадзеных, якая дазволіць людзям адзначаць свае чырвоныя сцягі, якія маюць дачыненне да ІІ. Некаторыя кажуць, што гэта павінна рэгулявацца федэральным урадам. Федэральныя агенцтвы будуць несці адказнасць за вывучэнне чырвоных сцягоў і дапамогу шырокай грамадскасці адносна праўдзівасці і барацьбы з, як мяркуецца, «дрэнным ІІ», які падштурхнуў справаздачы аб чырвоным сцягу.

Здавалася б, Кангрэс зацвердзіць нацыянальны закон аб AI аб Чырвоным сцягу. У законе будзе прапісана, што такое чырвоны сцяг, які мае дачыненне да штучнага інтэлекту. У законе будзе апісвацца, як падымаюцца гэтыя чырвоныя сцягі з штуршком. І гэтак далей. Таксама можа быць так, што асобныя штаты таксама могуць прыняць рашэнне аб распрацоўцы ўласных законаў аб AI Red Flag. Магчыма, яны робяць гэта замест нацыянальнай ініцыятывы, ці робяць гэта, каб пашырыць падрабязнасці, якія асабліва прывабныя для іх канкрэтнай дзяржавы.

Крытыкі федэральнай або якой-небудзь праграмы AI Red Flag, якую падтрымлівае ўрад, сцвярджаюць, што гэта можа зрабіць прыватная прамысловасць, і нам не трэба, каб Вялікі Брат выходзіў на першы план. Прамысловасць можа стварыць онлайн-сховішча, у якім людзі могуць рэгістраваць чырвоныя сцягі аб сістэмах ІІ. Дзеянні галіны па самаахоўнай дзейнасці дастаткова разабраліся б з гэтымі праблемамі.

Неспакой з нагоды меркаванага індустрыяльнага падыходу ў тым, што ён, здаецца, пахне кланізмам. Ці гатовыя фірмы прытрымлівацца прыватнай базы дадзеных AI Red Flag? Многія фірмы патэнцыйна ігнаруюць пазначаныя чырвоныя сцягі аб іх ІІ. Не было б вострых зубоў, каб прымусіць кампаніі мець справу з уведзенымі чырвонымі сцягамі.

Гэй, прыхільнікі падыходу прыватнага сектара гучаць не так, гэта было б падобна да нацыянальнай службы Yelp. Спажыўцы могуць паглядзець на чырвоныя сцягі і вырашыць для сябе, ці жадаюць яны весці бізнес з кампаніямі, якія сабралі мноства чырвоных сцягоў, арыентаваных на штучны інтэлект. Банк, які атрымліваў масу чырвоных сцягоў аб сваім ІІ, павінен быў бы звярнуць увагу і абнавіць свае сістэмы штучнага інтэлекту, так што па логіцы, інакш спажыўцы будуць пазбягаць фірмы, як чума.

Незалежна ад таго, ці рэалізуецца ўвесь гэты падыход урадам або прамысловасцю, - гэта толькі вяршыня айсберга ў хвалюючых пытаннях, якія стаяць перад прапанаваным пастулатам аб штучным інтэлектуальным індыкатары Чырвонага Сцяга.

Пастаўце сябе на месца фірмы, якая распрацавала або выкарыстоўвае ІІ. Магчыма, спажыўцы будуць падымаць чырвоныя сцягі, нават калі для гэтага не было ніякай жыццяздольнай падставы. Калі б людзі маглі свабодна размясціць чырвоны сцяг пра ІІ, у іх магла б быць спакуса зрабіць гэта па капрызе, ці, можа быць, дзеля помсты фірме, якая ў іншым выпадку нічога дрэннага ў адносінах да спажыўца не зрабіла.

Карацей кажучы, пра ІІ магло быць шмат ілжывых чырвоных сцягоў.

Іншым фактарам з'яўляецца велізарны памер або велічыня атрыманых чырвоных сцяжкоў. Там лёгка могуць быць паднятыя мільёны і мільёны чырвоных сцягоў. Хто будзе сачыць за гэтымі чырвонымі сцягамі? Колькі будзе каштаваць гэта зрабіць? Хто будзе плаціць за наступныя намаганні, звязаныя з чырвоным сцягам? І г.д.

Калі вы скажаце, што кожны, хто рэгіструецца або паведамляе пра чырвоны сцяг аб ІІ, павінен заплаціць плату, вы трапілі ў каламутную і падступную сферу. Заклапочанасць была б у тым, што толькі багатыя людзі змогуць сабе дазволіць падняць чырвоныя сцягі. Гэта, у сваю чаргу, азначае, што збяднелыя не змогуць у роўнай ступені ўдзельнічаць у мерапрыемствах чырвонага сцяга і, па сутнасці, не маюць месца для папярэджання аб неспрыяльных ІІ.

Толькі яшчэ адзін дадатковы паварот на дадзены момант, а менавіта тое, што гэты від законаў аб чырвоным сцягу або рэкамендацый аб ІІ, здаецца, з'яўляюцца пасля факту, а не служыць у якасці папярэджання загадзя.

Вяртаючыся да Правілаў аб дарожным руху Чырвонага сцяга, акцэнт на выкарыстанні чырвонага сцяга заключаўся ў тым, каб не дапусціць катастрофы. Чаканне чырвонага сцяга павінна было быць нашмат наперадзе будучага аўтамабіля. Будучы наперадзе транспартнага сродку, жывёла будзе папярэджана, і тыя, хто ахоўвае пагалоўе, будуць ведаць, што ім варта прыняць меры засцярогі з-за хуткага прыбыцця крыніцы трывогі.

Калі людзі здольныя толькі падняць чырвоны сцяг аб ІІ, які, здавалася б, ужо нанёс шкоду або падарваў іх правы, то гаваркі конь ужо выйшаў з хлява. Усё, што гэта, здавалася б, дасягне, гэта тое, што, спадзяюся, іншыя людзі, якія прыйдуць, цяпер будуць ведаць, што з гэтай сістэмай штучнага інтэлекту трэба ставіцца з асцярогай. Між тым, нібыта пакрыўджаная асоба ўжо пацярпела.

Некаторыя мяркуюць, што, магчыма, мы маглі б дазволіць людзям падымаць чырвоныя сцягі пра ІІ падазраваны могуць быць прадузятымі, нават калі яны не выкарыстоўвалі ІІ і не падвяргаліся непасрэднаму ўплыву ІІ. Такім чынам, чырвоны сцяг размахваецца перад нанясеннем шкоды.

Ага, адказвае, вы сапраўды ператворыце чырвоныя сцягі, якія справяцца з ІІ, у цалкам некіруючую і хаатычную справу. Калі хто-небудзь па якой-небудзь прычыне можа падняць чырвоны сцяг аб сістэме AI, нягледзячы на ​​​​тое, што нічога не зрабіў з гэтым AI, вы будзеце завалены чырвонымі сцягамі. Што яшчэ горш, вы не зможаце адрозніць пшаніцу ад мякіны. Увесь падыход да чырвонага сцяга разбурыцца пад сваёй уласнай цяжарам, пазбавіўшыся добрай ідэі, дазволіўшы флотам і махлярствам патапіць увесь карабель.

Галавакружэнне і збівае з панталыку.

На гэтым этапе гэтай важкай дыскусіі, я б паспрачаўся, што вы жадаеце некаторых ілюстратыўных прыкладаў, якія маглі б прадэманстраваць гэтую тэму. Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці асвятляе з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове штучнага інтэлекту што-небудзь пра законы аб AI Red Flag, і калі так, што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Законы аб аўтамабілі і чырвоны сцяг

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць папярэджанняў, якія ляжаць у аснове таго, што я збіраюся расказаць.

Давайце накідаем сцэнар, які можа выкарыстоўваць закон аб AI Red Flag.

Вы сядаеце ў аўтаномны аўтамабіль на аснове штучнага інтэлекту і жадаеце, каб аўтаномны аўтамабіль адвёз вас у мясцовы прадуктовы магазін. Падчас адносна кароткай вандроўкі ІІ выбіраецца па маршруце, які здаецца вам няправільным. Замест таго, каб ісці самым прамым шляхам, ІІ перамяшчаецца па аддаленых вуліцах, што прыводзіць да таго, што час за рулём будзе большым, чым звычайна.

Што адбываецца?

Мяркуючы, што вы плаціце за карыстанне аўтамабілем, які кіруе аўтамабілем, вы маглі б падазраваць, што ІІ быў запраграмаваны на працяглы маршрут, каб паспрабаваць павялічыць тарыф або кошт паездкі. Любы, хто калі-небудзь карыстаўся звычайнай кабінай з кіраваннем чалавекам, ведае пра хітрасці, якія могуць мець месца, каб атрымаць больш тэсту на лічыльніку. Вядома, калі людзі маюць GPS на сваіх смартфонах падчас язды ў таксі або эквівалентнай машыне, вы можаце лёгка злавіць кіроўцу-чалавека, які, здаецца, непрыкметна кіруецца неапраўдана доўгімі маршрутамі.

Аказваецца, у вас ёсць яшчэ адна заклапочанасць выбарам маршруту, якая вас сапраўды грызе.

Выкажам здагадку, што маршрут быў зроблены, каб пазбегнуць некаторых частак горада з-за расавых асаблівасцяў. Ёсць задакументаваныя выпадкі, калі вадзіцелі-людзі былі злоўленыя пры такім выбары, глядзіце маё абмеркаванне на спасылка тут. Магчыма, ІІ быў запраграмаваны неспрыяльна для гэтага.

Вы вырашылі падняць чырвоны сцяг.

Давайце выкажам здагадку, для абмеркавання, што быў прыняты Закон аб AI Red Flag, які распаўсюджваецца на вашу юрысдыкцыю. Гэта можа быць мясцовае заканадаўства, закон штата, федэральны або міжнародны закон. Для аналізу, які я апублікаваў у суаўтарстве з Гарвардскай ініцыятывай па палітыцы аўтаномных транспартных сродкаў (AVPI) аб узрастаючым значэнні мясцовага кіраўніцтва, калі супольнасці пераходзяць на выкарыстанне аўтамабіляў з самакіраваннем, гл. спасылка тут.

Такім чынам, вы заходзіце ў Інтэрнэт у базу дадзеных Red Flag AI. У базу дадзеных інцыдэнтаў вы ўводзіце інфармацыю аб паездцы самастойнага аўтамабіля. Гэта ўключае ў сябе дату і час паходу, а таксама марку і мадэль самакіравання аўтамабіля. Затым вы ўваходзіце на навігацыйны маршрут, які ўяўляўся падазроным, і вы мяркуеце або, магчыма, наўпрост сцвярджаеце, што ІІ быў распрацаваны з прадузятымі або дыскрымінацыйнымі намерамі і магчымасцямі.

Нам трэба было б паразважаць на іншых дэталях Закона аб Чырвоным Сцягу ІІ адносна таго, што адбудзецца далей у гэтым канкрэтным сцэнары. Тэарэтычна, было б палажэнне аб тым, каб нехта разгледзеў чырвоны сцяг. Верагодна, яны будуць імкнуцца да таго, каб вытворца аўтамабіляў або тэхналагічная фірма, якая займаецца самакіраваннем, растлумачылі свой пункт гледжання на зафіксаваны чырвоны сцяг. Колькі яшчэ такіх чырвоных сцягоў зарэгістравана? Якія вынікі далі гэтыя чырвоныя сцягі?

І так бы пайшло.

заключэнне

Недарэчна, заклікаюць некаторыя скептыкі.

Нам не патрэбныя законы AI Red Flag, яны строга дзейнічаюць. Выкананне чаго-небудзь падобнага прывядзе да рэзультатыўнай працы, калі справа даходзіць да тэмпу і прагрэсу ІІ. Любыя такія законы былі б нязручнымі. Вы ствараеце праблему, якая не вырашае праблему. Ёсць і іншыя спосабы барацьбы з ІІ, якія шкодныя. Не хапайцеся слепа за саломінку, каб справіцца з прадузятым ІІ.

Пераключаючы перадачы, мы ўсе ведаем, што тарэадоры выкарыстоўваюць чырвоныя накідкі, каб, відаць, прыцягнуць увагу раз'юшанага быка. Нягледзячы на ​​тое, што чырвоны колер - гэта колер, які мы часцей за ўсё асацыюем з гэтай практыкай, вы можаце быць здзіўлены, калі даведаецеся, што навукоўцы кажуць, што быкі не ўспрымаюць чырвоны колер мулет (яны дальтонік да чырвонага). Папулярнае шоу Разбуральнікі легенд правёў даволі займальную праверку гэтага пытання. Рух накідкі з'яўляецца ключавым элементам, а не абраным колерам.

Для тых, хто адмаўляецца ад неабходнасці прыняцця законаў аб штучным інтэлектуальным індыкатарыі, сустрэчным прэтэнзіяй з'яўляецца тое, што нам трэба нешта драматычнае і беспамылковае, каб пераканацца, што распрацоўшчыкі і фірмы, якія разгортваюць ІІ, пазбягаюць прадузятага або дрэннага ІІ. Калі б не чырвоны сцяг, магчыма, лунае плашч ці ўвогуле любы падыход да абвесткі маглі б быць у сферы належнай увагі.

Мы дакладна ведаем, што дрэнны ІІ існуе і што значна больш дрэннага ІІ будзе рухацца ў нашым кірунку. Вельмі важна знайсці спосабы абараніць сябе ад неспрыяльнага ІІ. Сапраўды гэтак жа важна ўсталяваць агароджу, каб перашкодзіць шкоднаму ІІ трапіць у свет.

Эрнэст Хемінгуэй сказаў, што ніхто ніколі не жыве сваім жыццём, акрамя тарэадораў. Мы павінны пераканацца, што людзі могуць жыць сваім жыццём на працягу ўсяго шляху, нягледзячы на ​​тое, што ІІ дрэннае ці вар'яцтва абвяшчаюць нам.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- preduised-algorithms-in-autonomous-ai-systems/