Этыка штучнага інтэлекту абураецца нарастаючым сіндромам гарачай бульбы, які выкарыстоўваецца вытворцамі штучнага інтэлекту, якія, здаецца, спрабуюць пазбегнуць адказнасці за свае аўтаномныя сістэмы, якія вырашаюць жыццё

Мы ўсе ведаем, што вы павінны сачыць за тым, каб не атрымаць праславутую гарачую бульбу.

Падобна на тое, што гамбіт з гарачай бульбай бярэ свае карані прынамсі ў канцы 1800-х гадоў, калі ў салоне гульні з запаленымі свечкамі накшталт сталі папулярнымі. У тую эпоху людзі звычайна сядзелі на шэраг драўляных крэслаў, якія стаялі адносна побач адзін з адным, і гулялі ў захапляльную гульню. Гульцы перадавалі запаленую свечку ад чалавека да чалавека і ўяўлялі сабой тое, што мы пазней назвалі перадачай гарачая бульба.

Быў звычай, што кожны чалавек павінен быў прагаварыць услых папулярную рыфму, перш чым яны маглі прайсці ўздоўж паступова падпаленай свечкі. Рыфма, відаць, была такой:

«Джэк жывы і, верагодна, будзе жыць;

Калі ён памрэ ў тваіх руках, ты будзеш страчаны».

Верагодна, гэты рыфмаваны канцэрт дасць свечцы трохі часу, каб працягваць гарэць да канца. Той, хто затрымаўся са свечкай у іх пасля натуральнага гашэння ў канцы, быў чалавекам, які прайграў матч (каламбур!).

Згодна са словамі, пазначанымі ў рыфме, той, хто прайграў, павінен быў заплаціць «няўстойку» і, такім чынам, звычайна павінен быў выйсці з любога далейшага раўнда гульні. Затым гэта можа быць аб'яднана з тым, што мы сёння лічым штодзённымі музычнымі крэсламі, такім чынам, што чалавек, які прайграў раунд, больш не будзе ўдзельнічаць у наступных раундах (як быццам музыка спынілася і яны не змаглі заняць вольнае месца). У рэшце рэшт, засталося толькі два чалавекі, якія перадалі запаленую свечку і сказалі рыфму, пакуль у канчатковым тушэнні не вызначыўся канчатковы пераможца.

Магчыма, вы задаецеся пытаннем, чаму мы больш не гуляем у гэтую гульню з запаленай свечкай і чаму замест гэтага мы звычайна называем гэта гарачай бульбай, а не паказваем гэта як схему "запаленай свечкі". Даследчыкі прыдумалі мноства тэорый аб тым, як гэта паступова адбывалася. Гісторыя здаецца туманнай і нявызначанай адносна таго, як усё развівалася ў гэтым пытанні. Я мяркую, што мы можам адчуць палёгку, што запаленыя свечкі звычайна не выкарыстоўваюцца такім чынам, таму што верагоднасць таго, што нешта пойдзе відавочна наперакасяк, будзе выглядаць надзвычай трывожнай (хтосьці кіне свечку і распаліць агонь, або хтосьці апячэцца свечкай, калі яе дадуць у рукі ад іншага гульца і г.д.).

З пункту гледжання гарачай бульбы ў якасці патэнцыйнай замены запаленай свечкі, можна сцвярджаць, што ў цэлым бульба будзе больш бяспечнай. Без адкрытага агню. Няма плаўлення воску. Патэнцыйная аснова для выкарыстання бульбы ў гэтым кантэксце заключаецца ў тым, што яна, як вядома, лёгка захоўвае цяпло пасля разагрэву. Бульбу можна перадаць, і яна некаторы час застанецца гарачай. Можна выказаць здагадку, што рашэнне, калі гарачая бульба больш не гарачая, а замест гэтага ацэньваецца як халодная, было б вельмі дыскусійным.

Вядома, паняцце праславутай гарачай бульбы ў наш час больш асобнае. Усё, што ацэньваецца або лічыцца гарачай бульбай, звычайна сур'ёзна пазбаўляецца якасці. Вы ж не хочаце трымаць у руках гарачую бульбу. Вы хочаце быць упэўненымі, што гэта будзе ў іншым месцы. У некаторай ступені вы можаце не занадта турбавацца аб тым, куды ён падзеўся, проста тое, што ён больш не ў вашым распараджэнні.

Здавалася б, вы вельмі бяздушныя, каб патэнцыйна перадаць гарачую бульбу дарагому сябру ці падобнаму знаёмаму. Гэта здавалася б зусім недарэчным. Магчыма, знайдзіце каго-небудзь іншага ці куды-небудзь яшчэ, каб пакласці гэтую гарачую бульбу, калі вы можаце гэта зрабіць. Адчайным крокам можа быць навязванне гарачай бульбы ветліваму калегу, але, спадзяюся, гэта робіцца толькі ў крайнім выпадку.

Іншы бок медаля заключаецца ў тым, што вы можаце атрымаць асалоду ад таго, каб перадаць гарачую бульбу таму, хто вам не падабаецца або каму вы хочаце помсціць. Безумоўна, гарачая бульба можа быць вельмі карыснай, калі вы хочаце падарваць чалавека, які дрэнна з вамі абышоўся. Няхай разбіраюцца, што рабіць з гарачай бульбай. Добрага збавення ад бульбы і найгоршай удачы чалавеку, з якім вы яе пазначылі.

У сцэнары «гарачай бульбы», у якім удзельнічаюць толькі два чалавекі, існуе верагоднасць хуткай спрэчкі наконт таго, хто трымае непрыемны і непажаданы прадмет. Напрыклад, я перадаю табе гарачую бульбу, а ты паспешліва аддаеш яе мне. Калі выказаць здагадку, што нам не трэба аб'яўляць дзіцячы вершык паміж кожнай перадачай, мы можам проста перадаць бульбу так хутка, наколькі гэта дазваляюць нашы рукі.

Магчыма, вам будзе цікава даведацца, чаму я вырашыў глыбока пагрузіцца ў шанаваную і часта цытаваную гарачую бульбу.

Вось чаму.

Аказалася, што «гарачая бульба» ўсё часцей выкарыстоўваецца ў галіне штучнага інтэлекту (AI).

Большасць людзей пра гэта нічога не ведае. Яны ніколі пра гэта не чулі. Яны зусім не разумеюць, што гэта такое. Нават многія распрацоўшчыкі штучнага інтэлекту не ведаюць пра гэта. Тым не менш, ён існуе і, здаецца, выкарыстоўваецца ў вельмі сумніўных умовах, асабліва ў выпадках, звязаных з жыццём або смерцю.

Я называю гэта AI Сіндром гарачай бульбы.

У аснове гэтага сіндрому ляжыць мноства сур'ёзных наступстваў, і мы павінны пераканацца, што мы надзелі нашы этыкі штучнага інтэлекту і разгледзім, што трэба рабіць. Ёсць цвярозыя этычныя меркаванні. Абавязкова будуць прыкметныя юрыдычныя наступствы (якія яшчэ не дасягнулі грамадскай бачнасці, хоць я прадказваю, што яны хутка будуць). Аб маім пастаянным і шырокім асвятленні пытанняў этыкі AI, этычнага AI і прававога AI гл. спасылка тут і спасылка тут, Проста назваць некалькі.

Давайце распакуем ІІ Сіндром гарачай бульбы.

Уявіце сабе сістэму штучнага інтэлекту, якая працуе разам з чалавекам. ШІ і чалавек перадаюць кантроль над некаторымі бягучымі дзеяннямі, так што часам чалавек кантралюе, а часам ШІ. Спачатку гэта можа быць зроблена, скажам так, добра выхаваным або разумным спосабам. Па розных прычынах, якія мы зараз разгледзім, штучны інтэлект можа з дапамогай вылічэнняў пераканацца, што кіраванне трэба спешна перадаць чалавеку.

Гэта гарачая бульба што ставіць пад пагрозу жыццё ў рэальным свеце, а не проста служыць павучальнай дзіцячай гульнёй.

Праблема паспешлівай перадачы кіравання ад штучнага інтэлекту чалавеку заключаецца ў тым, што гэта можа быць зроблена разумным спосабам або можа быць выканана даволі неразумным спосабам. Калі чалавек не асабліва чакае перадачы, гэта, хутчэй за ўсё, праблема. Калі чалавек у цэлым згодны з перадачай кантролю, абставіны, якія ляжаць у аснове перадачы, могуць быць страшнымі, калі чалавеку не даюць дастаткова часу або недастаткова ўсведамляюць, чаму кантроль гвалтоўна перадаецца ў яго чалавечыя рукі.

Мы даследуем прыклады таго, як гэта можа ствараць небяспеку для жыцця або смерці чалавека і, магчыма, іншых людзей, якія знаходзяцца паблізу. Гэта сур'ёзныя рэчы. Кропка, кропка.

Перш чым перайсці да некаторых больш мясістых аспектаў дзікіх і шарсцістых меркаванняў, якія ляжаць у аснове ІІ Сіндром гарачай бульбы, давайце выкладзем некаторыя дадатковыя асновы па вельмі важных тэмах. Нам трэба ненадоўга акунуцца ў этыку штучнага інтэлекту і асабліва ў з'яўленне машыннага навучання (ML) і глыбокага навучання (DL).

Магчыма, вы цьмяна ведаеце, што адзін з самых гучных галасоў у нашы дні ў вобласці ІІ і нават па-за межамі ІІ складаецца ў тым, каб дамагацца большага падабенства этычнага ІІ. Давайце паглядзім, што азначае спасылка на этыку ІІ і этычны ІІ. Акрамя таго, мы вывучым, што я маю на ўвазе, калі кажу пра машыннае навучанне і глыбокае навучанне.

Адзін канкрэтны сегмент або частка этыкі ІІ, які прыцягвае вялікую ўвагу СМІ, складаецца з ІІ, які дэманструе непрыхільныя прадузятасці і няроўнасць. Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Праз хвіліну я падзялюся з вамі некаторымі агульнымі прынцыпамі, якія ляжаць у аснове этыкі ІІ. Тут і там шмат такіх спісаў. Можна сказаць, што пакуль не існуе адзінага спісу універсальнай прывабнасці і супадзення. Вось такая прыкрая навіна. Добрая навіна заключаецца ў тым, што, прынамсі, ёсць лёгка даступныя спісы этыкі AI, і яны, як правіла, вельмі падобныя. Увогуле, гэта сведчыць аб тым, што з дапамогай свайго роду аргументаванага збліжэння мы знаходзім шлях да агульнай агульнасці таго, з чаго складаецца этыка ІІ.

Спачатку давайце коратка азнаёмімся з некаторымі агульнымі запаветамі этычнага інтэлекту, каб праілюстраваць, што павінна быць важнай увагай для тых, хто стварае, вядзе або выкарыстоўвае ІІ.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента AI будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў AI, уключаючы празрыстыя і паддаюцца праверку метадалогіі, крыніцы даных, а таксама працэдуру праектавання і дакументацыю.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важная асаблівасць, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падлягаюць захаванню паняццяў этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Давайце таксама пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сённяшняга ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы ІІ, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Разумны ІІ нібыта быў бы чалавечага якасці. Вам трэба будзе ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што мы можам мець звышінтэлектуальны ІІ, можна ўявіць, што такі ІІ можа апынуцца разумнейшым за людзей (для майго даследавання звышінтэлектуальнага ІІ як магчымасці гл. асвятленне тут).

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Давайце вернемся да нашай увагі да гарачай бульбы і яе патэнцыйна катастрафічнага выкарыстання ў ІІ. Таксама ёсць д'ябальшчына, якая можа хавацца і ў хітрасці з гарачай бульбай.

У якасці кароткага рэзюмэ пра праяву ІІ гамбіта з гарачай бульбай:

  • ШІ і чалавек у цыкле сумесна працуюць над пастаўленай задачай
  • ШІ кантралюе некаторы час
  • Чалавек у пятлі некаторы час кантралюе
  • Існуе нейкая форма пратаколу перадачы паміж ІІ і чалавекам
  • Перадача можа быць добра прыкметнай, а можа быць тонкай і амаль схаванай
  • Усё гэта звычайна адбываецца ў кантэксце рэальнага часу (штосьці актыўна адбываецца)

Асноўная ўвага тут у тым, што перадача - гэта, па сутнасці, гарачая бульба, і штучны інтэлект раптам вырашае перадаць кіраванне чалавеку. Калі ласка, звярніце ўвагу, што пазней я таксама раскажу пра іншы аспект, а менавіта пра тое, як чалавек перадае кіраванне ІІ як гарачую бульбу.

Па-першае, падумайце, што можа адбыцца, калі ІІ перадае гарачую бульбу чалавеку ў цыкле.

Я збіраюся называць чалавека чалавекам у цыкле, таму што я кажу, што чалавек ужо з'яўляецца неад'емнай часткай актыўнай дзейнасці. У нас могуць быць і іншыя сцэнары, калі штучны інтэлект дасць гарачую бульбу чалавеку, які не быў асабліва ўцягнуты ў гэтую дзейнасць, магчыма, незнаёмаму з усёй справай, таму майце на ўвазе, што існуюць іншыя віды гэтага асяроддзя.

Калі б я перадаваў вам гарачую бульбу і хацеў зрабіць гэта разумна, магчыма, я б папярэдзіў вас, што я збіраюся перадаць вам рэчы. Акрамя таго, я паспрабаваў бы зрабіць гэта, калі б шчыра верыў, што ў вас ёсць гарачая бульба ў цэлым лепш, чым у мяне. Я б у думках падлічыў, ці трэба гэта мець табе, ці я павінен працягваць гэта.

Уявіце сабе гульню ў баскетбол. Мы з табой у адной камандзе. Мы спадзяемся працаваць разам, каб паспрабаваць выйграць гульню. На гадзінніку засталося ўсяго некалькі секунд, і нам адчайна трэба забіваць, інакш мы прайграем гульню. Я займаю пазіцыю, каб зрабіць апошні стрэл. Ці павінен я зрабіць так, ці я павінен перадаць вам мяч, каб вы зрабілі апошні ўдар?

Калі я лепшы баскетбаліст і ў мяне больш шанцаў біць кідок, я, верагодна, павінен трымаць баскетбольны мяч і паспрабаваць зрабіць кідок. Калі вы лепшы баскетбаліст, чым я, я, верагодна, павінен перадаць вам мяч і дазволіць вам зрабіць удар. На першы план выходзяць іншыя меркаванні, напрыклад, хто з нас займае лепшую пазіцыю на пляцоўцы, каб зрабіць кідок, а таксама тое, ці знясілены адзін з нас, бо гульня амаль скончылася і можа быць зношаным і недастатковым іх расстрэл. І г.д.

Улічваючы ўсе гэтыя фактары ў разгар цяжкага моманту, мне трэба вырашыць, пакінуць мяч ці перадаць яго вам.

Добра разумею, што ў гэтым сцэнары гадзіннік мае вырашальнае значэнне. Вы і я сутыкнуліся з вельмі своечасовым адказам. Уся гульня цяпер на лініі. Як толькі гадзіннік скончыцца, мы альбо выйгралі, таму што адзін з нас зрабіў стрэл, альбо прайгралі, бо не патапілі яго. Магчыма, я мог бы стаць героем, калі патаплю кошык. Ці ты можаш стаць героем, калі я перадам табе мяч, а ты яго ўтапіш.

У гэтага таксама ёсць казіны бок або мінусы. Калі я трымаю мяч і прамахваюся, усе могуць абвінаваціць мяне ў тым, што я казёл або падвёў усю каманду. З іншага боку, калі я пасую табе мяч, а ты прамахнешся, ты станеш казлом. Гэта можа быць зусім несправядліва ў адносінах да вас, таму што я прымусіў вас быць апошнім стралком і зрабіць апошні стрэл.

Вы дакладна ведаеце, што я паставіў вас у такое непрыдатнае становішча. І хаця ўсе маглі бачыць, як я гэта раблю, яны вымушаныя засяродзіцца толькі на тым, хто апошні меў мяч. Магчыма, я б катаўся бясплатна. Ніхто не ўспомніць, што я перадаў табе мяч у апошні момант. Яны запомнілі б толькі тое, што ў вас быў мяч і вы прайгралі, таму што не зрабілі ўдар.

Добра, я перадаю мяч табе.

Чаму я так зрабіў?

Няма простага спосабу вызначыць гэта.

Магчыма, маімі сапраўднымі намерамі было тое, што я не хацеў быць казлом, і таму я вырашыў аказаць увесь ціск на вас. Калі мяне спыталі, чаму я аддаў мяч, я мог сказаць, што я зрабіў гэта, таму што думаў, што ты лепшы стралок за мяне (але давайце прыкінемся, што я ў гэта зусім не веру). Ці я думаў, што вы знаходзіцеся ў лепшым становішчы, чым я (давайце зробім выгляд, што я таксама гэтага не думаў). Ніхто ніколі не даведаецца, што я насамрэч проста спрабаваў не затрымацца з гарачай бульбай.

З боку ніхто не мог лёгка зразумець маю сапраўдную прычыну перадачы мяча вам. Магчыма, я зрабіў гэта па нявіннасці, таму што лічыў, што ты лепшы гулец. Гэта адзін ракурс. Магчыма, я зрабіў гэта таму, што не хацеў, каб усе называлі мяне няўдачнікам за тое, што я, магчыма, прапусціў мяч, таму я аддаў мяч табе і палічыў, што гэта для мяне вялікая палёгка. Зусім іншая справа, ці сапраўды я клапаціўся пра цябе.

Цяпер мы можам дадаць некаторыя дадатковыя дэталі да гарачай бульбы, звязанай з штучным інтэлектам:

  • ШІ вырашае перадаць кіраванне чалавеку ў цыкле ў апошні момант
  • Апошні момант ужо можа быць далёка за межамі любых жыццяздольных дзеянняў чалавека
  • Чалавек у цыкле мае кантроль, але ў пэўнай ступені ілжыва з-за часу перадачы

Паразважайце над гэтым на імгненне.

Выкажам здагадку, што сістэма штучнага інтэлекту і чалавек у цыкле працуюць разам над задачай у рэжыме рэальнага часу, якая прадугледжвае працу буйнамаштабнай машыны на заводзе. ШІ выяўляе, што машына працуе з ладу. Замест таго, каб штучны інтэлект працягваў утрымліваць кантроль, ён раптоўна перадае кантроль чалавеку. Абсталяванне на гэтай фабрыцы хутка ідзе да чыстага хаосу, і ў чалавека не застаецца часу, каб прыняць меры па выпраўленні сітуацыі.

ШІ перадаў гарачую бульбу чалавеку ў пятлі і заціснуў чалавека сапраўднай гарачай бульбай так, што людзі больш не могуць справіцца з такімі абставінамі. Тэг, вы гэта, ідзе па старой лініі, калі гулялі ў гульні з біркамі ў дзяцінстве. Чалавек, скажам так, пазначаны беспарадкам.

Як мой прыклад з баскетбольнай гульнёй.

Чаму ІІ зрабіў перадачу?

Што ж, у адрозненне ад таго, калі чалавек рэзка перадае баскетбольны мяч, а потым дзіка махае рукой аб тым, чаму ён гэта зрабіў, звычайна мы можам вывучыць праграмаванне штучнага інтэлекту і высветліць, што прывяло да таго, што штучны інтэлект зрабіў такую ​​перадачу гарачай бульбы.

Распрацоўшчык штучнага інтэлекту мог загадзя вырашыць, што калі штучны інтэлект трапляе ў вельмі цяжкую сітуацыю, ён павінен перадаць кантроль чалавеку ў цыкле. Гэта здаецца цалкам разумным і разумным. Чалавек можа быць «лепшым гульцом» на полі. Людзі могуць выкарыстоўваць свае кагнітыўныя здольнасці, каб патэнцыйна вырашыць любую наяўную праблему. ШІ, магчыма, дасягнуў межаў свайго праграмавання, і больш нічога канструктыўнага ён не можа зрабіць у гэтай сітуацыі.

Калі штучны інтэлект зрабіў перадачу за хвіліну да завяршэння, перш чым машына пачала працаваць, магчыма, хвіліны хедз-ап дастаткова, каб чалавек у цыкле мог усё выправіць. Выкажам здагадку, што штучны інтэлект зрабіў перадачу за тры секунды да канца. Як вы думаеце, ці можа чалавек адрэагаваць у гэты час? Наўрад ці. У любым выпадку, каб зрабіць усё яшчэ менш прыдзіркі, выкажам здагадку, што перадача да чалавека ў цыкле адбылася за некалькі нанасекунд да канца (нанасекунда складае адну мільярдную долю секунды, што ў параўнанні з імгненнем вока млявае 300 мілісекунд).

Ці можа чалавек у цыкле адрэагаваць належным чынам, калі штучны інтэлект перадаў гарачую бульбу з невялікімі долямі секунды, якія засталіся, каб зрабіць якія-небудзь адкрытыя дзеянні?

Не.

Перадача - гэта больш хлусня, чым магло б здацца інакш.

На самай справе перадача нічога добрага не прынясе, калі справа даходзіць да цяжкага становішча. ШІ прымусіў чалавека стаць казлом.

Некаторыя распрацоўшчыкі штучнага інтэлекту не думаюць пра гэта, калі распрацоўваюць свой штучны інтэлект. Яны (памылкова) шчасліва не ўлічваюць, што час з'яўляецца вырашальным фактарам. Усё, што яны робяць, гэта запраграмаваць перадачу, калі справы становяцца цяжкімі. Калі штучнаму інтэлекту больш нічога не застанецца рабіць канструктыўна, кіньце мяч гульцу-чалавеку.

Распрацоўшчыкі штучнага інтэлекту могуць не падумаць пра гэта падчас кадавання штучнага інтэлекту, і потым яны часта церпяць няўдачу, не праводзячы тэсціравання, якое выводзіць гэта на святло. Іх тэсціраванне паказвае толькі тое, што штучны інтэлект "паслухмяна" перадаў перадачу, калі былі дасягнуты межы ІІ. Вуаля, мяркуецца, што штучны інтэлект добры і гатовы да працы. Тэставанне не ўключала рэальнага чалавека, які быў пастаўлены ў такое незайздроснае і немагчымае становішча. Не было належнага працэсу тэсціравання чалавекам у цыкле, які мог бы пратэставаць супраць таго, што перадача ў апошні момант, ці нават пасля апошняга моманту, прынесла ім мала карысці або зусім не прынесла ніякай карысці.

Вядома, некаторыя распрацоўшчыкі штучнага інтэлекту пранікліва разгледзелі гэты тып цяжкага становішча, і гэта было разумна.

Пасля разважання над галаваломкай яны прыступяць да праграмавання штучнага інтэлекту так ці інакш.

Чаму?

Таму што больш няма чым заняцца, прынамсі ў думках. Калі нічога не дапамагае, перадайце кантроль чалавеку. Можа, адбудзецца цуд. Аднак сутнасць у тым, што гэта не хвалюе распрацоўшчыкаў штучнага інтэлекту, і яны даюць чалавеку апошні шанец справіцца з блытанінай. Распрацоўшчык штучнага інтэлекту ўмывае рукі ад таго, што адбываецца пасля гэтага.

Я хачу ўдакладніць, што распрацоўшчыкі штучнага інтэлекту не з'яўляюцца адзінымі распрацоўшчыкамі гэтых гарачых дызайнаў бульбы. Для гэтага ёсць мноства іншых зацікаўленых бакоў. Магчыма, сістэмны аналітык, які праводзіў аналіз спецыфікацый і патрабаванняў, заявіў, што гэта тое, што павінен рабіць ШІ. Распрацоўшчыкі AI, якія ўдзельнічаюць, стварылі AI адпаведна. Магчыма, гэта прыдумаў менеджэр праекта штучнага інтэлекту. Кіраўнікі і кіраўніцтва, якія сочаць за распрацоўкай штучнага інтэлекту, маглі гэта прыдумаць.

Кожны на працягу ўсяго жыццёвага цыкла распрацоўкі штучнага інтэлекту мог працягваць гэты ж дызайн «гарачай бульбы». Ці заўважыў гэта хто-небудзь, сказаць дакладна не можам. Калі б яны заўважылі, іх маглі б назваць скептыкамі і адкінуць у бок. Іншым магло быць даведзена да гэтай справы ўвагу, але яны не разумелі наступстваў. Яны палічылі, што гэта тэхнічная дробязь, якая не ўваходзіла ў іх кампетэнцыю.

Я дадам да гэтага неафіцыйнага спісу «прычын» значна больш гнюсную магчымасць.

Сіндром гарачай бульбы штучнага інтэлекту часам выкарыстоўваецца наўмысна, таму што тыя, хто стварае штучны інтэлект, жадаюць мець сваю гарачую прэтэнзію на праўдападобнае адмаўленне.

Падрыхтуйцеся да гэтай часткі казкі.

У выпадку фабрычнага абсталявання, якое выходзіць з ладу, абавязкова будзе шмат спрэчак аб тым, хто нясе адказнасць за тое, што здарылася. Што тычыцца кіравання механізмамі, у нас была сістэма штучнага інтэлекту, якая рабіла гэта, і ў нас быў чалавек, які рабіў гэта. Гэта дзве нашы баскетбалісты, метафарычна.

Гадзіннік ішоў, і машына была на мяжы выхаду з ладу. Дапусцім, мы з вамі ведаем, што штучны інтэлект перадаў чалавеку ў цыкле, зрабіўшы гэта з недастатковай колькасцю часу, каб чалавек распачаў якія-небудзь дастатковыя дзеянні, каб выправіць або пазбегнуць катастрофы. Больш ніхто не разумее, што гэта адбылося.

Фірма, якая вырабляе штучны інтэлект, можа ў любым выпадку неадкладна заявіць, што яна не вінаватая, таму што чалавек меў кантроль. Згодна з іх бездакорнымі запісамі, штучны інтэлект не кантраляваў сітуацыю ў момант кабума. Чалавек быў. Таму відавочна, відавочна, што вінаваты чалавек.

Ці хлусіць кампанія штучнага інтэлекту, калі робіць гэта адкрытае сцвярджэнне?

Не, здаецца, праўду гавораць.

Калі іх спыталі, ці ўпэўнены яны, што штучны інтэлект не кантраляваў сітуацыю, кампанія гучна і з гонарам заявіла, што штучны інтэлект зусім не кантраляваў. У іх ёсць дакументальныя доказы гэтага сцвярджэння (пры ўмове, што ІІ вёў журнал інцыдэнту). На самай справе, кіраўнікі кампаніі штучнага інтэлекту могуць падняць бровы з агідай, што хто-небудзь аспрэчвае іх добрасумленнасць у гэтым пытанні. Яны былі б гатовыя паклясціся на сваёй святой клятве, што ІІ быў ня пад кантролем. Чалавек у пятлі меў кантроль.

Я веру, што вы бачыце, наколькі гэта можа ўвесці ў зман.

Так, чалавеку перадалі кіраванне. Тэарэтычна ўсё кантраляваў чалавек. AI больш не кантраляваў. Але адсутнасць даступнага часу і апавяшчэнняў у значнай ступені робіць гэтую заяву надзвычай пустой.

Прыгажосць гэтага, з пункту гледжання вытворцы штучнага інтэлекту, заключаецца ў тым, што мала хто можа аспрэчыць прапанаваныя прэтэнзіі. Вытворца штучнага інтэлекту можа не апублікаваць журналы інцыдэнту. Гэта можа выдаць сфальсіфікаваную сітуацыю. Сцвярджаецца, што журналы з'яўляюцца аб'ектам інтэлектуальнай уласнасці (IP) або іншым чынам маюць права ўласнасці і канфідэнцыяльны характар. Фірма, хутчэй за ўсё, будзе сцвярджаць, што калі часопісы будуць паказаны, гэта прадэманструе сакрэт іх штучнага інтэлекту і знясіліць іх каштоўны IP.

Уявіце сабе бядотнае становішча беднага чалавека ў пятлі. Іх збянтэжыла тое, што ўсе вінавацяць іх у тым, што яны выпусцілі рэчы з-пад кантролю. ШІ «зрабіў правільна» і перадаў кіраванне чалавеку. Магчыма, гэта было тое, пра што гаварылася ў спецыфікацыях (зноў жа, спецыфікацыі былі недарэчнымі, не прымаючы пад увагу фактары часу і магчымасці выканання). Журналы, якія не былі апублікаваны, але, як сцвярджаецца вытворцам штучнага інтэлекту, сведчаць абсалютны факт таго, што чалавек атрымаў кантроль ад штучнага інтэлекту.

Вы маглі б абвясціць гэта жаласным рэзкім ударам збянтэжанага чалавека, які амаль напэўна ўпадзе.

Хутчэй за ўсё, толькі калі справа дойдзе да суда, рэальнасць таго, што адбылося, стане вядомай. Калі дасціпныя законныя біглі ведаюць пра гэты тып канцэртаў, яны паспрабуюць законна атрымаць журналы. Ім трэба будзе выклікаць сведку-эксперта (тое, што я час ад часу рабіў), каб расшыфраваць журналы. Адных бярвенняў можа быць недастаткова. Бярвёны могуць быць падроблены або зменены, або спецыяльна распрацаваны, каб не дэманстраваць дэталі выразна. Такім чынам, код штучнага інтэлекту можа таксама спатрэбіцца паглыбіцца.

Між тым, на працягу ўсяго гэтага пакутлівага і працяглага працэсу юрыдычнага адкрыцця, чалавек у пятлі будзе выглядаць вельмі дрэнна. Сродкі масавай інфармацыі апісваюць чалавека безадказным, страціўшым галаву, нядбайным і павінны несці поўную адказнасць. Магчыма, на працягу некалькіх месяцаў ці гадоў, падчас гэтага працэсу, гэты чалавек па-ранейшаму будзе тым, на каго ўсе паказваюць абвінавачваючым пальцам. Магчыма, смурод ніколі не пазбавіцца.

Памятайце таксама, што такая ж сітуацыя можа паўтарыцца зноў. І яшчэ раз. Калі выказаць здагадку, што вытворца штучнага інтэлекту не змяніў штучны інтэлект, кожны раз, калі ўзнікае падобная сітуацыя ў апошнюю хвіліну, штучны інтэлект будзе выконваць гэтую перадачу без астатку часу. Можна спадзявацца, што такія сітуацыі здараюцца не часта. У тых рэдкіх выпадках, калі гэта адбываецца, чалавек у пятлі па-ранейшаму застаецца зручным падзеннем.

Гэта д'ябальскі трук.

Магчыма, вы захочаце настойваць на тым, што вытворца штучнага інтэлекту не зрабіў нічога дрэннага. Яны кажуць праўду. ШІ адмовіўся ад кантролю. Чалавек тады лічыўся ва ўладзе. Гэта факты. Няма сэнсу аспрэчваць.

Незалежна ад таго, калі хто-небудзь адумаецца і задае складаныя пытанні, а таксама ці адказвае вытворца штучнага інтэлекту на гэтыя пытанні простым спосабам, здаецца, што гэта здараецца рэдка.

Пытанні ўключаюць:

  • Калі штучны інтэлект зрабіў перадачу чалавеку ў цыкле?
  • На якой запраграмаванай аснове штучны інтэлект зрабіў перадачу?
  • Ці было дадзена чалавеку ў цыкле дастаткова часу, каб узяць кантроль?
  • Як штучны інтэлект быў распрацаваны і створаны для гэтых цяжкасцей?
  • І гэтак далей.

У пэўнай ступені менавіта таму этыка штучнага інтэлекту і этычны штучны інтэлект з'яўляюцца такой важнай тэмай. Правілы этыкі штучнага інтэлекту прымушаюць нас заставацца пільнымі. Тэхнолагі штучнага інтэлекту часам могуць быць заклапочаныя тэхналогіямі, асабліва аптымізацыяй высокіх тэхналогій. Яны не абавязкова ўлічваюць больш шырокія грамадскія наступствы. Наяўнасць мыслення ў галіне этыкі штучнага інтэлекту і ўключэнне яго ў распрацоўку і ўкараненне штучнага інтэлекту мае жыццёва важнае значэнне для стварэння адпаведнага штучнага інтэлекту, у тым ліку (магчыма, дзіўна або іранічна) для ацэнкі таго, як этыка штучнага інтэлекту прымаецца кампаніямі.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Фактычна, яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гусака, заціснуўшы дасягненні ў галіне штучнага інтэлекту, якія прыносяць велізарныя перавагі для грамадства.

На гэтым этапе гэтай важкай дыскусіі, я магу паспрачацца, што вы жадаеце дадатковых ілюстрацыйных прыкладаў, якія маглі б прадэманстраваць гэтую тэму. Ёсць асаблівы і, несумненна, папулярны набор прыкладаў, якія мне блізкія. Разумееце, у маёй якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адной з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему штучнага інтэлекту, з'яўляецца з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту. Гэта паслужыць зручным варыянтам выкарыстання або ўзорам для шырокага абмеркавання тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту прасвятляе што-небудзь пра сіндром гарачай бульбы са штучным інтэлектам, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і AI сіндром гарачай бульбы

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць папярэджанняў, якія ляжаць у аснове таго, што я збіраюся расказаць.

Для цалкам аўтаномных транспартных сродкаў можа не быць ніякіх шанцаў на перадачу паміж штучным інтэлектам і чалавекам з-за верагоднасці адсутнасці чалавека ў цыкле. Імкненне многіх сучасных вытворцаў беспілотных аўтамабіляў - цалкам пазбавіць чалавека-кіроўцы ад задачы кіравання. У транспартным сродку нават не будзе даступных для чалавека элементаў кіравання. У такім выпадку кіроўца-чалавек, калі ён прысутнічае, не зможа ўдзельнічаць у кіраванні аўтамабілем, паколькі ў яго няма доступу да элементаў кіравання.

Для некаторых цалкам аўтаномных транспартных сродкаў некаторыя канструкцыі па-ранейшаму дазваляюць чалавеку быць у курсе, хоць чалавеку зусім не абавязкова быць даступным або ўдзельнічаць у працэсе кіравання. Такім чынам, чалавек можа ўдзельнічаць у кіраванні аўтамабілем, калі ён гэтага пажадае. Аднак ні ў якім разе штучны інтэлект не залежыць ад чалавека для выканання якой-небудзь задачы кіравання.

У выпадку паўаўтаномных транспартных сродкаў паміж чалавекам-кіроўцам і штучным інтэлектам існуе рука аб руку. Для некаторых канструкцый чалавек-кіроўца можа цалкам узяць на сябе кіраванне аўтамабілем і, па сутнасці, спыніць ІІ ад удзелу ў кіраванні. Калі кіроўца-чалавек жадае аднавіць ІІ у ролі кіроўцы, ён можа гэта зрабіць, хоць гэта часам прымушае чалавека адмовіцца ад кіравання.

Іншая форма паўаўтаномнай працы прадугледжвала б працу чалавека-кіроўцы і ІІ у камандзе. ШІ кіруе аўтамабілем, а чалавек кіруе. Едуць разам. ШІ можа падпарадкоўвацца чалавеку. Чалавек можа падпарадкоўвацца ІІ.

У нейкі момант сістэма ваджэння штучнага інтэлекту можа з дапамогай вылічэнняў вызначыць, што беспілотны аўтамабіль трапляе ў непрыдатную сітуацыю і што аўтаномны транспартны сродак разаб'ецца.

Акрамя таго, некаторыя эксперты сцвярджаюць, што беспілотныя аўтамабілі не паддаюцца аварыям, што з'яўляецца чыстай лухтой і абуральным і памылковым выказваннем. Глядзіце мой матэрыял на спасылка тут.

Працягваючы сцэнарый беспілотнага аўтамабіля, які рухаецца да сутыкнення або аўтамабільнай аварыі, сістэма ваджэння штучнага інтэлекту можа быць запраграмавана на неадкладную перадачу кіравання вадзіцелю-чалавеку. Калі ў вадзіцеля-чалавека ёсць дастаткова часу для ўхілення, гэта сапраўды можа быць разумным і правільным крокам для ІІ.

Але выкажам здагадку, што штучны інтэлектуальны інтэлект выконвае перадачу, калі да канца засталася доля секунды. Час рэакцыі чалавека-кіроўцы далёка не настолькі хуткі, каб адэкватна адказаць. Да таго ж, калі цудам чалавек быў дастаткова хуткім, вялікая верагоднасць таго, што не існуе дзейсных дзеянняў ухілення, якія можна было б распачаць за абмежаваны час, які застаўся да аварыі. Гэта два варыянты: (1) недастаткова часу для таго, каб кіроўца-чалавек прыняў меры, (2) недастатковы час, каб, калі кіроўца-чалавек мог зрабіць дзеянне, дзеянне магло быць ажыццёўлена за недастатковы прамежак часу.

Увогуле, гэта падобна да майго ранейшага абмеркавання сітуацыі з гукам баскетбола і заводскага абсталявання, якое ашалела.

Давайце дадамо да гэтага гнюсны інгрэдыент.

Аўтавытворца або тэхналагічная фірма, якая займаецца самакіраваннем, не хочуць, каб яго пазначалі рознымі аварыямі, якія адбываліся ў іх аўтапарку. Сістэма ваджэння штучнага інтэлекту запраграмавана заўсёды перадаваць кіраванне кіроўцу-чалавеку, незалежна ад таго, ці ёсць у кіроўцы-чалавека дастаткова часу, каб зрабіць што-небудзь з цяжкім становішчам. Кожны раз, калі адбываецца аварыя такога кшталту, аўтавытворца або тэхналагічная фірма, якая займаецца самакіраваннем, можа ў голас настойваць на тым, што за рулём быў чалавек-кіроўца, а штучны інтэлект - не.

Іх паслужны спіс для сістэм кіравання AI, здаецца, зорны.

Ні разу сістэма ваджэння штучнага інтэлекту не была «вінаватая» ў такіх аварыях. Заўсёды гэтыя праклятыя кіроўцы-людзі, здаецца, не адрываюць вачэй ад дарогі. Мы можам схільныя праглынуць гэтую дурніцу і паверыць, што цалкам дакладны штучны інтэлект ніколі не памыляецца. Мы можам схільныя верыць (паколькі мы ведаем з вопыту), што людзі-кіроўцы неакуратныя і робяць масу памылак за рулём. Лагічная выснова заключаецца ў тым, што людзі-кіроўцы павінны быць вінаватыя, а сістэма кіравання AI цалкам невінаватая.

Перш чым некаторыя прыхільнікі самакіравання засмуцяцца з-за гэтай характарыстыкі, давайце цалкам прызнаем, што вадзіцель-чалавек цалкам можа быць вінаваты і што яны павінны былі прыняць меры раней, напрыклад, пераняць кіраванне аўтамабілем у ІІ. Таксама існуе верагоднасць таго, што кіроўца-чалавек мог зрабіць нешта істотнае, калі ІІ перадаў кіраванне аўтамабілем. І г.д.

У цэнтры ўвагі былі абставіны, калі штучны інтэлект лічыўся кіроўцам транспартнага сродку, а потым рэзка і без асаблівай увагі да таго, што кіроўца-чалавек можа зрабіць, кідае кіроўцу-чалавеку гарачую бульбу. Гэта таксама тое, чаму многія занепакоеныя падвойнай роляй кіравання паўаўтаномнымі транспартнымі сродкамі. Можна сказаць, што за рулём занадта шмат кіроўцаў. Падобна на тое, што мэта складаецца ў тым, каб вырашыць гэтую праблему шляхам стварэння цалкам аўтаномных аўтамабіляў, якім не патрэбны чалавек за рулём, а штучны інтэлект заўсёды кіруе аўтамабілем.

Гэта падымае саюзніцкае пытанне аб тым, што ці хто нясе адказнасць, калі штучны інтэлект кіруе аўтамабілем, пра што я шмат разоў звяртаўся ў сваіх калонках, напрыклад спасылка тут і спасылка тут.

заключэнне

Мы павінны быць асцярожнымі, калі чуем або чытаем пра аўтамабільныя аварыі з удзелам паўаўтаномных транспартных сродкаў. Будзьце асцярожныя з тымі, хто спрабуе падмануць нас, заяўляючы, што іх сістэма кіравання штучным інтэлектам мае бездакорныя вынікі. Падступная хітрасць в ІІ Сіндром гарачай бульбы можа быць у сумесі.

Для кампаній, якія спрабуюць быць хітрымі ў гэтых пытаннях, магчыма, мы можам захаваць побач са сваімі сэрцамі знакаміты радок Абрагама Лінкальна: «Вы можаце падмануць усіх людзей некаторы час і некаторых з людзей увесь час, але вы не можаце падмануць усе людзі ўвесь час.»

Я паспрабаваў раскрыць тут магію штучнага інтэлекту, схаваную за экранам і часам змешчаную пад капотам, якую я растлумачыў, каб больш людзей ня будзе быць падманутым больш часу.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- здавалася б, спрабуючы-пазбегнуць-адказнасці-за-сваё-жыцце-рашаючыя-аўтаномныя-сістэмы/