Этыка штучнага інтэлекту супраць падступнага адзінага розуму алгарытмічнай монакультуры ІІ, у тым ліку для аўтаномных самакіраваных аўтамабіляў

Давайце разбярэмся ў загадкавай загадцы.

Кажуць, што вялікія розумы думаюць аднолькава.

Вы, несумненна, шмат разоў чулі гэтую зручную крылатую фразу. Падчас нейкіх бяздзейных размоў, калі вам і калегу або сябру ўдаецца прыйсці да адной ідэі ў адзін і той жа момант, адзін з вас абавязкова ўсклікне з радасцю, што вялікія розумы думаюць аднолькава. Гэта, несумненна, пахвальна выказванне пра вас і вашых блізкіх.

Ёсць яшчэ адна мудрасць мудраца, якую мы можам дадаць да гэтай сумесі.

Кажуць, што дурні рэдка адрозніваюцца.

Я хацеў бы крыху перафармуляваць гэтае выслоўе. Здавалася б, дастаткова эквівалентная прымаўка: дурні звычайна думаюць аднолькава. Я разумею, што вы маглі б прыдзірацца з пераробкай знакамітага радка. Тым не менш, здаецца адносна дакладным, што калі дурні рэдка бываюць рознымі, можна зрабіць выснову, што дурні ў асноўным схільныя схіляцца да падобнага мыслення. Я спадзяюся, што гэта не выкліча занадта шмат пякоткі або жаху ў сувязі з адхіленнем змены святой мудрасці.

Зараз мы знаходзімся ў небяспечны момант гэтай дылемы.

Выкажам здагадку, што мы адкрыта прызнаем думку аб тым, што вялікія розумы думаюць аднолькава, як правіла, з'яўляецца праўдай, і мы адначасова прызнаем сцвярджэнне, што дурні, як правіла, думаюць аднолькава, таксама з'яўляецца праўдай. Калі вы сутыкаецеся з групай людзей, якія думаюць аднолькава, я павінен задаць вам простае пытанне.

Усе яны вялікія розумы ці ўсе дурні?

Yikes!

Згодна з правілам аб вялікіх розумах, яны, як мяркуецца, маюць вялікі розум. З іншага боку, па правіле аб дурнях, яны, відаць, усе дурні. Здаецца, у нас праблема. Вы можаце заікацца, што, магчыма, гэтыя аднадумцы адначасова і разумныя, і дурні. Ці можаце вы быць абодвума адначасова? Здаецца, вы спрабуеце задаць пытанне.

Вы можаце горача сцвярджаць, што аднолькавае мысленне не дае ніякай інфармацыі аб тым, разважае сабранае надта ці па-дурному. Магчыма, мы ненаўмысна перавярнулі логіку з ног на галаву. Любая група людзей, якія думаюць аднолькава, - гэта проста аднолькавыя думкі. Вы не можаце спрабаваць накласьці на іх падабенства мысьленьня ярлык альбо як набору вялікіх розумаў, альбо як дурных розумаў. Яны могуць быць заблытанымі розумамі. Яны могуць быць перакананымі розумамі. Па сутнасці, характарыстыка можа неабавязкова трапляць у некалькі ілжывую дыхатамію выключна быць вялікім або быць дурным.

Існуюць самыя розныя ідэі, звязаныя з наладамі, звязанымі з людзьмі, якія маюць аднолькавае меркаванне.

Як паведамляецца, Махатма Гандзі казаў, што невялікая група рашучых і аднадумцаў можа змяніць ход гісторыі. Гэта, несумненна, дэманструе велізарную патэнцыю мець аднадумцы. Платон папярэджваў, што калі справа даходзіць да замкнёных розумаў, якімі можна меркаваць, што непахісная група аднадумцаў можа быць, вы можаце атрымаць наступнае: «Гэтага аднаго трэба баяцца: замкнёнага розуму, спячага ўяўлення, смерць духу».

Куды я іду з гэтай літаніяй цікавостак пра падобныя розумы?

Аказваецца, ёсць занепакоенасць тым, што штучны інтэлект паступова вядзе нас па непазбежным і непажаданым шляху да таго, што алгарытмы штучнага інтэлекту-аднадумцы кіруюць нашай паўсядзённай дзейнасцю. Гэта коратка называецца Алгарытмічная монакультура штучнага інтэлекту.

Мы набліжаемся да таго, што грамадства абапіраецца на паўсюдныя сістэмы штучнага інтэлекту, якія могуць мець аднолькавыя або амаль аднолькавыя асноўныя алгарытмічныя магчымасці. У гэтым сэнсе мы ўразлівыя да аднадумцаў у масавых маштабах, якія будуць існаваць па ўсім свеце.

Перш чым паглыбіцца ў гэтую тэму, я хачу адразу ўдакладніць, што я не маю на ўвазе ІІ, які разумны. Як я растлумачу праз імгненне, сёння ў нас няма разумнага ІІ. Нягледзячы на ​​​​гэтыя дзікія загалоўкі з шырока расплюшчанымі вачыма, якія абвяшчаюць, што ў нас ёсць разумны штучны інтэлект, гэта зусім не так, і на гэта трэба ігнараваць.

Прычына, па якой я падкрэсліваю гэты важны момант, заключаецца ў тым, што калі я апісваю штучны інтэлект як "аднадумцаў", я не хачу, каб вы прыйшлі да высновы, што сучасны штучны інтэлект нейкім чынам эквівалентны чалавечаму розуму. Гэта, безумоўна, не. Калі ласка, не стварайце такіх антрапаморфных асацыяцый. Я выкарыстоўваю фразу аднадумцаў толькі для таго, каб падкрэсліць, што алгарытмы штучнага інтэлекту могуць быць складзеныя такім чынам, што яны працуюць аднолькава. Хаця яны не «думаюць» ні ў якім разе таго, што мы б вытлумачылі як чалавечае мысленне. Неўзабаве я раскажу пра гэта больш падрабязна.

ШІ, які з'яўляецца «аднадумцам» з пункту гледжання алгарытмічнай монакультурнай канструкцыі, - гэта тое, што мы можам ацаніць як дрэннае і добрае адначасова. Дрэнны бок рэчаў заключаецца ў тым, што калі гэты штучны інтэлект аднолькавасці, які звычайна выкарыстоўваецца і ўжываецца, багаты прадузятасцямі і дыскрымінацыйнымі ўключэннямі, ІІ, хутчэй за ўсё, будзе падступна выкарыстоўвацца на шырокай аснове і распаўсюджваць гэтыя непрыемныя практыкі паўсюдна. Добры бок рэчаў заключаецца ў тым, што калі штучны інтэлект распрацаваны належным чынам і выкананы без прадузятасцей і дыскрымінацыйных уключэнняў, мы спадзяемся, што справядлівасць будзе распаўсюджвацца шырока. Усё гэта мае паказальныя наступствы для этыкі штучнага інтэлекту і этычнага штучнага інтэлекту. Пра тое, што я працягваю і шырока асвятляю этыку штучнага інтэлекту і этычны штучны інтэлект, гл спасылка тут і спасылка тут.

Вось мае сем зручных правілаў адносна алгарытмічнай монакультуры штучнага інтэлекту:

1) Алгарытмічная монакультура штучнага інтэлекту складаецца з выкарыстання аднолькавых або амаль аднолькавых базавых алгарытмаў, якія затым шырока выкарыстоўваюцца для прыняцця рашэнняў, якія ўплываюць на людзей

2) Такі ІІ можа забяспечыць паслядоўнасць і надзейнасць, хоць гэта палка з двума канцамі

3) Адзін бок заключаецца ў тым, што ІІ, які перадае неспрыяльныя ўхілы, лёгка распаўсюджваецца і выкарыстоўваецца зноў і зноў неспрыяльнымі спосабамі (гэта дрэнна)

4) З іншага боку, штучны інтэлект, які ўвасабляе справядлівасць і іншыя справядліва жаданыя ўласцівасці, на шчасце, можа быць шырока распаўсюджаны (гэта добра)

5) Існуе пэўная агульнасістэмная ўразлівасць пры аднастайнасці штучнага інтэлекту такога ўзроўню, і яна можа быць значна паніжаная разбуральнымі шокамі

6) Часам можна аддаць перавагу гетэрагеннасці штучнага інтэлекту, хоць гэта выклікае занепакоенасць шырокімі неадпаведнасцямі, якія могуць узнікнуць

7) Нам усім трэба думаць пра алгарытмічную монакультуру штучнага інтэлекту, сачыць за ёй і змагацца з ёй

Перш чым прыступаць да больш падрабязнай інфармацыі аб дзікіх і шарсцістых меркаваннях, якія ляжаць у аснове алгарытмічнай монакультуры штучнага інтэлекту, давайце ўсталюем некаторыя дадатковыя асновы па глыбока інтэгральным тэмам. Нам трэба ненадоўга акунуцца ў этыку штучнага інтэлекту і асабліва ў з'яўленне машыннага навучання (ML) і глыбокага навучання (DL).

Магчыма, вы цьмяна ведаеце, што адзін з самых гучных галасоў у нашы дні ў вобласці ІІ і нават па-за межамі ІІ складаецца ў тым, каб дамагацца большага падабенства этычнага ІІ. Давайце паглядзім, што азначае спасылка на этыку ІІ і этычны ІІ. Акрамя таго, мы вывучым, што я маю на ўвазе, калі кажу пра машыннае навучанне і глыбокае навучанне.

Адзін канкрэтны сегмент або частка этыкі ІІ, які прыцягвае вялікую ўвагу СМІ, складаецца з ІІ, які дэманструе непрыхільныя прадузятасці і няроўнасць. Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Праз хвіліну я падзялюся з вамі некаторымі агульнымі прынцыпамі, якія ляжаць у аснове этыкі ІІ. Тут і там шмат такіх спісаў. Можна сказаць, што пакуль не існуе адзінага спісу універсальнай прывабнасці і супадзення. Вось такая прыкрая навіна. Добрая навіна заключаецца ў тым, што, прынамсі, ёсць лёгка даступныя спісы этыкі AI, і яны, як правіла, вельмі падобныя. Увогуле, гэта сведчыць аб тым, што з дапамогай свайго роду аргументаванага збліжэння мы знаходзім шлях да агульнай агульнасці таго, з чаго складаецца этыка ІІ.

Спачатку давайце коратка азнаёмімся з некаторымі агульнымі запаветамі этычнага інтэлекту, каб праілюстраваць, што павінна быць важнай увагай для тых, хто стварае, вядзе або выкарыстоўвае ІІ.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента AI будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў AI, уключаючы празрыстыя і паддаюцца праверку метадалогіі, крыніцы даных, а таксама працэдуру праектавання і дакументацыю.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важны момант, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падпарадкоўваюцца паняццям этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Давайце таксама пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сённяшняга ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы ІІ, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Разумны ІІ нібыта быў бы чалавечага якасці. Вам трэба будзе ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што мы можам мець звышінтэлектуальны ІІ, можна ўявіць, што такі ІІ можа апынуцца разумнейшым за людзей (для майго даследавання звышінтэлектуальнага ІІ як магчымасці гл. асвятленне тут).

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Давайце вернемся да нашай увагі да алгарытмічнай монакультуры штучнага інтэлекту.

Здаецца, мы ўсе ўсведамляем, што ў сучасным узаемазвязаным свеце, заснаваным на лічбавых тэхналогій, мы можам быць асуджанымі, маючы нават маленечкі кавалачак даных, якія захоўваюцца ў базе дадзеных і, здаецца, ідуць куды заўгодна. Напрыклад, выкажам здагадку, што існуе база дадзеных, якая змяшчае частку дадзеных, якія змяшчаюць паказчык таго, што вы не крэдытаздольныя. Гэта можа быць праўдай пра вас ці цалкам ілжывым. Магчыма, вы ведаеце, што база даных утрымлівае гэту інфармацыю, а можаце зусім не ведаць пра гэта. Гэта адна вялікая хітрасць сусвету, перапоўненага дадзенымі, у які мы ўсе пагружаныя.

База дадзеных, якая змяшчае гэты індыкатар, можа лёгка падзяліцца гэтым жыццёва важным аспектам пра вас з іншымі базамі дадзеных у іншым месцы. У адно імгненне вока электронна падключаныя базы даных па ўсім свеце могуць зараз перадаць сцяг, што вы не крэдытаздольныя. Калі вы вырашыце падаць заяўку на пазыку, вялікая верагоднасць таго, што якое-небудзь прыкладанне для зацвярджэння пазыкі звернецца да адной з гэтых баз даных і атрымае сцяг, які кажа, што вы павінны быць пагарджаныя. Вы можаце паспрабаваць атрымаць крэдыт, знаходзячыся ў адной частцы свету, і атрымаць адмову. Падарожжа ў іншую вобласць можа прынесці мала карысці. Узаемасувязь баз даных будзе пераследваць вас незалежна ад таго, як далёка вы паедзеце.

На шчасце, існуюць розныя законы аб даных і прыватнасці, якія паступова прымаюцца. Законы істотна адрозніваюцца ад краіны да краіны. Яны таксама могуць адрознівацца ад штата да штата. Але, па меншай меры, ёсць усведамленне небяспекі, звязанай з наяўнасцю дадзеных у базах дадзеных, якія здольныя хутка распаўсюджваць інфармацыю пра вас. Спадзяюся, што ў вас будзе юрыдычная магчымасць паспрабаваць прадухіліць ілжывую інфармацыю або, па меншай меры, ведаць, што яна існуе пра вас. Глядзіце маё асвятленне на спасылка тут аб парушэннях прыватнасці і ІІ.

Мяркую, вы маглі б сказаць, што даныя пра вас - гэта праславутая гульня «тэг, вы гэта» (у якой мы часам хочам быць пазначаным чалавекам, а іншы раз хочам не быць пазначанымі).

Зрабіце глыбокі ўдых.

Выкажам здагадку, што мы ўзмахнем чароўнай палачкай і можам цудоўным чынам гарантаваць, што гэтая аднастайнасць дадзеных пра вас не адбудзецца. Мы можам прымусіць усё грамадства аб'яднацца і спыніць такія дзеянні. Такім чынам, вы можаце выказаць здагадку, што вам больш не пагражаюць такія праблемы.

На жаль, вы б прапусцілі небяспекі, звязаныя з алгарытмічнай монакультурай штучнага інтэлекту.

Вось чаму.

Вернемся да прыкладу спробы атрымаць крэдыт. Уявіце сабе, што вы звяртаецеся да крэдытора, і ён выкарыстоўвае сістэму штучнага інтэлекту, якая мае пэўны алгарытм, які мы будзем называць алгарытмам Y. У вашым выпадку, калі вы падаеце заяўку і даяце свае дадзеныя, алгарытм Y напісаны такім чынам, што ён на ляту матэматычна вызначыць, ці варта вам адмовіць у пазыцы. Па сутнасці, гэты алгарытм можа «вырашыць», што вы не крэдытаздольныя.

Звярніце ўвагу, што ў гэтым выпадку мы робім выгляд, што штучны інтэлект не звяртаўся да базы дадзеных, каб паспрабаваць атрымаць вашу крэдытаздольнасць. Такім чынам, няма шанцаў на тое, што штучны інтэлектуальны інтэлект зрабіў паварот на аснове некаторых дадзеных, якія захоўваліся ў базе дадзеных тут ці там. Увесь выбар быў зроблены з дапамогай алгарытму Y, што тычыцца вылічэнняў.

AI паказвае, што вам адмоўлена ў пазыцы. Я ўпэўнены, што вы былі б расчараваны такім вынікам. Аднак вы можаце паціснуць плячыма і выбраць іншага крэдытора. Зноў жа, вы дакладна ведаеце, што няма базы дадзеных, якая выбівае вас з канкурэнцыі. На вашу думку, усё, што вам трэба зрабіць, гэта працягваць спрабаваць у розных крэдытораў, і ў рэшце рэшт вы атрымаеце зялёнае святло.

Перайшоўшы да іншага крэдытора, вы зноў атрымліваеце адмову. Гэта бянтэжыць. Вы паспрабуеце іншага крэдытора, але хутка вам адмовяць. Адна за адной, кожная спроба прыводзіць да аднаго і таго ж жахлівага выніку. Вы раздражнёныя. Вы бясконца раздражнёныя.

Што, чорт вазьмі, адбываецца?

Усе гэтыя крэдыторы таемна змовіліся, каб пераканацца, што вы не атрымаеце крэдыт?

Кароткі адказ: «Не», і мы скажам, што яны самі па сабе не змаўляліся. Замест гэтага ўсе яны выкарысталі алгарытм Y. Яны не ўступілі ў «змову» ў тым сэнсе, што сабраліся ў кулуарах і пагадзіліся выкарыстоўваць алгарытм Y у сваім ІІ. Не было ніводнай сустрэчы ў стылі мафіі, на якой было б сказана, што яны ўсе будуць выкарыстоўваць алгарытм Y. У якасці заўвагі, можна меркаваць, што гэта сапраўды магло адбыцца, але дзеля абмеркавання мы пакуль адкладзем гэтыя альтэрнатывы ў бок .

Існуе цалкам разумная прычына таго, што алгарытм Y можа выкарыстоўвацца ўсімі гэтымі асобнымі і рознымі крэдыторамі. Магчыма, алгарытм Y даступны як адкрыты зыходны код. Распрацоўшчыкі штучнага інтэлекту ў кожным з гэтых розных крэдытораў маглі ў кожным выпадку проста звярнуцца да бібліятэкі з адкрытым зыходным кодам і скапіяваць гэты фрагмент кода ў сваю сістэму штучнага інтэлекту.

Верагодна, гэта быў самы просты і хуткі спосаб зрабіць працу. Няма неабходнасці з нуля спрабаваць распрацаваць гэты алгарытм Y. За некалькі хвілін онлайн-доступу кадаванне ўжо зроблена для вас і непасрэдна гатова да выкарыстання. Капіяваць і ўстаўляць. Больш за тое, магчыма, вы зможаце пазбегнуць адладкі кода. Ваша здагадка можа заключацца ў тым, што код ужо добра правераны і вам не трэба вынаходзіць ровар.

Добра, усе пазыкадаўцы за пазыкадаўцамі нявінна выбіраюць алгарытм Y. Ёсць вялікая верагоднасць таго, што алгарытм Y стане вядомы як "залаты стандарт", які будзе выкарыстоўвацца для вызначэння крэдытаздольнасці. І гэта зробіць прыняцце гэтага канкрэтнага алгарытму яшчэ больш папулярным. Распрацоўшчыкі штучнага інтэлекту не толькі эканомяць час, выкарыстоўваючы яго, але і робяць усё бяспечным. Усе астатнія клянуцца, што алгарытм жыццяздольны для выкарыстання. Чаму трэба змагацца з мудрасцю натоўпу? Здавалася б, рабіць гэта неасцярожна.

Сардэчна запрашаем у эру алгарытмічнай монакультуры штучнага інтэлекту.

На гэтым прыкладзе мы выявілі, што адзін і той жа алгарытм можа быць лёгка выкарыстаны зноў і зноў у мностве сістэм штучнага інтэлекту. Ніякай асаблівай канспіралогіі ў гэтым няма. Ніякага супер-пупер арганізаванага злога змовы пад рукой. Замест гэтых зламысных схем пэўны алгарытм становіцца дамінуючым па прычынах, якія можна назваць дабрадзейнымі і карыснымі.

У мінулыя гады існавала магчымасць шырокага выкарыстання тых жа алгарытмаў, хаця трэба было пераадолець больш перашкод. Сёння выкарыстанне канцэнтратараў захоўвання алгарытмаў практычна лёгка даступна. Адкрыты код больш прымаецца, чым гэта было, магчыма, у папярэдніх пакаленнях. І гэтак далей.

З дапамогай аднаго прыкладу крэдытора, які мы даследавалі, мы можам атрымаць двух крэдытораў, дваццаць крэдытораў, дзвесце крэдытораў, дзве тысячы крэдытораў або, магчыма, сотні тысяч крэдытораў, усе выбіраюць той жа алгарытм Y у сваіх AI. Алгарытм AI надзейны. Ён адбіраецца і ўкараняецца ў штучны інтэлект па ўсім свеце.

Ніхто не падымае ніякіх чырвоных сцягоў. Для гэтага няма відавочных прычын. Ва ўсякім разе, чырвоны сцяг можа быць узняты, калі нейкі крэдытор вырашыць не выкарыстоўваць алгарытм Y. Гэй, пытанне можа быць закліканым, вы не выкарыстоўваеце алгарытм Y. Што дае? Вы наўмысна спрабуеце зрабіць што-небудзь няякаснае або бруднае? Збярыцеся і далучайцеся да ўсіх.

Экстрапалюйце гэтую тую ж канцэптуальную монакультуру на разнастайныя сістэмы штучнага інтэлекту і разнастайныя алгарытмы.

Даследчае даследаванне апісвае гэты феномен наступным чынам: «Павышэнне колькасці алгарытмаў, якія выкарыстоўваюцца для фарміравання грамадскага выбару, суправаджалася занепакоенасцю монакультурай — уяўленнем, што выбар і перавагі стануць аднароднымі перад абліччам алгарытмічнага курыравання» (Jon Kleinberga і Manish Raghavana, «Алгарытмічная монакультура і сацыяльнае забеспячэнне» PNAS 2021). Далей яны адзначаюць: «Нават калі алгарытмы больш дакладныя ў кожным канкрэтным выпадку, свет, у якім усе выкарыстоўваюць адзін і той жа алгарытм, успрымальны да звязаных збояў, калі алгарытм аказваецца ў неспрыяльных умовах».

Цяпер мы можам з карысцю перагледзець мой папярэдні набор з сямі правіл аб алгарытмічнай монакультуры штучнага інтэлекту:

1) Алгарытмічная монакультура штучнага інтэлекту складаецца з выкарыстання аднолькавых або амаль аднолькавых базавых алгарытмаў, якія затым шырока выкарыстоўваюцца для прыняцця рашэнняў, якія ўплываюць на людзей

2) Такі ІІ можа забяспечыць паслядоўнасць і надзейнасць, хоць гэта палка з двума канцамі

3) Адзін бок заключаецца ў тым, што ІІ, які перадае неспрыяльныя ўхілы, лёгка распаўсюджваецца і выкарыстоўваецца зноў і зноў неспрыяльнымі спосабамі (гэта дрэнна)

4) З іншага боку, штучны інтэлект, які ўвасабляе справядлівасць і іншыя справядліва жаданыя ўласцівасці, на шчасце, можа быць шырока распаўсюджаны (гэта добра)

5) Існуе пэўная агульнасістэмная ўразлівасць пры аднастайнасці штучнага інтэлекту такога ўзроўню, і яна можа быць значна паніжаная разбуральнымі шокамі

6) Часам можна аддаць перавагу гетэрагеннасці штучнага інтэлекту, хоць гэта выклікае занепакоенасць шырокімі неадпаведнасцямі, якія могуць узнікнуць

7) Нам усім трэба думаць пра алгарытмічную монакультуру штучнага інтэлекту, сачыць за ёй і змагацца з ёй

Як было адзначана ў маім правіле № 2, у алгарытмічнай монакультуры штучнага інтэлекту відавочна палка з двума канцамі.

Згодна з маім правілам № 3, вы можаце апынуцца на кароткім канцы палкі. Калі вам адмаўляюць крэдытор за крэдыторам, куды б вы ні пайшлі, і калі алгарытм Y робіць гэта на аснове прадузятасці або іншай неадпаведнай асновы, вы, на жаль, праклятыя. Вам будзе значна цяжэй спрабаваць гэта адмяніць. У выпадку звестак пра вас у базе даных вялікая верагоднасць таго, што вы атрымаеце прававую дапамогу, а таксама агульнае прызнанне таго, што могуць зрабіць дрэнныя дадзеныя. Мала хто зразумее, што дрэнны алгарытм ідзе за вамі на край свету.

Згодна з маім правілам № 4, у алгарытмічнай монакультуры штучнага інтэлекту ёсць патэнцыяльны плюс. Выкажам здагадку, што алгарытм Y справядліва перашкаджае вам атрымаць крэдыт. Магчыма, вы спрабавалі хітра і згубна падмануць рэчы, робячы пакупкі. Паколькі той жа алгарытм Y шырока выкарыстоўваецца, вашы пакупкі наўрад ці стануць золатам. Хаця нам можа не спадабацца ідэя пастаяннай і распаўсюджанай магчымасці справядлівасці алгарытму (калі такая рэч ёсць, глядзіце мой аналіз на спасылка тут), магчыма, мы можам радавацца, калі добрае распаўсюджваецца шырока.

Далей абмяркуем шокі.

У маім правіле № 5 я ўказваю, што ёсць асноўнае сумнеў, што алгарытмічная монакультура штучнага інтэлекту можа падвергнуцца масавым парушэнням. Гэта лёгка тлумачыцца. Уявіце, што ў алгарытме Y ёсць праграмная памылка. Ніхто гэтага не заўважыў. Эоны ён хаваўся там навідавоку. Калі вы сумняваецеся, што гэта калі-небудзь магло здарыцца, а менавіта, што памылка была б у кодзе з адкрытым зыходным кодам, але яшчэ не была знойдзена раней, глядзіце мой асвятленне на спасылка тут такіх выпадкаў.

Памылка выяўляецца і прыводзіць да таго, што алгарытм Y больш не з'яўляецца праслаўленым фрагментам кода, якім усе яго лічылі. Зразумейце, што гэтая памылка знаходзіцца ў гэтых тысячах і тысячах сістэм штучнага інтэлекту. У хуткім часе памылку можна сустрэць па ўсёй планеце, і мы хутка апынемся перад жахлівым беспарадкам. Паколькі ўсе кладуць свае яйкі ў адзін кошык, і паколькі кошык цяпер зусім не ў парадку, тое ж самае адбываецца ва ўсім свеце.

Катастрофа эпічных маштабаў.

Тэарэтычна, гэта не адбылося б лёгка, калі б кожны з крэдытораў распрацоўваў свае ўласныя алгарытмы. Вялікая верагоднасць таго, што калі б у аднаго з іх была памылка, у іншых не было б. У выпадку, калі ўсе яны выкарыстоўваюць адзін і той жа базавы код, ва ўсіх адна і тая ж памылка.

Пракляты, калі робіш, пракляты, калі не.

Я ўпэўнены, што некаторыя з вас крычаць, што добрая навіна пра памылку ў монакультурным асяроддзі заключаецца ў тым, што калі ёсць даступнае выпраўленне, кожны можа проста ўвесці адно і тое ж выпраўленне. Здавалася б, гэта светлы і сонечны погляд на справу. Так, гэта можа спрацаваць. Аднак сутнасць тут у тым, што існуе павышаная верагоднасць паўсюднага зрыву. Нават калі з рашэннем можа быць прасцей справіцца, вы ўсё роўна сутыкнецеся з вялізнымі парушэннямі з-за граняў монакультуры.

Акрамя выпадку памылкі, які можа выклікаць шок, мы можам прыдумаць шмат іншых трывожных сцэнарыяў. Адзін з іх можа быць кібер-жулікам, які прыдумляе злы спосаб узурпаваць папулярны алгарытм. У руках злачынца магла быць добрая цана. Яны могуць пераходзіць ад ІІ да ІІ, прымушаючы ІІ рабіць нешта падлае. Усё таму, што адзін і той жа алгарытм выкарыстоўваўся зноў і зноў. Велізарны маштаб можа быць выкарыстаны для дабра і, на жаль, патэнцыйна можа быць выкарыстаны для зла.

На гэтым этапе гэтай важкай дыскусіі, я б паспрачаўся, што вы жадаеце некаторых ілюстратыўных прыкладаў, якія маглі б прадэманстраваць гэтую тэму. Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці паказвае з'яўленне сапраўдных самакіравальных аўтамабіляў на аснове штучнага інтэлекту што-небудзь пра алгарытмічную монакультуру штучнага інтэлекту, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і алгарытмічная монакультура штучнага інтэлекту

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць папярэджанняў, якія ляжаць у аснове таго, што я збіраюся расказаць.

Мы пачнем з таго, што сфармулюем некаторыя важныя падставы. Сістэмы ваджэння штучнага інтэлекту распрацоўваюцца, каб паспрабаваць бяспечна кіраваць беспілотнымі аўтамабілямі. Некаторыя аўтавытворцы і тэхналагічныя фірмы, якія займаюцца самакіраваннем, выкарыстоўваюць уласныя спосабы кадавання. Іншыя спадзяюцца на адкрыты код.

Уявіце, што некаторыя алгарытмы Z даступныя ў сховішчах з адкрытым зыходным кодам і зручныя для выкарыстання ў сістэмах кіравання AI. Аўтавытворца або тэхналагічная кампанія з самакіраваннем уключае алгарытм Z у сваю сістэму кіравання AI. Гэта будзе неад'емнай часткай іх сістэмы кіравання AI.

Калі яны выставяць, скажам, тузін беспілотных аўтамабіляў на дарогах, усе гэтыя аўтаномныя транспартныя сродкі будуць утрымліваць алгарытм Z як частку бартавога праграмнага забеспячэння сістэмы ваджэння AI. Паступова, пры ўмове, што беспілотныя аўтамабілі ездзяць бяспечна, аўтапарк павялічваецца да дваццаці беспілотных аўтамабіляў на дарогах. Прынята рашэнне аб далейшым нарошчванні. Неўзабаве дзве тысячы беспілотных аўтамабіляў гэтага парку ўжо на вуліцах і трасах. І гэтак далей.

Іншы аўтавытворца таксама выкарыстоўвае алгарытм Z у сваёй сістэме кіравання. Яны таксама разгортваюць свае беспілотныя аўтамабілі. Іх флот павялічваецца ў памерах. Неўзабаве тысячы іх беспілотных аўтамабіляў блукаюць сюды-туды.

Я веру, што вы бачыце, куды гэта ідзе.

Мы можам апынуцца ў алгарытмічнай монакультуры AI на фоне з'яўлення беспілотных аўтамабіляў на аснове AI. Мноства брэндаў і мадэляў аўтаномных транспартных сродкаў могуць мець пэўны алгарытм, які выкарыстоўваецца дзесьці ў іх сістэме кіравання AI. Ніякай змовы з гэтай нагоды не было. Ні пра якія вялікія змовы не ідзе.

Наконт таго, колькі беспілотных аўтамабіляў калі-небудзь можа з'явіцца на нашых дарогах, на гэтую тэму вядуцца гарачыя дэбаты. Мы ведаем, што толькі ў Злучаных Штатах сёння налічваецца каля 250 мільёнаў аўтамабіляў, якімі кіруюць людзі. Некаторыя мяркуюць, што, такім чынам, нам спатрэбіцца каля 250 мільёнаў беспілотных аўтамабіляў, калі выказаць здагадку, што ў рэшце рэшт мы адмовімся ад аўтамабіляў, якія кіруюцца людзьмі, або што яны, натуральна, будуць адменены і заменены беспілотнымі аўтамабілямі.

Не так хутка, некаторыя заклікаюць. Аўтамабілі, якімі кіруюць людзі, праводзяць каля 90% або больш часу без выкарыстання. Увогуле, машыны, кіраваныя людзьмі, стаяць прыпаркаваныя і чакаюць, што кіроўца-чалавек іх правядзе. Аўтамабілі на аснове штучнага інтэлекту могуць ездзіць увесь час. Як мяркуецца, у вас можа быць беспілотны аўтамабіль з штучным інтэлектам, які працуе кругласутачна, без выхадных, за выключэннем перыяду тэхнічнага абслугоўвання або іншага неабходнага прастою.

У такім выпадку вам, здаецца, не спатрэбіцца 250 мільёнаў беспілотных аўтамабіляў, каб замяніць адзін на адзін 250 мільёнаў аўтамабіляў, якія кіруюцца людзьмі. Магчыма, хопіць 200 мільёнаў беспілотных аўтамабіляў. Можа, 100 мільёнаў. Ніхто не можа сказаць дакладна. Маю ацэнку гэтага пытання гл спасылка тут.

На дадзены момант я хачу адзначыць, што ў нас могуць быць мільёны і мільёны беспілотных аўтамабіляў, якія блукаюць па нашых дарогах і дарогах. Колькі іх у канчатковым рахунку будзе на дарогах, гэта не вельмі важная праблема для гэтай размовы. Безумоўна, будзе шмат мільёнаў. Гэты памер у цэлым важны з-за алгарытмічнай монакультуры штучнага інтэлекту і ўласцівасці ключавога каменя сутыкацца як з перавагамі, так і з недахопамі ў масавым маштабе.

Вось паварот.

Па жахлівай выпадковасці ў алгарытме Z існуе сур'ёзная праблема, якую ніхто раней не заўважыў. Існуе памылка, якая прывядзе да таго, што астатняя сістэма кіравання AI пайдзе з ладу.

Дрэнныя навіны.

Для тых з вас, хто займаецца распрацоўкай сістэм кіравання AI, я разумею, што вы звычайна не любіце такія горшыя сцэнары, і хоць шанцы, магчыма, невялікія, тым не менш яны вартыя таго, каб іх абмеркаваць. Мы не можам трымаць галаву ў пяску. Лепш шырока расплюшчыць вочы і імкнуцца прадухіліць ці хаця б змякчыць гэтыя тыпы бедстваў.

Тэарэтычна, беспілотны аўтамабіль са штучным інтэлектам, які змяшчае гэтую памылку, можа спрабаваць урэзацца і ўрэзацца практычна з чым заўгодна, што можа зрабіць гэта. ШІ проста робіць тое, што было "прыдумана" ў гэтай абстаноўцы. Гэта было б катастрафічна.

Некаторыя з вас могуць падумаць, што тое, што адзін беспілотны аўтамабіль са штучным інтэлектам выпадкова сутыкнуўся з памылкай, само па сабе не будзе вялікай праблемай. Я кажу гэта таму, што як толькі беспілотны аўтамабіль са штучным інтэлектам уразаецца ў што-небудзь накшталт грузавіка ці што-небудзь яшчэ, сам транспартны сродак, хутчэй за ўсё, будзе настолькі пашкоджаны, што штучны інтэлект больш не зможа ім актыўна кіраваць для далейшага хаосу і разбурэння. Яно, так бы мовіць, мёртвае ў вадзе.

Што ж, улічвайце каэфіцыент маштабавання.

Калі ёсць мільёны і мільёны беспілотных аўтамабіляў і ўсе яны абапіраюцца на адзін і той жа ўбудаваны алгарытм Z, яны могуць, на жаль, выканаць тую ж памылку.

Я ведаю і пацвярджаю, што гэтую памылку можна выправіць або ліквідаваць з дапамогай OTA (Over-The-Air) электроннага распаўсюджвання праграмнага забеспячэння. У якасці кароткай даведкі многія хлынулі аб перавагах выкарыстання OTA. Калі патрабуецца абнаўленне праграмнага забеспячэння, вам не трэба будзе браць беспілотны аўтамабіль са штучным інтэлектам у аўтамайстэрню або аўтасалон. OTA можна практычна зрабіць усюды, дзе знаходзіцца самакіравальны аўтамабіль (з абмежаваннямі).

Між тым, пакуль мы не выявім памылку і не выправім яе, і перш чым адправіць гэта праз OTA, беспілотныя аўтамабілі на праезнай частцы ўсё яшчэ будуць знаходзіцца ў хісткім становішчы. Некаторыя сутыкнуліся з памылкай і пайшлі не так. Іншыя на парозе гэтага.

Мы маглі б настойваць на тым, каб усе беспілотныя аўтамабілі на дадзены момант спыніліся на месцы і не выкарыстоўваліся далей, пакуль выпраўленне OTA не будзе перададзена ў сістэмы кіравання AI. Уявіце сабе зрыў. Выкажам здагадку, што ў нас засталося вельмі мала машын, кіраваных людзьмі. Ёсць таксама верагоднасць таго, што беспілотныя аўтамабілі не будуць абсталяваны сродкамі кіравання чалавекам. Па сутнасці, вы можаце заблакіраваць 200 мільёнаў (ці любую колькасць) беспілотных аўтамабіляў, пакуль мы не выправім памылку.

Калі грамадства стала залежным ад беспілотных аўтамабіляў, вы ў значнай ступені закрылі грамадства з пункту гледжання мабільнасці, па меншай меры, пакуль не будзе выпраўлена памылка.

Цяпер гэта было б згубным і шакавальным шокам для сістэмы.

Я падазраю, што ідэю хаваючагася жука, які здзяйсняе жудасныя дзеянні, здаецца амаль немагчыма ўявіць, хоць у той жа час мы не можам цалкам выключыць гэтую магчымасць. Ёсць і іншыя магчымасці, такія як уразлівасці кіберзлачынцаў, якія могуць існаваць. Напрыклад, я абмяркоўваў, як нацыянальная дзяржава-ізгой можа паспрабаваць здзейсніць агідны ўчынак, выкарыстоўваючы слабасць у сістэме кіравання штучным інтэлектам. Глядзіце маё абмеркаванне на спасылка тут. Акрамя таго, падрабязную інфармацыю аб тым, як можа быць ажыццёўлена зламыснае захоп беспілотных аўтамабіляў са штучным інтэлектам, глядзіце ў маім матэрыяле на спасылка тут.

заключэнне

Аднадумства - гэта і шчасце, і праклён.

Раней мы адзначалі, што Гандзі казаў, што тыя, хто мае аднадумства, могуць дасягнуць вялікіх рэчаў. ШІ, які з'яўляецца «аднадумцам», патэнцыйна можа дасягнуць вялікіх поспехаў. Платон папярэджваў нас, што закрытыя розумы могуць быць сур'ёзнай небяспекай. Калі вакол нас ёсць сістэмы аднадумцаў, мы патэнцыйна сутыкаемся з небяспекай ненаўмысных (ці наўмысных) падрыўных элементаў, якія могуць нанесці шкоду некаторым з нас ці, магчыма, усім.

Нам трэба адкрыта ставіцца да алгарытмічнай монакультуры штучнага інтэлекту. Калі мы робім усё правільна, мы можам выкарыстаць дабро і прадухіліць зло.

Але толькі ў тым выпадку, калі мы маем рацыю ва ўсім гэтым.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-insidious-one-like-mind-of-ai-algorithmic-monoculture-ibling-for- аўтаномныя-самастойныя-аўтамабілі/