Этыка AI і пошукі самасвядомасці ў AI

Вы ўсведамляеце сябе?

Б'юся аб заклад, што вы ў гэта верыце.

Справа ў тым, што, маўляў, мала хто з нас асабліва ўсведамляе сябе. Існуе дыяпазон або ступень самасвядомасці, і ўсе мы нібыта адрозніваемся па тым, наколькі пранікліва мы ўсведамляем сябе. Вы можаце думаць, што вы цалкам усведамляеце сябе, і толькі нязначна. Вы можаце слаба ўсведамляць сябе і разумець, што гэта ваш псіхічны стан.

Між тым, у самай верхняй частцы спектру вы можаце паверыць, што вы цалкам усведамляеце сябе і, шчыра кажучы, настолькі ж самасвядомыя, наколькі яны ёсць. Малайчына.

Калі казаць пра гэта, якая карысць ад надзвычайнай самасвядомасці?

Паводле даследаванняў, апублікаваных у Harvard Business Review (HBR) Ташы Юрых, вы, як паведамляецца, здольныя прымаць лепшыя рашэнні, вы больш упэўненыя ў сваіх рашэннях, у вас мацнейшыя камунікатыўныя здольнасці і ў цэлым больш эфектыўныя (у артыкуле пад назвай «Што насамрэч такое самасвядомасць (і як) каб культываваць гэта)." Бонусным фактарам з'яўляецца тое, што людзі з рэзкай самасвядомасцю, як кажуць, менш схільныя падманваць, красці або хлусіць. У гэтым сэнсе ёсць два варыянты таго, каб не быць нягоднікам або жулікам, а таксама імкненне быць лепшым чалавекам і ўпрыгожваць сваіх блізкіх.

Усе гэтыя размовы пра самасвядомасць падымаюць даволі відавочнае пытанне, а менавіта, што насамрэч абазначае фраза самасвядомасць. Вы можаце лёгка знайсці масу розных азначэнняў і інтэрпрэтацый складанай і, скажам так, мяккай канструкцыі, якая прадугледжвае самасвядомасць. Некаторыя спрасцілі б справу, мяркуючы, што самасвядомасць заключаецца ў маніторынгу самога сябе, ведаючы, што вы задумалі. Вы добра ўсведамляеце ўласныя думкі і дзеянні.

Імаверна, калі чалавек не ўсведамляе сябе, ён не ўсведамляе, што ён робіць і чаму так, а таксама не ўсведамляе, што пра яго кажуць іншыя людзі. Я ўпэўнены, што вы сустракалі такіх людзей.

Здаецца, што некаторыя людзі ходзяць па зямлі, не ведаючы, што яны самі робяць, і не маюць нават падабенства таго, што пра іх кажуць іншыя. Мяркую, вы маглі б сцвярджаць, што яны падобныя на быка, які кідаецца галавой уніз у буціку далікатных прадметаў, якія ломяцца. Звычайна мы схільныя верыць, што бык не ведае, што ён робіць, і не звяртае ўвагі на пункт гледжання іншых, калі тыя не спрабуюць фізічна манеўраваць або заганяць недасведчаную істоту.

Кажуць, што самасвядомасць можа быць збольшага рэкурсіўнай.

Дазвольце мне накідаць прыклад, каб праілюстраваць гэтую рэкурсію. Вы знаходзіцеся ў самым разгары прагляду вельмі захапляльнага відэа з коткай на сваім смартфоне (здаецца, усе так робяць). У некаторых людзей не было б іншых відавочных думак, акрамя дзівосных кранальных выхадак гэтых мілых катоў. Між тым, кожны, хто мае хоць трохі самасвядомасці, ведае, што глядзіць відэа з коткай. Яны таксама могуць ведаць, што навакольныя заўважаюць, што яны глядзяць відэа з коткай.

Звярніце ўвагу, што вы можаце ўсведамляць сябе і пры гэтым быць пагружанымі ў, скажам так, пэўную асноўную дзейнасць. Асноўным заняткам у дадзеным выпадку з'яўляецца прагляд відэа з коткай. Па-другое, і адначасова, вы можаце мець на ўвазе, што вы на самой справе глядзіце відэа з коткай. Вы таксама можаце думаць, што іншыя назіраюць за вамі, калі вы глядзіце цалкам займальнае відэа пра котак. Вам неабавязкова спыняць адну дзейнасць, напрыклад, спыняць прагляд відэа з коткай, каб потым асобна думаць, што вы глядзіце (ці толькі што глядзелі) відэа з коткай. Гэтыя думкі могуць узнікаць паралельна адна з адной.

Часам наша самасвядомасць можа выгнаць нас з асноўнай разумовай дзейнасці або хаця б перапыніць яе. Магчыма, падчас разважанняў пра тое, як вы праглядаеце відэа з коткай, ваш розум часткова адключаецца, таму што вам занадта цяжка засяродзіцца толькі на самім відэа. Затым вы вырашыце пераматаць відэа назад, каб вярнуцца да таго фрагмента, які вы як бы бачылі, але ад поўнага разумення якога вам адцягнулася думка. Самасвядомасць парушыла вашу першасную разумовую дзейнасць.

Добра, цяпер мы гатовыя да ўзнікнення рэкурсіўных аспектаў.

Ці гатовыя вы?

Вы глядзіце відэа пра ката. Ваша самасвядомасць паведамляе вам, што вы глядзіце відэа з коткай і што іншыя назіраюць за вамі, пакуль вы глядзіце відэа. Вось такі статус-кво.

Затым вы робіце дадатковы разумовы скачок. Вы пачынаеце задумвацца аб сваім самасвядомасці. Вы самі разумееце, што задзейнічаеце сваю самасвядомасць. Вось як гэта адбываецца: ці не занадта шмат я думаю пра тое, як праглядаю відэа з катом, з адчаем спытаеце вы сябе? Гэта яшчэ адзін пласт самасвядомасці. Самасвядомасць вышэй за іншую самасвядомасць.

Ёсць старая прымаўка, што гэта чарапахі ўсю дарогу. Для феномена самасвядомасці вы можаце быць:

  • Не ўсведамляючы сябе
  • Самасвядомасць сябе
  • Самасвядомасць свайго самасвядомасці сябе
  • Self-aware of your being self-aware of your self-aware of yourself
  • Ad Infinitum (г.зн. і гэтак далей)

Магчыма, вы зразумелі, што раней я тонка ўказваў на тое, што існуе дзве асноўныя катэгорыі самасвядомасці. Адна канкрэтная тэорыя сцвярджае, што ў нас ёсць нейкае ўнутранае самасвядомасць, якое засяроджваецца на нашых унутраных станах, і ў нас таксама ёсць знешняе самасвядомасць, якое дапамагае ацаніць успрыманне пра нас навакольных, якія нас глядзяць.

Згодна з артыкулам HBR, вось кароткае апісанне двух тэарэтызаваных тыпаў самасвядомасці: «Першы, які мы назвалі ўнутранае самасвядомасць, паказвае, наколькі ясна мы бачым нашы ўласныя каштоўнасці, страсці, памкненні, адпаведнасць нашаму асяроддзю, рэакцыі (у тым ліку думкі, пачуцці, паводзіны, моцныя і слабыя бакі) і ўплыў на іншых». А між тым другая: «Другая катэгорыя, знешняя самасвядомасць, азначае разуменне таго, як іншыя людзі глядзяць на нас з пункту гледжання тых самых фактараў, пералічаных вышэй. Наша даследаванне паказвае, што людзі, якія ведаюць, як іх бачаць іншыя, больш спрытна праяўляюць суперажыванне і прымаюць пункт гледжання іншых».

Зручная матрыца два на два або чатыры квадраты могуць быць атрыманы, сцвярджаючы, што і ўнутраная, і знешняя самасвядомасць вар'іруюцца ад высокага да нізкага, і вы можаце супаставіць гэтыя дзве катэгорыі адна з адной. Даследаванне HBR паказвае, што вы належыце да аднаго з гэтых чатырох архетыпаў самасвядомасці:

  • Introspector: нізкая знешняя самасвядомасць + высокая ўнутраная самасвядомасць
  • Шукальнік: нізкая знешняя самасвядомасць + нізкая ўнутраная самасвядомасць
  • Дагаджальнік: высокая знешняя самасвядомасць + нізкая ўнутраная самасвядомасць
  • Усведамленне: высокая знешняя самасвядомасць + высокая ўнутраная самасвядомасць

Вяршыняй быў бы архетып «Усведамленне», які складаецца з знаходжання на верхняй прыступцы знешняй самасвядомасці і гэтак жа на вяршыні ўнутранай самасвядомасці. Каб удакладніць, вы не абавязкова дасягнеце гэтай хваленай паставы назаўсёды. Вы можаце слізгаць наперад і назад паміж высокім і нізкім становішчам, паміж унутранай і знешняй сферамі самасвядомасці. Гэта можа залежаць ад часу сутак, сітуацыі, у якой вы апынуліся, і шэрагу іншых важных фактараў.

Цяпер, калі мы добразычліва разгледзелі некаторыя асноватворныя элементы самасвядомасці, мы можам паспрабаваць звязаць гэта з тэмай этычных паводзін.

Звычайнае сцвярджэнне аб самасвядомасці заключаецца ў тым, што вы, хутчэй за ўсё, будзеце вышэй за борт, калі вы ўсведамляеце сябе. Гэта азначае, як ужо адзначалася, што вы менш схільныя да неспрыяльных этычных паводзін, такіх як крадзеж, падман і хлусня. Абгрунтаванне гэтай тэндэнцыі заключаецца ў тым, што актыўнасць вашага самасвядомасці прымусіла б вас зразумець, што вашы ўласныя паводзіны непрыемныя або неэтычныя. Мала таго, што вы самі ловіце сябе, калі паварочваецеся ў мутныя неэтычныя воды, але вы таксама схільныя вярнуць сябе назад і на сушу (як бы святасць этычнай тэрыторыі).

Ваша самасвядомасць дапамагае вам у праяўленні самакантролю.

Імаверна, кантраст будзе, калі самасвядомасці мала ці зусім няма, што сведчыць аб тым, што хтосьці, магчыма, не заўважае сваёй схільнасці да неэтычных паводзін. Вы можаце сцвярджаць, што такі недасведчаны чалавек можа не разумець, што ён працуе негатыўна. Падобна быку ў краме ломкіх рэчаў, пакуль штосьці больш адкрыта не прыцягне іх увагу, яны наўрад ці будуць самарэгуляваць сябе.

Дарэчы, не ўсе павераць на гэта. Некаторыя сцвярджаюць, што самасвядомасць можа быць гэтак жа лёгка прыменена да неэтычнасці, як і да этычнасці. Напрыклад, злачынца можа цалкам усведамляць сябе і атрымліваць асалоду ад таго, што здзяйсняе зло. Іх самасвядомасць нават больш рэзка падштурхоўвае іх да ўсё больш і больш буйных актаў гнюснага паводзінаў.

Тут больш воблачнасці, чым здаецца на першы погляд. Выкажам здагадку, што нехта добра ўсведамляе сябе, але не ведае пра этычныя нормы дадзенага грамадства або культуры. Такім чынам, яны не маюць ніякіх этычных рэкамендацый, нягледзячы на ​​заяўлены факт, што яны ўсведамляюць сябе. Ці, калі хочаце, магчыма, чалавек ведае пра этычныя прынцыпы і не верыць, што яны да іх адносяцца. Яны лічаць сябе ўнікальнымі або па-за межамі звычайнага этычнага мыслення.

Па кругу ідзе.

Некаторыя горача падкрэсліваюць, што самасвядомасць можа быць вытлумачана як двухбаковы меч, арыентаваны на этыку.

На дадзены момант давайце пяройдзем да версіі шчаслівага твару, якая складаецца з самасвядомасці, якая ў цэлым накіроўвае або падштурхоўвае нас да этычных паводзін. Пры іншых роўных умовах мы зробім нахабную здагадку, што чым больш у вас самасвядомасці, тым больш вы будзеце прытрымлівацца этыкі. Жадаць гэтага, безумоўна, здаецца прыемным і натхняльным.

Давайце пераключым перадачы і прынясем штучны інтэлект (AI) у карціну.

Мы знаходзімся на этапе гэтай дыскусіі, каб звязаць усе наступныя перапляценні з развіваецца сферай этычнага штучнага інтэлекту, таксама шырока вядомага як этыка штучнага інтэлекту. Для майго пастаяннага і шырокага асвятлення этыкі штучнага інтэлекту гл спасылка тут і спасылка тут, Проста назваць некалькі.

Паняцце этычнага штучнага інтэлекту цягне за сабой перапляценне поля этыкі і этычных паводзін да з'яўлення штучнага інтэлекту. Вы, вядома, бачылі загалоўкі, якія выклікалі трывогу аб штучным інтэлекте, які поўны няроўнасці і розных прадузятасцей. Напрыклад, ёсць занепакоенасць тым, што сістэмы распазнання твараў на аснове штучнага інтэлекту часам могуць дэманстраваць расавую і гендэрную дыскрымінацыю, як правіла, у выніку таго, як асноўныя сродкі машыннага навучання (ML) і глыбокага навучання (DL) былі падрыхтаваны і ўведзены ў эксплуатацыю (гл. мой аналіз у гэтая спасылка тут).

Паспрабаваць спыніць ці хаця б змякчыць напружанне AI для дрэннага, якая складаецца з сістэм штучнага інтэлекту, якія альбо выпадкова, альбо часам наўмысна сфарміраваны так, каб дзейнічаць дрэнна, нядаўна ўзнікла настойлівая неабходнасць прымяняць правілы этыкі пры распрацоўцы і выкарыстанні штучнага інтэлекту. Шчырая мэта складаецца ў тым, каб даць этычныя рэкамендацыі распрацоўшчыкам штучнага інтэлекту, а таксама фірмам, якія ствараюць або ўкараняюць штучны інтэлект, і тым, хто залежыць ад прыкладанняў штучнага інтэлекту. У якасці прыкладу распрацоўкі і прыняцця этычных прынцыпаў штучнага інтэлекту глядзіце мой матэрыял на спасылка тут.

Задумайцеся над гэтымі трыма вельмі важнымі пытаннямі:

  • Ці можам мы прымусіць распрацоўшчыкаў штучнага інтэлекту прыняць этычныя прынцыпы штучнага інтэлекту і ўвесці гэтыя рэкамендацыі ў рэальнае выкарыстанне?
  • Ці можам мы прымусіць фірмы, якія займаюцца рамёствамі або вытворчасцю штучнага інтэлекту, рабіць тое ж самае?
  • Ці можам мы прымусіць тых, хто выкарыстоўвае штучны інтэлект, такім жа чынам ведаць аб этычных аспектах штучнага інтэлекту?

Я б без сарамлівасці сказаў, што гэта сур'ёзная задача.

Вострыя адчуванні ад стварэння штучнага інтэлекту могуць перамагчы любы намёк на ўвагу да этыкі штучнага інтэлекту. Ну, не толькі вострыя адчуванні, але і зараблянне грошай таксама з'яўляецца неад'емнай часткай гэтага раўнання. Вы можаце быць здзіўлены, калі даведаецеся, што некаторыя прадстаўнікі сферы штучнага інтэлекту схільныя сцвярджаць, што яны зоймуцца «рэчамі» этычнага штучнага інтэлекту, як толькі выпусцяць свае сістэмы штучнага інтэлекту. Гэта тыповая мантра тэхнароў аб тым, каб хутка церпіць няўдачу і часта церпіць няўдачу, пакуль не атрымаецца (спадзяюся, атрымаецца правільна).

Безумоўна, тыя, хто рэзка прапіхвае шырокую грамадскасць сумніўны ў этычным плане ІІ, выпускаюць каня з хлява. Іх абвешчаная распаўсюджаная ідэя заключаецца ў тым, што AI для дрэннага будзе выпраўлена пасля штодзённага выкарыстання, што, на жаль, спазняецца, бо конь ужо бязвольна скача вакол. Шкоду можна нанесці. Існуе таксама падвышаная верагоднасць таго, што нічога не будзе выпраўлена або скарэкціравана, пакуль выкарыстоўваецца штучны інтэлект. Частым апраўданнем з'яўляецца тое, што важдацца з штучным інтэлектам у гэты момант можа яшчэ больш пагоршыць сітуацыю з пункту гледжання і без таго неэтычнага алгарытмічнага прыняцця рашэнняў (ADM).

Што можна зрабіць, каб атрымаць карыснасць і жыццёвую сілу выкарыстання этычнага ІІ як яркага і пуцяводнага святла ў свядомасці тых, хто стварае ІІ, укараняе ІІ і выкарыстоўвае ІІ?

адказ: Усведамленне сябе.

Так, меркаванне заключаецца ў тым, што калі б людзі больш ведалі, як яны выкарыстоўваюць або ўзаемадзейнічаюць з ІІ, гэта магло б павысіць іх схільнасць да жадання, каб этычны ІІ стаў нормай. Тое ж самае можна сказаць пра распрацоўшчыкаў штучнага інтэлекту і кампаній, звязаных з сістэмамі штучнага інтэлекту. Калі б яны больш усведамлялі, што робяць, магчыма, яны больш прымалі б этыку ІІ.

Часткова логіка, як ужо было сказана, заключаецца ў тым, што самасвядомасць прадугледжвае тэндэнцыю быць этычна лепшым чалавекам, а таксама пазбягаць таго, каб быць этычна паршывым чалавекам. Калі мы зможам захаваць гэтую перадумову, гэта азначае, што распрацоўшчыкі штучнага інтэлекту, якія больш схільныя да самасвядомасці, будуць, такім чынам, схільныя да этычных паводзін і, такім чынам, будуць схільныя да стварэння этычна абгрунтаванага штучнага інтэлекту.

Гэта занадта далёкі мост для вас?

Некаторыя сказалі б, што ўскоснасць занадта вялікая. Надмерны ланцужок сувязяў паміж самасвядомасцю, этычнай дабрадзейнасцю і прымяненнем этычных правілаў да штучнага інтэлекту, магчыма, цяжка праглынуць. Контраргументам з'яўляецца тое, што паспрабаваць не пашкодзіць.

Скептыкі сказалі б, што распрацоўшчык штучнага інтэлекту можа быць самасвядомым і, магчыма, больш этычна настроеным, але яны не абавязкова будуць скакаць да прымянення гэтага ментальнага лагера да нораваў этычнага штучнага інтэлекту. Адказ на гэты сумнеў заключаецца ў тым, што калі мы зможам агалошваць і папулярызаваць пытанні этычнага штучнага інтэлекту, інакш здавалася б слабая сувязь стане больш відавочнай, чаканай і, магчыма, стане стандартным спосабам дзеянняў, калі справа даходзіць да стварэння штучнага інтэлекту.

Зараз я збіраюся дадаць паварот у гэтую сагу. Ад павароту можа закружыцца галава. Калі ласка, пераканайцеся, што вы добра сядзіце і падрыхтаваны да таго, што я збіраюся паказаць.

Некаторыя адзначаюць, што мы павінны ўбудоўваць этычны штучны інтэлект непасрэдна ў сам штучны інтэлект.

Вас можа збянтэжыць гэта выказванне. Давайце распакуем яго.

Праграміст можа стварыць сістэму штучнага інтэлекту і зрабіць гэта з уласным праграмным самасвядомасцю, спрабуючы перашкодзіць штучнаму інтэлекту ўвасабляць прадузятасці і няроўнасці. Замест таго, каб проста заняцца праграмаваннем, распрацоўшчык сочыць за ўласным плячом, каб спытаць, ці прывядзе іх падыход да неабходнай адсутнасці неспрыяльных элементаў у ІІ.

Выдатна, у нас ёсць распрацоўшчык штучнага інтэлекту, які, здаецца, дастаткова самасвядомы, імкнецца прыняць этычныя паводзіны і ўбачыў свет, каб уключыць этычныя прынцыпы пры распрацоўцы сваёй сістэмы штучнага інтэлекту.

Атрымайце перамогу для Ethical AI!

Усё добра, хоць вось нешта можа высветліцца пазней. ШІ ўведзены ў эксплуатацыю і штодзённа выкарыстоўваецца. Частка штучнага інтэлекту ўключала кампанент для магчымасці «навучыцца» на хаду. Гэта азначае, што штучны інтэлект можа наладжвацца на аснове новых даных і іншых аспектаў зыходнага праграмавання. Адзначым, што гэта не значыць, што штучны інтэлект разумны. У нас няма разумнага ІІ. Ігнаруйце гэтыя тупыя загалоўкі, якія кажуць, што мы гэта робім. Ніхто не можа сказаць, ці будзе ў нас разумны штучны інтэлект, і ніхто не можа дакладна прадказаць, калі гэта адбудзецца.

Вяртаючыся да нашай гісторыі, штучны інтэлект быў мэтанакіравана распрацаваны, каб палепшыць сябе падчас працы. Даволі зручнае паняцце. Замест таго, каб праграмістам пастаянна ўносіць паляпшэнні, яны дазваляюць праграме штучнага інтэлекту рабіць гэта самастойна (вох, гэта пазбавіць вас працы?).

У той час, пакуль штучны інтэлект цаля за дзюймам наладжваецца, выяўляецца, што розныя паскудныя няроўнасці і прадузятасці ўкрадаюцца ў сістэму штучнага інтэлекту шляхам яе ўласных актаў змены. У той час як праграміст першапачаткова не дапускаў гэтых паскудных аспектаў, цяпер яны фармулююць з-за карэкціроўкі штучнага інтэлекту на хаду. На жаль, гэта можа адбыцца такім тонкім закулісным спосабам, што ніхто не стане разумнейшым. Тыя, хто раней мог даць зялёнае святло ШІ пасля першапачатковага вычарпальнага тэсціравання, цяпер слепа не ведаюць, што ШІ пайшоў па гнілым шляху AI для дрэннага.

Адным са спосабаў альбо прадухіліць, альбо, па меншай меры, злавіць гэта непажаданае з'яўленне, было б убудаваць у штучны інтэлект нешта накшталт этычнай сістэмы падвойнай праверкі штучнага інтэлекту. Кампанент унутры штучнага інтэлекту запраграмаваны на назіранне за паводзінамі штучнага інтэлекту і выяўленне таго, ці пачынае з'яўляцца неэтычны ADM. У такім выпадку кампанент можа адправіць папярэджанне распрацоўшчыкам штучнага інтэлекту або зрабіць гэта фірме, якая кіруе сістэмай штучнага інтэлекту.

Больш прасунутая версія гэтага кампанента можа паспрабаваць аднавіць штучны інтэлект. Гэта было б карэкціроўкай карэкціровак, ператварэннем неэтычных аспектаў, якія ўзнікаюць, назад у належныя этычныя параметры. Вы можаце сабе ўявіць, што гэты тып праграмавання складаны. Ёсць верагоднасць таго, што ён можа збіцца з шляху, ператварыўшыся з неэтычнага ў вельмі неэтычны. Існуе таксама верагоднасць ілжывага спрацоўвання, якое запускае кампанент у дзеянне і, магчыма, сапсуе рэчы адпаведна.

Ва ўсякім разе, не заглыбляючыся ў тое, як будзе функцыянаваць гэтая падвойная праверка, мы зробім дзёрзкую заяву пра гэта. Вы можаце выказаць здагадку, што ў нейкім абмежаваным сэнсе ІІ лічыцца самасвядомым.

Ой, для многіх гэта баявыя словы.

Амаль усе лічаць, што сучасны ІІ не ўсведамляе сябе. Кропка, кропка. Пакуль мы не дасягнем разумнага штучнага інтэлекту, і мы не ведаем, калі гэта адбудзецца, не будзе ніякага штучнага інтэлекту, які ўсведамляе сябе. Не прынамсі ў сэнсе самасвядомасці, арыентаванай на чалавека. Нават не мяркуйце, што гэта можа здарыцца.

Я, безумоўна, згодны з тым, што нам трэба быць асцярожнымі з антрапамарфізмам ІІ. Я раскажу больш аб гэтай занепакоенасці праз імгненне.

Між тым, калі вы дзеля дыскусіі захочаце выкарыстаць паэтапны «самасвядомы» ў расхістанай манеры, я лічу, што вы лёгка зразумееце, чаму можна сказаць, што ШІ прытрымліваецца агульнага паняцця самасвядомасці. дасведчанасць. У нас ёсць частка штучнага інтэлекту, якая сочыць за астатняй часткай штучнага інтэлекту, сочачы за тым, чым займаецца астатні штучны інтэлект. Калі астатняя частка штучнага інтэлекту пачынае зашкальваць, частка маніторынгу імкнецца выявіць гэта. Акрамя таго, частка маніторынгу штучнага інтэлекту або падвойная праверка можа накіраваць астатнюю частку штучнага інтэлекту назад на належныя паласы.

Хіба гэта не падобна на прагляд гэтых відэаролікаў з коткамі і ўсведамленне таго, што вы гэта робіце?

Там знаёмы пярсцёнак.

Мы можам пашырыць гэта яшчэ больш. Кампанент падвойнай праверкі штучнага інтэлекту не толькі запраграмаваны на назіранне за паводзінамі астатняга штучнага інтэлекту, але таксама адзначае паводзіны тых, хто выкарыстоўвае штучны інтэлект. Што робяць карыстальнікі з выкарыстаннем штучнага інтэлекту? Выкажам здагадку, што некаторыя карыстальнікі выказваюць абурэнне тым, што штучны інтэлект, здаецца, дыскрымінуе іх. Праверка штучнага інтэлекту магла б выявіць гэта, выкарыстоўваючы гэта як яшчэ адзін чырвоны сцяг аб тым, што астатняя частка штучнага інтэлекту збіваецца з шляху.

Гэта выклікае катэгарызацыі ўнутранага самасвядомасці і знешняга самасвядомасці.

Інтэлектуальны інтэлект падвойнай праверкі скануе ўнутры і звонку, каб высветліць, ці не накіраваўся астатні штучны інтэлект у трывожнае мора. Выяўленне падыме сцяг або прывядзе да самакарэкцыі.

Давайце дадамо яшчэ адно ашаламляльнае пашырэнне. Мы ствараем яшчэ адзін інструмент падвойнай праверкі штучнага інтэлекту, які прызначаны для пераправеркі асноўнага інструмента падвойнай праверкі штучнага інтэлекту. чаму так Што ж, выкажам здагадку, што сістэма падвойнай праверкі штучнага інтэлекту хістаецца або не спраўляецца са сваёй працай. Інтэлектуальны інтэлект падвойнай праверкі будзе імкнуцца выявіць гэтую няспраўнасць і прыняць адпаведныя меры. Сардэчна запрашаем у рэкурсіўную прыроду самасвядомасці, якую некаторыя могуць з гонарам заявіць, як выяўляецца ў вылічальнай сістэме штучнага інтэлекту.

Для тых з вас, хто ўжо на мяжы свайго месца наконт гэтага, апошні каментар, на дадзены момант, заключаецца ў тым, што мы можам паспрабаваць выказаць здагадку, што калі вы зробіце сістэмы штучнага інтэлекту «самасвядомымі», яны патэнцыйна будуць імкнуцца да этычных паводзін. Яны робяць гэта на разумнай аснове? Рашуча, не. Яны робяць гэта на вылічальнай аснове? Так, хоць мы павінны выразна ўсведамляць, што гэта не такога ўзроўню, як паводзіны чалавека.

Калі вам непрыемна, што паняцце самасвядомасці памылкова скажаецца, каб упісацца ў вылічальную схему, вашы асцярогі з гэтай нагоды добра заўважаны. Яшчэ адно адкрытае пытанне, ці варта нам спыніць бягучыя намаганні штучнага інтэлекту, якія выкарыстоўваюць гэтую ідэю. Вы можаце пераканаўча сцвярджаць, што, па меншай меры, здаецца, што гэта вядзе нас да лепшага выніку таго, што ІІ, верагодна, будзе рабіць. Нам трэба хоць вочы шырока расплюшчыць, калі гэта адбываецца.

Мяркую, што нам трэба будзе паглядзець, як усё гэта разыграецца. Вярніцеся да гэтага праз пяць, дзесяць і пяцьдзесят гадоў і паглядзіце, ці змянілася вашае мысленне па спрэчным пытанні.

Я разумею, што гэта было некалькі п'янлівым разглядам тэмы, і вы, магчыма, прагнеце некалькі паўсядзённых прыкладаў. Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці паказвае з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту што-небудзь пра тое, што штучны інтэлект мае падабенства «самасвядомасці», і калі так, што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

Як удакладненне: сапраўдныя самакіравальныя машыны - гэта тое, што ШІ кіруе аўтамабілем цалкам самастойна, і падчас кіравання аўтамабілем няма дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Яшчэ няма сапраўднага самакіравання аўтамабіля ўзроўню 5, пра які мы нават не ведаем, ці ўдасца гэтага дасягнуць і колькі часу спатрэбіцца, каб дабрацца.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і штучны інтэлект, якія валодаюць так званай самасвядомасцю

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Зараз мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і этычных пытанняў штучнага інтэлекту.

Давайце скарыстаемся простым прыкладам. Самакіруючы аўтамабіль на аснове штучнага інтэлекту рухаецца па вуліцах вашага раёна і, здаецца, едзе бяспечна. Спачатку вы ўдзялялі асаблівую ўвагу кожнаму разу, калі ўдавалася зірнуць на самакіруючы аўтамабіль. Аўтаномны аўтамабіль вылучаўся стойкай з электроннымі датчыкамі, якія ўключалі відэакамеры, радары, прылады LIDAR і да т.п. Пасля многіх тыдняў беспілотнай машыны па вашай суполцы вы гэтага амаль не заўважаеце. Што тычыцца вас, то гэта проста яшчэ адзін аўтамабіль на і без таго ажыўленых дарогах агульнага карыстання.

Каб вы не падумалі, што азнаёміцца ​​з самакіраванымі аўтамабілямі немагчыма або неверагодна, я часта пісаў пра тое, як мясцовасці, якія ўваходзяць у сферу выпрабаванняў самакіраваных аўтамабіляў, паступова прывыклі бачыць дагледжаныя аўтамабілі, глядзіце мой аналіз на гэтая спасылка тут. Многія мясцовыя жыхары ў рэшце рэшт перайшлі ад захапленага пазірання з разяўленымі ротамі да шырокага нуды, каб стаць сведкамі гэтых вандроўных самакіраваных аўтамабіляў.

Верагодна, галоўная прычына, па якой яны могуць заўважыць аўтаномныя аўтамабілі, з-за фактару раздражнення і раздражнення. Сістэмы кіравання аўтамабілем па тэхніцы штучнага інтэлекту гарантуюць, што аўтамабілі выконваюць усе абмежаванні хуткасці і правілы дарожнага руху. Для мітуслівых кіроўцаў у іх традыцыйных аўтамабілях, якія кіруюцца людзьмі, вы часам раздражняецеся, калі затрымаецеся за строга законапаслухмянымі аўтамабілямі на аснове штучнага інтэлекту.

Гэта тое, да чаго нам усім, магчыма, трэба прывыкнуць, справядліва ці няправільна.

Вернемся да нашай казкі. Аднойчы выкажам здагадку, што беспілотны аўтамабіль у вашым горадзе набліжаецца да знака "Стоп" і, здаецца, не зніжае хуткасць. Нябёсы, здаецца, што сістэма ваджэння штучнага інтэлекту прымусіць беспілотны аўтамабіль плугаць адразу за знакам "Стоп". Уявіце сабе, што пешаход ці веласіпедыст быў дзесьці побач і быў заспеты знянацку, што самакіравальны аўтамабіль не спыніўся належным чынам. Ганебна. Небяспечна!

Прычым, незаконна.

Давайце зараз разгледзім кампанент штучнага інтэлекту ў сістэме ваджэння штучнага інтэлекту, які дзейнічае як стыль самасвядомай падвойнай праверкі.

Мы возьмем час, каб паглыбіцца ў дэталі таго, што адбываецца ўнутры сістэмы кіравання AI. Аказваецца, відэакамеры, усталяваныя на аўтаномным аўтамабілі, выявілі тое, што, здавалася, можа быць знакам «Стоп», хоць у дадзеным выпадку разрослыя дрэвы багата засланяюць знак «Стоп». Сістэма машыннага і глыбокага навучання, якая першапачаткова навучалася на знаках "Стоп", была распрацавана на аснове прынцыпова поўных знакаў "Стоп", як правіла, без абмежаванняў. Пасля вылічальнай праверкі відэаматэрыялаў была прызнана нізкая верагоднасць таго, што знак "Стоп" існаваў у гэтым канкрэтным месцы (у якасці дадатковага ўскладнення і далейшага тлумачэння гэта быў нядаўна размешчаны знак "Стоп", які не з'явіўся на раней падрыхтаваных лічбавых картах, якія Сістэма кіравання AI абапіралася на).

Увогуле, сістэма кіравання штучным інтэлектам вылічальна вырашыла рухацца наперад, як быццам знак "Стоп" альбо не існуе, альбо, магчыма, знак іншага роду, які, магчыма, нагадвае знак "Стоп" (гэта можа адбывацца і здараецца з пэўнай частатой).

Але, на шчасце, самасвядомая падвойная праверка сачыла за дзейнасцю сістэмы кіравання AI. Пасля вылічальнай праверкі даных і ацэнкі астатняй часткай штучнага інтэлекту гэты кампанент вырашыў перавызначыць нармальны ход дзеянняў і замест гэтага загадаў сістэме кіравання штучным інтэлектам спыніцца.

Ніхто не пацярпеў, супрацьпраўных дзеянняў не было.

Можна сказаць, што самасвядомая падвойная праверка штучнага інтэлекту дзейнічала як убудаваны юрыдычны агент, спрабуючы пераканацца, што сістэма кіравання штучным інтэлектам выконвае закон (у дадзеным выпадку знак «Стоп»). Безумоўна, бяспека таксама была галоўнай.

Спадзяюся, гэты прыклад дэманструе, як можа працаваць задуманая самасвядомая падвойная праверка AI.

Далей мы можам коратка разгледзець больш прыкметны прыклад этычнага штучнага інтэлекту, які паказвае, як самасвядомая падвойная праверка штучнага інтэлекту можа забяспечыць убудаваную функцыянальнасць, арыентаваную на этыку штучнага інтэлекту.

Па-першае, у якасці даведкі адна з праблем, якія выказваліся з нагоды з'яўлення беспілотных аўтамабіляў на аснове штучнага інтэлекту, заключаецца ў тым, што ў канчатковым выніку яны могуць быць выкарыстаны ў некалькі ненаўмыснай дыскрымінацыйнай форме. Вось як. Выкажам здагадку, што гэтыя беспілотныя аўтамабілі настроены на тое, каб паспрабаваць максымізаваць свой патэнцыял прыбытку, што, безумоўна, мае сэнс для тых, хто кіруе аўтапаркам даступных беспілотных аўтамабіляў. Уладальнік аўтапарка хацеў бы мець прыбытковую дзейнасць.

Можа быць, што ў пэўным мястэчку ці горадзе беспілотныя аўтамабілі ў роўмінгу паступова пачнуць абслугоўваць адны часткі грамадства, а не іншыя. Яны робяць гэта з мэтай зарабіць грошы, таму што бедныя раёны могуць не прыносіць такіх даходаў, як больш заможныя раёны. Гэта не відавочнае імкненне служыць адным сферам і не служыць іншым. Замест гэтага арганічна ўзнікае тое, што штучны інтэлект беспілотных аўтамабіляў "высвятляе" з дапамогай вылічэнняў, што можна зарабіць больш грошай, засяродзіўшыся на геаграфічна больш высокааплатных раёнах. Я абмяркоўваў гэтую грамадскую этычную праблему ў сваёй калонцы, напрыклад, на спасылка тут.

Выкажам здагадку, што мы дадалі аўтаматычную падвойную праверку AI у сістэмы кіравання AI. Праз некаторы час кампанент штучнага інтэлекту з дапамогай вылічэнняў заўважае шаблон таго, дзе блукаюць беспілотныя аўтамабілі. Характэрна, што ў некаторых раёнах, але не ў іншых. На аснове таго, што ён быў закадзіраваны з некаторымі этычнымі запаведзямі штучнага інтэлекту, самасвядомая падвойная праверка штучнага інтэлекту пачынае накіроўваць беспілотныя аўтамабілі ў іншыя часткі горада, якімі ў іншым выпадку грэбавалі.

Гэта ілюструе паняцце самасвядомасці штучнага інтэлекту ў спалучэнні з элементам этычнага штучнага інтэлекту.

Яшчэ адзін такі прыклад можа даць зразумець, што гэтае меркаванне аб этычным штучным інтэлекте таксама можа быць даволі выцвярэжваючым і сур'ёзным разгалінаваннем, якое залежыць ад жыцця або смерці.

Разгледзім паведамленне аб нядаўняй аўтамабільнай аварыі. Паведамляецца, што кіроўца-чалавек пад'язджаў да ажыўленага скрыжавання і меў зялёнае святло, каб ехаць прама. Іншы кіроўца праехаў на чырвонае святло і заехаў на скрыжаванне, калі не павінен быў гэтага рабіць. Кіроўца з зялёным святлом у апошні момант зразумеў, што гэтая іншая машына збіраецца жорстка ўрэзацца ў яго машыну.

Па словах гэтага кіроўцы, які знаходзіцца ў небяспецы, ён уважліва разлічыў, што альбо яго зб'е іншая машына, альбо ён можа збочыць, каб паспрабаваць пазбегнуць парушальніка. Праблема з паваротам заключалася ў тым, што паблізу былі пешаходы, якія апынуліся пад пагрозай.

Які выбар зрабілі б вы?

Вы можаце падрыхтавацца да ўдару і спадзявацца, што пашкоджанні не пакалечаць і не заб'юць вас. З іншага боку, вы можаце радыкальна адхіліцца, але паставіць пад сур'ёзную небяспеку пешаходаў, якія знаходзяцца паблізу, і, магчыма, прычыніць шкоду або забіць іх. Гэта цяжкая праблема, якая ўключае ў сябе маральнае меркаванне і цалкам мае этычныя (і юрыдычныя) наступствы.

Існуе этычная праблема агульнага прызначэння, якая ахоплівае такую ​​​​дылему, вядомая ці, магчыма, сумна вядомая назва "Праблема тралейбуса", глядзіце мой шырокі асвятленне на гэтая спасылка тут. Аказалася, што гэта этычна стымулюючы разумовы эксперымент, які бярэ пачатак з пачатку 1900-х гадоў. Такім чынам, гэтая тэма існуе даволі доўга, і зусім нядаўна яна стала асацыявацца са з'яўленнем штучнага інтэлекту і беспілотных аўтамабіляў.

Заменіце чалавека-кіроўцы сістэмай кіравання AI, убудаванай у самакіравальны аўтамабіль.

Уявіце тады, што беспілотны аўтамабіль са штучным інтэлектам заязджае на скрыжаванне, і датчыкі аўтаномнага транспартнага сродку раптам выяўляюць аўтамабіль, якім кіруе чалавек, які небяспечна праязджае на чырвонае святло і нацэльваецца на аўтамабіль без кіроўцы. Выкажам здагадку, што ў аўтаномным аўтамабілі ёсць некалькі пасажыраў.

Што вы хочаце, каб AI зрабіў?

Калі сістэма ваджэння штучнага інтэлекту аддасць перавагу рухацца наперад і патрапіць унутр (верагодна, наносячы шкоду або, магчыма, забіваючы пасажыраў у аўтамабілі), ці вы хочаце, каб сістэма ваджэння штучнага інтэлекту рызыкнула і адхілілася, хоць дзеянне павароту забірае аўтаномны транспартны сродак небяспечна для бліжэйшых пешаходаў і можа пашкодзіць або забіць іх.

Многія з вытворцаў штучнага інтэлекту, якія ствараюць беспілотныя машыны, кіруюцца галавой у пясок да гэтых этычных цяжкасцей штучнага інтэлекту. Па вялікім рахунку, штучны інтэлект, як ён запраграмаваны ў цяперашні час, проста рушыў бы наперадзе і быў жорстка пратаранены іншай машынай. ШІ не быў запраграмаваны на пошук іншых манеўраў ухілення.

Я неаднаразова прадказваў, што гэтая пазіцыя вытворцаў беспілотных аўтамабіляў са штучным інтэлектам у канчатковым выніку прыйдзе і ўкусіць іх (мой аналіз на спасылка тут). Вы можаце чакаць судовых працэсаў, звязаных з такімі аўтамабільнымі аварыямі, якія будуць імкнуцца высветліць, на што быў запраграмаваны ІІ. Ці была кампанія, распрацоўшчыкі штучнага інтэлекту або аператар аўтапарка, якія распрацавалі і ўвялі штучны інтэлект, неасцярожныя або адказныя за тое, што зрабіў ці не зрабіў штучны інтэлект? Вы таксама можаце чакаць, што калі такія выпадкі адбудуцца, пачнецца шырокая грамадская бура па інфармаванасці аб этычным AI.

У гэтую этычную дылему штучнага інтэлекту ўваходзіць наша хваленая сістэма падвойнай праверкі штучнага інтэлекту, арыентаваная на этыку. Магчыма, гэты спецыяльны кампанент штучнага інтэлекту можа працаваць у такіх абставінах. Частка кантралюе астатнюю сістэму кіравання AI і стан самакіравальнага аўтамабіля. Калі надыходзіць падобны жудасны момант, кампанент штучнага інтэлекту выконвае функцыю вырашэння праблем тралейбуса і прапануе тое, што павінна рабіць сістэма кіравання аўтамабілем штучнага інтэлекту.

Кадзіраваць няпроста, запэўніваю вас.

заключэнне

Падзялюся з вамі пакуль апошняй думкай на гэтую тэму.

Вы, верагодна, знойдзеце гэта інтрыгуючым.

Вы ведаеце пра люстраны тэст?

Гэта даволі добра вядома ў вывучэнні самасвядомасці. Іншыя назвы гэтага пытання - тэст на самапазнанне ў люстэрку, тэст на чырвонае пляма, тэст на румяны і падобныя фразы. Тэхніка і падыход былі першапачаткова створаны ў пачатку 1970-х гадоў для ацэнкі самасвядомасці жывёл. Жывёлы, якія, як паведамляецца, паспяхова прайшлі тэст, ўключаюць чалавекападобных малпаў, некаторыя віды сланоў, дэльфінаў, сарок і некаторых іншых. Жывёлы, якія былі пратэставаныя і, як паведамляецца, не прайшлі тэст, уключаюць вялікія панды, марскіх львоў і г.д.

Вось здзелка.

Калі жывёла бачыць сябе ў люстэрку, ці ўсведамляе жывёла, што намаляваная выява - гэта яна сама, ці думае, што гэта іншая жывёла?

Мяркуючы па ўсім, жывёла візуальна распазнае свой выгляд, убачыўшы іншых сабе падобных, і таму можа падумаць, што жывёла, адлюстраваная ў люстэрку, з'яўляецца стрыечным братам або, магчыма, ваяўнічым канкурэнтам (асабліва калі жывёла рыкае на люстэрка, што ў паварот, здаецца, рыкае на іх у адказ). Магчыма, вы бачылі, як ваш хатні кот ці любімы сабака робяць тое ж самае, калі ўпершыню бачаць сябе ў хатнім люстэрку.

Ва ўсялякім разе, можна меркаваць, што дзікая жывёла ніколі сябе не бачыла. Што ж, гэта не абавязкова праўда, бо, магчыма, жывёла ўбачыла сябе ў спакойнай лужыне з вадой або праз бліскучую каменную фармацыю. Але гэта лічацца менш верагоднымі шанцамі.

Добра, мы хочам нейкім чынам ацаніць, ці здольная жывёла зразумець, што яна насамрэч тая жывёла, якую паказалі ў люстэрку. Абдумайце гэты, здавалася б, просты ўчынак. У маладым узросце людзі разумеюць, што яны існуюць і што іх існаванне дэманструецца, калі яны бачаць сябе ў люстэрку. Яны ўсведамляюць сябе. Тэарэтычна, вы можаце не ўсведамляць сябе, пакуль не ўбачыце сябе ў люстэрку.

Магчыма, жывёлы не здольныя кагнітыўна ўсведамляць сябе такім жа чынам. Можа быць, што жывёла бачыць сябе ў люстэрку і ўвесь час думае, што гэта іншая жывёла. Колькі б разоў яно ні бачыла сябе, яно ўсё роўна думала б, што гэта іншая жывёла, чым яно само.

Хітрасць гэтага ўваходзіць у дзеянне. Робім пазнаку на жывёле. Гэты знак павінен быць бачны толькі тады, калі жывёла бачыць сябе ў люстэрку. Калі жывёла можа круціцца або паварочвацца і бачыць метку на сабе (непасрэдна), гэта сапсуе эксперымент. Акрамя таго, жывёла не можа адчуць, панюхаць ці якім-небудзь іншым спосабам выявіць метку. Зноў жа, калі б яны гэта зрабілі, гэта сапсавала б эксперымент. Жывёла не можа ведаць, што мы паставілі на яе метку, бо гэта дало б зразумець зверу, што там нешта ёсць.

Мы хочам звузіць круг рэчаў такім чынам, каб адзінай магчымай прычынай таго, што знак можна выявіць, было б глядзець на сябе ў люстэрка.

Ага, тэст гатовы. Жывёла ставяць перад люстэркам або блукаюць да яго. Калі жывёла пасля гэтага паспрабуе дакрануцца да меткі або пакапацца ў ёй, мы можам зрабіць разумную выснову, што гэта можа адбыцца толькі ў тым выпадку, калі жывёла ўсвядоміць, што метка знаходзіцца на ёй самой. Вельмі нешматлікія віды жывёл змаглі паспяхова прайсці гэты тэст.

Наконт тэсту гучыць маса крытыкі. Калі чалавек-тэстар знаходзіцца паблізу, ён можа аддаць рэчы, утаропіўшыся на метку, што можа прымусіць жывёлу расчэсвацца або дакранацца да яе. Іншая магчымасць заключаецца ў тым, што жывёла ўсё яшчэ верыць, што ў люстэрку паказана іншая жывёла, але яна таго ж тыпу, і, такім чынам, жывёла задаецца пытаннем, ці ёсць у яго таксама адзнака, падобная на іншую жывёлу.

Усё далей і далей.

Я ўпэўнены, што вы рады гэтаму ведаць і з гэтага часу зразумееце, чаму на жывёле ёсць кропка або нейкі дзіўны знак, які інакш не меў бы такога знака. Хто ведае, магчыма, нядаўна скончыўся люстэркавы тэставы эксперымент. Павіншуйце жывёлу, бяспечна, за тое, што яна была шчодрым удзельнікам.

Якое дачыненне гэта мае да беспілотных аўтамабіляў на аснове штучнага інтэлекту?

Вам спадабаецца гэтая частка.

Па доўгай трасе едзе беспілотны аўтамабіль. Сістэма кіравання AI выкарыстоўвае датчыкі для выяўлення іншага трафіку. Гэта двухпалосная шаша, па якой рух рухаецца ў паўночным напрамку па адной паласе і ў паўднёвым напрамку па другой. Часам легкавыя і грузавыя аўтамабілі спрабуюць аб'ехаць адзін аднаго, робячы гэта, выязджаючы на ​​сустрэчную паласу, а потым вяртаючыся на належную паласу руху.

Вы гэта бачылі, вы, несумненна, гэта рабілі.

Б'юся аб заклад, гэты наступны аспект здарыўся і з вамі. Наперадзе беспілотнага аўтамабіля стаіць адзін з тых вялікіх грузавікоў-цыстэрн. Ён зроблены з бліскучага металу. Адпаліраваны і чысты, як свісток. Сядаючы за такі грузавік, вы бачыце люстраное адлюстраванне свайго аўтамабіля праз заднюю частку цыстэрны. Калі вы бачылі гэта, вы ведаеце, наколькі гэта можа быць зачаравальна. Вось вы, вы і ваша машына, адлюстраваныя ў люстраным адлюстраванні задняй часткі аўтацыстэрны.

Сядзьце за шалёны паварот.

За аўтацыстэрнай пад'язджае беспілотны аўтамабіль. Камеры вызначаюць выяву аўтамабіля, якая адлюстроўваецца ў люстраным адлюстраванні. Ой, ІІ ацэньвае, гэта машына? Гэта ідзе на беспілотны аўтамабіль? Па меры таго, як самакіравальны аўтамабіль усё бліжэй і бліжэй набліжаецца да аўтацыстэрны, здаецца, што аўтамабіль становіцца ўсё бліжэй і бліжэй.

На жаль, штучны інтэлект з дапамогай вылічэнняў можа вылічыць, што гэта небяспечная сітуацыя, і штучны інтэлект павінен ухіліцца ад гэтага вар'яцкага аўтамабіля-ізгоя. Разумееце, ІІ не пазнаў сябе ў люстэрку. Ён не прайшоў люстэркавы тэст.

Што рабіць? Магчыма, штучны інтэлект, які ўсведамляе сябе, падвойна правярае пытанне і запэўнівае астатнюю сістэму кіравання ІІ, што гэта ўсяго толькі бяскрыўднае адлюстраванне. Небяспека прадухілена. Свет выратаваны. Паспяховае праходжанне тэсту AI Mirror!

Робячы насмешлівую выснову, мы маглі б нават выказаць здагадку, што часам штучны інтэлект разумнейшы ці, па меншай меры, больш усвядомлены, чым звычайны мядзведзь (хаця, да гонару мядзведзяў, яны звычайна добра спраўляюцца з люстраным тэстам, часта атрымліваючы прызвычаіліся да свайго адлюстравання ў вадаёмах).

Папраўка, магчыма, ШІ можа быць больш самасвядомым, чым гіганцкія панды і марскія львы, але не кажыце пра гэта жывёлам, у іх можа ўзнікнуць спакуса разбіць або разбіць сістэмы ШІ. Мы не хочам гэтага, праўда?

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/