Этыка штучнага інтэлекту асабліва раздражняе праблема абмежавання штучнага інтэлекту, у тым ліку вузкаватыя асаблівасці абмежавання аўтаномных самакіраваных аўтамабіляў

Вядомы ілюзіяніст і вядомы мастак-уцёкі Гары Гудзіні аднойчы смела абвясціў гэта даволі бессаромнае сцвярджэнне: «Ніякая турма не можа мяне ўтрымаць; ні рукі, ні ногі, ні сталёвыя замкі не могуць скаваць мяне. Ніякія вяроўкі і ланцугі не ўтрымаюць мяне ад маёй свабоды».

Здаецца, што гэта даволі сур'ёзная задача. У цэлым мы ўсе пагодзімся з тым, што можна пасадзіць чалавека так, што ён не зможа ўцячы. Чалавечая сіла і вынаходлівасць могуць зайсці так далёка, калі справа даходзіць да таго, што іх змясціць у строга прадуманае зняволенне. Калі турма ці турма рэзка пабудавана з ідэяй абароненасці ад уцёкаў, здаецца, што ніхто не можа пераадолець такія ўсеахопныя абмежаванні.

Безумоўна, на працягу ўсёй гісторыі былі вядомыя выпадкі ўцёкаў з месцаў зняволення, якія інакш лічыліся немагчымымі. Вяртаючыся да 1244 года, вязню сумна вядомага лонданскага Таўэра ўдалося вырабіць імправізаваную вяроўку з дапамогай ірванай прасціны. Яму ўдалося часткова выратавацца, спусціўшыся па нетрывалым шнуры. Аказалася, што вяроўка лопнула падчас яго намаганняў, і ён адразу ж упаў насмерць.

Ці хочаце вы сказаць, што ён уцёк?

З аднаго боку, вядома, яму ўдалося выбрацца з ізалятара ў Лонданскім Таўэры. Але гэта нібыта не вельмі ўдалы ўцёкі, улічваючы, што ён загінуў падчас прарыву. Адважуся сказаць, што мы былі б празмерна шчодрымі, назваўшы гэта ўцёкамі як такімі.

Магчыма, вы цьмяна знаёмыя з уцекачом з турмы Уільямам Сатанам, таксама вядомым як «Хіткі Вілі», які быў сумна вядомым рабаўніком банкаў у 1930-х і 1940-х гадах. Яму ўдалося трапіць у спіс дзесяці найбольш адшукваных уцекачоў ФБР. Падчас розных зняволенняў ён некалькі разоў знаходзіў спосаб уцячы. У адным выпадку ён апрануўся турэмным ахоўнікам і выйшаў з акруговай турмы Філадэльфіі. Мабыць, больш драматычным быў выпадак, калі ён і дзесятак іншых асуджаных выкарысталі тунэль, каб вырвацца з Усходняй дзяржаўнай папраўчай калоніі.

Мяркую, мы ўсе пагодзімся, што ён сапраўды здзейсніў некалькі сапраўдных уцёкаў. Бясплатна і зразумела. У рэшце рэшт, пазней яго затрымалі. Гэта некалькі аслабляе эфектыўнасць уцёкаў, хоць і не адмяншае бясспрэчнага факту, што яму сапраўды ўдалося ўцячы. Адзначым, што не кожная яго спроба прыводзіла да ўцёкаў.

Трэцім ілюстрацыйным прыкладам уцёкаў з'яўляецца добра вядомая акалічнасць, звязаная з турмой строгага рэжыму Алькатрас або проста званай «Скала», якая лічылася непазбежным зняволеннем, якая знаходзіцца ў цэнтры заліва Сан-Францыска. У гэтай моцна ўмацаванай турме было мноства старанна размешчаных ахоўных вежаў, у ёй дзейнічалі надзвычай скрупулёзныя правілы адносна таго, што зняволеныя маглі рабіць, а чаго нельга рабіць, і агульнае падабенства бяспекі ўзмацнялася тым, што атачалі бурныя і няўмольныя халодныя воды Ціхага акіяна. гэтая крэпасць, падобная на зняволенне.

12 чэрвеня 1962 г. быў выяўлены дзіўны ўцёкі, які стаў гісторыяй. Трое зняволеных не знаходзіліся ў адведзеных для іх камерах. Фальшывыя фіктыўныя галовы ляжалі на адпаведных падушках, падманваючы ахоўнікаў, якія ўсю ноч патрулявалі калідоры перад камерамі. Наколькі нам вядома, зняволеныя стварылі спосаб выкарыстоўваць турэмную вентыляцыйную шахту, каб падняцца на дах турмы, затым яны злезлі ўніз і перабраліся праз агароджу, каб дабрацца да краю вострава. Затым яны, відаць, спусцілі на ваду плыт, які груба зрабілі з плашчоў.

Іх месцазнаходжанне пакуль невядомае. Яны маглі загінуць падчас воднага шляху. Яны маглі б выжыць і дабрацца да берага і волі. Ні яны, ні іх целы так і не былі знойдзены. ФБР закрыла справу ў 1979 годзе і перадало яе Службе маршалаў ЗША. Можна выказаць здагадку, што мы ніколі не даведаемся, якім быў вынік.

Што гавораць нам усе гэтыя сагі пра ўцёкі з-пад варты?

Здаецца, адносна ясна, што:

  • Часам уцячы немагчыма
  • Часам магчымы ўцёкі, але развальваецца падчас спробы ўцёкаў
  • Часам уцёкі магчымы, але непрацяглы
  • Часам уцёкі магчымыя і, здавалася б, вечныя

Я падымаю гэтую інтрыгуючую тэму з-за чагосьці, што сур'ёзна абмяркоўваецца ў галіне штучнага інтэлекту (AI). Даўно паўстала пытанне аб тым, ці можа ІІ быць абмежаваны або заключаны ў турму да той ступені, што ІІ не зможа ўцячы або вызваліцца з згаданага зняволення.

Гэта звычайна называюць Праблема абмежавання штучнага інтэлекту (AICP).

Інсайдэры звычайна кажуць AICP іншым інсайдэрам, робячы гэта з пацвярджэннем інсайдэрскай абрэвіятуры. Яшчэ адзін скарочаны жаргон - гэта проста вымавіць слова "зняволенне" або "ўтрыманне", каб падняць тэму. Выбірайце тое, што хочаце.

Сутнасць тэмы заключаецца ў сур'ёзным і шчырым перакананні, што нам, магчыма, спатрэбіцца абмежаваць штучны інтэлект, хоць гэта адначасова падымае калючае пытанне аб тым, ці зможам мы рэальна распрацаваць абмежаванне, якое будзе сапраўды абмежаваным і непазбежным. Не толькі ў тэорыі, але і ў штодзённай практыцы. ШІ - гэта не абавязкова штуршок. Магчыма, штучны інтэлект можа знайсці спосаб вырвацца, уцячы, здзейсніць уцёкі з турмы, уляцець у куратнік або іншым чынам вырвацца з турмы або з дапамогай электроннага прамяня. Гэта сур'ёзная і, на жаль, адкрытая праблема, з якой Этыка штучнага інтэлекту і этычны штучны інтэлект працягваюць змагацца. Глядзіце мой працяглы і шырокі асвятленне этыкі штучнага інтэлекту і этычнага штучнага інтэлекту на спасылка тут і спасылка тут, Проста назваць некалькі.

Гудзіні сказаў, што ніякая турма не ўтрымае яго і што ніякія кайданы не могуць яго скаваць.

Магчыма, штучны інтэлект можа зрабіць такую ​​ж дзёрзкую заяву, робячы гэта без усялякіх гіпербал або завышэнняў.

Час распакаваць гэта.

У вас можа ўзнікнуць спакуса паверыць, што штучны інтэлект можа быць майстрам уцёкаў, і ў той жа час верыць, што людзі з меншай верагоднасцю змогуць вырвацца з строга прадугледжанага чароўным рэжымам зняволення. Людзі ёсць людзі. Стварэнне зняволення для людзей у цэлым павінна быць простым. Хітрасць, несумненна, у тым, што захаванне жыцця чалавека падчас яго зняволення азначае, што трэба нешта арганізаваць, каб забяспечыць яго ежай, забяспечыць медыцынскі догляд і тое, што звязана з функцыянуючым чалавечым целам. Гэтыя дэталі абавязкова пакідаюць адкрытымі канцы і шанцы знайсці спосаб вырвацца з-пад варты.

Сістэма штучнага інтэлекту, як мяркуецца, не патрабуе такіх жа гуманітарных палажэнняў (ну, як вы ўбачыце праз імгненне, гэта залежыць ад таго, ці разглядаем мы разумны штучны інтэлект, і параметраў, звязаных з правам асобы). Калі штучны інтэлект - гэта робат, мы маглі б проста кінуць прыстасаванне ў спецыяльную ахоўную камеру і больш ніколі не вяртацца, каб убачыць яго іржавелыя часткі. Справа зроблена. Не турбуйцеся аб фізічнай магчымасці ўцячы.

Аднак штучны інтэлект можа ў асноўным быць праграмным забеспячэннем і, такім чынам, працаваць на самых розных камп'ютэрных сістэмах. У такім выпадку турэмнае зняволенне становіцца крыху больш складаным. Калі выказаць здагадку, што мы можам нейкім чынам сабраць усе копіі, мы маглі б змясціць парушальнік ІІ у спецыяльны кампутар, які мы спецыяльна стварылі для зняволення для ІІ. Гэты кампутар спецыяльнага прызначэння дзейнічае як тып цытадэлі зняволення AI. Магчыма, у ім знаходзіцца толькі адзін канкрэтны штучны інтэлект або можа быць спрытна створаны ў якасці рэзервуара штучнага інтэлекту для ўсіх відаў сістэм штучнага інтэлекту (уявіце сабе нешта накшталт складанай сістэмы захопу, якая выкарыстоўваецца ў фільме Паляўнічыя за прывідамі, толькі ў якасці ілюстрацыі гэтай, праўда, некалькі надуманай ідэі).

Перш чым разбірацца ў дэталях праблемы канфайнменту штучнага інтэлекту, варта ўявіць, што сфера штучнага інтэлекту складаецца з дзвюх умоў або магчымасцей. Я кажу пра адрозненне паміж ІІ, які разумны, і ІІ, які не разумны. Мы павінны быць упэўнены, што мы знаходзімся на адной старонцы адносна гэтых адрозненняў, каб далей разумна абмяркоўваць пытанне канфайнмента штучнага інтэлекту.

Далей я прапаную рэзкую і бессаромную заўвагу, якая можа здацца вам альбо шакавальнай, альбо зусім відавочнай і штодзённай.

Сёння няма разумнага ІІ.

У нас няма разумнага ІІ. Мы не ведаем, ці будзе магчымы разумны штучны інтэлект. Ніхто не можа дакладна прадказаць, ці атрымаецца ў нас разумны ІІ, і ці ўзнікне разумны ІІ нейкім цудоўным чынам спантанна ў выглядзе вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, гл. мой матэрыял на спасылка тут). Для тых з вас, хто сур'ёзна пагружаны ў сферу штучнага інтэлекту, ні адно з вышэйзгаданых выказванняў не выклікае здзіўлення і не выклікае здзіўлення. Між тым, ёсць вялікія загалоўкі і празмерныя ўпрыгожванні, якія могуць прымусіць людзей выказаць здагадку, што або ў нас ёсць разумны ІІ, або што мы знаходзімся на парозе таго, што ў бліжэйшы час з'явіцца разумны ІІ.

Калі ласка, зразумейце, што сучасны штучны інтэлект не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, магчымасці размовы могуць здацца падобнымі да чалавечых магчымасцей, але на самой справе гэта вылічальныя магчымасці і не маюць чалавечага пазнання. Апошняя эра штучнага інтэлекту шырока выкарыстоўвае машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць супастаўленне вылічальных шаблонаў. Гэта прывяло да стварэння сістэм штучнага інтэлекту, якія маюць выгляд чалавечых схільнасцей. Між тым, сёння няма ніводнага штучнага інтэлекту, які б меў падабенства здаровага сэнсу, а таксама кагнітыўнага цуду трывалага чалавечага мыслення.

ML/DL - гэта проста форма супастаўлення вылічальных шаблонаў. Звычайны падыход заключаецца ў зборы даных аб задачы прыняцця рашэнняў. Вы перадаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Пасля выяўлення такіх шаблонаў, калі яны будуць знойдзены, сістэма штучнага інтэлекту будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пасля прадстаўлення новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для вынясення бягучага рашэння.

ШІ і асабліва шырокае з'яўленне ML/DL выклікалі ў грамадстве неспакой наконт этычных асноў таго, як ШІ можа быць кепска распрацаваны. Магчыма, вы ведаеце, што, калі пачалася апошняя эра штучнага інтэлекту, адбыўся велізарны ўсплёск энтузіязму да таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Акрамя шумных юрыдычных пагоняў па стрымліванні правапарушэнняў, існуе таксама істотны штуршок да прыняцця этыкі штучнага інтэлекту, каб выправіць гнюснасць штучнага інтэлекту. Ідэя заключаецца ў тым, што мы павінны прыняць і падтрымаць ключавыя этычныя прынцыпы штучнага інтэлекту для распрацоўкі і ўкаранення штучнага інтэлекту, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Як гэта адбываецца ў выпадку выкарыстання машыннага навучання?

Прама кажучы, калі людзі гістарычна прымалі шаблонныя рашэнні, уключаючы непрыемныя прадузятасці, вялікая верагоднасць таго, што даныя, якія выкарыстоўваюцца для «навучання» ML/DL, адлюстроўваюць гэта тонкім, але істотным чынам. Супастаўленне вылічальных шаблонаў машыннага або глыбокага навучання будзе ўсляпую спрабаваць адпаведна матэматычна імітаваць даныя. Няма ніякага падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага штучным інтэлектам, само па сабе.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы маглі б у пэўнай ступені выкарыстаць вядомую або сумна вядомую прымаўку смецце ў смецце вон (GIGO). Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца як прадузятасці, пагружаныя ў ІІ. Алгарытм прыняцця рашэнняў (ADM) AI аксіяматычна становіцца нагружаным няроўнасцямі.

Не добра.

Гэта таксама тое, чаму прынцыпы этыкі штучнага інтэлекту становяцца важным краевугольным каменем для тых, хто стварае, укараняе або выкарыстоўвае штучны інтэлект. Мы павінны чакаць, што вытворцы штучнага інтэлекту прымуць этыку штучнага інтэлекту і будуць імкнуцца ствараць этычны штучны інтэлект. Сапраўды гэтак жа грамадства павінна сачыць за тым, каб любы штучны інтэлект, які запускаецца або прасоўваецца ў выкарыстанне, выконваў правілы этыкі штучнага інтэлекту.

Каб праілюстраваць правілы этыкі штучнага інтэлекту, разгледзім набор, заяўлены Ватыканам у Рым заклікае да этыкі ІІ і што я падрабязна разгледзеў спасылка тут. Гэта фармулюе шэсць асноўных прынцыпаў этыкі штучнага інтэлекту:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента AI будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў AI, уключаючы празрыстыя і паддаюцца праверку метадалогіі, крыніцы даных, а таксама працэдуру праектавання і дакументацыю.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важны момант, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падпарадкоўваюцца паняццям этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Увогуле, сёння мы выкарыстоўваем неразумны штучны інтэлект, і калі-небудзь у нас можа з'явіцца разумны штучны інтэлект (але гэта выключна здагадкі). Відавочна, што абодва віды штучнага інтэлекту выклікаюць заклапочанасць з пункту гледжання этыкі штучнага інтэлекту, і мы павінны імкнуцца да этычнага штучнага інтэлекту незалежна ад таго, як ён створаны.

Вяртаючыся да тэмы AI Confinement, існуе прыкметны кантраст паміж прыродай «confinement», якая цягне за сабой неразумны AI супраць разумнага AI.

У выпадку зняволення, звязанага з разумным штучным інтэлектам, мы можам дзіка гуляць у адгадкі з амаль бясконцымі варыянтамі. Магчыма, разумны штучны інтэлект будзе кагнітыўна падобны на людзей і праяўляць падобныя разумовыя здольнасці. Ці мы маглі б пастуляваць, што разумны штучны інтэлект будзе звышчалавекам і будзе выходзіць за рамкі нашых формаў мыслення. Здавалася б, найвышэйшым разумным штучным інтэлектам з'яўляецца супер-інтэлект, нешта, што можа быць настолькі разумным і хітрым, што сёння мы не можам нават уявіць сабе велізарную здольнасць мыслення. Некаторыя мяркуюць, што наш розум будзе нікчэмным у параўнанні. Гэты супер-пупер штучны інтэлект будзе круціць вакол нас кольцамі, параўнальна з тым, як мы сёння можам апярэдзіць мурашак або гусеніц.

Мне падабаецца адлюстроўваць праблему канфайнменту штучнага інтэлекту, якая складаецца з гэтых двух важных і даволі спрэчных сцвярджэнняў:

  • Спрэчнае спрэчка №1: Нібыта немагчыма будзе паспяхова абмежаваць разумны ІІ.
  • Спрэчнае спрэчка №2: Мяркуецца, што неразумнаму штучнаму інтэлекту будзе немагчыма вырвацца з нашага зняволення.

Карацей кажучы, першае з пералічаных пераважных сцвярджэнняў заключаецца ў тым, што разумны штучны інтэлект будзе настолькі паблажлівым, што незалежна ад таго, які спосаб зняволення мы прыдумаем і як стараемся, штучны інтэлект уцячэ. Людзі не змогуць паспяхова абмежаваць разумны штучны інтэлект. Логіка, якая часткова ляжыць у аснове гэтага сцвярджэння, заключаецца ў тым, што штучны інтэлект заўсёды зможа перахітрыць людзей, таму разумны штучны інтэлект зможа перахітрыць абмежаванне волі, прыдуманае людзьмі. Засцярога, якая неахвотна ідзе з гэтым, заключаецца ў наступным чалавечы ўзровень разумны штучны інтэлект можа быць недастаткова разумным, каб вырвацца, але гэта звышчалавек or супер-інтэлектуальны ІІ будзе.

Майце таксама на ўвазе, што калі я кажу пра магчымасць уцячы, мы раней пагадзіліся, што ёсць некалькі варыянтаў, звязаных з уцёкамі. Ёсць уцёкі, якія прыводзяць да няўдачы падчас спробы, і ёсць варыянты ўцёкаў, якія больш паспяховыя, але прыводзяць да кароткачасовай свабоды супраць працяглай або вечнай свабоды. Мы павінны прымяніць тыя ж параметры да праблемы ўтрымання штучнага інтэлекту.

ШІ можа імгненна ўцячы і, магчыма, адразу ж быць схопленым і зноў кінутым у турму. Або штучны інтэлект можа выбрацца, а пазней яго зноў знойдуць і затрымаюць. Таксама існуе верагоднасць таго, што штучны інтэлект уцячэ, застанецца на волі, і мы больш ніколі не зможам яго абмежаваць. Я веру, што вы можаце прадбачыць усе такія магчымасці.

Акрамя таго, нам трэба быць асцярожнымі і не разглядаць ІІ як нейкі маналіт. Калі людзі згадваюць ІІ, яны часам выкарыстоўваюць гэтыя фразы ў катэгарычна ахопліваючай форме. Хутчэй за ўсё, штучны інтэлект, верагодна, будзе больш разрозненым, а не адным гіганцкім уладаром штучнага інтэлекту (як звычайна малююць). Я не кажу, што футурыстычны штучны інтэлект ніколі не можа быць звязаны і аб'яднацца ў адну рэч, і замест гэтага проста адзначаю, што гэта не абавязкова ўзнікае аксіяматычна.

Для абмеркавання мы выкажам здагадку, што існуе мноства розных сістэм штучнага інтэлекту і што, разважаючы аб абмежаванні штучнага інтэлекту, мы засяроджваемся на канкрэтнай адной або пэўным наборы штучнага інтэлекту. Вядома, як ужо гаварылася, паколькі мы зараз гаворым пра разумны штучны інтэлект, усе стаўкі не прымаюцца, таму што вы можаце зрабіць як мага больш здагадак аб гэтым невядомым, але яшчэ не існуючым штучным інтэлекте.

Хуткі паварот для вас.

Выкажам здагадку, што звышчалавек або звышразумны штучны інтэлект можа перахітрыць нас, людзей. Далей выкажам здагадку, што наша створанае людзьмі абмежаванне не спраўляецца з тым, што яно было распрацавана і пабудавана на аснове чалавечага розуму (я не згаджаюся з гэтымі здагадкамі, проста адзначаю іх). Я пытаюся ў вас, чаму б нам не паспрабаваць выкарыстаць звышчалавечы або звышразумны разумны штучны інтэлект, каб дапамагчы ў стварэнні лепшага зняволення? Звычайны адказ: усе разумныя ІІ будуць у змове і не дапамогуць нашым пошукам. Або што штучны інтэлект, які знаходзіцца асобна ад іншага штучнага інтэлекту, непакоіцца, што мы ў канчатковым выніку ператворым канфайнмент на штучны інтэлект, які дапамагаў нашаму чалавеку і штучнаму інтэлекту, распрацаванаму абароненаму ад уцёкаў канфайнеру. Мы, вядома, не чакаем, што звышчалавек або звышразумны штучны інтэлект будзе настолькі тупым, каб стварыць абмежаванне, якое патэнцыйна будзе выкарыстоўвацца як пастка супраць самога сябе.

Усё круціцца.

Другое спрэчнае сцвярджэнне заключаецца ў тым, што неразумны штучны інтэлект не зможа вырвацца з любой камеры, якую мы ўстанавілі для такога штучнага інтэлекту. Разумееце, логіка такая, што неразумны штучны інтэлект не будзе дастаткова здольны, каб па сутнасці перахітрыць людзей. Людзі заўсёды будуць прынамсі на крок або больш наперадзе неразумнага ІІ. Любы канфайнмент, які мы распрацуем і пабудуем, будзе абаронены ад уцёкаў. ШІ будзе схоплены і чакае «пажыццёвае» знаходжанне за кратамі.

Я не прымаю гэтае меркаванне па некалькіх прычынах.

Мы былі сведкамі таго, што кібержулікі спрытна распрацавалі камп'ютэрныя вірусы, якія працягвалі дзейнічаць і распаўсюджвацца. Нашы намаганні накіраваны перш за ўсё на блакіроўку камп'ютэрнага віруса, а не на тое, каб нейкім чынам яго захапіць і зняволіць. Людзі, якія распрацоўваюць неразумны штучны інтэлект, хутчэй за ўсё, знойдуць спосабы кадзіравання штучнага інтэлекту, які будзе вельмі цяжка трымаць у абмежаванні.

Акрамя таго, людзі могуць распрацаваць штучны інтэлект, які самарэгулюецца або самамадыфікуецца. Чытачы могуць быць у курсе маіх дыскусій, якія ахопліваюць паліморфныя камп'ютэрныя вірусы з выкарыстаннем штучнага інтэлекту. Гэта камп'ютэрныя вірусы, якія мяняюць аблічча, створаны так, каб іх немагчыма было выявіць, або якія пасля выяўлення хутка мяняюць форму, каб пазбегнуць далейшага выяўлення.

Існуюць падобныя сістэмы ML/DL, якія наўмысна імкнуцца да самарэгулявання або самамадыфікацыі, дазваляючы сістэме штучнага інтэлекту, мы спадзяемся, паляпшацца самастойна па меры яе выкарыстання. Гэта, аднак, можа быць праблематычным, таму што штучны інтэлект можа змяніцца так, што больш не пажадана, і пасля гэтага дзейнічае асабліва трывожнымі спосабамі, гл. спасылка тут.

Іншы пункт гледжання заключаецца ў тым, што людзі могуць выкарыстоўваць свае камп'ютэрныя інструменты, такія як неразумны штучны інтэлект, каб стварыць абмежаванне штучнага інтэлекту. У гэтым сэнсе меркаванне, што людзі здольныя думаць толькі ў некаторай ступені, патэнцыйна з'яўляецца прытворствам. Магчыма, мы зможам палепшыць нашы працэсы мыслення з дапамогай неразумнага штучнага інтэлекту і, такім чынам, знайсці новыя спосабы праектавання і стварэння дастатковай прасторы для неразумнага штучнага інтэлекту.

Увогуле, я разбураю два спрэчныя сцвярджэнні наконт AI Confinement і сцвярджаю, што мы не можам рабіць такіх неабвержных жалезных прэтэнзій. Мы не ведаем напэўна, што заўсёды і ў абавязковым парадку можам абмежаваць неразумны ІІ. Мы не ведаем напэўна, што разумны штучны інтэлект любога ўзроўню, у тым ліку звышчалавек і звышразумны, заўсёды і ў абавязковым парадку зможа пазбегнуць нашага зняволення.

Добрай навіной з'яўляецца тое, што ўвесь камплект і кабудл - гэта жудаснае меркаванне. Я кажу гэта неяк нахабна. Калі мы апынемся пад пагрозай з боку неразумнага штучнага інтэлекту, мы цвяроза і настойліва захочам высветліць, ці зможам мы абмежаваць яго. Сапраўды гэтак жа, калі мы знаходзімся пад пагрозай разумнага штучнага інтэлекту любога калібру, мы адчайна захочам вызначыць, ці зможам мы яго абмежаваць.

Праблема канфайнменту штучнага інтэлекту - гэта важная галаваломка, якую варта разабрацца.

Я мяркую, што ў вас можа быць непрыемны боль з-за адной ключавой часткі пытання пра канфайнмент AI. Усе гэтыя размовы пра зняволенне выглядаюць дурнымі або бессэнсоўнымі, бо мы маем на ўвазе штучны інтэлект, а не замкнёнага чалавека. Відавочнай рэччу было б проста разнесці ІІ у пух і прах. Знішчыце любы ІІ, які нам не падабаецца і лічым, што яго трэба абмежаваць. Забудзьцеся пра ўсе гэтыя выгібы, звязаныя з зняволеннем, і проста раздушыце ІІ, як жука. Здаецца, гэта лепшае рашэнне, пры якім вам не трэба распрацоўваць і будаваць канфайнменты, замест гэтага марнаваць сваю энергію на знішчэнне ІІ, які мы, людзі, лічым нявартым або небяспечным.

Лёгка-проста.

Аказваецца, ёсць серыя лагічных адказаў, над якімі вы можаце паразважаць.

Па-першае, калі штучны інтэлект разумны, мы, магчыма, захочам надаць такому штучнаму інтэлекту форму юрыдычнай асобы, гл. мой аналіз на спасылка тут. Канцэпцыя заключаецца ў тым, што мы забяспечым ІІ падабенства правоў чалавека. Можа, не даслоўна. Магчыма, спецыяльны набор правоў. Хто ведае? У любым выпадку, вы можаце ўявіць, здавалася б, дзіўнае меркаванне, што мы не можам проста знішчыць разумны ІІ. Можа быць задзейнічаны агавораны судовы працэс. Гэта ўключае ў сябе тое, што мы не абавязкова прымяняем «смяротнае пакаранне» ў дачыненні да разумнага штучнага інтэлекту (вох, пачакайце, пакуль мы як грамадства не ўцягнемся ў такую ​​грамадскую дыскусію). Сутнасць заключаецца ў тым, што нам можа спатрэбіцца адпаведная форма зняволення штучнага інтэлекту замест таго, каб знішчыць разумны штучны інтэлект або падчас прыняцця рашэння аб знішчэнні разумнага штучнага інтэлекту.

Па-другое, мы маглі б знайсці карысную каштоўнасць у штучным інтэлекте, які мы хочам захаваць некранутым, а не цалкам знішчыць або выдаліць. Выкажам здагадку, што мы стварылі неразумны ІІ, які вядзе нас да магчымасці вылечыць рак. Ці хочам мы выдаліць такі ІІ? Наўрад ці я так думаю. Выкажам здагадку, што існуе цалкам разумны звышчалавек ІІ, які абяцае ліквідаваць голад у свеце. Ці павінны мы знішчыць гэты перспектыўны разумны штучны інтэлект без папярэдняга ліквідацыі глабальнага голаду? Мы павінны добра падумаць пра гэта.

Справа ў тым, што ў нас можа быць мноства добрасумленных прычын, каб захаваць штучны інтэлект некранутым. Замест таго, каб выдаляць яго або перашываць, мы можам пажадаць пераканацца, што штучны інтэлект застаецца цэлым. ШІ будзе дазволена выконваць некаторыя дзеянні ў абмежаваным парадку. Мы хочам выкарыстоўваць усё, што штучны інтэлект можа зрабіць для нас.

Як тады мы можам з'есці торт і з'есці яго?

адказ: ІІ зняволенне.

У ходзе гэтай дыскусіі я згадваў своеасаблівае параўнанне зняволення чалавека і зняволення ІІ. Каб растлумачыць, я наогул супраць антрапамарфізацыі штучнага інтэлекту. Я скажу больш пра гэта на імгненне. Прычына, па якой я зараз выказваю занепакоенасць, заключаецца ў тым, што я не хачу выказаць здагадку або мець на ўвазе, што сучасны неразумны штучны інтэлект падобны на людзей і чалавецтва. Ужо занадта шмат такіх ілжывых і зманлівых параўнанняў. Прабачце за маё параўнальнае выкарыстанне, якое я зрабіў, спадзяюся, асцярожна і ўважліва.

Спроба высветліць, як абмежаваць ІІ, - цікавая і вельмі карысная прапанова.

Нават калі сёння ў нас няма штучнага інтэлекту, які неадкладна патрабуе абмежавання, гэтая праблема стварае мноства праблем, якія могуць дапамагчы ў развіцці нашага разумення кібербяспекі. Нябёсы ведаюць, што нам трэба працягваць грузаперавозкі, калі справа даходзіць да ўзмацнення кіберабароны. Імкненне да кібербяспекі для абмежавання штучнага інтэлекту, верагодна, адкрые шмат карысных пабочных пераваг, якія прымяняюцца да пераадолення чалавечых злачынцаў, якія выкарыстоўваюць вылічальную тэхніку для неправамерных дзеянняў, разам з барацьбой з гэтымі назойлівымі і пастаянна пашыранымі кампутарнымі вірусамі.

Тыя, хто імкнецца ачарніць колішнюю пагоню за праблемай утрымання штучнага інтэлекту, не разумеюць больш шырокай карціны. Для іх яны разглядаюць гэта толькі як надуманую і далёкую праблему, калі калі-небудзь аддаленая магчымасць утрымліваць звышчалавечы ІІ або звышразумны ІІ. Замест гэтага вы павінны разглядаць гэта як зручны сродак для павышэння кібербяспекі, цалкам прыдатны ў сучасным свеце, і як гатоўнасць мець справу з, магчыма, неўзабаве неразумным штучным інтэлектам, які мы, магчыма, захочам абмежаваць (разам з падрыхтоўкай да меркаванай катастрафічнай рызыкі агідны разумны ІІ, нягледзячы на, здавалася б, нізкія шанцы сутыкнуцца з такім ІІ).

Лепш перастрахавацца, чым шкадаваць.

Аналіз нядаўняга даследавання пра праблему ўтрымання штучнага інтэлекту паказвае наступны паказчык бягучага стану: «Утрыманне ў рэжыме штучнага інтэлекту з'яўляецца складанай праблемай з мноствам прапанаваных мер для павышэння бяспекі, але без гарантый бяспекі. Тым не менш, наш сучасны штучны інтэлект альбо не спрабуе ўцячы, альбо не мае магчымасці вырвацца з мадэлявання. Ёсць некаторыя прыклады рэальнага штучнага інтэлекту, які парушае ўзровень абмежавання, але ні адзін з іх не ўяўляе ніякай рызыкі для людзей або магчымасці ўстанаўлення пастаяннай прысутнасці на аддаленых кампутарах» (філасофіі часопіс, «Разуменне і пазбяганне няўдач штучнага інтэлекту: практычнае кіраўніцтва» Роберта Уільямса і Рамана Ямпальскага).

Тыя ж даследчыкі таксама апісваюць шэраг узроўняў патэнцыялу ўцёкаў:

  • Патэнцыял уцёкаў, узровень 0: Няма для звычайнага праграмнага забеспячэння
  • Патэнцыял уцёкаў, узровень 1: Агент можа знайсці нечаканыя паводзіны, якія тэхнічна дасягаюць мэты, але непажаданыя, напрыклад, генетычныя алгарытмы
  • Патэнцыял уцёкаў, узровень 2: Агент наўмысна імкнецца ўзламаць сваё асяроддзе, напрыклад, навучэнцаў прасунутага падмацавання
  • Патэнцыял уцёкаў, узровень 3 (небяспека): Агент мае здольнасць і імкненне прарвацца праз большасць працэдур кібербяспекі і стрымлівання, такіх як штучны агульны інтэлект (AGI).

Прапанавана тлумачэнне адносна гэтых узроўняў патэнцыялу ўцёкаў: «На ўзроўні 0 не патрабуецца абмежавання, акрамя стандартных мер кібербяспекі, прыдатных для асяроддзя разгортвання. На ўзроўнях 1 і 2 існуе невялікая рызыка варожых уцёкаў, але трэба ўважліва сачыць за агентам на прадмет непажаданых паводзін і праграмных эксплойтаў. Пераход ад сімулятара да рэальнага свету стварае бар'ер супраць вузкага штучнага інтэлекту, які ўплывае на рэальны свет. З-за гэтага да агентаў, навучаных на больш рэалістычных сімулятарах, варта ставіцца з большай ступенню асцярожнасці. На ўзроўні 3 бестэрміновае зняволенне немагчыма, але з надзейнай бяспекай на ўзроўні праграмнага забеспячэння, апаратнага забеспячэння і сацыяльнай інжынерыі людзі могуць атрымаць выгаду з абмежаванага AGI ў абмежаванай ёмістасці» (па Роберту Уільямсу і Раману Ямпольскаму).

Прапанаваны набор узроўняў патэнцыялу ўцёкаў прымушае задумацца. Як вы ўбачыце праз імгненне, размежаванне аўтаматызацыі праз выкарыстанне ступеністых узроўняў з'яўляецца карысным сродкам для характарыстыкі аб'ёму і магутнасці згаданай аўтаматызацыі. Я апішу вам тую ж канцэпцыю, што датычыцца аўтаномных транспартных сродкаў і беспілотных аўтамабіляў на аснове штучнага інтэлекту. Адно прыкметнае адрозненне варта адзначыць. Для беспілотных аўтамабіляў існуе ўзгоднены стандартны набор узроўняў, у той час як вышэйпазначаныя ўзроўні патэнцыялу ўцёкаў уяўляюць сабой пачатковую і папярэднюю страту (вы, несумненна, можаце чакаць, што далейшае ўдасканаленне будзе праводзіцца па меры далейшага развіцця поля AI Confinement) .

Давайце разгледзім прычыну або аснову жадання абмежаваць штучны інтэлект.

Самай відавочнай прычынай абмежавання штучнага інтэлекту было б спыніць яго ад жаласных дзеянняў. Мы ўжо высветлілі, што замест таго, каб знішчаць штучны інтэлект, мы можам захацець трымаць яго ў клетцы, каб яго можна было запускаць і тым часам не дапусціць прычынення шкоды. Гэта можа быць, а можа быць і немагчымым адначасова. Ёсць верагоднасць таго, што штучны інтэлект не можа належным чынам працаваць, знаходзячыся ў зняволенні, і таму мы губляем іншы жаданы аспект атрымання любой станоўчай каштоўнасці, якую мы імкнуліся атрымаць. Уявіце сабе жах, калі абмежавалі штучны інтэлект, але робячы гэта коштам таго, што астатнія каштоўныя магчымасці больш недаступныя. Чорт!

Існуе мноства прычын, каб абмежаваць штучны інтэлект, уключаючы, але не абмяжоўваючыся імі:

  • Недзеяздольнасць ІІ
  • Затрыманне А.І
  • Абарона для чалавека
  • Абарона ад чалавека
  • Рэабілітацыя А.І
  • Стрымліванне для іншых AI
  • Адплата ІІ
  • І г.д.

Вы можаце не спяшацца, каб уважліва абдумаць гэтыя прычыны. Некаторыя з прычын цалкам абгрунтаваныя. Некаторыя з іх могуць здацца кур'ёзнымі і, магчыма, неапраўданымі.

Пры абмеркаванні чалавечых уцёкаў было нешта, пра што я раней не згадваў. Мастак-уцёкі можа здзейсніць уцёкі цалкам па ўласным жаданні. Гудзіні часта ўцякаў без чыёй-небудзь дапамогі. З улікам сказанага, Гудзіні часам выкарыстоўваў саўдзельніка або памочніка, каб дапамагчы ў яго ўцёках. Вы можаце ўбачыць тыя ж аспекты ў прыведзеных уцёках з турмы.

Вось чаму гэта важна для дылемы зняволення ІІ.

Выкажам здагадку, што мы можам абмежаваць ІІ. Гэта можа быць разумны штучны інтэлект або неразумны штучны інтэлект (спачатку мы разгледзім іх разам, а потым асобна). ШІ спрабуе ўцячы з дапамогай якой-небудзь электроннай або камп'ютэрнай хітрасці. Выкажам здагадку, што ІІ дзейнічае ў адзіночку.

Магчыма, штучнаму інтэлекту не прыйдзецца дзейнічаць у адзіночку ў спробах выратавацца. Чалавек прыходзіць і дазваляе штучнаму інтэлекту ўцячы. Магчыма, чалавек адкрывае электронны сеткавы партал, і штучны інтэлект перадае сябе на іншыя неабмежаваныя кампутары ў іншым месцы. Ці, магчыма, чалавек робіць копію штучнага інтэлекту на знешні дыскавод ці карту памяці, выносячы штучны інтэлект з замка, а затым падключае дыск або карту памяці да незамкнутага кампутара.

Людзі лёгка могуць стаць слабым звяном у спробе абмежаваць ІІ.

Навошта, чорт вазьмі, чалавек дазволіў штучнаму інтэлекту збегчы з-пад варты, магчыма, заклікаеце вы. Безумоўна, усе людзі хацелі б трымаць штучны інтэлект у замкнёным рэжыме, калі б штучны інтэлект быў мэтанакіравана змешчаны ў замкнёны рэжым. Калі вы думаеце такія думкі, я прапаную вам мець некалькі шчаслівы твар аптымістычнага погляду на чалавецтва.

Зладзей можа паверыць, што ён можа выкарыстоўваць штучны інтэлект для здзяйснення злых дзеянняў. Некаторыя парушальнікі могуць меркаваць, што штучны інтэлект пасее хаос, і не клапоцяцца пра тое, выгадна гэта ім ці не. Можна выказаць здагадку, што чалавек можа прыхільна ставіцца да штучнага інтэлекту і лічыць, што штучны інтэлект быў незаконна заключаны ў турму. Магчымасці бясконца працягваюцца.

Таксама можа адбыцца выпадковы выкід. Чалавек, які не мае намеру выпускаць ШІ, робіць памылку, і вуаля, ШІ выпускаюць. Улічыце, што чалавек, які мае намер зрабіць зняволенне больш строгім, робіць бу-бу і ненаўмысна парушае жорсткасць зняволення, дазваляючы штучнаму інтэлекту збегчы.

Калі ШІ можа ўзаемадзейнічаць з людзьмі, пакуль ШІ знаходзіцца ў зняволенні, праблема дасягнення зняволення ІІ, верагодна, астранамічна павялічыцца. Вось чаму.

Сістэма штучнага інтэлекту магла б выкарыстоўваць хітрыкі сацыяльнай інжынерыі (SE). Я ўпэўнены, што з вамі гэта зрабілі людзі. Чалавек тэлефануе вам на мабільны тэлефон і сцвярджае, што ён з вашага банка. Яны кажуць вам, што нехта ўзламаў ваш банкаўскі рахунак. Каб ліквідаваць узлом, чалавек запытвае ваш пароль. Дзіўна, але вы даяце свой пароль гэтаму чалавеку. Затым яны выкарыстоўваюць яго, каб увайсці ў ваш банкаўскі рахунак і скрасці вашы грошы. Гэта прыклад выкарыстання метадаў сацыяльнай інжынерыі для ўзлому камп'ютэрных сістэм.

Уявіце сабе разумны штучны інтэлект, які дзейнічае разумна і спрабуе гэта: «У дадатак да банальных нападаў SE, такіх як хлусня, сяброўства, шантаж, гіпнатыз і стварэнне рамантычных адносін, штучны інтэлект можа выкарыстоўваць шэраг больш дасканалых стратэгій. Адной з такіх стратэгій будзе супер-хабарніцтва. ІІ можа пераканаць ахоўніка, што вызваленне ІІ адпавядае інтарэсам ахоўніка. У дадатак да грошай і ўлады ахоўнік атрымае выдатнае здароўе, неўміручасць ці што-небудзь яшчэ. Гэтая стратэгія будзе працаваць асабліва добра, калі ў ахоўніка ёсць сур'ёзна хворы блізкі сваяк, якога штучны інтэлект абяцае вылечыць. У залежнасці ад магчымасцяў ІІ або ў выніку хлусні, ІІ можа таксама прапанаваць вярнуць даўно памерлых сваякоў і сяброў ахоўніка. Было б цяжка знайсці чалавека, які мог бы застацца неўспрымальным да такіх хабараў» (Раман Ямпольскі, «Leakproofing the Singularity Artificial Intelligence Confinement Problem» у Часопіс даследаванняў свядомасці).

Якое б абмежаванне ні было прыдумана, заўсёды існуе верагоднасць таго, што чалавек можа парушыць або падарваць абмежаванне і дазволіць ІІ збегчы. Гэта здаецца асабліва магчымым, калі ІІ можа мець зносіны з людзьмі. Не любыя людзі, нават калі штучны інтэлект можа мець зносіны з падрыхтаванымі і спецыялізаванымі людзьмі-ахоўнікамі, якія, як мяркуецца, ведаюць і гатовыя да хітрыкаў, якія штучны інтэлект можа з імі разыграць.

Канкрэтны каардынацыйны момант праблемы ўтрымання штучнага інтэлекту звязаны са спробай стварыць пратакол утрымання, які дазваляе мець зносіны з штучным інтэлектам, але абмяжоўвае штучны інтэлект такім чынам, што ён не можа збіць з панталыку або пераканаць людзей выпусціць штучны інтэлект. Некаторыя сцвярджаюць, што любая дазволеная сувязь можа прывесці да таго, што штучны інтэлект у канчатковым выніку прымусіць чалавека адкрыць камеру. Іншыя сцвярджаюць, што пратакол з множным выбарам або двайковае кадаванне могуць быць сродкам, каб не даць штучнаму інтэлекту падманна падмануць чалавека-ахоўніка.

Гэта выклікае яшчэ адзін набор узроўняў, якія мы маглі б пажадаць разгледзець. Узроўні бяспекі сувязі могуць быць распрацаваны такім чынам (у адпаведнасці з вышэйзгаданым дакументам):

  • Узровень бяспекі сувязі 0: Неабмежаваныя зносіны
  • Узровень бяспекі сувязі 1: Цэнзурны ўваход, цэнзурны выхад
  • Узровень бяспекі сувязі 2: Толькі выхады без уваходаў
  • Узровень бяспекі сувязі 3: Неабмежаваны ўвод і цэнзураваны выхад
  • Узровень бяспекі сувязі 4: Бяспечная сувязь
  • Узровень бяспекі сувязі 5: Цэнзураваны выхад і ніякіх уваходаў
  • Узровень бяспекі сувязі 6: Толькі ўваходы без выхадаў
  • Узровень бяспекі сувязі 7: Цэнзурны ўвод і ніякіх вывадаў
  • Узровень бяспекі сувязі 8: Няма сувязі, цалкам абмежаваны штучны інтэлект

У ІІ могуць быць і іншыя хітрыкі.

Выкажам здагадку, што мы змясцілі штучны інтэлект у, здавалася б, жалезнае зняволенне, якое складаецца са спецыялізаванай камп'ютэрнай сістэмы, якая ўся замкнёна. А потым здараецца наступнае: «Акрамя таго, штучны інтэлект можа ўдзельнічаць у сабатажы апаратнага забеспячэння ўтрымання ў надзеі збегчы ў выніку збояў у пратаколе бяспекі. Напрыклад, штучны інтэлект можа паспрабаваць расплавіць апаратнае забеспячэнне з дапамогай павышэння тэмпературы ў выніку высокай вылічальнай нагрузкі на працэсар або паспрабаваць зламаць жорсткі дыск праз шматразовае чытанне аднаго і таго ж месца» (згодна з працытаваным артыкулам Рамана Ямпольскага).

Вы можаце дадаць да ўразлівасці канфайнмента тое, што канфайнер або аб'ект, у якім ён знаходзіцца, парушаецца з-за нейкага прыроднага дзеяння, напрыклад, тарнада або ўрагану. Магчыма, штучны інтэлект можа выкарыстаць гэта здарэнне. Магчыма, нацыя, якая з'яўляецца ворагам краіны, якая змяшчае ІІ у зняволенні, вырашыць, што парушэнне зняволення будзе добрым для выклікання панікі і паслужыць бакавой атакай супраць краіны, якая з'яўляецца іх зацятым ворагам. Магчыма, актывісты, якія выступаюць за правы на штучны інтэлект, здзейснілі налёт на аб'ект і выпусцілі штучны інтэлект.

Дазвольце сваім думкам блукаць па шматлікіх шляхах узлому штучнага інтэлекту.

У адной з самых ранніх прац аб праблеме канфайнменту ІІ Батлер Лэмпсан з Xerox PARC (Даследчы цэнтр Пала-Альта) у 1973 г. апублікаваў артыкул пад назвай «Заўвага аб праблеме канфайнменту», у якім прапаноўваў некалькі правілаў абароны ад уцечак:

  • Поўная ізаляцыя: Абмежаваная праграма не павінна рабіць выклікаў любой іншай праграме.
  • Пераходнасць: Калі абмежаваная праграма выклікае іншую праграму, якой не давяраюць, выкліканая праграма таксама павінна быць абмежаванай.
  • Маскіроўка: Праграма, якую трэба абмежаваць, павінна дазваляць абаненту вызначаць усе яе ўваходы ў законныя і схаваныя каналы. Мы кажам, што каналы маскіруюцца абанентам.
  • Выкананне: Наглядчык павінен пераканацца, што ўвод абмежаванай праграмы ў схаваныя каналы адпавядае спецыфікацыям абанента.

На гэтым этапе гэтай важнай дыскусіі, я магу паспрачацца, што вы жадаеце некаторых ілюстрацыйных прыкладаў, якія маглі б прадэманстраваць праблему канфайнменту штучнага інтэлекту ў сучасным свеце. Ёсць асаблівы і, несумненна, папулярны набор прыкладаў, якія мне блізкія. Разумееце, у маёй якасці эксперта па ІІ, уключаючы этычныя і юрыдычныя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему штучнага інтэлекту, - гэта з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту. Гэта паслужыць зручным варыянтам выкарыстання або ўзорам для шырокага абмеркавання тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту прасвятляе што-небудзь пра праблему зняволення штучнага інтэлекту, і калі так, што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і праблема зняволення AI

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Зараз мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і праблемы AI Confinement.

Магчыма, вы ведаеце, што паведамлялася аб выпадках паўаўтаномных аўтамабіляў 2-га ўзроўню, у якіх за рулём быў чалавек-кіроўца, які заснуў падчас актыўнага руху па аўтастрадзе або шашы. Страшны аспект узроўняў 2 і 3 заключаецца ў тым, што кіроўца-чалавек па-ранейшаму адказвае за кіраванне аўтамабілем, і ўсё ж яго можна ўкалыхнуць ілжыва паверыць, што штучны інтэлект або аўтаматызацыя цалкам здольны кіраваць аўтамабілем самастойна. Імкненне да таго, каб убудаваная сістэма маніторынгу адсочвала чалавека-кіроўцы і яго статус ваджэння, з'яўляецца сродкам, каб паспрабаваць змякчыць схільнасць быць усыпленым.

У навінах дэманструюцца выпадкі, калі паліцэйскі ў сваёй паліцэйскай машыне манеўраваў перад транспартным сродкам 2-га ўзроўню, а потым паступова запавольваў сваю паліцэйскую машыну, што, у сваю чаргу, ускосна прывяло да адпаведнага запаволення хуткасці аўтамабіля 2-га ўзроўню. Гэты мудрагелісты трук заснаваны на ідэі, што машына 2-га ўзроўню мае нейкую форму сэнсарных прылад, такіх як відэакамеры, радар, LIDAR і т. п., якія выкарыстоўваюцца для выяўлення транспартных сродкаў, якія ідуць наперадзе машыны 2-га ўзроўню. Пры выяўленні транспартнага сродку перад аўтамабілем 2-га ўзроўню аўтаматыка аўтаматычна скарэктуе яго хуткасць у адпаведнасці з хуткасцю аўтамабіля, які едзе наперадзе.

Можна сказаць, што ІІ існуе пераканаў запаволіць.

Выкажам здагадку, што штучны інтэлект або аўтаматызацыя ў выпадку ўяўнага паўаўтаномнага (ці нават цалкам аўтаномнага) аўтамабіля запраграмаваны на пераключэнне паласы руху і пазбяганне ўгразання аўтамабіля перад аўтамабілем.

Што яшчэ мы можам зрабіць, каб змагацца з гэтым?

Вы можаце паспрабаваць акружыць памылковы аўтамабіль цэлай групай паліцэйскіх машын. Размясціце адзін перад нацэленым транспартным сродкам, другі размесціце злева, яшчэ адзін справа і трэці непасрэдна за машынай, якая збегла. Транспартны сродак цяпер запакаваны. Калі ў яго не вырастуць крылы, ён не можа пазбегнуць пазбаўленне волі.

Звярніце ўвагу, што гэта форма фізічнага зняволення. Амаль як пасадзіць жывёлу ў клетку або прымусова загнаць робата ў турэмную камеру. Для сістэм на аснове штучнага інтэлекту, якія ў асноўным з'яўляюцца робатамі, зняволенне сапраўды часта можа быць фізічнай формай зняволення, пры якой штучны інтэлект павінен знаходзіцца пад строгім кантролем. Майце на ўвазе, што беспілотны аўтамабіль - гэта, па сутнасці, тып робата. Напэўна, вы не думаеце пра самакіравальныя аўтамабілі такім чынам, але ў цэлым гэта насамрэч робаты, якія маюць колы і едуць па нашых дарогах.

Істотнай праблемай такой формы зняволення з'яўляецца тое, што мы не абавязкова ведаем, як адрэагуе сістэма кіравання ІІ. Патэнцыйна вы можаце прымусіць усе паліцэйскія машыны адначасова паступова запаволіць хуткасць, і, спадзяюся, машына-ўцякач таксама зробіць гэта (яна не зможа пераключыць паласу руху або выбрацца з блакіроўкі). Гэта сцэнар шчаслівага твару.

Мы не ведаем дакладна, што гэта адбудзецца.

Магчыма, штучны інтэлект не распрацаваны добра або мае памылкі, і ў выніку ён тараніць адну або некалькі паліцэйскіх машын. Калі выказаць здагадку, што афіцэры не забітыя, гэта можа выратаваць жыццё, хоць афіцэры патэнцыйна могуць быць параненыя, а ўсе транспартныя сродкі могуць быць сур'ёзна пашкоджаны.

Больш бяспечнай формай абмежавання для беспілотнага аўтамабіля было б змясціць транспартны сродак у ахаваны гараж, які затрымае аўтамабіль без кіроўцы. Папярэдні прыклад пра транспартны сродак, які едзе, быў больш складаным, паколькі транспартны сродак мог свабодна рухацца. Размяшчэнне беспілотнага аўтамабіля ў замкнёным гаражы можа абмежаваць рабатызаваную сістэму, па сутнасці, штучнага інтэлекту, але калі нехта адчыніць гараж або якім-небудзь чынам штучны інтэлект зможа электронна прымусіць дзверы гаража адчыніцца, патэнцыйна можа адбыцца ўцёкі або своеасаблівы ўцёкі з турмы.

Гэта ілюструе фізічную прыроду зняволення ІІ. Далей разгледзім праграмныя аспекты ўтрымання штучнага інтэлекту.

Для абмеркавання выкажам здагадку, што сістэма кіравання аўтамабілем вырашае, як будзе працаваць самакіравальны аўтамабіль. Гэта ўяўляе сабой яшчэ адзін шлях для абмежавання, а менавіта спробу абмежаваць саму сістэму кіравання AI, якая знаходзіцца на борце аўтамабіля.

Адным са спосабаў можа быць загадзя створанае або запраграмаванае віртуальнае абмежаванне вакол сістэмы ваджэння штучнага інтэлекту, якое заўсёды існуе ў бартавым кампутары, які кіруе штучным інтэлектам аўтамабіля. Магчыма, мы зможам паслаць электронны сігнал у код зняволення або турэмнага зняволення, які паказвае, што трэба ісці наперад і злавіць сістэму кіравання ІІ, не даючы ІІ кіраваць аўтамабілем. Нейкі загадзя падрыхтаваны спецыяльны сігнал можа актываваць абмежаванне і заблакаваць сістэму кіравання AI. Такім чынам, гэта перашкодзіць штучнаму інтэлекту выкарыстоўваць элементы кіравання, фактычна адмяняючы магчымасць беспілотнага аўтамабіля рухацца з дапамогай любой з каманд штучнага інтэлекту.

Нам трэба было б памятаць, як гэта працуе. Самастойны аўтамабіль, які рухаецца на хуткасці па шашы, можа стаць небяспечнай некіравальнай ракетай, калі раптоўна будзе ўведзена абмежаванне і штучны інтэлект раптоўна не зможа кіраваць аўтаномным транспартным сродкам (мы таксама мяркуем, што людзей няма даступныя элементы кіравання, якія чалавек можа выкарыстоўваць для кіравання).

Як яшчэ такое абмежаванне штучнага інтэлекту можа быць карысным у выпадку выкарыстання беспілотных аўтамабіляў?

Для тых з вас, хто занепакоены магчымасцю беспілотных аўтамабіляў са штучным інтэлектам, якія могуць адначасова выйсці з ладу, альбо сам штучны інтэлект робіць гэта, альбо з-за злачынца, які разбэшчвае штучны інтэлект, я абмяркоўваў гэтае інтрыгуючае і трывожнае ўяўленне на спасылка тут. Убудаваная канфігурацыя абмежавання штучнага інтэлекту - адзін з некалькіх спосабаў паспрабаваць пераадолець такое шкоднаснае захоп аўтаномных транспартных сродкаў.

Я ўпэўнены, што вы разумееце, што тое, што мы, магчыма, маем нейкае прыдуманае або прыдуманае віртуальнае абмежаванне, якое атачае ШІ беспілотнага аўтамабіля, не з'яўляецца гарантыяй паспяховага прадухілення ўцёкаў ШІ. Неразумны штучны інтэлект мог быць запраграмаваны на разумны ўцёкі з турмы. Разумны штучны інтэлект можа апынуцца дастаткова разумным, каб высветліць, як абыйсці ўтрыманне штучнага інтэлекту або пераканаць людзей вызваліць яго, як адзначалася раней.

заключэнне

У знакамітым прыгодніцкім рамане, Граф Монтэ-Крыста, нас чакае захапляльная гісторыя, якая круціцца вакол чалавека, якога несправядліва заключылі ў турму. Яму ўдаецца ўцячы. Ён набывае вялікае багацце. Затым ён імкнецца адпомсціць тым, хто яго зняволіў. Калі ў вас будзе час, вы сапраўды павінны прачытаць гэтую цудоўна напісаную гісторыю ці хаця б паглядзець адну з шматлікіх версій фільма.

Запомніўся такі радок: «Як я ўцёк? З цяжкасцю. Як я спланаваў гэты момант? З задавальненнем."

Калі мы імкнемся абмежаваць штучны інтэлект, нам трэба будзе правесці шмат дбайнага планавання і паспрабаваць прадбачыць, як усталяваць жалезнае зняволенне (калі гэта ўвогуле магчыма). Узнікае пытанне, ці будзе штучны інтэлект таксама старанна планаваць, як вызваліцца з-пад варты. Для неразумнага ІІ гэта можа быць вылічальная падпраграма, убудаваная ў ІІ людзьмі-распрацоўшчыкамі ІІ. Што тычыцца разумнага штучнага інтэлекту, калі мы калі-небудзь гэта ўбачым, штучны інтэлект можа пранікліва спланаваць уласны ўцёкі з турмы.

Ці зможам мы вырашыць праблему абмежавання штучнага інтэлекту і прыдумаць надзейны сродак абмежавання любых і ўсіх сістэм штучнага інтэлекту цалкам абароненым ад уцёкаў або абсалютна герметычным спосабам?

Як красамоўна сказана ў турэмным фільме Уцёкі з Шоушенка, некаторыя птушкі не прызначаны для ўтрымання ў клетках.

ІІ цалкам можа быць такой птушкай.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/05/05/ai-ethics-is-especially-vexed-by-that-ai-confinement-problem-idding-the-knotty-particulars- для абмежавання-аўтаномных-самакіраваных-аўтамабіляў/