Этыка штучнага інтэлекту і закон аб штучным інтэлекце задаюць цяжкія пытанні аб гэтай новай абяцанні вытворцы танцуючых робатаў, якія заяўляюць, што яны прадухіляць стварэнне зброі штучным інтэлектам

Магчыма, на мінулым тыдні вы бачылі ў навінах або заўважылі ў сацыяльных сетках абвешчанае абяцанне некаторых вытворцаў робатаў наконт іх заяўленых мэтаў пазбягаць зброі штучнага інтэлекту для робатаў агульнага прызначэння. Праз імгненне я раскажу вам падрабязнасці, так што не хвалюйцеся, калі вы не даведаліся пра гэта.

Рэакцыя на гэтую дэкларацыю была хуткай і, магчыма, як звычайна ў нашым палярызаваным грамадстве, была адначасова хвалебнай і часам здзекліва-крытычнай або проста агідна скептычнай.

Гэта гісторыя двух светаў.

У адным свеце некаторыя кажуць, што гэта якраз тое, што нам трэба адказны Распрацоўшчыкі робатаў са штучным інтэлектам павінны заявіць.

Дзякуй богу, што вы знаходзіцеся на правільным баку праблемы, якая паступова будзе станавіцца ўсё больш прыкметнай і больш трывожнай. Гэтыя мілыя танцуючыя робаты выклікаюць занепакоенасць, таму што іх даволі лёгка прымусіць насіць зброю і выкарыстоўвацца самым горшым спосабам (вы можаце пераканацца ў гэтым самі, зайшоўшы ў сацыяльныя сеткі, і ёсць шмат відэа, якія дэманструюць танцуючых робатаў, узброеных аўтаматамі і іншае ўзбраенне).

Адваротны бок медаля кажа пра тое, што так званае абяцанне - гэта не што іншае, як маркетынгавая хітрасць або ход па сувязях з грамадскасцю (у якасці заўвагі, хто-небудзь знаёмы з розніцай паміж абяцаннем і ахвяраваннем?). Ва ўсякім выпадку, тыя, хто сумняваецца, заклікаюць, што гэта неўтаймоўная сігналізацыя цноты ў кантэксце танцуючых робатаў. Разумееце, скардзіцца на тое, што робаты агульнага прызначэння могуць быць узброеныя, безумоўна, вартае і сур'ёзна жаданае меркаванне, хоць простае сцвярджэнне, што вытворца не будзе гэтага рабіць, хутчэй за ўсё, пустое абяцанне, настойваюць некаторыя.

Увогуле, усё гэтае пытанне выклікае даволі вялікі набор меркаванняў па этыцы штучнага інтэлекту і заканадаўству аб штучным інтэлекце. Мы скрупулёзна распакуем тэму і паглядзім, наколькі гэта двайны ўдар этычнага і прававога балота штучнага інтэлекту. Аб маім пастаянным і шырокім асвятленні этыкі штучнага інтэлекту і права штучнага інтэлекту гл спасылка тут і спасылка тут, Проста назваць некалькі.

На працягу гэтай дыскусіі я таксама буду спасылацца на свой папярэдні аналіз небяспекі выкарыстання штучнага інтэлекту, напрыклад, маю глыбокую ацэнку на спасылка тут. Магчыма, вы захочаце зірнуць на гэты дыскурс, каб даведацца пра дадатковыя закулісныя падрабязнасці.

Адкрыты ліст, які адкрывае банку з чарвякамі

Давайце пачнем гэты аналіз з уважлівага пакрокавага вывучэння Адкрытага ліста, які быў нядаўна апублікаваны шасцю адносна вядомымі вытворцамі перадавых робатаў, а менавіта Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics і Unitree. У цэлым, я мяркую, што вы бачылі ў асноўным робатаў Boston Dynamics, такіх як тыя, што гарцуюць на карачках. Яны выглядаюць як сабакі, і нам прыемна бачыць, як яны бегаюць.

Як я раней і неаднаразова папярэджваў, выкарыстанне такіх "танцуючых" робатаў як сродку пераканання шырокай публікі ў тым, што гэтыя робаты мілыя і чароўныя, на жаль, уводзіць у зман і вядзе да шматлікіх падводных камянёў іх антрапамарфізмаў. Мы пачынаем думаць пра гэтыя загартаваныя кавалкі металу і пластыка як пра эквівалент ласкавага вернага сабакі. Наша гатоўнасць прыняць гэтых робатаў грунтуецца на ілжывым пачуцці бяспекі і ўпэўненасці. Безумоўна, вы павінны зарабляць грошы, і шанцы на гэта павялічваюцца, калі гуляеце вакол танцуючых робатаў, але гэта, на жаль, апускае або, здаецца, хавае сапраўдны факт, што гэтыя робаты з'яўляюцца робатамі і што штучны інтэлект, які кіруе робатамі, можа быць распрацаваны памылкова або пайсці наперакасяк.

Разгледзім гэтыя разгалінаванні штучнага інтэлекту (урывак з майго артыкула пра стварэнне зброі штучнага інтэлекту, які можна знайсці на спасылка тут):

  • ШІ можа сутыкнуцца з памылкай, з-за якой ён збіваецца з шляху
  • Штучны інтэлект можа быць перагружаны і заблакіравацца без адказу
  • ШІ можа ўтрымліваць памылкі распрацоўшчыка, якія выклікаюць нестабільныя паводзіны
  • ШІ можа быць пашкоджаны імплантаваным вірусам-зладзеем
  • ІІ можа быць захоплены кіберхакерамі ў рэжыме рэальнага часу
  • AI можа лічыцца непрадказальным з-за складанасці
  • ШІ можа з дапамогай вылічэнняў прыняць «няправільнае» рашэнне (адносна)
  • І г.д.

Гэта тыя моманты, якія тычацца штучнага інтэлекту, які быў сапраўды распрацаваны на пачатку, каб рабіць правільныя рэчы.

У дадатак да гэтых меркаванняў, вы павінны ўключыць сістэмы штучнага інтэлекту, створаныя з самага пачатку, каб рабіць дрэнныя рэчы. Вы можаце мець штучны інтэлект, створаны для карысных мэтаў, які часта называюць ІІ Назаўсёды. Вы таксама можаце мець штучны інтэлект, які наўмысна створаны для дрэнных мэтаў, вядомы як AI для дрэннага. Акрамя таго, вы можаце мець ІІ Назаўсёды што пашкоджана або перароблена ў станаўленне AI для дрэннага.

Дарэчы, усё гэта не мае нічога агульнага з тым, што штучны інтэлект становіцца разумным, пра што я згадваю, таму што некаторыя працягваюць усклікаць, што сучасны штучны інтэлект альбо разумны, альбо знаходзіцца на мяжы разумення. Не так. У сваім аналізе я разбураю гэтыя міфы спасылка тут.

Давайце тады пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сучаснага штучнага інтэлекту.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на якім я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра разумны ІІ, гэтая дыскусія магла б пайсці ў кардынальна іншым кірунку. Мяркуецца, што разумны штучны інтэлект будзе чалавекам. Вам трэба ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што ў нас можа быць звышінтэлектуальны штучны інтэлект, можна ўявіць, што такі штучны інтэлект можа апынуцца разумнейшым за людзей (маё даследаванне звышінтэлектуальнага штучнага інтэлекту як магчымасці гл. асвятленне тут).

Я настойліва раю, каб мы трымаліся прыземлена і разглядалі сучасны вылічальны неразумны штучны інтэлект.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

Будзьце вельмі асцярожныя з антрапамарфізмам сучаснага ІІ.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі штучнага інтэлекту таксама могуць не разумець, што адбываецца. Тайная матэматыка ў ML/DL можа ўскладніць выяўленне схаваных цяпер прадузятасцей. Вы справядліва спадзяецеся і чакаеце, што распрацоўшчыкі штучнага інтэлекту правераць патэнцыйна схаваныя прадузятасці, хоць гэта складаней, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL будуць убудаваныя зрушэнні.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Усё гэта мае асабліва значныя наступствы для этыкі штучнага інтэлекту і прапануе зручнае акно ў атрыманыя ўрокі (нават да таго, як усе ўрокі адбудуцца), калі справа даходзіць да спробы заканадаўчага рэгулявання штучнага інтэлекту.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гуся, здушыўшы дасягненні ў галіне штучнага інтэлекту, якія даюць велізарныя перавагі для грамадства.

У папярэдніх калонках я асвятляў розныя нацыянальныя і міжнародныя намаганні па распрацоўцы і прыняцці законаў, якія рэгулююць ІІ, гл. спасылка тут, напрыклад. Я таксама разгледзеў розныя прынцыпы і рэкамендацыі па этыцы штучнага інтэлекту, якія вызначылі і прынялі розныя краіны, у тым ліку, напрыклад, намаганні Арганізацыі Аб'яднаных Нацый, такія як набор этыкі штучнага інтэлекту ЮНЕСКА, які прынялі амаль 200 краін, гл. спасылка тут.

Вось карысны асноўны спіс этычных крытэрыяў або характарыстык штучнага інтэлекту ў дачыненні да сістэм штучнага інтэлекту, якія я ўважліва вывучаў раней:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Мяркуецца, што гэтыя прынцыпы этыкі штучнага інтэлекту настойліва павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і абслугоўвае сістэмы штучнага інтэлекту.

Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграмуе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Як было падкрэслена раней, для распрацоўкі і ўкаранення штучнага інтэлекту патрэбна вёска, і для гэтага ўся вёска павінна ведаць і выконваць правілы этыкі штучнага інтэлекту.

Цяпер, калі я заклаў карысную аснову для ўдзелу ў Адкрытым лісце, мы гатовыя пагрузіцца.

Афіцыйная тэма адкрытага ліста такая:

  • "Адкрыты ліст да індустрыі робататэхнікі і нашых суполак, робаты агульнага прызначэння не павінны быць зброяй» (паводле апублікаванага ў Інтэрнэце).

Пакуль што так добра.

Назва амаль падобная на марозіва і яблычны пірог. Як хто-небудзь можа аспрэчваць гэта як былы заклік пазбегнуць узброенага робата AI?

Чытайце далей, каб убачыць.

Па-першае, у якасці падставы для разгляду, вось афіцыйны пачатковы абзац Адкрытага ліста:

  • «Мы з'яўляемся аднымі з вядучых сусветных кампаній, якія займаюцца прадстаўленнем грамадства новых пакаленняў перадавой мабільнай робататэхнікі. Гэтыя новыя пакаленні робатаў больш даступныя, прасцей у кіраванні, больш аўтаномныя, даступныя па цане і адаптыўныя, чым папярэднія пакаленні, і здольныя перамяшчацца ў месцы, раней недаступныя для аўтаматызаваных або дыстанцыйна кіраваных тэхналогій. Мы лічым, што ўдасканаленыя мабільныя робаты прынясуць вялікую карысць грамадству ў якасці калег па працы ў прамысловасці і кампаньёнаў у нашых дамах» (паводле апублікаванага ў Інтэрнэце).

Сонечны бок з'яўлення гэтых тыпаў робатаў заключаецца ў тым, што мы можам чакаць шмат вялікіх пераваг, якія з'явяцца. Без сумневу. Магчыма, у вашым доме ёсць робат, які можа выконваць такія дзеянні, як Джэтсан, такія як уборка ў вашым доме, мыццё посуду і іншыя хатнія справы. У нас будуць перадавыя робаты для выкарыстання на фабрыках і вытворчых прадпрыемствах. Робаты патэнцыйна могуць поўзаць або манеўраваць у цесных прасторах, напрыклад, калі абвальваецца будынак і на карту пастаўлена жыццё людзей. І гэтак далей.

Акрамя таго, вам можа быць цікава маё нядаўняе крытычнае асвятленне Дня Tesla AI, падчас якога Ілон Маск апісаў нейкія хадзячыя робаты як будучыню для Tesla і грамадства, гл. спасылка тут.

Вернемся да разгляданага пытання. Сур'ёзна абмяркоўваючы танцуючых або хадзячых робатаў, мы павінны ўважліва ўлічваць кампрамісы або агульную рэнтабельнасць інвестыцый (рэнтабельнасць інвестыцый) ад такога выкарыстання штучнага інтэлекту. Мы не павінны дазваляць сабе празмерна захапляцца перавагамі, калі таксама трэба ўлічваць выдаткі.

Новая бліскучая цацка можа мець даволі вострыя краю.

Усё гэта падштурхоўвае да важнага, але ў некаторай ступені маўчання, што адна з прычын таго, што пытанне ўвядзення зброі ІІ узнікае цяпер, звязана з прасоўваннем ІІ да аўтаномнай дзейнасці. Звычайна мы чакалі, што зброяй звычайна кіруюць людзі. Чалавек прымае рашэнне, страляць ці выкарыстоўваць зброю. Мяркуючы па ўсім, мы можам прыцягнуць гэтага чалавека да адказнасці за яго дзеянні.

ШІ, які створаны для аўтаномнай працы або які можна прымусіць гэта зрабіць, здавалася б, выключыць чалавека з цыкла. Затым ІІ алгарытмічна прымае вылічальныя рашэнні, якія ў канчатковым выніку могуць прывесці да забойства або прычынення шкоды людзям. Акрамя відавочнай заклапочанасці з нагоды адсутнасці кантролю над штучным інтэлектам, вы таксама сумняваецеся, што нам можа быць цяжка ўскладаць адказнасць за дзеянні штучнага інтэлекту. У нас няма чалавека, які быў бы нашым відавочным падбухторшчыкам.

Я разумею, што некаторыя лічаць, што мы павінны проста і непасрэдна трымаць ІІ адказным за яго дзеянні, як быццам ІІ дасягнуў разумнасці або іншым чынам атрымаў статус юрыдычнай асобы (гл. маё асвятленне дэбатаў аб атрыманні ІІ статусу юрыдычнай асобы на спасылка тут). Гэта пакуль не спрацуе. Нам трэба будзе прасачыць ІІ да людзей, якія яго прыдумалі або стварылі. Яны, несумненна, паспрабуюць законна ўхіліцца ад адказнасці, спрабуючы сцвярджаць, што ІІ выйшаў за рамкі таго, што яны сабе ўяўлялі. Гэта расце спрэчка, з якой нам трэба разабрацца (гл. мае творы аб законах аб штучным інтэлекце, каб даведацца пра спрэчныя пытанні).

Арганізацыя Аб'яднаных Нацый (ААН) праз Канвенцыю аб некаторых відах звычайнай зброі (КНО) у Жэневе ўстанавіла адзінаццаць неабавязковых кіруючых прынцыпаў па смяротнай аўтаномнай зброі, згодна з афіцыйным дакладам, размешчаным у інтэрнэце (які змяшчае спасылкі на адпаведныя палажэнні міжнароднага гуманітарнага права або МГП). , у тым ліку:

(a) Міжнароднае гуманітарнае права працягвае ў поўнай меры прымяняцца да ўсіх сістэм узбраенняў, уключаючы патэнцыйную распрацоўку і выкарыстанне смяротных аўтаномных сістэм зброі;

(b) Адказнасць чалавека за рашэнні аб выкарыстанні сістэм узбраення павінна быць захавана, паколькі адказнасць не можа быць перададзена машынам. Гэта трэба ўлічваць на працягу ўсяго жыццёвага цыкла сістэмы ўзбраення;

(c) Узаемадзеянне чалавек-машына, якое можа прымаць розныя формы і рэалізоўвацца на розных этапах жыццёвага цыкла зброі, павінна гарантаваць, што патэнцыйнае выкарыстанне сістэм зброі, заснаваных на новых тэхналогіях, у галіне смяротных аўтаномных сістэм зброі знаходзіцца ў захаванне дзеючага міжнароднага права, у прыватнасці МГП. Пры вызначэнні якасці і ступені ўзаемадзеяння чалавек-машына варта ўлічваць шэраг фактараў, уключаючы аператыўны кантэкст, а таксама характарыстыкі і магчымасці сістэмы ўзбраення ў цэлым;

(d) Адказнасць за распрацоўку, разгортванне і выкарыстанне любой новай сістэмы ўзбраення ў рамках КНО павінна быць забяспечана ў адпаведнасці з дзеючым міжнародным правам, у тым ліку шляхам функцыянавання такіх сістэм у межах адказнага ланцужка камандавання і кантролю чалавека;

(e) У адпаведнасці з абавязацельствамі дзяржаў па міжнародным праве, пры вывучэнні, распрацоўцы, набыцці або прыняцці на ўзбраенне новай зброі, сродкаў або метадаў вядзення вайны, павінна быць зроблена вызначэнне, ці будзе іх прымяненне ў некаторых або ва ўсіх абставінах забаронены міжнародным правам;

(f) Пры распрацоўцы або набыцці новых сістэм узбраення, заснаваных на новых тэхналогіях у галіне смяротных аўтаномных сістэм узбраення, фізічная бяспека, адпаведныя нефізічныя меры абароны (у тым ліку кібербяспека ад узлому або падробкі дадзеных), рызыка набыцця тэрарыстычнымі групамі і рызыка распаўсюджвання варта ўлічваць;

(g) ацэнка рызыкі і меры па зніжэнні яе наступстваў павінны быць часткай цыкла праектавання, распрацоўкі, выпрабаванняў і разгортвання новых тэхналогій у любых сістэмах узбраення;

(h) Варта надаць увагу выкарыстанню новых тэхналогій у галіне смяротных аўтаномных сістэм узбраення для забеспячэння захавання МГП і іншых дзеючых міжнародна-прававых абавязацельстваў;

(i) Пры распрацоўцы патэнцыйных палітычных мер новыя тэхналогіі ў галіне смяротных аўтаномных сістэм узбраення не павінны антрапамарфізавацца;

(j) Дыскусіі і любыя патэнцыйныя палітычныя меры, прынятыя ў кантэксце КНО, не павінны перашкаджаць прагрэсу або доступу да мірнага выкарыстання інтэлектуальных аўтаномных тэхналогій;

(k) КНО прапануе адпаведную аснову для вырашэння праблемы новых тэхналогій у галіне смяротных аўтаномных сістэм узбраення ў кантэксце мэт і мэтаў Канвенцыі, якая імкнецца знайсці баланс паміж ваеннай неабходнасцю і гуманітарнымі меркаваннямі.

Гэтыя і іншыя розныя законы вайны і законы ўзброеных канфліктаў, або МГП (Міжнароднае гуманітарнае права), служаць жыццёва важным і перспектыўным кіраўніцтвам для разгляду таго, што мы можам паспрабаваць зрабіць са з'яўленнем аўтаномных сістэм, якія маюць зброю, няхай гэта будзе па ключавым камені дызайнам або постфактум метадамі.

Некаторыя кажуць, што мы павінны наўпрост забараніць тыя аўтаномныя сістэмы штучнага інтэлекту, якія можна выкарыстоўваць у зброі. Правільна, свет павінен спыніцца і рашуча патрабаваць, каб аўтаномныя сістэмы штучнага інтэлекту ніколі не сталі зброяй. Мае быць уведзена поўная забарона. Канец гісторыі. Кропка, кропка.

Што ж, можна шчыра пажадаць, каб забарона на аўтаномныя сістэмы са смяротным узбраеннем строга і паслухмяна выконвалася. Праблема ў тым, што ў любой з самых шчырых забаронаў хітра знойдзецца шмат месца для ваганняў. Як кажуць, правілы прызначаныя для таго, каб іх парушаць. Вы можаце паспрачацца, што там, дзе справы ідуць няўцямна, свавольцы будуць шукаць прабелы і спрабаваць падміргваць, абыходзячы правілы.

Вось некаторыя магчымыя шчыліны, вартыя ўвагі:

  • Прэтэнзіі Non-Letal. Стварыце несмяротныя аўтаномныя сістэмы зброі (здавалася б, гэта нармальна, бо гэта па-за межамі забароны), якія вы можаце потым ператварыць у смяротныя (вы выйдзеце за межы забароны толькі ў апошнюю хвіліну).
  • Прэтэнзіі толькі да аўтаномнай сістэмы. Захоўвайце забарону, не ствараючы аўтаномныя сістэмы, арыентаваныя на смяротныя зыходы, тым часам дабіваючыся максімальнага прагрэсу ў распрацоўцы паўсядзённых аўтаномных сістэм, якія (пакуль) не ўзброеныя, але якія вы можаце за капейкі мадэрнізаваць у зброю.
  • Прэтэнзіі Not Integrated As One. Стварыце аўтаномныя сістэмы, якія ўвогуле не маюць зброі, а калі прыйдзе час, выкарыстоўвайце кантрейлерную зброю, каб вы маглі рашуча сцвярджаць, што яны з'яўляюцца двума асобнымі элементамі, і таму сцвярджаць, што яны не ўваходзяць у рубрыку "усё ў адным". аўтаномная сістэма ўзбраення або яе стрыечны брат.
  • Сцвярджае, што не з'яўляецца аўтаномным. Стварыце сістэму ўзбраення, якая, здаецца, не валодае аўтаномнымі магчымасцямі. Пакіньце месца ў гэтай, як мяркуецца, неаўтаномнай сістэме, для ўключэння аўтаноміі на аснове штучнага інтэлекту. Пры неабходнасці падключыце аўтаномію, і ўсё гатова (да таго часу, здавалася б, вы не парушалі забарону).
  • іншае

Ёсць шмат іншых выяўленых цяжкасцей пры спробе наўпрост забараніць смяротныя аўтаномныя сістэмы ўзбраення. Я раскажу яшчэ пра некалькі з іх.

Некаторыя эксперты сцвярджаюць, што забарона не з'яўляецца асабліва карыснай і замест гэтага павінны быць нарматыўныя палажэнні. Ідэя заключаецца ў тым, што гэтыя прыстасаванні будуць дазволеныя, але пад жорсткай паліцыяй. Выкладзены пералік законных варыянтаў выкарыстання, а таксама законныя спосабы таргетынгу, законныя тыпы магчымасцей, законная прапарцыянальнасць і да т.п.

На іх думку, прамая забарона - гэта ўсё роўна, што засунуць галаву ў пясок і зрабіць выгляд, што слана ў пакоі не існуе. Гэтае сцвярджэнне, аднак, выклікае кіпенне ў тых, хто супрацьстаіць аргументу, што, увёўшы забарону, вы можаце рэзка паменшыць спакусу прытрымлівацца такіх сістэм. Вядома, некаторыя будуць выстаўляць напаказ забарону, але, па меншай меры, спадзяюся, большасць гэтага не зробіць. Затым вы можаце засяродзіць сваю ўвагу на тых, хто красуецца, і вам не трэба засяроджваць увагу на ўсіх.

Гэтыя дэбаты ідуць кругам.

Яшчэ адна часта адзначаная праблема заключаецца ў тым, што нават калі добрыя людзі выконваюць забарону, дрэнныя не. Гэта ставіць добрага ў кепскае становішча. Дрэнныя будуць мець такія аўтаномныя сістэмы са зброяй, а добрыя - не. Як толькі высветліцца, што ў дрэнных ёсць, добраму будзе позна дагнаць упушчанае. Карацей кажучы, адзінае разумнае, што трэба зрабіць, гэта падрыхтавацца змагацца з агнём агнём.

Існуе таксама класічны спрэчка стрымлівання. Калі добрыя вырашылі стварыць узброеныя аўтаномныя сістэмы, гэта можа быць выкарыстана, каб стрымаць дрэнных ад імкнення ўвязацца ў бойку. Альбо добрыя будуць лепш узброеныя і такім чынам адгаворваюць дрэнных, альбо добрыя будуць гатовыя, калі дрэнныя, магчыма, раскрыюць, што яны ўвесь час таемна распрацоўвалі гэтыя сістэмы.

Супрацьстаяннем гэтым лічыльнікам з'яўляецца тое, што, ствараючы аўтаномныя сістэмы з узбраеннем, вы вядзеце гонку ўзбраенняў. Іншы бок будзе імкнуцца мець тое ж самае. Нават калі яны тэхналагічна не ў стане стварыць такія сістэмы нанова, цяпер яны змогуць скрасці планы «добрых», правесці рэінжынірыроўку высокатэхналагічных вантроб або імітаваць усё, што яны лічаць правераным і праўдзівым спосаб зрабіць працу.

Ага, адна рэпліка, усё гэта магло б прывесці да памяншэння канфліктаў на выгляд узаемнага. Калі бок А ведае, што бок Б мае такую ​​смяротную аўтаномную сістэмную зброю, а бок Б ведае, што яна ёсць у боку А, яны могуць сядзець спакойна і не пачынаць бойкі. Гэта выразная аўра атмасферы ўзаемнага гарантаванага знішчэння (MAD).

І гэтак далей.

Уважліва разглядаючы другі абзац

Мы ўжо ахапілі тут шмат тэмы і пакуль разгледзелі толькі першы або ўступны абзац Адкрытага ліста (усяго чатыры абзацы).

Час зірнуць на другі абзац, вось і вы:

  • «Як і ў выпадку з любой новай тэхналогіяй, якая прапануе новыя магчымасці, з'яўленне ўдасканаленых мабільных робатаў дае магчымасць няправільнага выкарыстання. Нядобранадзейныя людзі могуць выкарыстоўваць іх для ўварвання ў грамадзянскія правы або для пагроз, прычынення шкоды або запалохвання іншых. Адной з абласцей, якія выклікаюць асаблівую заклапочанасць, з'яўляецца стварэнне зброі. Мы лічым, што даданне зброі да робатаў, якія кіруюцца дыстанцыйна або аўтаномна, шырока даступныя для насельніцтва і здольныя перамяшчацца ў раней недаступныя месцы, дзе людзі жывуць і працуюць, стварае новыя рызыкі прычынення шкоды і сур'ёзныя этычныя праблемы. Узброеныя прымянення гэтых новых робатаў таксама пашкодзяць грамадскаму даверу да тэхналогіі такім чынам, што пашкодзіць велізарнай карысці, якую яны прынясуць грамадству. Па гэтых прычынах мы не падтрымліваем узброенасць нашых робатаў агульнага прызначэння з пашыранай мабільнасцю. Для тых з нас, хто выказваўся па гэтай праблеме ў мінулым, і для тых, хто займаецца гэтым пытаннем упершыню, цяпер мы адчуваем настойлівасць у святле ўзрастаючай занепакоенасці грамадскасці ў апошнія месяцы, выкліканай невялікай колькасцю людзей, якія відавочна апублікавалі сваю імправізаваную намаганні па стварэнні зброі камерцыйна даступных робатаў» (паводле апублікаванага ў Інтэрнэце).

Прачытаўшы гэты другі абзац, я спадзяюся, вы ўбачыце, як мой папярэдні дыскурс аб стварэнні зброі штучнага інтэлекту выходзіць на першы план.

Давайце разгледзім некалькі дадатковых момантаў.

Адно з сумневаў наконт канкрэтнага аспекту фармулёўкі, які выклікаў у некаторых заўвагу, заключаецца ў тым, што апавяданне, здаецца, падкрэслівае, што «нядобранадзейныя людзі» могуць злоўжываць гэтымі робатамі AI. Так, сапраўды, гэта могуць быць дрэнныя людзі або злачынцы, якія здзяйсняюць подлыя дзеянні, якія будуць «злоўжываць» робатамі AI.

У той жа час, як было адзначана ў пачатку гэтага абмеркавання, мы таксама павінны даць зразумець, што сам штучны інтэлект можа пайсці не так, магчыма, з-за ўбудаваных памылак або памылак і іншых падобных ускладненняў. Выказваецца занепакоенасць тым, што толькі падкрэсліваюцца шанцы нядобранадзейныя людзі заключаецца ў тым, што ён, здаецца, ігнаруе іншыя неспрыяльныя магчымасці. Хаця большасць кампаній і пастаўшчыкоў штучнага інтэлекту не жадаюць гэта прызнаваць, існуе мноства праблем з сістэмамі штучнага інтэлекту, якія могуць падарваць бяспеку і надзейнасць аўтаномных сістэм. Каб даведацца пра бяспеку штучнага інтэлекту і неабходнасць строгіх і даказальных мер бяспекі, гл спасылка тут, Напрыклад.

Яшчэ адзін прыкметны момант, які ўзнік сярод тых, хто вывучаў Адкрыты ліст, цягне за сабой уключанае сцвярджэнне, што ў канчатковым выніку можа падарвацца грамадскі давер, звязаны з робатамі AI.

З аднаго боку, гэта слушнае зацвярджэнне. Калі робаты са штучным інтэлектам будуць выкарыстоўвацца для злых таргоў, вы можаце паспрачацца, што грамадскасць будзе моцна ўзрушана. Калі грамадскасць узбуджаецца, вы можаце паспрачацца, што заканадаўцы кінуцца ў набег і паспрабуюць прыняць законы, якія абмежаваюць робатаў са штучным інтэлектам і робатаў са штучным інтэлектам. Гэта, у сваю чаргу, можа паралізаваць індустрыю робататэхнікі штучнага інтэлекту, калі законы будуць усеахопнымі і спыніць намаганні, звязаныя з перавагамі робатаў штучнага інтэлекту. У пэўным сэнсе дзіця магло быць выкінута разам з вадой (стары выраз, які, напэўна, заслугоўвае пенсіі).

Узнікае таксама відавочнае пытанне: ці з'яўляецца гэтае сцвярджэнне аб прадухіленні зніжэння грамадскага даверу да робатаў штучнага інтэлекту эгаістычным крэда, ці гэта для дабра ўсіх нас (можа быць і тое, і іншае?).

Вы самі вырашаеце.

Зараз мы падышлі да асабліва выразнай часткі Адкрытага ліста:

  • «Мы запэўніваем, што не будзем узбройваць нашых робатаў агульнага прызначэння з пашыранай мабільнасцю або праграмнага забеспячэння, якое мы распрацоўваем, якое забяспечвае перадавую робататэхніку, і не будзем падтрымліваць іншых у гэтым. Па магчымасці мы будзем уважліва разглядаць заяўкі нашых кліентаў, каб пазбегнуць патэнцыйнага выкарыстання зброі. Мы таксама абавязуемся вывучыць развіццё тэхналагічных функцый, якія маглі б змякчыць або паменшыць гэтыя рызыкі. Каб было ясна, мы не ставімся пад сумнеў з існуючымі тэхналогіямі, якія краіны і іх дзяржаўныя ўстановы выкарыстоўваюць, каб абараніць сябе і выконваць свае законы» (паводле апублікаванага ў Інтэрнэце).

Мы можам распакаваць гэта.

Сядзьце і падрыхтуйцеся адпаведна.

Вы гатовыя да вогненнай палярызацыі?

З добрага боку, некаторыя ўслых абвяшчаюць, што гэтыя вытворцы робатаў са штучным інтэлектам дадуць такое абяцанне. Падобна на тое, што гэтыя вытворцы робатаў, на шчасце, паспрабуюць не выкарыстоўваць сваіх «робатаў агульнага прызначэння з пашыранай мабільнасцю». Акрамя таго, у Адкрытым лісце гаворыцца, што яны не будуць падтрымліваць іншых, якія робяць гэта.

Крытыкі задаюцца пытаннем, ці не адбываецца нейкае разумнае словазлучэнне.

Напрыклад, дзе пачынаецца і дзе заканчваецца «прасунутая мабільнасць»? Калі вытворца робатаў распрацоўвае a просты-мабільны робат штучнага інтэлекту, а не прасунуты (што з'яўляецца невызначанай часткай тэхнічнага жаргону), ці выключаецца гэта з аб'ёму таго, што будзе ня быць узброеным? Такім чынам, па-відаць, можна перавесці ў зброю робатаў штучнага інтэлекту з простай мабільнасцю, пакуль яны не з'яўляюцца т.зв. прасунуты.

Тое ж самае тычыцца фармулёўкі робатаў агульнага прызначэння. Калі робат са штучным інтэлектам распрацаваны спецыяльна для стварэння зброі і, такім чынам, не з'яўляецца такім, мы будзем казаць а агульнага прызначэння робат, ці становіцца гэта жыццяздольным выключэннем са сферы?

Вы можаце прыдзірацца з гэтымі прыдзіркамі і горача сцвярджаць, што гэта ўсяго толькі адкрыты ліст, а не юрыдычны дакумент на пяцідзесяці старонках, у якім прапісаны ўсе куткі і шчыліны.

Гэта падводзіць нас да, здавалася б, шкадавання больш на макраўзроўні, якое выказваюць некаторыя. Па сутнасці, што азначае «залог»?

Некаторыя пытаюцца, а дзе ялавічына?

Кампанія, якая дае такое абяцанне, здаецца, робіць гэта без сапраўднай долі ў гульні. Калі вышэйшае кіраўніцтва якой-небудзь фірмы, якая падпісваецца на гэта абяцанне, вырашыць больш не выконваць абяцанне, што адбудзецца з гэтай фірмай? Ці будуць кіраўнікі адхіленыя ў хуткім часе? Кампанія закрыецца і папросіць прабачэння за парушэнне абяцання? І гэтак далей.

Наколькі можна зрабіць выснову, няма асаблівага пакарання або пакарання за любое парушэнне абяцання.

Вы можаце запярэчыць, што існуе верагоднасць пашкоджання рэпутацыі. Фірма, якая бярэ заклад, можа быць пакрыўджана на рынку за тое, што яна зрабіла абяцанне, якога больш не выконвае. Вядома, гэта таксама прадугледжвае, што людзі будуць памятаць, што абяцанне было дадзена. Гэта таксама прадугледжвае, што парушэнне закладу будзе нейкім чынам выяўлена (гэта відавочна малаверагодна, што фірма раскажа ўсё, калі яна гэта зробіць). Парушальніка абавязацельстваў трэба было б выкрыць, і ўсё ж такая праблема можа стаць проста шумам сярод працяглага цунамі навін пра вытворцаў робататэхнікі са штучным інтэлектам.

Разгледзім іншы ракурс, які ўзнік.

Фірма, якая дае заклад, выкупляецца нейкай буйнейшай фірмай. Больш буйная фірма вырашыла пачаць ператвараць робатаў агульнага прызначэння з пашыранай мабільнасцю ў версіі са зброяй штучнага інтэлекту.

Ці з'яўляецца гэта парушэннем закладу?

Буйнейшая фірма можа настойваць на тым, што гэта не парушэнне, бо яна (буйнейшая фірма) ніколі не давала абяцанне. Тым часам бяскрыўдныя робаты са штучным інтэлектам, якіх меншая фірма сабрала і распрацавала, робячы гэта з, здавалася б, самымі альтруістычнымі намерамі, амаль за адну ноч перарабілі ў зброю.

Накшталт падрывае абяцанне, хоць можна сказаць, што меншая фірма не ведала, што калі-небудзь гэта адбудзецца. Яны былі сур'ёзныя ў сваім жаданні. Тое, што буйнейшая фірма-пакупнік вырашыла зрабіць, было па-за іх кантролем.

Некаторыя таксама пытаюцца, ці ёсць за гэта нейкая юрыдычная адказнасць.

Фірма, якая бярэ заклад, праз некалькі месяцаў вырашае, што не збіраецца выконваць абяцанне. Яны перадумалі. Ці можна падаць у суд на фірму за тое, што яна адмовілася ад закладу? Хто б падаў у суд? Што будзе падставай для пазову? Узнікае маса юрыдычных пытанняў. Як кажуць, падаць у суд можна практычна з кім заўгодна, а вось ці атрымаецца - гэта зусім іншая справа.

Падумайце пра гэта па-іншаму. Фірма, якая бярэ заклад, атрымлівае магчымасць заключыць вельмі вялікую здзелку, каб прадаць цэлую кучу сваіх робатаў агульнага прызначэння з пашыранай мабільнасцю велізарнай кампаніі, якая гатовая плаціць праз нос, каб атрымаць робатаў. Гэта адна з тых здзелак на куплю на мільёны долараў, якія можна зрабіць адзін раз у жыцці.

Што павінна рабіць кампанія па робататэхніцы штучнага інтэлекту?

Калі фірма, якая займаецца робататэхнікай штучнага інтэлекту, будзе публічна гандлявацца, яны амаль напэўна будуць імкнуцца да продажу (тое ж самае можна сказаць і пра прыватную фірму, хоць і не зусім так). Уявіце сабе, што фірма, якая аддае заклад, непакоіцца, што пакупнік можа паспрабаваць зрабіць робатаў зброяй, хоць дапусцім, што такога абмеркавання няма. Толькі ходзяць чуткі, што пакупнік можа гэта зрабіць.

Адпаведна, фірма, якая абяцае, уключае ў сваю ліцэнзію, што робаты не павінны быць зброяй. Пакупнік адмаўляецца ад гэтай мовы і адыходзіць ад пакупкі.

Колькі прыбытку атрымала кампанія па робататэхніцы штучнага інтэлекту?

Ці існуе момант, калі прыбытак у руках пераважвае ўключэнне патрабавання аб абмежаванні ліцэнзавання (ці, магчыма, юрыдычная фармулёўка абмежавання, каб даць магчымасць варушыцца і пры гэтым здзейсніць здзелку)? Я думаю, што вы бачыце, у чым праблема. Мноства такіх сцэнарыяў лёгка прыдумаць. Пытанне ў тым, ці будзе гэты заклад мець зубы. Калі так, то якія зубы?

Карацей кажучы, як ужо гаварылася ў пачатку гэтай дыскусіі, некаторыя ўсхваляваны тым, што дадзены тып абяцання, у той час як іншыя маюць больш цьмяны погляд на тое, ці вытрымае абяцанне крыўду.

Рухаемся далей.

Атрыманне закладу

У чацвёртым і апошнім абзацы Адкрытага ліста гаворыцца наступнае:

  • «Мы разумеем, што адной толькі нашай прыхільнасці недастаткова для поўнага ліквідацыі гэтых рызык, і таму мы заклікаем палітыкаў супрацоўнічаць з намі, каб садзейнічаць бяспечнаму выкарыстанню гэтых робатаў і забараняць іх няправільнае выкарыстанне. Мы таксама заклікаем кожную арганізацыю, распрацоўшчыка, даследчыка і карыстальніка ў супольнасці робататэхнікі прыняць аналагічныя абяцанні не будаваць, не санкцыянаваць, не падтрымліваць і не дазваляць далучаць да такіх робатаў зброю. Мы перакананыя, што карысць гэтых тэхналогій для чалавецтва значна перавышае рызыку няправільнага выкарыстання, і мы рады светлай будучыні, у якой людзі і робаты будуць працаваць бок аб бок, каб вырашаць некаторыя сусветныя праблемы» (паводле апублікаванага ў інтэрнэце).

Гэтая апошняя частка Адкрытага ліста мае некалькі дадатковых элементаў, якія выклікалі гнеў.

Зварот да палітыкаў можа быць слушным або неабдуманым, сцвярджаюць некаторыя. Вы можаце дамагчыся, каб палітыкі, якія не разбіраюцца ў гэтых пытаннях, прымянялі класічныя паспешныя асуджэнні і майстравалі законы і правілы, якія ўзурпавалі прагрэс у робатах AI. Як было сказана раней, магчыма, інавацыі, якія спрыяюць прагрэсу робатаў штучнага інтэлекту, будуць сарваны або затаптаны.

Лепш пераканайцеся, што вы ведаеце, што вы просіце, кажуць крытыкі.

Вядома, контраргументам з'яўляецца тое, што ў апавяданні ясна гаворыцца, што палітыкі павінны працаваць з фірмамі, якія займаюцца робататэхнікай штучнага інтэлекту, каб высветліць, як меркавана разумна прымаць такія законы і правілы. Супрацьстаяннем контраргументу з'яўляецца тое, што палітыкаў можна разглядаць як тых, хто глядзіць на вытворцаў робататэхнікі штучнага інтэлекту, калі яны выконваюць іх капрызы. Супрацьстаянне контраргументам заключаецца ў тым, што працаваць з тымі, хто ведае пра тэхналогію, натуральна, неабходна, інакш вынік можа быць няўдалым. І г.д.

На падставе, магчыма, прыдзіркі, у некаторых была пякотка праз лінію, якая заклікае ўсіх даць падобныя абяцанні не прымацоўваючы зброі да робатаў агульнага прызначэння з падвышанай мабільнасцю. Ключавое слова там - слова прымацоўваючы. Калі нехта стварае робата са штучным інтэлектам, які ўключае ў сябе або бесперашкодна ўбудоўвае зброю, гэта, здаецца, абыходзіць фармулёўку прымацоўваючы нешта. Вы бачыце гэта зараз, хтосьці рэзка сцвярджае, што зброя не прымацавана, яна цалкам з'яўляецца неад'емнай часткай робата ІІ. Перабярыце гэта, усклікаюць яны, мы не ўваходзім у сферу дзеяння гэтага абяцання, і яны нават маглі б інакш сказаць, што яны былі.

Гэта выклікае яшчэ адну скаргу на адсутнасць ліпкасці закладу.

Ці можа фірма або хто-небудзь увогуле, хто вырашыў узяць гэтае абяцанне, аб'явіць сябе незабяспечаным у любы час, калі яны жадаюць гэта зрабіць, і па любой прычыне, якой яны гэтага жадаюць?

Мабыць так.

Вакол вядзецца шмат спрэчак аб абяцаннях і аб тым, якую цягу яны ствараюць.

заключэнне

Ой, вы можаце сказаць, што гэтыя кампаніі, якія спрабуюць рабіць правільныя рэчы, лаяцца за тое, што яны спрабуюць рабіць правільныя рэчы.

Што выйшла з нашага свету?

Вы маглі б горача сцвярджаць, што кожны, хто дае такое абяцанне, павінен быць упэўнены. Яны выходзяць у публічную сферу, каб зрабіць смелы і жыццёва важны ўклад. Калі мы пачнем іх ганьбіць за гэта, гэта, безумоўна, пагоршыць сітуацыю. Такога закладу ніхто не захоча даваць. Фірмы і іншыя нават не будуць спрабаваць. Яны схаваюцца і не папярэдзяць грамадства аб тым, у што могуць небяспечна ператварыцца гэтыя любімыя танцуючыя робаты.

Скептыкі абвяшчаюць, што спосаб прымусіць грамадства ацямнець цягне за сабой іншыя дзеянні, такія як адмова ад мудрагелістага дэманстрацыі робатаў штучнага інтэлекту, якія гарэзуюць, танцуюць. Ці, прынамсі, зрабіць гэта больш збалансаваным учынкам. Напрыклад, замест таго, каб імітаваць любімых сабак, адданых хатнім гадаванцам, пакажыце, як танцуючыя робаты могуць быць больш падобнымі да дзікіх спушчаных з прывязі раз'юшаных ваўкоў, якія могуць разарваць людзей на шматкі без ваганняў.

Гэта прыцягне больш увагі, чым абяцанні, моляць яны.

Абяцанні, несумненна, могуць стаць загадкай.

Як красамоўна сказаў Махатма Гандзі: «Незалежна ад таго, наколькі выразным абяцанне, людзі будуць перакручваць і перакручваць тэкст у адпаведнасці са сваімі мэтамі».

Магчыма, каб завяршыць гэта на ўзвышаючай ноце, Томас Джэферсан сказаў наступнае пра абяцанні: «Мы ўзаемна абяцаем адзін аднаму нашы жыцці, нашы багацці і наш святы гонар».

Калі справа даходзіць да робатаў штучнага інтэлекту, іх аўтаноміі, узброенасці і таму падобнага, мы ўсе ў канчатковым выніку будзем удзельнічаць у гэтым разам. Наша ўзаемная клятва павінна заключацца прынамсі ў тым, што мы будзем трымаць гэтыя справы на пярэднім краі, мы будзем імкнуцца знайсці спосабы справіцца з гэтымі дасягненнямі і нейкім чынам знайсці шлях да забеспячэння нашага гонару, нашага багацця і нашых жыццяў.

Ці можам мы паабяцаць гэта?

Я спадзяюся.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- вытворцы-робатаў-кажуць-яны-прадухіляць-стварэнне-ай-зброі/