Этыка штучнага інтэлекту абдумвае перавагі юрыдычна абавязковых фондаў адкуплення для забеспячэння адказнасці за дрэнныя паводзіны штучнага інтэлекту

Хто вінаваты?

Гэта можа здацца простым пытаннем, хаця ў выпадку са знакамітай камедыйнай часткай легендарнага дуэта Эбата і Кастэла пра бейсбольную каманду «хто» можа збянтэжыць. Магчыма, вы цьмяна знаёмыя з Хто першы камедыйная руціна, якую яны ператварылі ў адну з самых трывалых сцэнак усіх часоў (спойлер для тых з вас, хто гэтага не чуў).

Эбат кажа Кастэла, што "Хто" на першым, "Што" на другім і "Я не ведаю" на трэцім. Хітрая хітрасць заключаецца ў тым, што першага падвала клічуць Хто, другога падвала - Што, а трэцяга падвала - Я не ведаю. Вядома, гэтыя фразы таксама маюць сваё агульнапрынятае значэнне, і таму спроба інтэрпрэтаваць тое, што кажа Эбат, можа быць цалкам незразумелай. Сапраўды, Кастэла задае, здавалася б, бяскрыўднае пытанне, хто першы, на якое адказвае цвёрда сцвярджальна. Але для Кастэла гэта не мае сэнсу, бо ён чакаў імя, а замест гэтага атрымаў у адказ «так».

Пераключэнне перадач, калі справа даходзіць да з'яўлення штучнага інтэлекту (ШІ), адно з самых хвалюючых пытанняў, якое ўвесь час задаюць, цягне за сабой, хто ці, магчыма, што будзе прыцягнута да адказнасці, калі ШІ збіваецца з шляху.

Раней я абмяркоўваў крымінальную адказнасць за выпадкі, калі штучны інтэлект прыводзіць да злачынных дзеянняў або здзяйсняе іх, глядзіце мой матэрыял на спасылка тут. Ёсць таксама пытанне грамадзянскай адказнасці, напрыклад, на каго або што вы можаце падаць у суд, калі штучны інтэлект зрабіў вам дрэнна, і гэта тэма, якую я буду абмяркоўваць тут. Усё гэта мае важныя меркаванні з пункту гледжання этыкі штучнага інтэлекту. Пра тое, што я працягваю і шырока асвятляю этыку штучнага інтэлекту і этычны штучны інтэлект, гл спасылка тут і спасылка тут, Проста назваць некалькі.

Правілы этыкі штучнага інтэлекту прымушаюць нас заставацца пільнымі. Тэхнолагі штучнага інтэлекту часам могуць быць заклапочаныя тэхналогіямі, асабліва аптымізацыяй высокіх тэхналогій. Яны не абавязкова ўлічваюць больш шырокія грамадскія наступствы. Наяўнасць мыслення ў галіне этыкі штучнага інтэлекту і ўключэнне яго ў распрацоўку і ўкараненне штучнага інтэлекту мае жыццёва важнае значэнне для стварэння адпаведнага штучнага інтэлекту, у тым ліку (магчыма, дзіўна або іранічна) для ацэнкі таго, як этыка штучнага інтэлекту прымаецца кампаніямі.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Фактычна, яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гусака, заціснуўшы дасягненні ў галіне штучнага інтэлекту, якія прыносяць велізарныя перавагі для грамадства.

Вядуцца гарачыя дэбаты аб тым, ці здольныя існуючыя законы адэкватна змагацца з з'яўленнем сістэм штучнага інтэлекту ў грамадстве. Юрыдычная адказнасць звычайна патрабуе, каб вы маглі прышпіліць асла хвост адносна таго, хто нясе адказнасць за шкодныя паводзіны. У выпадку штучнага інтэлекту можа існаваць даволі незразумелы шлях, які звязвае канкрэтнага чалавека або асоб з штучным інтэлектам, які здзейсніў нейкае шкоднае дзеянне. ШІ можа быць у значнай ступені непрасочваемым да крыніцы або вынаходніка, які стварыў ШІ.

Іншае меркаванне заключаецца ў тым, што нават калі карані штучнага інтэлекту можна прасачыць да кагосьці, пытанне ў тым, ці не магла гэтая асоба або людзі разумна прадбачыць неспрыяльны вынік, які ў канчатковым выніку прывёў штучны інтэлект. Сутнасць прадказальнасці звычайна з'яўляецца прыкметным фактарам пры ацэнцы юрыдычнай адказнасці.

У вас можа ўзнікнуць спакуса падумаць, што вы можаце проста пайсці за самім штучным інтэлектам і назваць штучны інтэлект юрыдычнай асобай, адказнай за любую шкоду, якая нібыта была нанесена. У агульным і цэлым, пераважае прававое меркаванне, што ІІ яшчэ не дасягнуў узроўню правасуб'ектнасці. Такім чынам, вы не зможаце, строга кажучы, дамагчыся таго, каб штучны інтэлект заплаціў, і вам трэба будзе знайсці людзей, якія дзейнічалі як бы за кулісамі (пра мой аналіз юрыдычнай асобы для штучнага інтэлекту гл. спасылка тут).

Ва ўсё гэта патэнцыйнае прававое балота ўваходзіць ідэя, якая выносіцца ў якасці магчымага сродкі прававой абароны, альбо на кароткатэрміновай, альбо, магчыма, на доўгатэрміновай аснове. Ідэя заключаецца ў тым, што, магчыма, варта стварыць спецыяльны кампенсацыйны фонд для фінансавай дапамогі тым, хто пацярпеў ад ІІ. Калі вы іншым чынам не можаце прымусіць штучны інтэлект кампенсаваць вам кампенсацыю, і вы не можаце вызначыць асоб, якія, як мяркуецца, павінны быць прыцягнуты да адказнасці, наступным найлепшым варыянтам можа быць выкарыстанне кампенсацыйнага фонду, які накіраваны на дапамогу пацярпелым ад штучнага інтэлекту.

Такі фонд быў бы падобны да нейкай формы страхавання, як сказана ў даследчай працы, якая падштурхоўвае да роздуму: «Гэта, па сутнасці, будзе механізм страхавання ад нявызначанасці: выразная і празрыстая аснова для хуткай кампенсацыі ў выпадках, калі пазоў аб адказнасці мае няўпэўненасць або адсутнасць перспектывы поспеху з-за непрадбачанага характару шкодных дзеянняў, (тыпу) самой шкоды або празмерных выдаткаў і/або складанасці працэдуры» (артыкул Алівіі Эрдэлі і Габара Эрдэлі, «Загадка аб адказнасці AI І абыходны шлях на аснове сродкаў», Часопіс даследаванняў штучнага інтэлекту, 2021).

Кампенсацыйны фонд будзе часткай усёабдымнай схемы гарантый штучнага інтэлекту (AIGS) і будзе суправаджацца невялікімі зменамі ў існуючых законах аб юрыдычнай адказнасці. Мяркуючы па ўсім, лёгкае дакрананне было б прасцей прыняць і не патрабавала б цяжкіх прававых і грамадскіх трывог, калі б у існуючыя прававыя рэжымы была ўнесена больш жорсткая серыя дэманстратыўных змяненняў. На думку даследчыкаў: «Гэта адлюстроўвае нашу веру ў тое, што, нягледзячы на ​​прывабнасць такога хуткага рашэння, нязменным прымяненне існуючых правілаў адказнасці да AI або a пратэкцыянісцкі матываваны зварот да строгай адказнасці з мэтай усталявання адказнасці любой цаной не з'яўляецца правільным адказам па трох прычынах: па-першае, ігнаруючы, што гэтыя правілы былі адаптаваны да розных абставінаў і, такім чынам, могуць быць непрыдатнымі для ІІ, яны супярэчаць тонка збалансаваным мэтам сістэма юрыдычнай адказнасці. Па-другое, яны перашкаджаюць інавацыям штучнага інтэлекту, прымяняючы празмерна карны падыход. Па-трэцяе, празмернае прымяненне строгай адказнасці проста абыходзіць праблемы прадказальнасці і няспраўнасці дагматычна супярэчлівым чынам, а не ліквідуе іх» (згодна з цытаваным вышэй дакументам).

Аргументы на карысць такіх кампенсацыйных фондаў ІІ ўключаюць:

  • Памяншае патрэбу ў працяглых і дарагіх судовых працэсах для ліквідацыі шкоды, нанесенай ІІ
  • Запэўнівае людзей, што яны могуць выкарыстоўваць ІІ і атрымаць кампенсацыю ў выпадку нанясення шкоды
  • Спрыяе інавацыям штучнага інтэлекту, памяншаючы прававую нявызначанасць, з якой сутыкаюцца інаватары штучнага інтэлекту
  • Можа быць уведзены ў эксплуатацыю значна хутчэй, чым унясенне масавых змяненняў у існуючыя законы
  • Прапануе адносна дакладнае лекі, якое з'яўляецца надзейным і даступным
  • іншае

Тым часам тыя, хто выступае супраць падыходу кампенсацыйных фондаў AI, кажуць наступнае:

  • Давайце вытворцам штучнага інтэлекту празмерна адмовіцца ад адказнасці
  • Падбадзёрыць вытворцаў штучнага інтэлекту для стварэння штучнага інтэлекту, якому не хапае добрасумленнай бяспекі і належнага кіравання
  • Можа падштурхнуць людзей ілжыва заявіць пра шкоду ІІ, каб яны маглі атрымаць сродкі
  • Абыходзіць і падрывае сапраўдную неабходнасць перагледзець нашы законы, каб у дастатковай ступені кіраваць ІІ
  • Можа стаць бюракратычным кашмарам, які загразне і выкарыстоўваецца не па прызначэнні
  • іншае

Як відаць, ёсць як прыхільнікі, так і праціўнікі гэтага цалкам супярэчлівага меркавання.

Вам было б цяжка ўвогуле выключыць кампенсацыйны фонд штучнага інтэлекту як патэнцыйны падыход да расце занепакоенасці наконт штучнага інтэлекту, які наносіць шкоду. Таксама прапанаванае рашэнне не з'яўляецца слэм-данкам.

Адзін з пунктаў гледжання заключаецца ў тым, што вытворцам штучнага інтэлекту трэба было б укладваць грошы ў фонды ў рамках сваіх намаганняў пры распрацоўцы і распаўсюджванні штучнага інтэлекту. Гэта можа быць вытлумачана як своеасаблівая плата або падатак, які яны павінны несці ў якасці часткі магчымасці выпусціць свой штучны інтэлект у свет. Але ці могуць гэтыя дадатковыя выдаткі стрымліваць намаганні стартапаў, якія спрабуюць пашырыць межы сучаснага ІІ? І як будзе ажыццяўляцца забеспячэнне таго, каб вытворцы штучнага інтэлекту плацілі свае зборы або падаткі?

Узнікае мноства пытанняў, на якія трэба будзе разабрацца:

  • У якіх краінах кампенсацыйны фонд штучнага інтэлекту быў бы лепш за ўсё магчымы?
  • Ці можа быць створана глабальнае падабенства ўзаемазвязаных кампенсацыйных фондаў штучнага інтэлекту?
  • Якія будуць падрабязныя і дзейсныя механізмы, звязаныя з такімі сродкамі?
  • Як будуць фінансавацца кампенсацыйныя фонды AI (дзяржаўныя, прыватныя, дабрачынныя)?
  • Ці будзе гэта аснова страхавання адсутнасці віны, ці будзе выкарыстаны нейкі іншы падыход?
  • І г.д.

Сфера, у якой ужо была распаўсюджана ідэя кампенсацыйных фондаў штучнага інтэлекту, складаецца з аўтаномных сістэм, такіх як аўтаномныя транспартныя сродкі і беспілотныя аўтамабілі. Маё асвятленне беспілотных аўтамабіляў і аўтаномных сістэм штучнага інтэлекту гл спасылка тут.

Вось эскіз таго, як гэта можа працаваць для беспілотных аўтамабіляў на аснове штучнага інтэлекту.

Дапусцім, беспілотны аўтамабіль урэзаўся ў веласіпедыста. Веласіпедыст пацярпеў. Веласіпедыст можа дамагацца прававой абароны, пераследуючы аўтавытворцы аўтаномнага аўтамабіля. Або яны могуць нацэліцца на самакіравальную тэхналагічную фірму, якая зрабіла сістэму кіравання AI. Калі беспілотны аўтамабіль эксплуатуецца як аўтапарк, іншым юрыдычным шляхам было б пераследваць аператара аўтапарка. Спроба падаць у суд на AI не з'яўляецца варыянтам на дадзены момант, паколькі юрыдычная асоба AI яшчэ не ўстаноўлена.

Замест таго, каб распачаць судовыя дзеянні супраць любога з гэтых бакоў, іншым спосабам было б падаць заяўку або патрабаваць у адпаведны кампенсацыйны фонд штучнага інтэлекту. Фонд фармалізаваў бы працэсы, звязаныя з разглядам прэтэнзіі, а затым вызначыў, што, калі якія-небудзь кампенсацыйныя выплаты могуць быць прадастаўлены заяўніку. Можа існаваць працэдура апеляцыі, якая дапамагае заяўнікам, якія лічаць, што фонд памылкова адмовіў ім у атрыманні або атрымаў недастатковую кампенсацыю ад фонду.

Тэарэтычна, кампенсацыйны фонд штучнага інтэлекту быў бы значна больш хуткім шляхам да атрымання кампенсацыі за прычыненую шкоду. Вы можаце сабе ўявіць, наколькі працаёмкім можа быць судовы працэс, калі прадпрыемствы, супраць якіх судзяць, могуць спрабаваць зацягнуць справу.

Тым не менш, адвакаты могуць падкрэсліць, што кампенсацыйны фонд штучнага інтэлекту можа дазволіць іншым асобам, такім як вытворцы штучнага інтэлекту, пазбегнуць выразнага пакарання за тое, што яны выпусцілі свой беспілотны аўтамабіль на дарогах агульнага карыстання, які ў выніку збіў веласіпедыста. Што яшчэ гэтыя фірмы могуць зрабіць «нядбайна»? Без навіслага прывіда законнага мяча, які боўтаецца над іх галовамі, мы маглі б штодня сутыкацца з штучным інтэлектам, які багаты небяспекай.

Кругам ідуць спрэчкі.

заключэнне

Этыка штучнага інтэлекту нагадвае нам, што мы заўсёды павінны ўлічваць этычныя і прававыя наступствы штучнага інтэлекту. У гэтым выпадку кампенсацыйных фондаў штучнага інтэлекту прапанаванае паняцце падобнага да страхавання аб'яднання сродкаў для кампенсацыі тым, хто пацярпеў ад штучнага інтэлекту, сапраўды здаецца прывабным. Сродкі, здавалася б, чакалі б там, гатовыя да іх задзейнічаць і забяспечыць як мага хутчэйшую кампенсацыю.

Кампрамісы ў тым, ці можа гэта адкрыць шлюзы для стварэння штучнага інтэлекту, які будзе мець усё менш і менш элементаў кантролю бяспекі, выклікаюць жах і занадта сур'ёзную заклапочанасць. Верагодна, нам не трэба падліваць алею ў агонь, які, магчыма, ужо ў некаторай ступені разгараецца.

Ці можам мы нейкім чынам прымусіць вытворцаў штучнага інтэлекту распрацаваць адпаведны этычны штучны інтэлект і адначасова стварыць гэтыя кампенсацыйныя фонды штучнага інтэлекту?

Некаторыя скажуць, што так, мы можам. Змяніўшы існуючыя законы ў адпаведнасць з кампенсацыйнымі фондамі штучнага інтэлекту, тыя, хто пацярпеў ад штучнага інтэлекту, патэнцыйна атрымаюць двайны шлях для атрымання справядлівай кампенсацыі.

Хто першы?

Так, гэта тыя, хто (як і ўсе мы) у першую чаргу заўважаюць, што нам варта падумаць аб патэнцыйным выкарыстанні кампенсацыйных фондаў штучнага інтэлекту і змяніць існуючыя законы, нават нязначна, забяспечваючы сродкі для барацьбы з націскам як добрага штучнага інтэлекту, так і дрэнны ІІ.

Няма ніякай блытаніны ў гэтым жыццёва важным меркаванні.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- адказнасць/