Этыка штучнага інтэлекту і закон аб штучным інтэлекце кажуць, што ўкараненне прававой аргументацыі ў штучны інтэлект магло б разумна дасягнуць супадзення паміж чалавечымі каштоўнасцямі

У сённяшняй калонцы я збіраюся злучыць мноства, здавалася б, розных тэм, звязаных з штучным інтэлектам, у адну прыгожа сплеценую тканіну.

Ці гатовыя вы?

Уявіце, што вы карыстаецеся дадаткам на аснове штучнага інтэлекту, які дапамагае вам пры выкананні нейкай важнай задачы. Магчыма, справа фінансавая або можа быць звязана са здароўем. Сутнасць заключаецца ў тым, што вы залежыце ад таго, што штучны інтэлект будзе рабіць правільныя рэчы і выконваць меркаваную бяспеку.

Выкажам здагадку, што штучны інтэлект пераходзіць на неэтычную тэрыторыю.

Магчыма, вы не разумееце, што ІІ робіць гэта.

Напрыклад, штучны інтэлект можа абапірацца на патэнцыйна схаваныя дыскрымінацыйныя фактары, такія як раса або пол, хоць у вас можа не быць ніякіх жыццяздольных спосабаў распазнаць непажаданае выкарыстанне. Вось вы, зусім адзін, атрымліваеце меншае з дапамогай штучнага інтэлекту, які альбо быў распрацаваны з самага пачатку праблематычным спосабам, альбо яму ўдалося ўвайсці ў рызыкоўныя і памежныя этычныя пагрозы (я раскажу больш пра гэта праз імгненне).

Што вы можаце зрабіць або што можна зрабіць з ІІ, які вырашыў пайсці неэтычным шляхам?

Акрамя таго, што я спрабаваў загадзя пабудаваць штучны інтэлект, каб ён не рабіў такога роду падступных дзеянняў, я раней таксама падрабязна апісваў, што расце цікавасць да ўбудавання Праверка этыкі штучнага інтэлекту кампанент у расце багну, у адваротным выпадку Дзікага Захаду, што заўгодна, сістэмы штучнага інтэлекту, якія выкідваюцца на рынак. Ідэя заключаецца ў тым, што, каб паспрабаваць не даць праграме, напоўненай штучным інтэлектам, выйсці за межы этычных аспектаў, мы маглі б выкарыстаць дадатковы штучны інтэлект, каб правесці праверку і баланс. Гэты дададзены штучны інтэлект можа знаходзіцца па-за мэтавай праграмай штучнага інтэлекту або можа быць кампанентам, убудаваным або імплантаваным непасрэдна ў штучны інтэлект, які мы хочам яшчэ раз праверыць.

Як я ўжо казаў раней, гл спасылка тут: «Трэнд, які нядаўна з'явіўся, заключаецца ў спробах убудаваць у штучны інтэлект этычныя агароджы, якія будуць фіксаваць, калі астатняя частка сістэмы штучнага інтэлекту пачынае выходзіць за межы загадзя зададзеных этычных межаў. У пэўным сэнсе мэта складаецца ў тым, каб выкарыстаць сам штучны інтэлект, каб утрымаць сябе ад этычных памылак. Можна сказаць, што мы імкнемся да таго, каб штучны інтэлект вылечваў сябе» (Лэнс Эліёт, «Стварэнне этычнага штучнага інтэлекту, які кантралюе неэтычны штучны інтэлект і спрабуе ўтрымаць дрэнны штучны інтэлект ад дзеянняў», Forbes, 28 сакавіка 2022 г.).

Магчыма, вам таксама будзе цікавая мая кніга Боты-ахоўнікі AI, які часам называюць анёламі-ахоўнікамі, які ахоплівае тэхнічную аснову гэтай сучаснай сістэмы падвойнай праверкі, убудаванай штучным інтэлектам у штучным інтэлекте, гл. спасылка тут.

Сутнасць заключаецца ў тым, што ваш бекон, на шчасце, можа быць выратаваны з дапамогай убудаванага AI элемента падвойнай праверкі этыкі, які быў распрацаваны і імплантаваны ў дадатак AI, якім вы карыстаецеся. Але ці будзе гэтага дастаткова для апекуна, каб сапраўды пераканацца, што штучны інтэлектуальны інтэлект не зацята вас цалкам і не адважыцца нават на шкодную тэрыторыю?

Разумееце, прыкладанне AI можа працаваць нібыта незаконны акты.

Адна справа мець ІІ, які трапляе ў шэрую зону таго, што мы лічым этычнымі або неэтычнымі паводзінамі. Такія ж бянтэжачыя паводзіны і верагоднае пагаршэнне занепакоенасці цягнуць за сабой штучны інтэлект, які проста пераскоквае акулу і апускаецца ў няякасную цемру адкрытых супрацьзаконных дзеянняў.

Незаконны штучны інтэлект - гэта дрэнна. Дазваляць незаконнаму штучнаму інтэлекту заставацца без нагляду - дрэнна. Некаторыя навукоўцы-юрысты адкрыта занепакоеныя тым, што з'яўленне і паўсюднасць штучнага інтэлекту паступова і жудасна падарвуць нашу падабенства вяршэнства права, глядзіце мой аналіз на спасылка тут.

Пачакайце секунду, магчыма, скажаце вы.

У вас можа ўзнікнуць спакуса падумаць, што распрацоўшчыкі штучнага інтэлекту будуць ніколі запраграмаваць іх штучны інтэлект на парушэнне закона. Неймавернае. Так зробяць толькі злыя злыдні (якія, дарэчы, майце на ўвазе, што ёсць тыя, хто наўмысна распрацоўвае і выкарыстоўвае штучны інтэлект у злых мэтах, што становіцца ўсё больш цікавай сферай для злачынцаў і іншых, хто хоча выкарыстоўваць штучны інтэлект для гнюсных дзеянняў).

Прабачце, але выказаць здагадку, што ўсе незлыя распрацоўшчыкі штучнага інтэлекту будуць строга сачыць за тым, каб іх штучны інтэлект быў цалкам законапаслухмяным. Магчыма, штучны інтэлект самастойна прыстасоўваецца і пачынае займацца незаконнай дзейнасцю. Вядома, існуе таксама верагоднасць таго, што распрацоўшчыкі штучнага інтэлекту альбо жадалі, каб штучны інтэлект дзейнічаў незаконна, альбо яны не ведалі, што з'яўляецца супрацьзаконным у параўнанні з юрыдычнымі дзеяннямі, калі яны распрацоўвалі штучны інтэлект (так, гэта цалкам магчыма, а менавіта, што цалкам тэхналагічная каманда штучнага інтэлекту можа не ведаць аб юрыдычных махінацыях свайго штучнага інтэлекту, што не падлягае апраўданню, але ўсё ж здараецца з трывожнай частатой).

Што з гэтым можна зрабіць?

Зноў жа, акрамя спробы пераканацца, што штучны інтэлект па-за варотамі з'яўляецца жалезным і законным, дадатковы падыход да набыцця пары прадугледжвае ўбудаванне або імплантацыю кампанента штучнага інтэлекту, які выконвае законную падвойную праверку астатняй часткі праграмы штучнага інтэлекту. Сядзячы ціха і часта без паведамлення, гэты дададзены штучны інтэлект назірае за астатнім штучным інтэлектам, каб паспрабаваць вызначыць, ці збіраецца штучны інтэлект перайсці на махлярства або, прынамсі, пераступіць межы прававых або нарматыўных абмежаванняў.

Цяпер у нас ёсць два віды падвойнай праверкі штучнага інтэлекту, якія патэнцыйна ўбудаваны ў дадатак штучнага інтэлекту:

  • Двайная праверка этыкі штучнага інтэлекту: У рэжыме рэальнага часу гэты кампанент або надбудова штучнага інтэлекту ацэньвае астатнюю частку штучнага інтэлекту на этычныя і неэтычныя паводзіны, якія дэманструе штучны інтэлект
  • Юрыдычная падвойная праверка AI: У рэжыме рэальнага часу гэты кампанент або надбудова штучнага інтэлекту ацэньвае астатнюю частку штучнага інтэлекту для ўпэўненасці ў захаванні законных ключавых камянёў і для выяўлення новых незаконных дзеянняў штучным інтэлектам.

Каб удакладніць, гэта адносна новыя канцэпцыі, і такім чынам штучны інтэлект, які вы выкарыстоўваеце сёння, можа знаходзіцца ў любым з гэтых цяперашніх умоў:

  • AI, які не мае падвойных праверак наогул
  • ШІ, у які ўключана сістэма падвойнай праверкі па этыцы штучнага інтэлекту, але без іншых сродкаў падвойнай праверкі
  • AI, які мае юрыдычную двайную праверку AI, але не мае іншых двайных праверак
  • AI, які мае двайную праверку AI Ethics і AI Legal
  • іншае

Ёсць некаторыя прыкметна складаныя аспекты таго, што двайны праверка AI Ethics і AI Legal двайны праверкі працуюць бок аб бок у праграме AI як роднасныя брат і сястра. Гэта тып дуалізму, які можа быць цяжэй каардынаваць, чым можна падумаць (я думаю, мы ўсе ведаем, што браты і сёстры могуць мець самыя цесныя сувязі, хоць яны таксама могуць час ад часу біцца, як Дыкенс, і рашуча супрацьстаяць прагляды).

Я доўга абмяркоўваў гэты тып цяжкіх дуалізм: «У ІІ дзеля сацыяльнага дабра назіраецца занядбаны дуалізм, звязаны з адсутнасцю ахопу як ролі штучнага маральнага выбару, так і штучнай юрыдычнай аргументацыі ў перадавых сістэмах ІІ. Намаганні даследчыкаў штучнага інтэлекту і распрацоўшчыкаў штучнага інтэлекту, як правіла, засяроджваюцца на тым, як ствараць і ўбудоўваць штучных маральных агентаў, каб накіроўваць прыняцце маральных рашэнняў, калі сістэма штучнага інтэлекту працуе ў полі, але не засяроджваюцца і спалучаюць выкарыстанне магчымасцей штучнага прававога аргументавання. , што аднолькава неабходна для надзейных маральных і прававых вынікаў» (Лэнс Эліёт, «The Neglected Dualism of Artificial Moral Agency And Artificial Legal Reasoning In AI for Social Good», Гарвардская штогадовая канферэнцыя CRCS 2020 г., Гарвардскі цэнтр даследаванняў і вылічальнага грамадства)

Калі вы хочаце паразважаць пра тое, чаму можа ўзнікнуць напружанасць паміж асобай, якая правярае этыку штучнага інтэлекту і прававую праверку, вы можаце знайсці наступную прыкметную цытату з ашаламляльнай канцэптуальнай вартасцю: «Закон можа дазваляць некаторыя канкрэтныя дзеянні, нават калі гэты ўчынак амаральны; і закон можа забараніць нейкі ўчынак, нават калі гэты ўчынак маральна дапушчальны ці нават маральна неабходны» (Шэлі Каган, Межы маральнасці, 1998).

Давайце крыху змясцім нашу ўвагу і паглядзім, як гэтыя падвойныя праверкі ўпісваюцца ў іншую тэму штучнага інтэлекту, якая старанна вывучаецца, а менавіта Адказны ІІ або ўзгодненае разгляд сумяшчэння чалавечых каштоўнасцей і штучнага інтэлекту.

Агульная думка заключаецца ў тым, што мы хочам, каб штучны інтэлект прытрымліваўся належных і жаданых чалавечых каштоўнасцей. Некаторыя называюць гэта як Адказны ІІ. Іншыя гэтак жа абмяркоўваюць Падсправаздачны ІІ, Надзейны ІІ, і Выраўноўванне ІІ, усе яны закранаюць адзін і той жа краевугольны прынцып. Маё абмеркаванне гэтых важных пытанняў гл спасылка тут і спасылка тут, Проста назваць некалькі.

Як мы можам прымусіць штучны інтэлект адпавядаць чалавечым каштоўнасцям?

Як было сказана раней, мы спадзяемся, што распрацоўшчыкі штучнага інтэлекту будуць дасведчаныя аб распрацоўцы штучнага інтэлекту, які забяспечвае захаванне адказнага штучнага інтэлекту. На жаль, па прычынах, названых раней, не маглі. Акрамя таго, яны могуць паспрабаваць зрабіць гэта, але, тым не менш, штучны інтэлект у канчатковым выніку саманаладжваецца за межы прыкметнай сферы этычных паводзін або, магчыма, у незаконныя воды.

Добра, тады нам трэба разглядаць нашы зручныя дэндзі-падвойныя праверкі як сродак для падмацавання гэтых рызык і ўздзеяння. Выкарыстанне добра распрацаванай сістэмы падвойнай праверкі этыкі штучнага інтэлекту можа істотна дапамагчы ўзгадніць штучны інтэлект з чалавечымі каштоўнасцямі. Аналагічным чынам выкарыстанне добра распрацаванай юрыдычнай падвойнай праверкі штучнага інтэлекту можа істотна дапамагчы ў прывядзенні штучнага інтэлекту ў адпаведнасць з чалавечымі каштоўнасцямі.

Такім чынам, найважнейшым і яшчэ не вельмі вядомым спосабам дасягнення адказнага штучнага інтэлекту, заслугоўваючага даверу штучнага інтэлекту, падсправаздачнага штучнага інтэлекту, узгаднення штучнага інтэлекту і г. д. было б выкарыстанне сродкаў падвойнай праверкі штучнага інтэлекту, такіх як сістэма падвойнай праверкі AI Ethics і Юрыдычная падвойная праверка штучнага інтэлекту, якая нястомна працуе як падвойная праверка штучнага інтэлекту, у які яны ўбудаваны.

У гэтым абмеркаванні я хацеў бы крыху больш падрабязна спыніцца на прыродзе і канструкцыях юрыдычных сродкаў падвойнай праверкі AI, якія могуць быць убудаваны ў AI. Каб зрабіць гэта, можа быць карысна падзяліцца з вамі дадатковай інфармацыяй па агульнай тэме ІІ і закон.

Для бессэнсоўнага вывучэння таго, як штучны інтэлект і закон змешваюцца адзін з адным, глядзіце маё абмеркаванне на спасылка тут. У маім праніклівым поглядзе на ІІ і закон спалучэння, я даю гэтую прамую канцэпцыю двух асноўных спосабаў ўзаемасувязі ІІ і закону:

  • (1) Закон, які прымяняецца да штучнага інтэлекту: Распрацоўка, прыняцце і выкананне законаў, якія прымяняюцца да рэгулявання або кіравання штучным інтэлектам у нашым грамадстве
  • (2) AI-applied to-Law: Тэхналогія штучнага інтэлекту, распрацаваная і прымененая ў заканадаўстве, у тым ліку юрыдычная аргументацыя на аснове штучнага інтэлекту (AILR), уведзеная ў высокатэхналагічныя праграмы LegalTech для аўтаномнага або паўаўтаномнага выканання адвакацкіх задач

Першы пункт гледжання складаецца з разгляду таго, як існуючыя і новыя законы будуць рэгуляваць ІІ. Другі пералічаны пункт гледжання звязаны з прымяненнем штучнага інтэлекту да закона.

Гэтая апошняя катэгорыя звычайна прадугледжвае выкарыстанне прававой аргументацыі на аснове штучнага інтэлекту (AILR) у розных інтэрнэт-інструментах, якія выкарыстоўваюцца юрыстамі. Напрыклад, штучны інтэлект можа быць часткай пакета Contract Life Cycle Management (CLM), які дапамагае адвакатам, вызначаючы кантрактныя мовы, якія будуць карысныя для складання новых кантрактаў, або можа выяўляць кантракты, якія маюць юрыдычна цьмяную мову, якая дапускае няшчасныя выпадкі або юрыдычныя шчыліны (пра мой погляд на так званыя «законныя пахі», якія можа распазнаць ІІ, гл спасылка тут).

Мы непазбежна прымяняем штучны інтэлект да закона, які стане даступным для выкарыстання шырокай грамадскасцю і не патрабуе адваката быць у курсе. У цяперашні час у выніку розных абмежаванняў, у тым ліку UPL (несанкцыянаваных практычных заняткаў правам), стварэнне праграм для юрыдычных кансультацый на аснове штучнага інтэлекту з'яўляецца цяжкай і супярэчлівай праблемай, глядзіце маё абмеркаванне на спасылка тут.

Я прывёў гэтае ўвядзенне пра штучны інтэлект і закон, каб адзначыць, што яшчэ адным інструментальным выкарыстаннем штучнага інтэлекту ў заканадаўстве было б стварэнне прававых падраздзяленняў штучнага інтэлекту.

Так, тыя ж самыя тэхналагічныя здольнасці, звязаныя з прымяненнем штучнага інтэлекту ў законе, могуць служыць падвойным абавязкам, выкарыстоўваючы штучны інтэлект у якасці ўбудаванай або імплантаванай юрыдычнай падвойнай праверкі штучнага інтэлекту. Інструмент падвойнай праверкі AI Legal - гэта кампанент, які павінен разбірацца ў юрыдычных аспектах. Калі астатняя частка праграмы штучнага інтэлекту выконвае розныя дзеянні, праверка AI Legal правярае, ці робіць праграма штучнага інтэлекту законна гэта і ў рамках законных абмежаванняў.

Кампанент падвойнай праверкі AI Legal неабавязкова павінен ахопліваць увесь спектр усяго, што трэба ведаць пра закон. У залежнасці ад характару праграмы штучнага інтэлекту адносна прызначэння і дзеянняў штучнага інтэлекту ў цэлым, прававы кантроль AI Legal можа быць значна вузейшым з пункту гледжання юрыдычнай экспертызы, якую ён змяшчае.

Я вызначыў карысную аснову для дэманстрацыі таго, як штучны інтэлект у юрыдычнай сферы распаўсюджваецца на шэраг аўтаномных магчымасцей, вядомых як ўзроўні аўтаноміі (LoA). Для агляду глядзіце мой Forbes публікацыя ў калонцы ад 21 лістапада 2022 г. «Безглуздая ўсёабдымная пераканаўчая аргументацыя таго, чаму юрыстам трэба ведаць пра ІІ і закон» на спасылка тут, а для падрабязнага тэхнічнага апісання гл. мой паглыблены даследчы артыкул у MIT Computational Law Journal ад 7 снежня 2021 г. гл спасылка тут.

Структура асвятляе пяць узроўняў штучнага інтэлекту, якія выкарыстоўваюцца ў юрыдычных справах:

  • Узровень 0: Няма аўтаматызацыі для юрыдычнай працы на аснове штучнага інтэлекту
  • Узровень 1: Простая аўтаматызацыя дапамогі для юрыдычнай працы на аснове штучнага інтэлекту
  • Узровень 2: пашыраная аўтаматызацыя дапамогі для юрыдычнай працы на аснове штучнага інтэлекту
  • Узровень 3: Паўаўтаномная аўтаматызацыя юрыдычнай працы на аснове штучнага інтэлекту
  • Узровень 4: аўтаномны дамен для юрыдычнай працы на аснове штучнага інтэлекту
  • Узровень 5: цалкам аўтаномны для юрыдычнай працы на аснове штучнага інтэлекту

Я коратка апішу іх тут.

Узровень 0 лічыцца без аўтаматызацыі. Юрыдычныя развагі і прававыя задачы выконваюцца з дапамогай ручных метадаў і ў асноўным адбываюцца з дапамогай папяровых падыходаў.

Узровень 1 складаецца з простай аўтаматызацыі дапамогі для прававых аргументаў штучнага інтэлекту. Прыклады гэтай катэгорыі могуць уключаць у сябе штодзённае выкарыстанне камп'ютэрнай апрацоўкі тэкстаў, штодзённае выкарыстанне камп'ютэрных электронных табліц, доступ да юрыдычных дакументаў у Інтэрнэце, якія захоўваюцца і здабываюцца ў электронным выглядзе, і гэтак далей.

Узровень 2 складаецца з пашыранай аўтаматызацыі дапамогі для юрыдычных разваг ІІ. Прыклады гэтай катэгорыі могуць уключаць выкарыстанне элементарнай апрацоўкі натуральнай мовы (NLP) у стылі запытаў, спрошчаныя элементы машыннага навучання (ML), інструменты статыстычнага аналізу для прагназавання судовых спраў і г.д.

Узровень 3 складаецца з паўаўтаномнай аўтаматызацыі юрыдычных разваг ІІ. Прыклады гэтай катэгорыі могуць уключаць выкарыстанне перадавых сістэм, заснаваных на ведах (KBS) для юрыдычных аргументаў, выкарыстанне машыннага навучання і глыбокага навучання (ML/DL) для юрыдычных аргументаў, пашыраны НЛП і г.д.

Узровень 4 складаецца з даменных аўтаномных камп'ютэрных сістэм для юрыдычных аргументаў штучнага інтэлекту. На гэтым узроўні паўторна выкарыстоўваецца канцэптуальнае паняцце даменаў аператыўнага праектавання (ODD), якія выкарыстоўваюцца для беспілотных аўтамабіляў, але ў дачыненні да юрыдычнай вобласці. Прававыя дамены могуць быць класіфікаваны па функцыянальных абласцях, такіх як сямейнае права, права аб нерухомасці, закон аб банкруцтве, права навакольнага асяроддзя, падатковае права і г.д.

Узровень 5 складаецца з цалкам аўтаномных камп'ютэрных сістэм для юрыдычных аргументаў штучнага інтэлекту. У пэўным сэнсе, Узровень 5 з'яўляецца надмноствам Узроўню 4 з пункту гледжання ахопу ўсіх магчымых прававых даменаў. Памятайце, што гэта даволі сур'ёзная задача.

Вы можаце ўявіць сабе гэтыя ўзроўні аўтаноміі нароўні з аналагічным выкарыстаннем пры абмеркаванні беспілотных аўтамабіляў і аўтаномных транспартных сродкаў (таксама на аснове афіцыйнага стандарту SAE, гл. мой асвятленне на спасылка тут). У нас пакуль няма самакіравальных аўтамабіляў 5-га ўзроўню SAE. Мы пераходзім да беспілотных аўтамабіляў ўзроўню 4 SAE. Большасць звычайных аўтамабіляў знаходзяцца на ўзроўні SAE 2, у той час як некаторыя з новых аўтамабіляў пераходзяць на ўзровень SAE 3.

У прававой сферы ў нас яшчэ няма AILR 5-га ўзроўню. Мы закранаем некаторы ўзровень 4, але ў вельмі вузкіх ODD. Узровень 3 пачынае бачыць свет, у той час як апора AILR сёння ў асноўным на ўзроўні 2.

У нядаўнім даследчым артыкуле пра штучны інтэлект у прымяненні да закона была выкладзена тыпізацыя, вядомая як Закон інфармуе Кодэкс. Даследчык сцвярджае гэта: «Адной з першачарговых мэт ст Закон інфармуе Кодэкс праграма заключаецца ў тым, каб навучыць штучны інтэлект прытрымлівацца духу закона» (Джон Дж. Най, «Права інфармуе Кодэкс: падыход прававой інфарматыкі да ўзгаднення штучнага інтэлекту з людзьмі», Паўночна-заходні часопіс тэхналогій і інтэлектуальнай уласнасці, том 20, у друку). Ёсць некаторыя істотныя меркаванні, якія Закон інфармуе Кодэкс мантра выхоўвае, і я правяду вас праз некалькі з гэтых ключавых правілаў.

Перш чым пагрузіцца ў тэму, я хацеў бы спачатку закласці некаторую істотную аснову пра штучны інтэлект і, у прыватнасці, этыку штучнага інтэлекту і закон аб штучным інтэлекте, каб пераканацца, што абмеркаванне будзе кантэкстуальна разумным.

Рост дасведчанасці аб этычным ІІ, а таксама аб праве ІІ

Нядаўняя эра штучнага інтэлекту першапачаткова разглядалася як быццё ІІ Назаўсёды, што азначае, што мы можам выкарыстоўваць ІІ для паляпшэння чалавецтва. Па пятах ІІ Назаўсёды прыйшло разуменне таго, што мы таксама пагружаныя ў AI для дрэннага. Сюды ўваходзіць штучны інтэлект, які створаны або самастойна зменены, каб быць дыскрымінацыйным і робіць вылічальныя выбары, напаўняючы неапраўданымі прадузятасцямі. Часам штучны інтэлект пабудаваны такім чынам, а ў іншых выпадках ён збочвае на гэтую непрыемную тэрыторыю.

Я хачу пераканацца, што мы знаходзімся на адной старонцы адносна прыроды сучаснага ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на якім я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра разумны ІІ, гэтая дыскусія магла б пайсці ў кардынальна іншым кірунку. Мяркуецца, што разумны штучны інтэлект будзе чалавекам. Вам трэба ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што ў нас можа быць звышінтэлектуальны штучны інтэлект, можна ўявіць, што такі штучны інтэлект можа апынуцца разумнейшым за людзей (маё даследаванне звышінтэлектуальнага штучнага інтэлекту як магчымасці гл. асвятленне тут).

Я настойліва раю, каб мы трымаліся прыземлена і разглядалі сучасны вылічальны неразумны штучны інтэлект.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

Будзьце вельмі асцярожныя з антрапамарфізмам сучаснага ІІ.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі штучнага інтэлекту таксама могуць не разумець, што адбываецца. Тайная матэматыка ў ML/DL можа ўскладніць выяўленне схаваных цяпер прадузятасцей. Вы справядліва спадзяецеся і чакаеце, што распрацоўшчыкі штучнага інтэлекту правераць патэнцыйна схаваныя прадузятасці, хоць гэта складаней, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL будуць убудаваныя зрушэнні.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Усё гэта мае асабліва значныя наступствы для этыкі штучнага інтэлекту і прапануе зручнае акно ў атрыманыя ўрокі (нават да таго, як усе ўрокі адбудуцца), калі справа даходзіць да спробы заканадаўчага рэгулявання штучнага інтэлекту.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гуся, здушыўшы дасягненні ў галіне штучнага інтэлекту, якія даюць велізарныя перавагі для грамадства.

У папярэдніх калонках я асвятляў розныя нацыянальныя і міжнародныя намаганні па распрацоўцы і прыняцці законаў, якія рэгулююць ІІ, гл. спасылка тут, напрыклад. Я таксама разгледзеў розныя прынцыпы і рэкамендацыі па этыцы штучнага інтэлекту, якія вызначылі і прынялі розныя краіны, у тым ліку, напрыклад, намаганні Арганізацыі Аб'яднаных Нацый, такія як набор этыкі штучнага інтэлекту ЮНЕСКА, які прынялі амаль 200 краін, гл. спасылка тут.

Вось карысны асноўны спіс этычных крытэрыяў або характарыстык штучнага інтэлекту ў дачыненні да сістэм штучнага інтэлекту, якія я ўважліва вывучаў раней:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Мяркуецца, што гэтыя прынцыпы этыкі штучнага інтэлекту настойліва павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і абслугоўвае сістэмы штучнага інтэлекту.

Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграмуе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Як было падкрэслена раней, для распрацоўкі і ўкаранення штучнага інтэлекту патрэбна вёска, і для гэтага ўся вёска павінна ведаць і выконваць правілы этыкі штучнага інтэлекту.

Я таксама нядаўна агледзеў Біль аб правах AI што з'яўляецца афіцыйнай назвай афіцыйнага дакумента ўрада ЗША пад назвай «Праект Біля аб правах на штучны інтэлект: прымусіць аўтаматызаваныя сістэмы працаваць на карысць амерыканскага народа», які стаў вынікам гадавых намаганняў Упраўлення па навуковай і тэхналагічнай палітыцы (OSTP). ). OSTP - гэта федэральны орган, які служыць для кансультавання амерыканскага прэзідэнта і выканаўчага офіса ЗША па розных тэхналагічных, навуковых і інжынерных аспектах нацыянальнай важнасці. У гэтым сэнсе вы можаце сказаць, што гэты Біл аб правах на штучны інтэлект з'яўляецца дакументам, ухваленым і падтрыманым існуючым Белым домам ЗША.

У Білі аб правах на штучны інтэлект існуе пяць катэгорый ключавых камянёў:

  • Бяспечныя і эфектыўныя сістэмы
  • Алгарытмічныя сродкі абароны ад дыскрымінацыі
  • Канфідэнцыяльнасць дадзеных
  • Заўвага і тлумачэнне
  • Чалавечыя альтэрнатывы, разгляд і запасны варыянт

Я ўважліва прагледзеў гэтыя прадпісанні, бачыце спасылка тут.

Цяпер, калі я заклаў карысную аснову для гэтых сумежных тэм па этыцы штучнага інтэлекту і заканадаўству аб штучным інтэлекце, мы гатовыя перайсці да хвалюючай тэмы прававой падвойнай праверкі штучнага інтэлекту і сферы Закон інфармуе Кодэкс.

Юрыдычныя падвойныя праверкі AI, убудаваныя ў AI для ўзгаднення чалавечых каштоўнасцей

Я часам спасылаюся на Прававыя падвойныя шашкі AI праз абрэвіятуру AI-LDC. Гэта крыху раздражняе тых, хто не знаёмы з абрэвіятурай. Такім чынам, я не буду выкарыстоўваць гэтую абрэвіятуру ў гэтай дыскусіі, але хацеў бы адзначыць яе вам у якасці папярэджання.

Каб разабрацца з некаторымі складанасцямі юрыдычнай падвойнай праверкі AI, давайце разгледзім наступныя асноўныя моманты:

  • Выкарыстанне прававой падвойнай праверкі штучнага інтэлекту як механізму ўзгаднення чалавечых каштоўнасцей штучнага інтэлекту
  • Адпаведна, для больш шырокага штучнага інтэлекту спатрэбяцца больш надзейныя прававыя сродкі падвойнай праверкі штучнага інтэлекту
  • Юрыдычныя супрацоўнікі AI Legal прымаюць законы і асабліва не прымаюць законы (верагодна)
  • Далікатны баланс паміж прававым увасабленнем закону AI як правілаў і стандартаў
  • Патрабаванне доказаў пудынгу, калі справа даходзіць да ІІ захавання закону

З-за абмежаванасці прасторы я пакуль толькі асвятлю гэтыя пяць пунктаў, але, калі ласка, сачыце за далейшым асвятленнем у маёй калонцы, якая ахоплівае дадатковыя і не менш вартыя ўвагі меркаванні па гэтых пытаннях, якія хутка развіваюцца і рухаюцца наперад.

Прама зараз прышпіліце рамень бяспекі і рыхтуйцеся да бадзёрлівага падарожжа.

  • Выкарыстанне прававой падвойнай праверкі штучнага інтэлекту як механізму ўзгаднення чалавечых каштоўнасцей штучнага інтэлекту

Ёсць мноства спосабаў паспрабаваць дасягнуць гарманічнага супадзення паміж ІІ і чалавечымі каштоўнасцямі.

Як ужо гаварылася раней, мы можам распрацоўваць і распаўсюджваць правілы этыкі штучнага інтэлекту і імкнуцца прымусіць распрацоўшчыкаў штучнага інтэлекту і тых, хто ўкараняе і эксплуатуе штучны інтэлект, выконваць гэтыя прынцыпы. На жаль, адно гэта не дапаможа. У вас ёсць некаторыя распрацоўшчыкі, якія непазбежна не зразумеюць паведамленні. У вас ёсць некалькі прыдумшчыкаў, якія будуць выстаўляць напаказ этычны штучны інтэлект і спрабаваць абыйсці некалькі бязглузда прадпісаныя прынцыпы. І гэтак далей.

Выкарыстанне падыходаў «мяккага права», якія цягнуць за сабой этыку штучнага інтэлекту, павінна амаль няўмольна спалучацца з метадамі «жорсткага права», такімі як прыняцце законаў і правілаў, якія будуць пасылаць моцны сігнал усім, хто стварае або выкарыстоўвае штучны інтэлект. Доўгая рука закона можа прыйсці да вас, калі вы не будзеце разумна выкарыстоўваць ІІ. Гук турэмных дзвярэй мог прыцягнуць увагу.

Аднак вялікая праблема ў тым, што часам дзверы хлява ўжо выпускаюць коней. Штучны інтэлект, які выстаўлены на поле, патэнцыйна будзе здзяйсняць разнастайныя супрацьпраўныя дзеянні і працягваць гэта рабіць не толькі да таго часу, пакуль не будзе злоўлены, але і калі некаторыя праваахоўныя органы нарэшце не прымуць меры, каб спыніць паток супрацьпраўных дзеянняў. Усё гэта можа заняць час. Між тым людзям тым ці іншым чынам наносяць шкоду.

У гэты набег прыходзіць AI Legal двайны праверкі.

Знаходзячыся ў праграме штучнага інтэлекту, юрыдычная падвойная праверка штучнага інтэлекту можа неадкладна выявіць, калі штучны інтэлект парушае закон. Юрыдычная падвойная праверка AI можа спыніць AI на шляху. Або кампанент можа папярэдзіць людзей аб выяўленай незаконнай дзейнасці, робячы гэта своечасова, што можа падштурхнуць наглядчыкаў да тэрміновых карэкціруючых дзеянняў. Існуе таксама разгляданая фармалізаваная рэгістрацыя, якую можа стварыць кампанент, забяспечваючы адчувальнае падабенства аўдытарскага следу для мэт кадыфікацыі неспрыяльных дзеянняў штучнага інтэлекту.

Кажуць, што нашы законы з'яўляюцца формай мультыагентнага кангламерату, так што законы непазбежна з'яўляюцца сумессю таго, што грамадства імкнулася ўраўнаважваць паміж магчымымі супярэчлівымі поглядамі на правільныя і неналежныя паводзіны грамадства. Такім чынам, юрыдычная падвойная праверка AI, заснаваная на нашых законах, увасабляе гэтую сумесь.

Характэрна, што гэта больш, чым проста праграмаванне спісу канчатковых прававых нормаў. Законы, як правіла, больш падатлівыя і імкнуцца да ўсёабдымных стандартаў, а не вызначаюць самыя дробныя мікраскапічныя правілы. Складанасцяў хапае.

Вяртаючыся да раней адзначанай даследчай працы, вось як можна разглядаць гэтыя меркаванні адносна імкнення да выраўноўвання штучнага інтэлекту: «Права, прыкладная філасофія выраўноўвання некалькіх агентаў, адназначна адпавядае гэтым крытэрыям. Выраўноўванне - гэта праблема, таму што мы не можам ex ante вызначыць правілы, якія цалкам і даказальна накіроўваюць добрыя паводзіны штучнага інтэлекту. Падобным чынам бакі юрыдычнага дагавора не могуць прадбачыць усе непрадбачаныя абставіны сваіх адносін, а заканадаўцы не могуць прадбачыць канкрэтныя абставіны, пры якіх іх законы будуць прымяняцца. Вось чаму вялікая частка права - гэта сузор'е стандартаў» (там жа).

Увасобіць закон у юрыдычную двайную праверку са штучным інтэлектам нашмат больш складана, чым можна падумаць на першы погляд.

Па меры развіцця штучнага інтэлекту нам трэба будзе адпаведным чынам выкарыстоўваць гэтыя дасягненні. Аказваецца, тое, што добра для гусака, добра і для гусака. Тыя з нас, якія дасягаюць прагрэсу ў галіне штучнага інтэлекту ў прымяненні да закона, пашыраюць магчымасці штучнага інтэлекту і, несумненна, ствараюць новыя дасягненні, якія ў канчатковым выніку могуць унесці свой уклад у развіццё штучнага інтэлекту ў цэлым.

  • Адпаведна, для больш шырокага штучнага інтэлекту спатрэбяцца больш надзейныя прававыя сродкі падвойнай праверкі штучнага інтэлекту

Гамбіт кошкі-мышкі супраць гэтай тэмы.

Вялікая верагоднасць таго, што па меры далейшага развіцця штучнага інтэлекту любому юрыдычнаму кампаненту падвойнай праверкі штучнага інтэлекту будзе ўсё цяжэй спраўляцца з праблемамі. Напрыклад, праграма штучнага інтэлекту, якая правяраецца, можа мець новыя супер-падступныя спосабы схаваць незаконныя дзеянні, якія робіць штучны інтэлект. Нават калі штучны інтэлект не ідзе хітрым шляхам, агульная складанасць штучнага інтэлекту сама па сабе можа стаць сур'ёзнай перашкодай для таго, каб атрымаць падвойную ацэнку юрыдычнага органа штучнага інтэлекту.

Вось як гэта становіцца асабліва значным.

Выкажам здагадку, распрацоўшчык штучнага інтэлекту або нейкая фірма, якая выкарыстоўвае штучны інтэлект, абвяшчае, што існуе юрыдычная падвойная праверка штучнага інтэлекту, якая была ўбудаваная ў праграму на аснове штучнага інтэлекту. Вуаля, здаецца, цяпер яны ўмылі рукі ад любых далейшых клопатаў. Аб усім паклапоціцца AI Legal Double Checker.

Гэта не так.

Юрыдычнай падвойнай праверкі штучнага інтэлекту можа быць недастаткова для характару прыкладанні штучнага інтэлекту. Таксама існуе верагоднасць таго, што праверачная двайная праверка AI Legal састарэе, магчыма, не абнаўляецца ў адпаведнасці з апошнімі законамі, якія адносяцца да прыкладання AI. Мноства прычын можна прадбачыць, чаму простае прысутнасць юрыдычнай падвойнай праверкі AI не будзе добрай куляй.

Разгледзім гэтыя ідэі з раней цытаванага даследавання: «Па меры прагрэсу ў галіне штучнага інтэлекту мы можам пастаянна ўсталёўваць больш высокія планкі прадэманстраваных магчымасцей разумення права. Калі распрацоўшчык сцвярджае, што яго сістэма валодае пашыранымі магчымасцямі для выканання задач, ён павінен прадэманстраваць адпаведныя перадавыя юрыдычныя здольнасці і прававую аргументацыю штучнага інтэлекту, якія практычна не маюць мяжы складанасці пры разглядзе багны законаў і правілаў у часе, прэцэдэнтах і юрысдыкцыі ” (там жа).

  • Юрыдычныя супрацоўнікі AI Legal прымаюць законы і асабліва не прымаюць законы (верагодна)

Я ўпэўнены, што некаторыя з вас у жаху ад ідэі мець гэтыя юрыдычныя падвойныя праверкі AI.

Часта выказваецца занепакоенасць тым, што мы, відаць, дазволім штучнаму інтэлекту вырашаць нашы законы за нас. Божа, вы можаце падумаць, нейкая аўтаматызацыя абгоніць чалавецтва. Гэтыя праклятыя ўбудаваныя прававыя сродкі штучнага інтэлекту стануць каралямі нашых законаў па змаўчанні. Што б яны ні рабілі, будзе тое, што, здаецца, закон.

Людзьмі будзе кіраваць штучны інтэлект.

І гэтыя юрыдычныя двайныя праверкі AI - гэта той слізкі шлях, які вядзе нас туды.

Контраргументам з'яўляецца тое, што такія размовы з'яўляюцца тэорыямі змовы. Вы дзіка пастулюеце і ўпадаеце ў стан галавы. Рэальнасць такая, што гэтыя супрацоўнікі AI Legal пераправеркі не разумныя, яны не збіраюцца захопліваць планету, і шуміха аб іх экзістэнцыяльнай рызыцы проста недарэчная і вельмі завышаная.

Увогуле, захоўваючы спакойную і разважлівую пазіцыю, мы павінны памятаць, што юрыдычныя сродкі штучнага інтэлекту служаць для адпаведнага адлюстравання закону, а не па задуме і не выпадкова ідуць далей, каб нейкім чынам па змаўчанні ўвайсці ў шанаваную сферу стварэння права. Пакідаючы ў баку экстрапаляцыі адчуванняў, мы, безумоўна, можам пагадзіцца з тым, што існуе сапраўдная і надзённая занепакоенасць тым, што праверка AI Legal можа скажаць сапраўдную прыроду дадзенага закона.

У сваю чаргу, вы маглі б сцвярджаць, што, такім чынам, гэты канкрэтны «скажоны» закон, па сутнасці, ствараецца нанова, паколькі ён больш не дакладна азначае тое, што было задумана сапраўдным законам. Я спадзяюся, што вы шчыра разумееце, наколькі гэта тонкае, але паказальнае меркаванне. У любы момант часу юрыдычная пераправерка штучнага інтэлекту можа на віртуальнай аснове ствараць або, скажам, «галюцынаваць» новыя законы, проста зыходзячы з таго, як кампанент штучнага інтэлекту інтэрпрэтуе закон, як ён першапачаткова заяўлены або ўвасоблены ў штучным інтэлекте (для майго асвятлення ІІ т.зв галюцынацыйГл. спасылка тут).

Асцярожнасць пры гэтым павінна быць строгай.

Па гэтай тэме вышэйзгаданае даследчае даследаванне прапануе наступную паралельную думку з пункту гледжання імкнення прадухіліць перасячэнне гэтай святой мяжы: «Мы не імкнемся да таго, каб штучны інтэлект меў легітымнасць ствараць законы, ствараць прававы прэцэдэнт або выконваць законы. Фактычна, гэта падарвала б наш падыход (і мы павінны прыкласці значныя намаганні, каб прадухіліць гэта). Хутчэй за ўсё, самая амбіцыйная мэта законнага інфармацыйнага кодэкса - гэта вылічальнае кадзіраванне і ўбудаванне магчымасці абагульнення існуючых прававых канцэпцый і стандартаў у правераную прадукцыйнасць штучнага інтэлекту» (там жа).

  • Далікатны баланс паміж прававым увасабленнем закону AI як правілаў і стандартаў

Законы брудныя.

Практычна для любога закона ў кнігах існуе мноства інтэрпрэтацый адносна таго, што закон прадугледжвае на практыцы. Кажучы мовай вобласці штучнага інтэлекту, мы называем законы семантычна неадназначнымі. Вось што робіць распрацоўку штучнага інтэлекту ў прымяненні да права такой захапляльнай і адначасова непрыемнай задачай. У адрозненне ад дакладнага падліку лічбаў, які вы можаце ўбачыць, скажам, у фінансава-арыентаваных праграмах штучнага інтэлекту, жаданне ўвасобіць нашы законы ў штучным інтэлекте цягне за сабой справу з цунамі семантычных неадназначнасцей.

У кнізе майго фонду, прысвечанай асновам юрыдычнай развагі штучнага інтэлекту (AILR), я распавядаю пра тое, як папярэднія спробы проста кадыфікаваць законы ў набор абмежаваных правіл не прывялі нас так далёка, як мы хацелі б зайсці ў прававой сферы (гл. спасылка тут). Сённяшняя AILR павінна ахопліваць інтэграцыю паміж выкарыстаннем правілаў і тым, што можна назваць агульнымі стандартамі, якія прадстаўляе закон.

Гэты важны баланс можна выказаць наступным чынам: «На практыцы большасць прававых палажэнняў знаходзяцца дзесьці ў спектры паміж чыстым правілам і чыстым стандартам, і юрыдычная тэорыя можа дапамагчы ацаніць правільнае спалучэнне «правілаўнасці» і «стандартнасці» пры ўказанні мэтаў сістэм штучнага інтэлекту» (там жа).

  • Патрабаванне доказаў пудынгу, калі справа даходзіць да ІІ захавання закону

Хацець чагосьці адрозніваецца ад таго, каб штосьці мець.

Гэтая кропка мудрасці ўзнікла, калі мы сцвярджаем, што, хаця мы можам захацець мець прававыя сродкі падвойнай праверкі AI, нам вельмі неабходна пераканацца, што яны працуюць і працуюць правільна. Звярніце ўвагу, што гэта яшчэ адна жорсткая і знясільваючая перашкода. Раней я асвятляў апошнія дасягненні і праблемы ў праверцы і праверцы штучнага інтэлекту, гл спасылка тут.

Як адзначаецца ў даследчай працы: «Каб ліквідаваць гэты прабел, перш чым мадэлі штучнага інтэлекту будуць разгортвацца ва ўсё больш агентурных магчымасцях, напрыклад, цалкам аўтаномныя транспартныя сродкі на асноўных дарогах, бок, які разгортвае, павінен прадэманстраваць разуменне сістэмай чалавечых мэтаў, палітыкі і прававых стандартаў. Працэдура праверкі магла б праілюстраваць «разуменне» штучным інтэлектам «значэння» прававых паняццяў» (там жа).

заключэнне

Я заклікаю вас падумаць аб тым, каб далучыцца да мяне ў гэтай высакароднай місіі па стварэнні і правядзенні юрыдычных двайных праверак AI. Нам трэба больш увагі і рэсурсаў, прысвечаных гэтай дабрадзейнай пагоні.

Гэта таксама забяспечвае двайны абавязак, як згадвалася раней, у дасягненні AI Legal Reasoning (AILR), які можа выкарыстоўвацца для дапамогі адвакатам і патэнцыйна выкарыстоўвацца непасрэдна шырокай грамадскасцю. Сапраўды, некаторыя рашуча сцвярджаюць, што адзіным жыццяздольным спосабам дасягнення больш поўнага адчування доступу да правасуддзя (A2J) будзе стварэнне штучнага інтэлекту, які ўвасабляе правамоцнасць і можа быць даступны ўсім.

Адно кароткае апошняе.

У ходзе абмеркавання дагэтуль падкрэслівалася, што юрыдычная падвойная праверка штучнага інтэлекту будзе ўбудаваная або імплантаваная ў штучны інтэлект. Гэта сапраўды асноўная ўвага тых, хто даследуе і займаецца гэтай новай сферай.

Вось пытанне, над якім варта паразважаць.

Надзеньце шапку мыслення.

Чаму б не выкарыстаць прававыя сродкі падвойнай праверкі AI ва ўсім праграмным забеспячэнні?

Сутнасць заключаецца ў тым, што, магчыма, нам варта пашырыць пункт гледжання замест таго, каб выключна выкарыстоўваць прававыя сродкі падвойнай праверкі AI. Усе віды праграмнага забеспячэння могуць легальна заблудзіцца. Трэба прызнаць, што ільвіную долю ўвагі прыцягнуў штучны інтэлект дзякуючы спосабам звычайнага выкарыстання штучнага інтэлекту, напрыклад, прыняцця цяжкіх рашэнняў, якія ўплываюць на людзей у іх паўсядзённым жыцці. Аднак вы можаце лёгка сцвярджаць, што існуе мноства сістэм, якія не з'яўляюцца штучным інтэлектам і робяць тое ж самае.

Па сутнасці, мы не павінны дазваляць любому праграмнаму забеспячэнню бясплатна карыстацца, каб пазбегнуць або пазбегнуць закона.

Нагадаем таксама, што раней я згадваў дзве катэгорыі аб'яднання штучнага інтэлекту і права. Тут мы засяродзіліся на выкарыстанні штучнага інтэлекту ў прымяненні да закона. З іншага боку медаля - прымяненне закона да ІІ. Выкажам здагадку, што мы прымем законы, якія патрабуюць выкарыстання юрыдычных сродкаў падвойнай праверкі AI.

Спачатку гэта можа быць абмежавана сістэмамі штучнага інтэлекту, асабліва тымі, якія ацэньваюцца як асабліва высокарызыкоўныя. Паступова тое ж патрабаванне прававой праверкі штучнага інтэлекту можа быць распаўсюджана і на праграмнае забеспячэнне, якое не з'яўляецца штучным інтэлектам. Зноў жа, бясплатных паездак няма.

Пакуль вы будзеце разважаць над тым, што было сказана вышэй, я дадаю пікантнасці ў якасці заключнага тызера. Калі мы будзем спрабаваць запатрабаваць AI Legal двайны праверкі, мы маглі б таксама зрабіць тое ж самае з AI Ethics двайны праверкі. Выкарыстанне юрыдычнай падвойнай праверкі штучнага інтэлекту - гэта толькі палова справы, і мы не можам грэбаваць або забываць пра праблемы этыкі штучнага інтэлекту.

Я скончу гэты бойкі дыскурс адной з маіх любімых цытат. Згодна з мудрымі словамі Эрла Уорэна, вядомага юрыста, які займаў пасаду галоўнага суддзі Злучаных Штатаў: «У цывілізаваным жыцці закон плавае ў моры этыкі».

Можа быць, было б лепш за ўсё актыўна выкарыстоўваць гэтыя пачаткоўцы і бурбалкі AI Legal Double Checkers і AI Ethics Double Checkers, калі мы хочам трымаць галаву над патэнцыяльна насоўваючымся цяжкім морам ад кіслых штучнага інтэлекту і змрочных сістэм без штучнага інтэлекту, якія ставяць пад пагрозу нашу бяспеку .

Яны могуць быць выратавальнай камізэлькай чалавецтва.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- і-ай-закон/