Этыка штучнага інтэлекту і закон аб штучным інтэлекце, якія ўзважваюць ключавыя спосабы рэалізацыі гэтага нядаўна апублікаванага Біля аб правах на штучны інтэлект, у тым ліку і, што дзіўна, праз адкрытае выкарыстанне штучнага інтэлекту.

Няма сумневу, што планы патрэбныя нам у паўсядзённым жыцці.

Калі вы збіраецеся пабудаваць дом сваёй даўняй мары, было б мудрым спачатку скласці прыдатны для выкарыстання план.

План дэманструе матэрыяльна і задакументавана тое, што шырока расплюшчаныя дальнабачныя перспектывы могуць быць зачыненыя ў вашай галаве. Тыя, хто будзе закліканы пабудаваць вашу запаветную сядзібу, змогуць звярнуцца да чарцяжа і прапісаць дэталі таго, як зрабіць працу. Чарцяжы зручныя. Адсутнасць плана несумненна будзе праблематычнай для вырашэння любой складанай працы або праекта.

Давайце перанясем гэтую крыху сентыментальную, але сапраўдную даніну павагі чарцяжам у сферу штучнага інтэлекту (AI).

Тыя з вас, хто сур'ёзна захапляецца штучным інтэлектам, могуць цьмяна ўсведамляць, што важная арыентаваная на палітыку план быў нядаўна выпушчаны ў ЗША, які відавочна датычыцца будучыні штучнага інтэлекту. Неафіцыйна вядомы як Біль аб правах AI, афіцыйная назва абвешчанага Белага дакумента - «Праект Біля аб правах на штучны інтэлект: прымусіць аўтаматызаваныя сістэмы працаваць на карысць амерыканскага народа» і даступны ў Інтэрнэце.

Дакумент з'яўляецца вынікам гадавых намаганняў і ўважлівага вывучэння Упраўлення навукова-тэхнічнай палітыкі (OSTP). OSTP - гэта федэральны орган, які быў створаны ў сярэдзіне 1970-х гадоў і служыць для кансультавання амерыканскага прэзідэнта і выканаўчага офіса ЗША па розных тэхналагічных, навуковых і інжынерных аспектах нацыянальнай важнасці. У гэтым сэнсе вы можаце сказаць, што гэты Біл аб правах на штучны інтэлект з'яўляецца дакументам, ухваленым і падтрыманым існуючым Белым домам ЗША.

Біль аб правах на AI адлюстроўвае правы чалавека што чалавецтва павінна мець у сувязі з прыходам штучнага інтэлекту ў наша штодзённае жыццё. Я падкрэсліваю гэты важкі момант, таму што некаторыя людзі спачатку былі здзіўлены тым, што, магчыма, гэта нейкае пацверджанне юрыдычнай асобы штучнага інтэлекту і што гэта пералік правоў разумнага штучнага інтэлекту і гуманоідных робатаў. Не, мы яшчэ не там. Як вы ўбачыце праз імгненне, мы не наблізіліся да разумнага штучнага інтэлекту, нягледзячы на ​​загалоўкі банераў, якія, здаецца, кажуць нам пра адваротнае.

Добра, ці патрэбны нам план, які прапісвае правы чалавека ў эпоху ІІ?

Так, мы, напэўна, робім.

Каб не ведаць, што штучны інтэлект ужо і ўсё часцей пасягае на нашы правы, вам трэба было б быць зачыненым у пячоры і не мець доступу да Інтэрнэту. Нядаўняя эра штучнага інтэлекту першапачаткова разглядалася як быццё ІІ Назаўсёды, што азначае, што мы можам выкарыстоўваць ІІ для паляпшэння чалавецтва. Па пятах ІІ Назаўсёды прыйшло разуменне таго, што мы таксама пагружаныя ў AI для дрэннага. Сюды ўваходзіць штучны інтэлект, які створаны або самастойна зменены, каб быць дыскрымінацыйным і робіць вылічальныя выбары, напаўняючы неапраўданымі прадузятасцямі. Часам штучны інтэлект пабудаваны такім чынам, а ў іншых выпадках ён збочвае на гэтую непрыемную тэрыторыю.

Аб маім пастаянным і шырокім асвятленні і аналізе Закона аб штучным інтэлекце, этыкі штучнага інтэлекту і іншых ключавых тэхналагічных і сацыяльных тэндэнцый AI гл. спасылка тут і спасылка тут, Проста назваць некалькі.

Распакаванне Біля аб правах на AI

Раней я абмяркоўваў Біль аб правах на штучны інтэлект і зраблю тут кароткі вынік.

Акрамя таго, калі вы хочаце даведацца аб маіх падрабязных плюсах і мінусах нядаўна апублікаванага Біля аб правах на штучны інтэлект, я падрабязна апісаў свой аналіз у паведамленні на ЮрыстГл. спасылка тут. Юрыст гэта прыкметны інтэрнэт-сайт з прававымі навінамі і каментарамі, шырока вядомы як узнагароджаны юрыдычны навінны сэрвіс, які працуе глабальнай камандай студэнтаў-юрыстаў, рэпарцёраў, рэдактараў, каментатараў, карэспандэнтаў і распрацоўшчыкаў кантэнту, са штаб-кватэрай у Школе Пітсбургскага ўніверсітэта Закон у Пітсбургу, дзе яно пачалося больш за 25 гадоў таму. Слава выдатнай і працавітай камандзе ў Юрыст.

У Білі аб правах на штучны інтэлект існуе пяць катэгорый ключавых камянёў:

  • Бяспечныя і эфектыўныя сістэмы
  • Алгарытмічныя сродкі абароны ад дыскрымінацыі
  • Канфідэнцыяльнасць дадзеных
  • Заўвага і тлумачэнне
  • Чалавечыя альтэрнатывы, разгляд і запасны варыянт

Звярніце ўвагу, што я не стаў нумараваць іх ад аднаго да пяці, бо гэта можа азначаць, што яны знаходзяцца ў пэўнай паслядоўнасці або што адно з правоў, здаецца, больш важнае за другое. Будзем лічыць, што кожны з іх мае свае вартасці. Усе яны ў пэўным сэнсе аднолькава годныя.

У якасці кароткага ўказання таго, з чаго складаецца кожны з іх, вось вытрымка з афіцыйнага дакумента:

  • Бяспечныя і эфектыўныя сістэмы: «Вы павінны быць абаронены ад небяспечных або неэфектыўных сістэм. Аўтаматызаваныя сістэмы павінны быць распрацаваны з кансультацыямі з рознымі суполкамі, зацікаўленымі бакамі і экспертамі ў галіне для выяўлення праблем, рызык і патэнцыйнага ўздзеяння сістэмы».
  • Алгарытмічная абарона ад дыскрымінацыі: «Вы не павінны падвяргацца дыскрымінацыі з-за алгарытмаў, а сістэмы павінны выкарыстоўвацца і распрацоўвацца справядліва. Алгарытмічная дыскрымінацыя ўзнікае, калі аўтаматызаваныя сістэмы спрыяюць неапраўданаму рознаму абыходжанню або ўздзеянню ў нядобразычлівы бок людзей на падставе іх расы, колеру скуры, этнічнай прыналежнасці, полу (уключаючы цяжарнасць, роды і звязаныя з імі захворванні, гендэрную ідэнтычнасць, інтэрсэксуальны статус і сексуальную арыентацыю), рэлігіі, узросту , нацыянальнае паходжанне, інваліднасць, статус ветэрана, генетычная інфармацыя або любая іншая класіфікацыя, абароненая законам».
  • Канфідэнцыяльнасць дадзеных: «Вы павінны быць абаронены ад злоўжыванняў дадзенымі з дапамогай убудаваных сродкаў абароны, і вы павінны мець права кіравацца тым, як выкарыстоўваюцца даныя пра вас. Вы павінны быць абаронены ад парушэнняў канфідэнцыяльнасці шляхам выбару дызайну, які гарантуе, што такая абарона ўключана па змаўчанні, у тым ліку забеспячэнне таго, каб збор даных адпавядаў разумным чаканням і збіраліся толькі даныя, строга неабходныя для канкрэтнага кантэксту».
  • Заўвага і тлумачэнне: «Вы павінны ведаць, што выкарыстоўваецца аўтаматызаваная сістэма, і разумець, як і чаму яна спрыяе дасягненню вынікаў, якія ўплываюць на вас. Праекціроўшчыкі, распрацоўшчыкі і разгортвальнікі аўтаматызаваных сістэм павінны прадастаўляць агульнадаступную дакументацыю простай мовай, уключаючы дакладнае апісанне агульнага функцыянавання сістэмы і ролю аўтаматызацыі, заўвагу аб тым, што такія сістэмы выкарыстоўваюцца, асобу або арганізацыю, адказную за сістэму, і тлумачэнні вынікі зразумелыя, своечасовыя і даступныя».
  • Чалавечыя альтэрнатывы, разгляд і запасны варыянт: «Вы павінны мець магчымасць адмовіцца, калі гэта неабходна, і мець доступ да чалавека, які можа хутка разгледзець і выправіць праблемы, з якімі вы сутыкаецеся. Вы павінны мець магчымасць адмовіцца ад аўтаматызаваных сістэм на карысць чалавека, калі гэта неабходна».

Увогуле, гэтыя аспекты правоў чалавецтва даволі доўга абмяркоўваліся ў кантэксце этыкі штучнага інтэлекту і права штучнага інтэлекту, глядзіце мой матэрыял, напрыклад, на спасылка тут. Белая кніга, здавалася б, не чароўным чынам выцягвае труса з капелюша адносна нейкага нядаўна адкрытага або раскапанага права, якое да гэтага часу не было высветлена ў кантэксце эпохі штучнага інтэлекту.

Гэта нармальна.

Вы можаце сцвярджаць, што іх кампіляцыя ў адну акуратна ўпакаваную і фармалізаваную калекцыю забяспечвае жыццёва важную паслугу. Да таго ж, памазаўшыся, як прызнаны Біль аб правах AI, гэта яшчэ больш адкрыта і ўмела ставіць усю справу ў свядомасць грамадскасці. Ён аб'ядноўвае існуючую мноства разнастайных дыскусій у адзіны набор, які зараз можа быць агучаны і перададзены ўсім зацікаўленым бакам.

Дазвольце мне прапанаваць наступны спіс станоўчых водгукаў на абвешчаны Біл аб правах на AI:

  • Забяспечвае істотную кампіляцыю прынцыпаў Keystone
  • Служыць планам або асновай для пабудовы
  • Дзейнічае як агучаны заклік да дзеяння
  • Выклікае цікавасць і дэманструе, што гэта сур'ёзныя меркаванні
  • Аб'ядноўвае мноства разрозненых дыскусій
  • Падштурхоўвае і спрыяе намаганням па ўкараненні этычнага штучнага інтэлекту
  • Несумненна, будзе спрыяць усталяванню законаў аб AI
  • іншае

Нам таксама трэба ўлічваць не вельмі спрыяльныя рэакцыі, прымаючы пад увагу, што трэба зрабіць яшчэ шмат працы і што гэта толькі пачатак доўгага шляху на цяжкім шляху кіравання ІІ.

Такім чынам, даволі жорсткая ці, скажам так, канструктыўная крытыка Біля аб правах на штучны інтэлекту ўключае:

  • Не мае юрыдычнай сілы і не мае абавязковых абавязкаў
  • Толькі кансультацыйны характар ​​і не лічыцца дзяржаўнай палітыкай
  • Менш поўны ў параўнанні з іншымі апублікаванымі працамі
  • У асноўным складаецца з шырокіх канцэпцый і не мае дэталяў рэалізацыі
  • Будзе няпроста ператварыць у рэальныя жыццяздольныя практычныя законы
  • Здавалася б, маўчаць аб навіслай праблеме магчымай забароны штучнага інтэлекту ў некаторых кантэкстах
  • Нязначна прызнае перавагі выкарыстання добра прадуманага штучнага інтэлекту
  • іншае

Мабыць, найбольш прыкметны з'едлівы каментарый быў засяроджаны на тым, што гэты Біль аб правах на штучны інтэлект не мае юрыдычнай сілы і, такім чынам, не вытрымлівае крыўды, калі справа даходзіць да ўстанаўлення дакладных варот. Некаторыя казалі, што хоць белая папера карысная і абнадзейлівая, у ёй відавочна адсутнічаюць зубы. Яны задаюцца пытаннем, што можа атрымацца з уяўнага набору выдатных правілаў з полымі зубамі.

Праз імгненне я адкажу на гэтыя з'едлівыя заўвагі.

Між тым, у белай кнізе ў багацці сцвярджаюцца абмежаванні таго, што прадугледжвае гэты Біл аб правах на AI:

  • «Праект Біля аб правах на AI не з'яўляецца абавязковым і не з'яўляецца палітыкай урада ЗША. Ён не замяняе, не змяняе і не накіроўвае інтэрпрэтацыю любога існуючага статута, пастановы, палітыкі або міжнароднага дакумента. Гэта не з'яўляецца абавязковым кіраўніцтвам для грамадскасці або федэральных агенцтваў і, такім чынам, не патрабуе захавання прынцыпаў, апісаных тут. Гэта таксама не вызначае пазіцыю ўрада ЗША на міжнародных перамовах. Прыняцце гэтых прынцыпаў можа не адпавядаць патрабаванням існуючых законаў, правілаў, палітык або міжнародных дакументаў, або патрабаванням федэральных агенцтваў, якія забяспечваюць іх выкананне. Гэтыя прынцыпы не прызначаны і не забараняюць і не абмяжоўваюць любую законную дзейнасць дзяржаўных органаў, у тым ліку дзейнасць праваахоўных органаў, сфер нацыянальнай бяспекі або разведкі» (згодна з дакументам).

Для тых, хто паспяшаўся падарваць Біль аб правах на штучны інтэлект як юрыдычна неабавязковы, давайце правядзём невялікі разумовы эксперымент над гэтым з'едлівым сцвярджэннем. Выкажам здагадку, што белая кніга была выпушчана і мела поўную сілу закона. Я адважуся сказаць, што вынік быў бы ў пэўнай ступені катаклізмам, прынамсі ў тым, што тычыцца прававой і грамадскай рэакцыі на абвяшчэнне.

Заканадаўцы былі б у зброі, што намаганні не распачалі нарматыўныя працэсы і прававыя працэдуры для злучэння такіх законаў. Прадпрыемствы былі б раз'юшаны, і гэта справядліва, калі б новыя законы з'явіліся без належнага паведамлення і дасведчанасці аб тым, што гэта за законы. Узнікне разнастайны жах і абурэнне.

Не вельмі добры спосаб імкнуцца да ўмацавання правоў чалавецтва ў эпоху штучнага інтэлекту.

Нагадаем, што раней я пачаў гэтую дыскусію, закрануўшы пытанне аб каштоўнасці і жыццяздольнасці планаў.

Уявіце сабе, што нехта прапусціў этап стварэння чарцяжоў і адразу кінуўся будаваць дом вашай мары. Як вы думаеце, як будзе выглядаць дом? Здаецца, можна паспрачацца, што дом не будзе адпавядаць таму, што вы думалі. У выніку прысядзібны ўчастак можа стаць поўным беспарадкам.

Сутнасць у тым, што нам сапраўды патрэбны чарцяжы, і цяпер у нас ёсць адзін, каб рухацца наперад у высвятленні разумных законаў аб штучным інтэлекце і пашырэнні этычных прынцыпаў усынаўлення штучнага інтэлекту.

Таму я хацеў бы закрануць спосабы, з дапамогай якіх гэты праект Біля аб правах на штучны інтэлект можа быць ператвораны ў дом. Як мы будзем выкарыстоўваць план? Якія прыдатныя наступныя крокі? Ці можа быць дастаткова гэтага плана, ці трэба больш мяса на костках?

Перш чым перайсці да гэтых сур'ёзных пытанняў, я хацеў бы спачатку пераканацца, што мы ўсе на адной старонцы адносна прыроды ІІ і таго, з чаго складаецца сённяшні статус.

Ставім рэкорды адносна сучаснага штучнага інтэлекту

Хацеў бы зрабіць вельмі катэгарычную заяву.

Ці гатовыя вы?

Сёння няма разумнага ІІ.

У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны штучны інтэлект. Ніхто не можа дакладна прадказаць, ці атрымаецца ў нас разумны ІІ, і ці ўзнікне разумны ІІ нейкім цудоўным чынам спантанна ў выглядзе вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, гл. мой матэрыял на спасылка тут).

Тып ІІ, на якім я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра разумны ІІ, гэтая дыскусія магла б пайсці ў кардынальна іншым кірунку. Мяркуецца, што разумны штучны інтэлект будзе чалавекам. Вам трэба ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што ў нас можа быць звышінтэлектуальны штучны інтэлект, можна ўявіць, што такі штучны інтэлект можа апынуцца разумнейшым за людзей (маё даследаванне звышінтэлектуальнага штучнага інтэлекту як магчымасці гл. асвятленне тут).

Я настойліва раю, каб мы трымаліся прыземлена і разглядалі сучасны вылічальны неразумны штучны інтэлект.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

Будзьце вельмі асцярожныя з антрапамарфізмам сучаснага ІІ.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі штучнага інтэлекту таксама могуць не разумець, што адбываецца. Тайная матэматыка ў ML/DL можа ўскладніць выяўленне схаваных цяпер прадузятасцей. Вы справядліва спадзяецеся і чакаеце, што распрацоўшчыкі штучнага інтэлекту правераць патэнцыйна схаваныя прадузятасці, хоць гэта складаней, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL будуць убудаваныя зрушэнні.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Усё гэта мае асабліва значныя наступствы для этыкі штучнага інтэлекту і прапануе зручнае акно ў атрыманыя ўрокі (нават да таго, як усе ўрокі адбудуцца), калі справа даходзіць да спробы заканадаўчага рэгулявання штучнага інтэлекту.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гуся, здушыўшы дасягненні ў галіне штучнага інтэлекту, якія даюць велізарныя перавагі для грамадства.

У папярэдніх калонках я асвятляў розныя нацыянальныя і міжнародныя намаганні па распрацоўцы і прыняцці законаў, якія рэгулююць ІІ, гл. спасылка тут, напрыклад. Я таксама разгледзеў розныя прынцыпы і рэкамендацыі па этыцы штучнага інтэлекту, якія вызначылі і прынялі розныя краіны, у тым ліку, напрыклад, намаганні Арганізацыі Аб'яднаных Нацый, такія як набор этыкі штучнага інтэлекту ЮНЕСКА, які прынялі амаль 200 краін, гл. спасылка тут.

Вось карысны асноўны спіс этычных крытэрыяў або характарыстык штучнага інтэлекту ў дачыненні да сістэм штучнага інтэлекту, якія я ўважліва вывучаў раней:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Мяркуецца, што гэтыя прынцыпы этыкі штучнага інтэлекту настойліва павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і абслугоўвае сістэмы штучнага інтэлекту.

Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграмуе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Як было падкрэслена раней, для распрацоўкі і ўкаранення штучнага інтэлекту патрэбна вёска, і для гэтага ўся вёска павінна ведаць і выконваць правілы этыкі штучнага інтэлекту.

Цяпер, калі я заклаў карысную аснову, мы гатовы паглыбіцца ў Біль аб правах на AI.

Чатыры асноўныя спосабы рэалізацыі Біля аб правах на AI

Хтосьці перадае вам план і загадвае прыступіць да працы.

Што вы робіце?

У выпадку Біля аб правах на штучны інтэлект у якасці плана разгледзьце наступныя чатыры важныя крокі для прасоўвання наперад:

  • Служыць у якасці ўваходных дадзеных для фармулявання законаў штучнага інтэлекту: Выкарыстоўвайце план, каб дапамагчы ў распрацоўцы законаў аб штучным інтэлекце, спадзяюся, робячы гэта на ўзгодненай аснове на федэральным, дзяржаўным і мясцовым узроўнях (магчыма, таксама дапамагаючы міжнародным юрыдычным намаганням па штучнаму інтэлекту).
  • Дапамога ў больш шырокім прыняцці этыкі штучнага інтэлекту: Выкарыстоўвайце план для ўмацавання фармулёвак этыкі штучнага інтэлекту (якія часам называюць «мяккімі законамі» ў параўнанні з юрыдычна абавязковымі «жорсткімі законамі»), робячы гэта, каб натхніць і накіроўваць прадпрыемствы, прыватных асоб, дзяржаўныя арганізацыі і іншыя групы да лепшай і паслядоўнай этыкі Вынікі AI.
  • Дзейнасць Shape па распрацоўцы штучнага інтэлекту: Выкарыстоўвайце план, каб стымуляваць стварэнне метадалогій распрацоўкі штучнага інтэлекту і аспектаў навучання, робячы гэта, каб паспрабаваць прымусіць распрацоўшчыкаў штучнага інтэлекту і тых, хто выкарыстоўвае або выкарыстоўвае штучны інтэлект, лепш ведаць, як распрацоўваць штучны інтэлект у адпаведнасці з жаданымі правіламі этыкі штучнага інтэлекту і ў чаканні надыходзячых законаў аб ІІ.
  • Матывуйце з'яўленне ІІ, каб дапамагчы ў кіраванні ІІ: Скарыстайцеся планам, каб распрацаваць штучны інтэлект, які будзе выкарыстоўвацца ў якасці стрымлівання і раўнавагі супраць іншага штучнага інтэлекту, які можа збочыць на непрыемную тэрыторыю. Гэта адзін з тых макраскапічных пунктаў гледжання, з дапамогай якіх мы можам выкарыстоўваць тое самае, што лічым нібыта трывожным, каб таксама (па іроніі лёсу, можна сказаць) дапамагчы абараніць сябе.

Я абмяркоўваў кожны з вышэйзгаданых чатырох этапаў у сваіх паведамленнях у калонцы.

Для гэтага абмеркавання я хацеў бы засяродзіцца на чацвёртым пералічаным кроку, а менавіта на тым, што Біл аб правах на штучны інтэлект можа служыць матывацыяй да з'яўлення штучнага інтэлекту, каб дапамагчы кантраляваць яго. Гэта некалькі шакавальны або нечаканы крок для многіх, хто яшчэ не ўвайшоў цалкам у гэтую сферу развіцця штучнага інтэлекту.

Дазвольце мне ўдакладніць.

Простая аналогія павінна зрабіць сваю справу. У наш час мы ўсе прывыклі да парушэнняў кібербяспекі і хакерскіх узломаў. Амаль кожны дзень мы чуем аб якой-небудзь апошняй шчыліне ў нашых камп'ютарах, якая дазволіць зламыснікам захапіць нашы дадзеныя або размясціць падлае праграмнае забеспячэнне-вымагальнік на нашы ноўтбукі.

Адзін са сродкаў барацьбы з гэтымі подлымі спробамі заключаецца ў выкарыстанні спецыялізаванага праграмнага забеспячэння, якое спрабуе прадухіліць гэтыя ўзломы. У вас амаль напэўна ёсць пакет антывіруснага праграмнага забеспячэння на вашым кампутары дома або на працы. Верагодна, штосьці падобнае ёсць на вашым смартфоне, незалежна ад таго, разумееце вы, што гэта там ці не.

Я хачу сказаць, што часам вам трэба змагацца з агнём агнём (гл. маё асвятленне гэтага, напрыклад, на спасылка тут і спасылка тут).

У выпадку штучнага інтэлекту, які трапляе ў вобласць verboten AI для дрэннага, мы можам імкнуцца выкарыстоўваць ІІ Назаўсёды што змагаецца з гэтым шкоднасным AI для дрэннага. Вядома, гэта не цудадзейны сродак. Як вы ведаеце, паміж злачынцамі, якія імкнуцца ўзламаць нашы камп'ютары, і дасягненнямі ў галіне абароны кібербяспекі працягваецца бесперапынны гамбіт кошкі-мышкі. Гэта амаль бясконцая гульня.

Мы можам выкарыстоўваць ШІ, каб паспрабаваць справіцца з ШІ, які пайшоў забароненым шляхам. Гэта дапаможа. Гэта не будзе асаблівым выйгрышам, паколькі неспрыяльны штучны інтэлект, на які нацэлены, амаль напэўна будзе распрацаваны, каб пазбегнуць такой абароны. Гэта будзе бесперапынная барацьба «кошкі-мышкі» ІІ супраць ІІ.

У любым выпадку штучны інтэлект, які мы выкарыстоўваем для абароны, забяспечыць некаторую абарону ад дрэннага штучнага інтэлекту. Такім чынам, нам, несумненна, трэба распрацаваць штучны інтэлект, які можа абараніць або абараніць нас. І мы таксама павінны імкнуцца стварыць ахоўны штучны інтэлект, які будзе прыстасоўвацца па меры адаптацыі дрэннага штучнага інтэлекту. Будзе лютае падабенства вокамгненнай гульні ў кошкі-мышкі.

Не ўсім падабаецца такое пашырэнне ролі ІІ.

У тых, хто ўжо ўспрымае штучны інтэлект як аднастайную аморфную кангламерат, мурашкі па скуры і сняцца кашмары ад гэтага прытворнага гамбіта штучнага інтэлекту супраць штучнага інтэлекту. Калі мы спрабуем сутыкнуць агонь з агнём, магчыма, мы проста распальваем яшчэ большы пажар. ШІ стане велізарным вогнішчам, якое мы больш не можам кантраляваць і вырашым заняволіць чалавецтва або знішчыць нас з планеты. Калі справа даходзіць да абмеркавання штучнага інтэлекту як экзістэнцыяльнай рызыкі, нас звычайна прымушаюць меркаваць, што ўвесь штучны інтэлект аб'яднаецца разам. Глядзіце маё абмеркаванне гэтых праблем на спасылка тут. Разумееце, нам сказалі, што кожная частка штучнага інтэлекту захапіць сваіх братоў штучнага інтэлекту і стане адной вялікай сям'ёй уладара.

Гэта жудасны і несумненна трывожны сцэнар разумнага штучнага інтэлекту як суцэльнай мафіі "ўсё за аднаго і адзін за ўсіх".

Нягледзячы на ​​​​тое, што вы смела можаце рабіць такія здагадкі адносна таго, што гэта калі-небудзь можа адбыцца, я запэўніваю вас, што на дадзены момант ШІ, які мы маем сёння, складаецца з грузавікоў раз'яднаных разрозненых праграм ШІ, якія не маюць асаблівага спосабу змовы адна з адной.

Сказаўшы гэта, я ўпэўнены, што тыя, хто горача верыць у тэорыі змовы ІІ, будуць настойваць на тым, што я сказаў гэта наўмысна, каб схаваць праўду. Ага! Магчыма, са мной расплачваецца сённяшні штучны інтэлект, які ўжо плануе грандыёзнае паглынанне штучнага інтэлекту (так, сэр, я буду купацца ў багацці, калі закіруюць уладары штучнага інтэлекту). Або, і я, вядома, не аддаю перавагу гэтаму іншаму ракурсу, магчыма, я слепа не ведаю, як штучны інтэлект таемна пляе змовы за нашымі спінамі. Мяркую, нам давядзецца пачакаць і паглядзець, ці з'яўляюся я ўдзельнікам перавароту з штучным інтэлектам або нікчэмным псеўданімам (ой, гэта балюча).

Вяртаючыся да зямных меркаванняў, давайце коратка вывучым, як можна выкарыстоўваць сучасны штучны інтэлект для аказання дапамогі ў рэалізацыі Біля аб правах на штучны інтэлект. Я буду зручна і коратка называць гэта як Добры ІІ.

Мы будзем выкарыстоўваць пяць ключавых камянёў, увасобленых у Білі аб правах на AI:

  • Добры AI для прасоўвання Бяспечныя і эфектыўныя сістэмы: Кожны раз, калі вы падпарадкоўваецеся або выкарыстоўваеце сістэму штучнага інтэлекту, Good AI спрабуе высветліць, ці з'яўляецца выкарыстоўваны штучны інтэлект небяспечным або неэфектыўным. Пры такім выяўленні добры штучны інтэлект можа папярэдзіць вас або прыняць іншыя меры, у тым ліку заблакіраваць дрэнны штучны інтэлект.
  • Добры AI для забеспячэння Алгарытмічная абарона ад дыскрымінацыі: Пры выкарыстанні сістэмы штучнага інтэлекту, якая можа ўтрымліваць дыскрымінацыйныя алгарытмы, Добры ІІ спрабуе высветліць, ці існуе для вас неадэкватная абарона, і імкнецца вызначыць, ці сапраўды існуюць празмерныя прадузятасці ў выкарыстоўваным ІІ. Добры штучны інтэлект можа інфармаваць вас, а таксама патэнцыйна аўтаматычна паведамляць пра іншы штучны інтэлект розным органам, як гэта можа быць прадугледжана законамі аб штучным інтэлекту і заканадаўчымі патрабаваннямі.
  • Добры AI для захавання Канфідэнцыяльнасць дадзеных: Гэты тып Good AI спрабуе абараніць вас ад парушэння прыватнасці даных. Калі іншы штучны інтэлект імкнецца запытаць даныя, якія вам, магчыма, насамрэч не патрэбныя, добры штучны інтэлект паведаміць вам аб перавышэнні. Добры штучны інтэлект можа таксама патэнцыйна маскіраваць вашы даныя такім чынам, што пасля іх перадачы іншаму штучнаму інтэлекту захаваюцца вашы правы на канфідэнцыяльнасць дадзеных. і г.д.
  • Добры AI для стварэння Заўвага і тлумачэнне: Усе мы можам сутыкнуцца з сістэмамі штучнага інтэлекту, якім вельмі не хапае правільных і адпаведных апавяшчэнняў і якія, на жаль, не могуць прадэманстраваць адэкватнае тлумачэнне сваіх дзеянняў. Добры штучны інтэлект можа спрабаваць інтэрпрэтаваць або дапытваць іншы штучны інтэлект, робячы гэта для патэнцыйнай ідэнтыфікацыі паведамленняў і тлумачэнняў, якія павінны былі быць прадастаўлены. Нават калі гэта немагчыма зрабіць у дадзеным выпадку, Добры штучны інтэлект як мінімум папярэдзіць вас аб недахопах іншага штучнага інтэлекту і, магчыма, паведаміць пра штучны інтэлект упаўнаважаным органам у адпаведнасці з прадугледжанымі законамі аб штучным інтэлекту і заканадаўчымі патрабаваннямі.
  • Добры AI для прапановы Чалавечыя альтэрнатывы, разгляд і запасны варыянт: Выкажам здагадку, што вы выкарыстоўваеце сістэму штучнага інтэлекту, і штучны інтэлект, здаецца, не спраўляецца з пастаўленай задачай. Магчыма, вы не ўсведамляеце, што справы ідуць дрэнна, або вы можаце быць некалькі насцярожанымі і не ўпэўненымі ў тым, што рабіць з сітуацыяй. У такім выпадку Добры штучны інтэлект будзе моўчкі вывучаць, што робіць іншы штучны інтэлект, і можа папярэдзіць вас аб жыццёва важных праблемах адносна гэтага штучнага інтэлекту. Тады вам будзе прапанавана запытаць чалавечую альтэрнатыву штучнаму інтэлекту (або Добры штучны інтэлект можа зрабіць гэта ад вашага імя).

Каб зразумець далей, як гэты від Добры ІІ можа быць распрацавана і ўведзена ў дзеянне, глядзіце маю папулярную і высока ацэненую кнігу аб штучным інтэлекце (маю гонар сказаць, што яна была адзначана як «Лепшая дзесятка») пра тое, што я звычайна называю анёламі-ахоўнікамі штучнага інтэлекту, гл. спасылка тут.

заключэнне

Я ведаю, што вы думаеце. Калі ў нас ёсць добры штучны інтэлект, прызначаны для нашай абароны, выкажам здагадку, што добры штучны інтэлект ператвараецца ў дрэнны штучны інтэлект. Знакамітая або сумна вядомая лацінская крылатая фраза здаецца цалкам дарэчнай да гэтай магчымасці: Quis custodiet ipsos custodes?

Фраза прыпісваецца рымскаму паэту Ювеналу і можа быць знойдзена ў яго працы пад назвай Сатыры, і можа быць вольна перакладзены як азначае, хто будзе ахоўваць або сачыць за самімі ахоўнікамі. Шмат фільмаў і тэлешоў, такіх як Star Trek неаднаразова выкарыстоўвалі гэтую лінію.

Безумоўна, таму што гэта выдатны момант.

Безумоўна, любыя прынятыя законы аб штучным інтэлекце павінны ахопліваць як дрэнны штучны інтэлект, так і нават добры штучны інтэлект, які сапсуецца. Вось чаму вельмі важна напісаць разумныя і ўсёабдымныя законы аб штучным інтэлекце. Заканадаўцы, якія проста спрабуюць кідаць у сцяну выпадковыя законы і спадзяюцца, што яны прытрымліваюцца законаў аб штучным інтэлекце, апынуцца зусім недасягнутымі.

Гэта нам не трэба.

У нас няма ні часу, ні мы не можам несці грамадскія выдаткі, каб справіцца з неадэкватна распрацаванымі законамі штучнага інтэлекту. Я адзначаў, што, на жаль, час ад часу мы назіраем новыя законы, звязаныя з штучным інтэлектам, якія дрэнна складзеныя і напоўнены разнастайнымі прававымі хваробамі. Глядзіце, напрыклад, мой аналіз закона аб аўдыце ў Нью-Ёрку (Нью-Ёрк) аб прадузятасцях штучнага інтэлекту. спасылка тут.

Давайце ўпэўнімся, што мы належным чынам выкарыстоўваем план Біля аб правах на штучны інтэлект, які мы цяпер маем у руках адносна штучнага інтэлекту. Калі мы ігнаруем план, мы страцім тое, што павялічылі сваю гульню. Калі мы памылкова рэалізуем план, ганьба нам за тое, што мы ўзурпавалі карысную аснову.

Паважаны рымскі паэт Ювенал сказаў яшчэ нешта, што мы можам выкарыстоўваць у гэтай акалічнасці: Anima sana in corpore sano.

Як правіла, гэта азначае сцвярджэнне, што было б разумна мець здаровы або здаровы розум і здаровае цела. Паводле Ювенала, гэта дазваляе нам вытрымаць любую працу і, несумненна, будзе адзінай дарогай да мірнага і цнотнага жыцця.

Нам прыйшоў час выкарыстоўваць здаровы розум і здаровае цела, каб пераканацца, што мы гарантуем, што нашы правы чалавека будуць захаваны і трывала ўмацаваны ў новым свеце паўсюднага і часам непажаданага штучнага інтэлекту. Гэта слушная парада ад рымлян, якой мы павінны прытрымлівацца ў сённяшняй спешцы сярод эпохі беспарадкаў ІІ і будучыні, рашуча напоўненай як добрым, так і дрэнным ІІ.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- білль-аб-правах-уключаючы-і-дзіўна-па-выкарыстанню-AI-наўпрост/