Этыка штучнага інтэлекту і закон аб штучным інтэлекце, якія тлумачаць, што насамрэч з'яўляецца надзейным штучным інтэлектам

Давер - гэта ўсё, так кажуць.

Вядомы філосаф Лао Цзы казаў, што тым, хто недастаткова давярае, не будуць давяраць. Эрнэст Хемінгуэй, паважаны раманіст, заявіў, што лепшы спосаб даведацца, ці можна камусьці давяраць, - гэта давяраць яму.

Між тым здаецца, што давер і каштоўны, і нетрывалы. Давер, які ёсць, можа разбурыцца, як картачны домік, або раптам лопнуць, як лопнуў паветраны шар.

Старажытнагрэчаскі трагік Сафокл сцвярджаў, што давер памірае, а недавер расцвітае. Французскі філосаф і матэматык Дэкарт сцвярджаў, што разумна ніколі цалкам не давяраць тым, хто хоць раз нас падмануў. Выдатны бізнес-інвестар-мільярдэр Уорэн Бафет заклікаў, што трэба дваццаць гадоў, каб стварыць надзейную рэпутацыю, і пяць хвілін, каб яе разбурыць.

Вы можаце быць здзіўлены, даведаўшыся, што ўсе гэтыя разнастайныя погляды і правакацыйныя меркаванні аб даверы маюць вырашальнае значэнне для з'яўлення штучнага інтэлекту (AI).

Так, ёсць тое, што востра называюць надзейны ІІ што ў нашы дні прыцягвае па-чартоўску шмат увагі, у тым ліку непрыстойныя крыкі з боку вобласці штучнага інтэлекту, а таксама бурныя выбухі тых, хто не працуе ў сферы штучнага інтэлекту. Агульнае паняцце прадугледжвае, ці будзе грамадства гатова давяраць падобным сістэмам штучнага інтэлекту.

Мяркуючы па ўсім, калі грамадства не будзе ці не можа давяраць штучнаму інтэлекту, вялікая верагоднасць таго, што сістэмы штучнага інтэлекту не атрымаюць цягі. Штучны інтэлект, якім мы яго ведаем цяпер, будзе адсунуты ў бок і будзе проста збіраць пыл. Дзіўна, што штучны інтэлект можа апынуцца на кучы смецця, гістарычна перакінуўшыся на нішто іншае, як адчайна спрабаваны, але надзвычай правальны высокатэхналагічны эксперымент. Любыя спробы актывізаваць штучны інтэлект патэнцыйна сутыкнуцца з велізарнай цяжкай барацьбой і будуць спынены разнастайнымі пярэчаннямі і адкрытымі пратэстамі. Нібыта з-за недаверу да ІІ.

Што гэта будзе: давяраць ІІ ці не давяраць?

Па сутнасці, ці будзем мы сапраўды мець надзейны штучны інтэлект?

Гэта былыя і нявырашаныя пытанні. Давайце распакуем яго.

Этыка AI і барацьба за надзейны AI

Шмат хто з AI лічыць, што распрацоўшчыкі сістэм AI могуць заваяваць давер да AI, адпаведным чынам распрацаваўшы AI, які заслугоўвае даверу. Сутнасць у тым, што вы не можаце спадзявацца заваяваць давер, калі штучны інтэлект з самага пачатку не заслугоўвае даверу. Ствараючы сістэмы штучнага інтэлекту такім чынам, каб яны лічыліся заслугоўваючымі даверу, існуе вялікая верагоднасць таго, што людзі прымуць штучны інтэлект і прымуць яго выкарыстоўваць.

Адзін сумнеў, які ўжо хвалюе гэта надзейнае меркаванне аб штучным інтэлекте, заключаецца ў тым, што мы можам ужо знаходзіцца ў а дэфіцыт даверу насельніцтва калі справа даходзіць да ІІ. Можна сказаць, што штучны інтэлект, якога мы ўжо бачылі, выкапаў яму і раскідаў давер у велізарных колькасцях. Такім чынам, замест таго, каб пачынаць з нейкай дастатковай базы надзейнасці, штучнаму інтэлекту трэба будзе ашаламляльна пазбавіцца ад дэфіцыту, хапаючыся за кожную жаданую ўнцыю дадатковага даверу, які спатрэбіцца, каб пераканаць людзей, што штучны інтэлект насамрэч заслугоўвае даверу.

У гэтую задачу ўваходзяць Этыка штучнага інтэлекту і Права штучнага інтэлекту.

Этыка штучнага інтэлекту і права штучнага інтэлекту моцна змагаюцца, спрабуючы высветліць, што спатрэбіцца, каб зрабіць штучны інтэлект вартым даверу. Некаторыя мяркуюць, што ёсць формула або жалезныя законы, якія паднясуць штучны інтэлект у надзейныя нябёсы. Іншыя адзначаюць, што для таго, каб заваяваць хвалебны давер грамадства, спатрэбіцца напружаная праца і паслядоўнае і няўмольнае прытрымліванне прынцыпам этыкі штучнага інтэлекту і права на штучны інтэлект.

Сучасная загадка пра давер да штучнага інтэлекту сама па сабе не новая.

Вы можаце лёгка вярнуцца ў канец 1990-х гадоў і прасачыць з'яўленне запатрабаванага жадання «надзейных вылічэнняў» з тых часоў. Гэта была буйнамаштабная спроба тэхналагічнай індустрыі вызначыць, ці могуць усе сказаныя камп'ютэры быць выраблены такім чынам, каб грамадства лічыла іх надзейнымі.

Асноўныя пытанні складаліся з:

  • Ці можна зрабіць кампутарнае абсталяванне такім, каб яно заслугоўвала даверу?
  • Ці можна праграмнае забеспячэнне стварыць так, каб яно заслугоўвала даверу?
  • Ці можам мы стварыць глабальныя сеткавыя кампутары, якія заслугоўваюць даверу?
  • І гэтак далей.

Пераважнае меркаванне, якое тады і працягваецца дагэтуль, заключаецца ў тым, што надзейныя вылічэнні застаюцца адным з відаў святога Грааля, які, на жаль, усё яшчэ не ў межах нашай дасяжнасці (як адзначаецца ў артыкуле пад назвай «Надзейны штучны інтэлект» у Сувязь ACM). Вы можаце пераканаўча сцвярджаць, што штучны інтэлект з'яўляецца яшчэ адным кампанентам забеспячэння надзейнасці вылічэнняў, аднак штучны інтэлект робіць пошук даверу яшчэ больш складаным і нявызначаным. ШІ стаў патэнцыйным спойлерам у барацьбе за надзейныя вылічэнні. Мабыць, самае слабае звяно ў ланцугу.

Давайце коратка паглядзім на тое, чаму штучны інтэлект выклікаў у нас пачуццё недаверу. Акрамя таго, мы вывучым прынцыпы этыкі штучнага інтэлекту, якія, як мы спадзяемся, дапамогуць умацаваць і без таго напаўпадводны ўяўны давер (або бурлівы недавер) сучаснага штучнага інтэлекту. Аб маім пастаянным і шырокім асвятленні этыкі штучнага інтэлекту гл спасылка тут і спасылка тут, Проста назваць некалькі.

Адзін канкрэтны сегмент або частка этыкі ІІ, які прыцягвае вялікую ўвагу СМІ, складаецца з ІІ, які дэманструе непрыхільныя прадузятасці і няроўнасць. Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Праз хвіліну я падзялюся з вамі некаторымі агульнымі прынцыпамі, якія ляжаць у аснове этыкі ІІ. Тут і там шмат такіх спісаў. Можна сказаць, што пакуль не існуе адзінага спісу універсальнай прывабнасці і супадзення. Вось такая прыкрая навіна. Добрая навіна заключаецца ў тым, што, прынамсі, ёсць лёгка даступныя спісы этыкі AI, і яны, як правіла, вельмі падобныя. Увогуле, гэта сведчыць аб тым, што з дапамогай свайго роду аргументаванага збліжэння мы знаходзім шлях да агульнай агульнасці таго, з чаго складаецца этыка ІІ.

Спачатку давайце коратка азнаёмімся з некаторымі агульнымі запаветамі этычнага інтэлекту, каб праілюстраваць, што павінна быць важнай увагай для тых, хто стварае, вядзе або выкарыстоўвае ІІ.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента AI будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў AI, уключаючы празрыстыя і паддаюцца праверку метадалогіі, крыніцы даных, а таксама працэдуру праектавання і дакументацыю.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важны момант, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падпарадкоўваюцца паняццям этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Давайце таксама пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сённяшняга ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы ІІ, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Разумны ІІ нібыта быў бы чалавечага якасці. Вам трэба будзе ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што мы можам мець звышінтэлектуальны ІІ, можна ўявіць, што такі ІІ можа апынуцца разумнейшым за людзей (для майго даследавання звышінтэлектуальнага ІІ як магчымасці гл. асвятленне тут).

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Давайце звяжам гэта з пытаннем аб надзейным ІІ

Здаецца, мы, вядома, не жадаем давяраць ІІ, які дэманструе неспрыяльныя ўхілы і дыскрымінацыйныя дзеянні. У такім выпадку мы лічым, што такі ІІ відавочна не заслугоўвае даверу, таму мы будзем схіляцца да актыўнага недаверу ІІ. Не перашчыруючы з антрапаморфным параўнаннем (я скажу больш пра антрапамарфізм штучнага інтэлекту праз імгненне), чалавек, які дэманструе непажаданыя прадузятасці, таксама будзе падлягаць рэйтынгу як не асабліва заслугоўвае даверу.

Паглыбляючыся ў давер і надзейнасць

Магчыма, нам варта зірнуць на тое, што мы маем на ўвазе, калі сцвярджаем, што давяраем камусьці ці нечаму. Спачатку разгледзім некалькі штодзённых слоўнікавых азначэнняў даверу.

Прыклады таго, што вызначана азначае давер:

  • Гарантаваная залежнасць ад характару, здольнасцей, сілы або праўды кагосьці ці чагосьці (Інтэрнэт-слоўнік Merriam-Webster).
  • Спадзяванне на сумленнасць, сілу, здольнасць, паручыцельства і г.д. чалавека або рэчы (Dictionary.com)
  • Цвёрдая вера ў надзейнасць, праўду, здольнасць або сілу каго-небудзь ці чаго-небудзь (Оксфардскі слоўнік моў).

Я хацеў бы адзначыць, што ўсе гэтыя азначэнні адносяцца да «кагосьці», а таксама да «нешта» як да патэнцыйна заслугоўваючага даверу. Гэта характэрна, бо некаторыя могуць настойваць на тым, што мы давяраем толькі людзям і што акт даверу зарэзерваваны выключна для чалавецтва як нашай мэты надзейнасці. Не так. Вы можаце давяраць свайму кухоннаму тостару. Калі здаецца, што ён надзейна робіць ваш тост і працуе для гэтага рэгулярна, вы напэўна можаце мець падабенства даверу наконт таго, ці сапраўды тостар заслугоўвае даверу.

У той жа лініі мыслення, ШІ таксама можа быць прадметам нашага пункту гледжання даверу. Хутчэй за ўсё, давер, звязаны з штучным інтэлектам, будзе нашмат больш складаным, чым, скажам, звычайны тостар. Звычайна тостар можа выконваць толькі некалькі дзеянняў. Сістэма штучнага інтэлекту, верагодна, будзе значна больш складанай і, здаецца, будзе працаваць менш празрыста. Наша здольнасць ацэньваць і высвятляць надзейнасць штучнага інтэлекту павінна быць значна больш складанай і сутыкацца з рознымі праблемамі.

Акрамя таго, што тыповая сістэма штучнага інтэлекту проста больш складаная, лічыцца недэтэрмінаванай і патэнцыйна самарэгулявальнай або самарэгулявальнай. Мы можам коратка вывучыць гэтае паняцце.

Дэтэрмінаваная машына мае тэндэнцыю рабіць адны і тыя ж рэчы зноў і зноў, прадказальна і з жыццяздольна заўважнай мадэллю таго, як яна працуе. Вы можаце сказаць, што звычайны тостар падсмажвае прыкладна аднолькава і мае элементы кіравання падсмажваннем, якія змякчаюць падсмажванне, і ўсё гэта звычайна можна прадказаць чалавеку, які выкарыстоўвае тостар. Наадварот, складаныя сістэмы штучнага інтэлекту часта ствараюцца як недэтэрмінаваныя, што азначае, што яны могуць рабіць зусім іншыя рэчы, чым вы маглі б чакаць. Гэта таксама можа быць часткова яшчэ больш узмоцнена, калі ШІ напісаны для самарэгулявання, аспект, які можа выгадна дазволіць ШІ палепшыць у выпадку ML/DL, хоць можа таксама трывожна выклікаць хістанне ШІ або ўступленне ў шэрагі дрэннасці ІІ. Вы можаце не ведаць, што вас уразіла, так бы мовіць, бо вы былі заспеты знянацку дзеяннямі ІІ.

Што мы можам зрабіць, каб паспрабаваць наблізіць штучны інтэлект да надзейнасці?

Адзін з падыходаў складаецца ў тым, каб пераканацца, што тыя, хто стварае і ўкараняе штучны інтэлект, прытрымліваюцца набору правілаў этыкі штучнага інтэлекту. Як адзначылі гэтыя даследчыкі штучнага інтэлекту: «Давер - гэта стаўленне да таго, што агент будзе паводзіць сябе так, як чакалася, і на яго можна спадзявацца ў дасягненні сваёй мэты. Давер руйнуецца пасля памылкі або непаразумення паміж агентам і асобай, якая давярае. Псіхалагічны стан даверу да штучнага інтэлекту - гэта ўзніклая ўласцівасць складанай сістэмы, якая звычайна ўключае шмат цыклаў праектавання, навучання, разгортвання, вымярэння прадукцыйнасці, рэгулявання, рэканструкцыі і перападрыхтоўкі» (паказана ў Сувязь ACM, «Давер, рэгуляванне і штучны інтэлект чалавека ў цыкле ў еўрапейскім рэгіёне» Сцюарта Мідлтана, Эмануэля Летуза, Алі Хасаіні і Адрыяны Чапман, красавік 2022 г.).

Сутнасць у тым, што калі мы зможам прымусіць распрацоўшчыкаў штучнага інтэлекту выконваць этычныя нормы штучнага інтэлекту, яны, спадзяюся, у канчатковым выніку атрымаюць надзейны штучны інтэлект. Усё гэта добра, але ў рэальным свеце гэта здаецца некалькі непрактычным, хоць гэта абсалютна шлях, які варты таго, каб ісці.

Вось што я маю на ўвазе.

Выкажам здагадку, што распрацоўшчыкі штучнага інтэлекту прыкладаюць руплівыя намаганні, ствараючы сістэму штучнага інтэлекту для нейкай мэты, якую мы звычайна называем X. Яны старанна сочаць за тым, каб штучны інтэлект выконваў прынцыпы празрыстасці Этыкі штучнага інтэлекту. Яны старанна сочаць за тым, каб канфідэнцыяльнасць належным чынам была ўбудавана ў штучны інтэлект. Практычна для ўсіх звычайных прынцыпаў этыкі штучнага інтэлекту распрацоўшчыкі штучнага інтэлекту старанна гарантуюць, што штучны інтэлект адпавядае дадзеным правілам.

Ці варта цяпер давяраць гэтаму ІІ?

Дазвольце мне дапамагчы прасачыць вашыя думкі наконт гэтага адкрытага пытання.

Аказалася, што кібер-жулікам удалося пранікнуць у штучны інтэлект і хітра прымусіць штучны інтэлект выканаць X, а таксама перадаць кіберхакерам усе дадзеныя, якія збірае штучны інтэлект. Паступаючы такім чынам, гэтыя злачынцы падступна парушаюць запавет канфідэнцыяльнасці. Вы абсалютна не ведаеце, што гэта адбываецца пад капотам штучнага інтэлекту.

З гэтай дадатковай інфармацыяй я зноў задам вам тое ж пытанне.

Вы давяраеце гэтаму ІІ?

Адважуся сказаць, што большасць людзей адразу заявілі б, што яны, безумоўна, робяць ня давярайце гэтаму ІІ. Раней маглі паверыць. Цяпер яны вырашылі больш не лічыць ІІ вартым даверу.

Некалькі ключавых ідэй, заснаваных на гэтым простым прыкладзе, вартыя ўвагі:

  • Дынаміка даверу. Нават найлепшыя намеры ахапіць усе асновы забеспячэння таго, каб этыка штучнага інтэлекту была ўбудавана ў сістэму штучнага інтэлекту, не з'яўляюцца гарантыяй таго, якім штучны інтэлект можа апынуцца або стаць. Пасля таго, як штучны інтэлект будзе ўведзены ў эксплуатацыю, староннія людзі патэнцыйна могуць падарваць налічэнні этычнага штучнага інтэлекту.
  • Падрыў даверу знутры. Акт падрыву надзейнасці не абавязкова павінен быць староннім. Інсайдэр, які рэгулярна абслугоўвае сістэму штучнага інтэлекту, можа зрабіць памылку і аслабіць штучны інтэлект і зрабіць яго менш надзейным. Гэты распрацоўшчык штучнага інтэлекту можа не ведаць, што яны зрабілі.
  • Ненаўмысныя кампрамісы даверу. Самарэгулявальны або самарэгулявальны ІІ можа ў нейкі момант прыстасавацца і збочыць на ненадзейную тэрыторыю. Магчыма, штучны інтэлект спрабуе павысіць празрыстасць штучнага інтэлекту і адначасова неналежным чынам парушае аспекты прыватнасці.
  • Рассейванне даверу. Спроба дасягнуць усіх прынцыпаў этыкі штучнага інтэлекту з аднолькавай максімальнай ступенню надзейнасці, як правіла, не вельмі жыццяздольная, паколькі яны часта супярэчаць мэтам або маюць іншыя неад'емныя патэнцыяльныя канфлікты. Гэта даволі ідэалізаваная перспектыва - меркаваць, што ўсе прадпісанні этычнага штучнага інтэлекту выраўноўваюцца мройліва і ўсе дасягальныя ў нейкай аднолькавай максімальнай ступені.
  • Давер можа быць дарагім. Кошт таго, каб паспрабаваць дасягнуць першакласнага падабенства надзейнага штучнага інтэлекту праз выкананне розных шырокіх і вычарпальных крокаў і захаванне пераліку прынцыпаў этыкі штучнага інтэлекту, будзе адносна высокім. Вы можаце лёгка запярэчыць, што кошт выкарыстання некаторых сістэм штучнага інтэлекту, якія ў адваротным выпадку маюць важную каштоўнасць для грамадства, будзе празмерна высокай, нават калі штучны інтэлект быў, скажам так, менш ідэальным з-за жадання надзейнасці.
  • І гэтак далей.

Не памылкова інтэрпрэтуйце папярэднія заўвагі, каб выказаць здагадку, што мы павінны нейкім чынам прадухіліць намаганні, каб грунтоўна пабудаваць і вывесці надзейны штучны інтэлект. Вы як бы адразу выкінулі б дзіцяці разам з вадой. Правільная інтэрпрэтацыя заключаецца ў тым, што нам трэба выконваць гэтыя даверлівыя дзеянні, каб прымусіць штучны інтэлект заслугоўваць надзейнага разгляду, і ўсё ж гэта само па сабе не панацэя ад усіх праблем і не бяспечная куля.

Шматбаковыя шляхі да надзейнага штучнага інтэлекту

Ёсць важныя дадатковыя шматбаковыя спосабы імкнення да надзейнага ІІ.

Напрыклад, як я ўжо апісваў у сваіх калонках, мноства новых законаў і правілаў, якія тычацца штучнага інтэлекту, маюць на мэце падштурхнуць вытворцаў штучнага інтэлекту да распрацоўкі надзейнага штучнага інтэлекту, гл. спасылка тут і спасылка тут.

Гэтыя прававыя агароджы маюць вырашальнае значэнне як асноўны сродак пераканацца, што тыя, хто распрацоўвае ІІ, нясуць поўную адказнасць за свой ІІ. Без такіх патэнцыйных сродкаў прававой абароны і законных пакаранняў тыя, хто бесперапынна прасоўвае штучны інтэлект на рынак, хутчэй за ўсё, будуць працягваць гэта рабіць, не звяртаючы сур'ёзнай увагі на дасягненне надзейнага штучнага інтэлекту. Я мог бы асабліва дадаць, што калі гэтыя законы і правілы будуць дрэнна распрацаваны або неадэкватна рэалізаваны, яны, на жаль, могуць падарваць пошук надзейнага штучнага інтэлекту, магчыма, іранічна і дзіўным чынам спрыяючы таму, што не заслугоўвае даверу штучны інтэлект, які заслугоўвае даверу (дадатковыя тлумачэнні глядзіце ў маіх абмеркаваннях у калонцы).

Я таксама быў цвёрдым абаронцам таго, што я горача называў Боты анёлы-ахоўнікі AI (гл. маё асвятленне на спасылка тут). Гэта будучы метад або падыход да барацьбы з агнём агнём, а менавіта выкарыстанне штучнага інтэлекту, каб дапамагчы нам змагацца з іншым штучным інтэлектам, які можа быць ці не заслугоўваць даверу.

Па-першае, некаторы фонавы кантэкст будзе карысным.

Выкажам здагадку, што вы вырашылі спадзявацца на сістэму штучнага інтэлекту, у надзейнасці якой вы не ўпэўненыя. Галоўнай праблемай можа быць тое, што вы самотныя ў сваіх спробах высветліць, давяраць ІІ ці не. ШІ патэнцыйна хутчэйшы за вас у вылічэннях і можа скарыстацца вамі. Вам патрэбны нехта ці нешта на вашым баку, каб дапамагчы.

Адна з перспектыў заключаецца ў тым, што заўсёды павінен быць чалавек, які будзе дапамагаць вам, калі вы выкарыстоўваеце сістэму штучнага інтэлекту. Аднак гэта праблематычнае рашэнне. Калі штучны інтэлект працуе ў рэжыме рэальнага часу, пра што мы зараз пагаворым, калі справа даходзіць да з'яўлення беспілотных аўтамабіляў на аснове штучнага інтэлекту, наяўнасці чалавека ў цыкле можа быць недастаткова. ШІ можа дзейнічаць у рэжыме рэальнага часу, і да таго моманту, калі прызначаны чалавек у цыкле з'явіцца ў кадры, каб высветліць, ці правільна працуе ШІ, катастрафічны вынік можа ўжо адбыцца.

Акрамя таго, гэта выклікае яшчэ адзін фактар ​​даверу. Звычайна мы прызначаем узровень даверу ў залежнасці ад кантэксту або абставінаў, з якімі мы сутыкаемся. Вы можаце цалкам давяраць, што ваш малы сын ці дачка будуць вернымі вам, але калі вы ў паходзе і вырашылі пакласціся на тое, што дзіця скажа вам, ці бяспечна ступаць на край абрыву, я думаю, вы паступіце мудра каб падумаць, ці можа малы даць такія парады наконт жыцця або смерці. Дзіця можа рабіць гэта сур'ёзна і шчыра, і, тым не менш, быць не ў стане адэкватна даць такія парады.

Тое ж паняцце звязана з даверам, калі справа даходзіць да штучнага інтэлекту. Сістэма штучнага інтэлекту, якую вы выкарыстоўваеце для гульні ў шашкі або шахматы, верагодна, не ўдзельнічае ні ў якіх абмеркаваннях жыцця або смерці. Вы можаце быць больш спакойнымі з прызначэннем даверу. Аўтамабіль на базе штучнага інтэлекту, які рухаецца па шашы на высокай хуткасці, патрабуе значна большага даверу. Найменшы ўсплёск сістэмы кіравання AI можа прывесці непасрэдна да вашай смерці і смерці іншых.

У апублікаваным інтэрв'ю Біны Аманат, выканаўчага дырэктара Global Deloitte AI Institute і аўтара кнігі Надзейны AI, аналагічны акцэнт на разглядзе кантэкстуальных аспектаў таго, дзе гуляе надзейнасць штучнага інтэлекту: «Калі вы ствараеце рашэнне штучнага інтэлекту, якое выконвае дыягностыку пацыентаў, справядлівасць і прадузятасць вельмі важныя. Але калі вы будуеце алгарытм, які прадказвае адмову рэактыўнага рухавіка, справядлівасць і прадузятасць не так важныя. Надзейны штучны інтэлект - гэта сапраўды структура, якая дапаможа вам пачаць думаць пра памеры даверу ў вашай арганізацыі» (VentureBeat, 22 сакавіка 2022 г.).

Абмяркоўваючы надзейны штучны інтэлект, вы можаце тлумачыць гэтую тэму рознымі спосабамі.

Напрыклад, надзейны ІІ гэта тое, што мы ўсе разглядаем як жаданую і жаданую мэту, а менавіта тое, што мы павінны жадаць распрацоўкі і распаўсюджвання надзейнага ІІ. Ёсць яшчэ адно выкарыстанне крылатай фразы. Некалькі альтэрнатыўнае выкарыстанне - гэта надзейны ІІ гэта стан або вымярэнне, так што нехта можа сцвярджаць, што яны стварылі сістэму штучнага інтэлекту, якая з'яўляецца асобнікам надзейнага штучнага інтэлекту. Вы таксама можаце выкарыстоўваць фразу надзейны ІІ прапанаваць метад або падыход, які можа быць выкарыстаны для дасягнення надзейнасці штучнага інтэлекту. І г.д.

У сувязі з гэтым я спадзяюся, што вы разумееце, што не ўвесь штучны інтэлект аднолькавы і што мы павінны памятаць пра тое, каб не рабіць агульных заяваў пра ўвесь штучны інтэлект. Канкрэтная сістэма штучнага інтэлекту можа значна адрознівацца ад іншай сістэмы штучнага інтэлекту. Адна з гэтых сістэм штучнага інтэлекту можа быць вельмі надзейнай, у той час як другая можа быць маланадзейнай. Будзьце асцярожныя, мяркуючы, што штучны інтэлект - гэта маналіт, якому цалкам можна давяраць, альбо зусім не.

Гэта проста не так.

Далей я хацеў бы коратка расказаць пра некаторыя з маіх бягучых даследаванняў надзейнага штучнага інтэлекту, якія могуць вас зацікавіць, асвятляючы нарастаючую ролю Боты анёлы-ахоўнікі AI.

Вось як гэта адбываецца.

Вы будзеце ўзброеныя сістэмай штучнага інтэлекту (робат-анёл-ахоўнік штучнага інтэлекту), які прызначаны для ацэнкі надзейнасці іншай сістэмы штучнага інтэлекту. Бот-анёл-ахоўнік са штучным інтэлектам у цэнтры ўвагі вашай бяспекі. Думайце пра гэта так, быццам у вас ёсць сродкі для маніторынгу штучнага інтэлекту, на які вы разлічваеце, маючы іншую сістэму штучнага інтэлекту ў вашай сапраўднай кішэні, магчыма, запушчаную на вашым смартфоне або іншых падобных прыладах. Ваш праславуты апякун штучнага інтэлекту можа рабіць вылічэнні на аснове таго, што робіць штучны інтэлект, на які вы разлічваеце, працуючы на ​​высокіх хуткасцях і разлічваючы бягучую сітуацыю ў рэжыме рэальнага часу, нашмат хутчэй, чым гэта можа зрабіць чалавек, які знаходзіцца ў цыкле.

На першы погляд вы можаце падумаць, што штучны інтэлект, на які вы ўжо разлічваеце, павінен мець некаторыя ўнутраны Агароджы AI, якія робяць тое ж самае, што і гэты бот-анёл-ахоўнік, які разлічвае асобна AI. Так, гэтага, вядома, хацелася б. Адно з сумневаў заключаецца ў тым, што агароджы штучнага інтэлекту, убудаваныя ў сістэму штучнага інтэлекту, могуць быць цэласна і прадузята ўзгоднены з штучным інтэлектам як такім, такім чынам, меркаваная агароджа штучнага інтэлекту больш не можа ў пэўным сэнсе незалежна правяраць або пацвярджаць штучны інтэлект.

Супрацьлеглая ідэя заключаецца ў тым, што ваш робат-анёл-ахоўнік AI - гэта незалежны або старонні механізм AI, які адрозніваецца ад AI, на які вы разлічваеце. Ён знаходзіцца па-за межамі іншага штучнага інтэлекту, застаючыся адданым вам, а не адданым штучнаму інтэлекту, які кантралюецца або ацэньваецца.

Прамалінейны спосаб разважаць пра гэта можна выказаць праз наступныя спрошчаныя сцвярджэнні, падобныя на ўраўненне. Мы маглі б сказаць, што «P» жадае патэнцыйна даверыць «R» выкананне пэўнай задачы «X»:

Гэта будзе наступнае, калі ўдзельнічаюць толькі людзі:

  • Чалавек P давярае чалавеку R выкананне задання X.

Калі мы вырашылі спадзявацца на штучны інтэлект, сцвярджэнне ператвараецца ў наступнае:

  • Асоба P давярае AI instance-R для выканання задачы X.

Мы можам дадаць бота-анёла-ахоўніка, сказаўшы наступнае:

  • Чалавек P давярае AI instance-R выканаць задачу X як за ёй назірае AI bot guardian bot instance-Z

Бот-анёл-ахоўнік AI нястомна і няўмольна ацэньвае AI, на які вы разлічваеце. Такім чынам, ваш зручны апякун AI можа папярэдзіць вас, што давер гэтага іншага AI неапраўданы. Або апякун штучнага інтэлекту можа электронна ўзаемадзейнічаць з іншым штучным інтэлектам, каб паспрабаваць гарантаваць, што любое адхіленне ад таго, што заслугоўвае даверу, будзе хутка ліквідавана, і гэтак далей (гл. мой асвятленне такіх дэталяў на спасылка тут).

Метафара надзейнага рэзервуара даверу

Паколькі мы абмяркоўваем розныя ўзроўні даверу, вы можаце знайсці зручную метафару пра надзейнасць, разглядаючы давер як тып рэзервуара.

У вас ёсць пэўная доля даверу да канкрэтнага чалавека або рэчы ў пэўных абставінах у пэўны момант часу. Узровень даверу будзе расці або падаць у залежнасці ад таго, што яшчэ адбываецца ў дачыненні да гэтага канкрэтнага чалавека або рэчы. Давер можа быць на нулявым узроўні, калі ў вас няма ніякага даверу да чалавека або рэчы. Давер можа быць адмоўным, калі вы рызыкнеце не давяраць гэтаму чалавеку ці рэчы.

У выпадку сістэм штучнага інтэлекту ваш запас даверу да канкрэтнага штучнага інтэлекту, на які вы разлічваеце ў пэўных абставінах, будзе расці або падаць у залежнасці ад таго, наколькі вы ацэньваеце надзейнасць штучнага інтэлекту. Часам вы можаце быць добра ў курсе гэтага рознага ўзроўню даверу да штучнага інтэлекту, у той час як у іншых выпадках вы можаце быць менш дасведчаныя, і ў большай ступені выносячы здагадкі аб надзейнасці.

Спосабы павышэння ўзроўню даверу да штучнага інтэлекту, якія мы абмяркоўвалі тут, ўключаюць:

  • Прытрымліванне этыкі штучнага інтэлекту. Калі штучны інтэлект, на які вы разлічваеце, быў створаны ў выніку спробы прытрымлівацца належных правілаў этыкі штучнага інтэлекту, вы, верагодна, выкарысталі б гэтае разуменне, каб павысіць узровень вашага даверу да гэтай канкрэтнай сістэмы штучнага інтэлекту. У якасці заўвагі, таксама магчыма, што вы можаце абагульніць іншыя сістэмы штучнага інтэлекту адносна іх надзейнасці, хоць часам гэта можа ўводзіць у зман тое, што я называю Распаўсюджванне аўры даверу AI (будзьце асцярожныя, робячы гэта!).
  • Выкарыстоўвайце Human-In-The-Loop. Калі ў штучным інтэлекте ёсць чалавек, які знаходзіцца ў цыкле, вы маглі б павысіць свой уяўны давер да штучнага інтэлекту.
  • Устанавіць законы і правілы. Калі існуюць законы і правілы, звязаныя з гэтым тыпам штучнага інтэлекту, вы таксама можаце павысіць узровень даверу.
  • Выкарыстоўвайце робата-анёла-ахоўніка AI. Калі ў вас ёсць гатовы бот-анёл-ахоўнік, гэта таксама павысіць узровень вашага даверу.

Як згадвалася раней, давер можа быць даволі хісткім і разваліцца ў адно імгненне (гэта значыць, рэзервуар даверу хутка і раптоўна губляе ўвесь назапашаны давер).

Уявіце, што вы знаходзіцеся ў аўтаномным аўтамабілі на базе штучнага інтэлекту, і штучны інтэлект за рулём раптам робіць радыкальны паварот направа, выклікаючы віск колаў і ледзь не прымушаючы аўтаномны транспартны сродак перакуліцца. Што будзе з вашым узроўнем даверу? Здавалася б, нават калі вы раней трымалі ІІ на павышаным узроўні даверу, вы рэзка і рэзка знізілі б свой узровень даверу, што разумна.

На гэтым этапе гэтай важнай дыскусіі я магу паспрачацца, што вы жадаеце дадатковых ілюстрацыйных прыкладаў, якія маглі б прадэманстраваць прыроду і маштабы надзейнага ІІ. Ёсць асаблівы і, несумненна, папулярны набор прыкладаў, якія мне блізкія. Разумееце, у маёй якасці эксперта па ІІ, уключаючы этычныя і юрыдычныя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему штучнага інтэлекту, - гэта з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту. Гэта паслужыць зручным варыянтам выкарыстання або ўзорам для шырокага абмеркавання тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці паказвае з'яўленне сапраўдных самакіравальных аўтамабіляў на аснове штучнага інтэлекту што-небудзь пра пошукі надзейнага штучнага інтэлекту, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і надзейны штучны інтэлект

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Зараз мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і надзейнага ІІ.

Давер - гэта ўсё, асабліва ў выпадку беспілотных аўтамабіляў на аснове штучнага інтэлекту.

Здаецца, грамадства насцярожана глядзіць на з'яўленне беспілотных аўтамабіляў. З аднаго боку, ёсць вялікая надзея, што з'яўленне сапраўдных беспілотных аўтамабіляў прыкметна зменшыць колькасць штогадовых смяротных выпадкаў, звязаных з аўтамабілем. Толькі ў Злучаных Штатах у выніку аўтамабільных аварый штогод гіне каля 40,000 2.5 чалавек і каля XNUMX мільёна атрымліваюць траўмы. Глядзіце маю калекцыю статыстыкі на спасылка тут. Людзі п'юць за рулём. Людзі за рулём адцягваюцца. Задача кіравання аўтамабілем, здаецца, заключаецца ў магчымасці пастаянна і беспамылкова засяроджвацца на кіраванні і пазбягаць траплення ў аўтамабільныя аварыі. Такім чынам, мы маглі б летуценна спадзявацца, што сістэмы ваджэння AI будуць пастаянна і беспамылкова кіраваць беспілотнымі аўтамабілямі. Вы можаце разглядаць беспілотныя аўтамабілі як два варыянты, якія складаюцца з памяншэння колькасці смерцяў і траўмаў у аўтамабільных аварыях, а таксама патэнцыйнага забеспячэння даступнасці мабільнасці на значна больш шырокай і даступнай аснове.

Але тым часам заклапочанасць навісае над уяўленнем грамадства аб тым, ці будуць беспілотныя аўтамабілі дастаткова бяспечнымі, каб знаходзіцца на нашых грамадскіх дарогах у цэлым.

Калі нават адзін беспілотны аўтамабіль патрапіць у аварыю або сутыкненне, што прывядзе да смерці або сур'ёзных траўмаў, вы, верагодна, можаце прадбачыць, што сённяшні давер да беспілотных аўтамабіляў на аснове штучнага інтэлекту рэзка ўпадзе. Мы бачылі, як гэта адбылося, калі ў Арызоне адбыўся сумна вядомы інцыдэнт з удзелам крыху (не зусім) самакіравальнага аўтамабіля, які наехаў на пешахода і забіў яго (гл. мой рэпартаж на гэтая спасылка тут).

Некаторыя эксперты адзначаюць, што несправядліва і недарэчна грунтаваць давер да беспілотных аўтамабіляў са штучным інтэлектам на тым факце, што толькі адна наступная смяротная аварыя або сутыкненне можа падарваць і без таго адносна свабодныя ад аварый выпрабаванні на грамадскіх дарогах. Акрамя таго, зыходзячы з дадатковай несправядлівасці, верагоднасць таго, што незалежна ад маркі ці мадэлі беспілотных аўтамабіляў са штучным інтэлектам будзе ўцягнута ў сумны інцыдэнт, грамадства, несумненна, абвінаваціць усе брэнды беспілотных аўтамабіляў.

Поўнасць беспілотных аўтамабіляў можа быць знішчана, а галіна ў цэлым можа пацярпець ад моцнай рэакцыі, што прывядзе да магчымага спынення ўсіх грамадскіх выпрабаванняў на дарогах.

Уклад у такі адваротны ўдар знойдзены ў бессэнсоўных заявах адкрытых прыхільнікаў беспілотных аўтамабіляў аб тым, што ўсе беспілотныя аўтамабілі не паддаюцца аварыям. Ідэя таго, што нельга разбіцца, не толькі цалкам памылковая (гл спасылка тут), ён падступна настройвае індустрыю беспілотных аўтамабіляў на зусім недарэчны набор чаканняў. Гэтыя дзіўныя і недасяжныя заявы аб тым, што з-за беспілотных аўтамабіляў не будзе нулявых смерцяў, спрыяюць памылковаму ўяўленню аб тым, што любыя аварыі без вадзіцеля з'яўляюцца дакладнай прыкметай таго, што ўвесь набор і кабудл дарэмныя.

Усведамленне таго, што прагрэс у напрамку беспілотных аўтамабіляў і паступовае назапашванне даверу ў грамадстве можа быць знішчана ў адно імгненне, выклікае відавочны сум. Гэта будзе чортава дэманстрацыя хісткасці даверу.

заключэнне

Многія аўтавытворцы і тэхналагічныя фірмы, якія займаюцца самакіраваннем, звычайна прытрымліваюцца прынцыпаў этыкі штучнага інтэлекту, робячы гэта, каб паспрабаваць стварыць надзейны штучны інтэлект з пункту гледжання бяспечных і надзейных беспілотных аўтамабіляў на аснове штучнага інтэлекту. Майце на ўвазе, што некаторыя з гэтых фірмаў мацней і больш адданыя правілам этычнага штучнага інтэлекту, чым іншыя. Ёсць таксама выпадковыя стартапы або стартапы-пачаткоўцы, звязаныя з беспілотнымі аўтамабілямі, якія, здаецца, адкідваюць вялікую частку краевугольных камянёў этыкі штучнага інтэлекту (гл. мой агляд на спасылка тут).

На іншых франтах новыя законы і правілы, якія тычацца беспілотных аўтамабіляў, паступова трапляюць у юрыдычныя кнігі. Іншая справа, ці ёсць у іх неабходныя зубы, каб падтрымаць іх, як і тое, ці ўспрымаецца выкананне гэтых законаў сур'ёзна або ігнаруецца (гл. аналізы на гэтую тэму ў маіх калонках).

У гэтым таксама ёсць высокія тэхналогіі. Я прадказаў, што мы паступова ўбачым варыянты ботаў-анёлаў-ахоўнікаў AI, якія выйдуць на першы план на арэне аўтаномных транспартных сродкаў і беспілотных аўтамабіляў. Мы яшчэ не там. Гэта стане больш распаўсюджаным, калі папулярнасць беспілотных аўтамабіляў стане больш шырокай.

Апошні пункт падымае знакаміты радок пра давер, які вы, несумненна, ужо ведаеце на памяць.

Давярайце, але спраўджвайцеся.

Мы можам дазволіць сабе пашырыць наш давер, магчыма, шчодра. Між тым, мы таксама павінны назіраць, як ястраб, каб пераканацца, што давер, які мы спараджаем, пацвярджаецца як словамі, так і ўчынкамі. Давайце крыху давяраем штучнаму інтэлекту, але бясконца правяраем, што мы давяраем належным чынам і з шырока расплюшчанымі вачыма.

Вы можаце давяраць мне ў гэтым.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/