Этыка штучнага інтэлекту, якая змагаецца з непазбежнымі аварыямі з штучным інтэлектам, якія таксама навісаюць над аўтаномнымі самакіраванымі аўтамабілямі

Вы, магчыма, ведаеце каго-небудзь, хто, здаецца, асабліва схільны да аварый?

Здаецца, мы ўсе так.

Магчыма, чалавек з тых, хто здольны паслізнуцца на бананавай лупіне або перакуліць каштоўную вазу ў вашай гасцінай. Яны з'яўляюцца чалавекам магнітам для тых ці іншых няшчасных выпадкаў. Гэта можа быць настолькі дрэнна, што вы часам нават ненавідзіце быць побач з імі. Вы можаце атрымаць злавесны пераліў або пацярпець бясслаўныя наступствы адной з іх непрыемных аварый.

Але, магчыма, мы занадта жорсткія, калі мяркуем, што хтосьці больш схільны да аварый, чым іншыя. Можна прывесці аргумент, што няшчасныя выпадкі могуць здарыцца з кожным з нас. Усе мы можам здзейсніць аварыю або трапіць у яе. Уключаны лепшыя з нас.

Давайце на вяршыні гэтай дыскусіі ўзнясем дадатковае непрыемнае пытанне.

Аварыі непазбежныя?

Іншымі словамі, незалежна ад таго, наколькі моцна мы стараемся прадухіліць аварыі, усё роўна можа быць, што ўсё яшчэ існуе шанец і канчатковая ўпэўненасць, што аварыі адбудуцца. Вы можаце імкнуцца абараніць свет ад няшчасных выпадкаў. Гэта здаецца несумненна разумным. Але так ці інакш, аварыі ўсё роўна будуць падымаць сваю пачварную галаву.

Аварыі, як кажуць, чакаюць.

Было б карысна ўдакладніць, што маецца на ўвазе пад спасылкай на нейкую падзею як на няшчасны выпадак. Звычайнае вызначэнне ў слоўніку заключаецца ў тым, што аварыя - гэта тып інцыдэнту, які адбываецца нечакана і ненаўмысна, які прыводзіць да сумнага выніку, які складаецца з падабенства пашкоджанняў або траўмаў.

Уважліва распакуйце гэтае вызначэнне.

Гэты выпадак нечаканы. Гэта азначае, што мы, здаецца, не ўсведамлялі, што аварыя сама па сабе адбудзецца.

Гэты інцыдэнт ненаўмысны. Гэта сведчыць аб тым, што мы павінны выключыць абставіны, пры якіх хтосьці наўмысна імкнуўся да інцыдэнту. Калі жартаўнік кладзе бананавую лупіну на падлогу, куды, як яны ведаюць, ступіць няўдачлівы і нічога не падазраючы невінаваты, вам будзе цяжка сцвярджаць, што чалавек, які спатыкнуўся аб яе, пацярпеў няшчасны выпадак. Замест гэтага іх падманулі і падступна завялі ў пастку.

Вызначэнне таксама ўключае крытэрый таго, што вынік няўдалы. Няшчасны выпадак у такім святле павінен прывесці да кепскага выніку. Чалавек, які выпадкова перакуліў вазу, трэснуў і, магчыма, пашкодзіў любімы прадмет, які немагчыма аднавіць. Уладальнік вазы шкодзіць стратай каштоўнасці. Чалавек, які сутыкнуўся з вазай, цяпер можа быць павінен за страту ўладальніку. Не дай бог, каб хто-небудзь атрымаў парэзы або лом у выніку разбіцця вазы.

Дзеля роўнасці варта адзначыць, што бываюць і так званыя «добрыя» аварыі. Чалавек можа апынуцца ў вялікім багацці або атрымаць іншую жыццёва важную карысць у выніку няшчаснага выпадку. Адзін з найбольш часта цытуемых прыкладаў складаецца з сэра Аляксандра Флемінга і яго вядомага адкрыцця пеніцыліну. Гісторыя абвяшчае, што ён быў крыху неасцярожны ў сваёй лабараторыі і, вярнуўшыся з двухтыднёвага водпуску, знайшоў цвіль на адной са сваіх культурных талерак. Як паведамляецца, на гэты конт ён сказаў так: «Часам знаходзяць тое, чаго не шукаюць. Калі я прачнуўся адразу пасля світання 28 верасня 1928 года, я, вядома, не планаваў зрабіць рэвалюцыю ва ўсёй медыцыне, адкрыўшы першы ў свеце антыбіётык або знішчальнік бактэрый. Але я мяркую, што гэта было менавіта тое, што я зрабіў ".

Мы пакінем у баку спрыяльныя аварыі і засяродзімся тут на сумных аварыях. Версія няшчасных выпадкаў з насупленым тварам - гэта сітуацыя, калі гэтыя неспрыяльныя вынікі могуць быць асабліва небяспечнымі для жыцця або мець цяжкія вынікі. Наколькі гэта магчыма, мы хочам звесці да мінімуму няшчасныя выпадкі (і, вядома, аварыйныя бакі, якія мы хацелі б максымізаваць, калі гэта магчыма зрабіць, хаця я раскажу пра гэты варыянт смайліка ў наступнай калонцы).

Я хацеў бы крыху перафармуляваць ранейшае пытанне аб непазбежнасці аварый. Дагэтуль мы засяроджвалі сваю ўвагу на няшчасных выпадках, якія адбываюцца ў канкрэтным выпадку асобнага чалавека. Без сумневу, няшчасныя выпадкі таксама могуць закрануць адразу мноства людзей. З гэтым можна сутыкнуцца, асабліва калі людзі пагружаныя ў складаную сістэму таго ці іншага роду.

Рыхтуйцеся да варыянту пастаўленага раней пытання.

Ці непазбежныя сістэмныя аварыі?

Мы павінны абдумаць гэта.

Выкажам здагадку, што на заводзе вырабляюць дэталі для аўтамабіляў. Тыя, хто спраектаваў фабрыку, скажам так, вельмі занепакоеныя няшчаснымі выпадкамі, якія могуць адбыцца. Работнікі завода абавязаны ўвесь час насіць шлемы. Таблічкі на заводзе заклікаюць сцерагчыся няшчасных выпадкаў і быць уважлівымі ў сваёй працы. Прымаюцца ўсе меры засцярогі, каб не дапусціць няшчасных выпадкаў.

У гэтай сістэме можна спадзявацца, што ніхто ніколі не патрапіць у аварыю. Вы лічыце, што верагоднасць аварыі роўная нулю? Я адважуся выказаць здагадку, што ні адзін разумны мысляр не стаў бы паспрачацца, што верагоднасць аварыі ў гэтым выпадку роўная нулю. Верагоднасць няшчаснага выпадку можа быць вельмі нізкай, але мы ўсё яшчэ ведаем і мяркуем, што, нягледзячы на ​​ўсе меры засцярогі, існуе невялікая рызыка таго, што няшчасны выпадак адбудзецца.

Усё гэта паказвае на ідэю, што ў сістэме дастатковай складанасці мы абавязаны верыць, што аварыі ўсё роўна будуць адбывацца, незалежна ад таго, наколькі моцна мы стараемся іх прадухіліць. Мы неахвотна падтрымліваем умову, што сістэмныя аварыі сапраўды непазбежныя. У грандыёзнай заяве такога калібру можа быць агаворка, што сістэма павінна мець пэўны парог складанасці, так што практычна немагчыма ахапіць усе асновы для поўнага прадухілення няшчасных выпадкаў.

Цяпер вы акуратна крок за крокам пазнаёміліся з шырока выкладзенай тэорыяй няшчасных выпадкаў, якія можна назваць звычайнымі аварыямі або тэорыяй звычайных аварый (NAT). Вось зручнае апісанне даследчыкаў, якія даследавалі гэтае паняцце: «У досыць вялікім маштабе любая сістэма будзе выклікаць «звычайныя аварыі». Гэта непазбежныя аварыі, выкліканыя спалучэннем складанасці, сувязі паміж кампанентамі і патэнцыйнай шкоды. Звычайная аварыя адрозніваецца ад больш распаўсюджаных няшчасных выпадкаў з адмовай кампанентаў тым, што падзеі і ўзаемадзеянне, якія прыводзяць да звычайнай аварыі, не зразумелыя аператарам сістэмы» (як сказана ў «Разуменне і пазбяганне збояў штучнага інтэлекту: практычнае кіраўніцтва» Роберта Уільямса і Раман Ямпольскі, філасофіі часопіс).

Прычына, па якой я прывёз вас у зямлю т.зв звычайныя аварыі заключаецца ў тым, што нам можа спатрэбіцца ўважліва прымяніць гэтую тэорыю да чагосьці, што паступова і непазбежна становіцца паўсюдным у нашым грамадстве, а менавіта да з'яўлення штучнага інтэлекту (ШІ).

Давайце разбярэмся ў гэтым.

Некаторыя людзі памылкова мяркуюць, што ІІ стане дасканаласцю. Сістэмы штучнага інтэлекту не будуць рабіць памылак і не ўвязуць нас у непрыемнасці, мяркуюць. Усё, што вам трэба зрабіць, гэта пераканацца, што гэтыя распрацоўшчыкі штучнага інтэлекту выконваюць сваю працу дастаткова добра, і вуаля, штучны інтэлект ніколі не зробіць нічога, што можа быць вытлумачана як выпадковае або выклікала няшчасны выпадак.

Не так хутка на гэтай гіпатэтычнай веры. Калі вы гатовыя паверыць у тэорыю звычайныя аварыі, любы ІІ любой значнай складанасці непазбежна прывядзе да аварыі. Незалежна ад таго, колькі начных майстраванняў робяць гэтыя распрацоўшчыкі штучнага інтэлекту, каб прадухіліць аварыю, штучны інтэлект абавязкова ў нейкі момант часу будзе ўцягнуты ў аварыю. Вось так печыва крышыцца. І плакаць у разлітае малако з гэтай нагоды няма перадыху.

Паразважайце над камбінацыяй ІІ і канцэптуальнымі прынцыпамі звычайныя аварыі.

Уявіце, што ў нас ёсць сістэма штучнага інтэлекту, якая кіруе ядзернай зброяй. ШІ быў старанна распрацаваны. Усе мажлівыя стрымліванне і баланс былі закадзіраваны ў сістэму штучнага інтэлекту. Ці застрахаваны мы ад аварыі на аснове штучнага інтэлекту, якая можа адбыцца? Тыя, хто падтрымлівае нармальны пункт гледжання на няшчасныя выпадкі, сказалі б, што мы не ў такой бяспецы, як можна меркаваць. Улічваючы, што штучны інтэлект, верагодна, будзе асабліва складаным, звычайная аварыя моўчкі чакае, каб калі-небудзь узнікнуць, магчыма, у самы горшы момант.

Сутнасць гэтых цяжкіх пытанняў і сумневаў заключаецца ў тым, што мы павінны быць у курсе таго, што штучны інтэлект абавязкова будзе нагружаны аварыямі, і чалавецтва павінна зрабіць што-небудзь разумнае і актыўны ў дачыненні да небяспек, якія могуць узнікнуць. Як вы ўбачыце праз імгненне-другое, гэта вельмі сур'ёзнае пытанне, калі справа даходзіць да выкарыстання штучнага інтэлекту, і сфера этыкі штучнага інтэлекту і этычнага штучнага інтэлекту даволі моцна змагаецца, што рабіць. Пра тое, што я працягваю і шырока асвятляю этыку штучнага інтэлекту і этычны штучны інтэлект, гл спасылка тут і спасылка тут, Проста назваць некалькі.

Перад тым, як паглыбіцца ў трусіную нару, давайце ўпэўнімся, што мы на адной старонцы адносна прыроды штучнага інтэлекту. Сёння няма разумнага штучнага інтэлекту. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны штучны інтэлект. Ніхто не можа дакладна прадказаць, ці атрымаецца ў нас разумны ІІ, і ці ўзнікне разумны ІІ нейкім цудоўным чынам спантанна ў выглядзе вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, гл. мой матэрыял на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы AI, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Мяркуецца, што разумны штучны інтэлект будзе чалавекам. Вам трэба ўлічваць, што разумны штучны інтэлект - гэта кагнітыўны эквівалент чалавека, які дае вам парады. Больш за тое, паколькі некаторыя мяркуюць, што ў нас можа быць звышінтэлектуальны штучны інтэлект, можна ўявіць, што такі штучны інтэлект можа апынуцца разумнейшым за людзей (маё даследаванне звышінтэлектуальнага штучнага інтэлекту як магчымасці гл. асвятленне тут). Усе гэтыя сцэнары павялічаць ацэнку крыніцы.

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны штучны інтэлект не здольны «думаць» ні ў якім разе, як мысленне чалавека. Калі вы ўзаемадзейнічаеце з Alexa або Siri, магчымасці размовы могуць здацца падобнымі да чалавечых магчымасцей, але на самой справе гэта вылічальныя магчымасці і не маюць чалавечага пазнання. Апошняя эра штучнага інтэлекту шырока выкарыстоўвае машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць супастаўленне вылічальных шаблонаў. Гэта прывяло да стварэння сістэм штучнага інтэлекту, якія маюць выгляд чалавечых схільнасцей. Між тым, сёння няма ніводнага штучнага інтэлекту, які б меў падабенства здаровага сэнсу, а таксама кагнітыўнага цуду трывалага чалавечага мыслення.

Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Увогуле, агульная надзея заключаецца ў тым, што, усталяваўшы пачуццё правілаў этыкі штучнага інтэлекту, мы, па меншай меры, зможам павысіць дасведчанасць грамадства аб тым, што штучны інтэлект можа прынесці як карысць, так і шкоду. Я шырока абмяркоўваў розныя калектыўныя аналізы прынцыпаў этыкі штучнага інтэлекту, у тым ліку разглядаў набор, распрацаваны даследчыкамі, якія даследавалі і кандэнсавалі сутнасць шматлікіх нацыянальных і міжнародных прынцыпаў этыкі штучнага інтэлекту ў артыкуле пад назвай «Глабальны ландшафт рэкамендацый па этыцы штучнага інтэлекту» (апублікаваны ст Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важная асаблівасць, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падлягаюць захаванню паняццяў этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Магчыма, нам спатрэбіцца дадаць да хваленых спісаў па этыцы штучнага інтэлекту, якія мы павінны відавочна ўлічваць і прымаць адкрытыя меры для прадухілення або, па меншай меры, рэзкага змякчэння наступстваў штучнага інтэлекту звычайныя аварыі што можа адбыцца. Тыя, хто распрацоўвае штучны інтэлект, павінны зрабіць усё магчымае на гэтым фронце. Тыя, хто разгортвае штучны інтэлект, павінны рабіць тое ж самае. Тым, хто выкарыстоўвае штучны інтэлект або так ці інакш падвяргаецца яго ўздзеянню, варта быць асцярожнымі і быць на варце, каб не дапусціць няшчасных выпадкаў, звязаных з штучным інтэлектам.

У вас можа ўзнікнуць спакуса падумаць, што ў ІІ можна ўбудаваць дастаткова мер засцярогі, каб верагоднасць аварыі знізілася да нуля. Для тых, хто з'яўляецца тэхнарам, звычайная ганарыстасць заключаецца ў тым, што калі частка тэхнікі можа стварыць праблему, іншая частка тэхнікі напэўна можа вырашыць праблему. Проста працягвайце кідаць усё новыя і новыя тэхналогіі, пакуль праблема не знікне.

Што ж, тыя, хто вывучаў сістэмна-арыентаваныя аварыі, схільныя не пагадзіцца і ветліва адказаць на меркаваную тэхнічную пампезнасць, прапанаваўшы пункт гледжання, вядомую як мадэль швейцарскага сыру (SCM): «У SCM ўзроўні бяспекі мадэлююцца як кавалачкі сыр з дзіркамі, якія прадстаўляюць слабыя месцы на кожным узроўні бяспекі. З часам адтуліны мяняюць форму і рухаюцца. У рэшце рэшт, незалежна ад таго, колькі лустачак сыру (слаёў бяспекі) ёсць, дзіркі выраўняюцца, дазваляючы прамы стрэл праз усе лустачкі сыру (адбываецца няшчасны выпадак)» (паводле раней цытаванай працы Роберта Уільямса і Рамана Ямпольскага ).

Я не хачу ўгразнуць у гэтай бакавой датычнай аб тым, ці існуе гарантаваны спосаб запраграмаваць штучны інтэлект, каб цалкам і заўсёды прадухіляць любую верагоднасць аварыі. Існуюць разнастайныя матэматычныя і вылічальныя падыходы да пацверджання, якія выпрабоўваюцца. Я лічу разумным і справядлівым заявіць, што сёння ў нас няма ні метаду працы, які можна маштабаваць, ні тэхналогій, якія маглі б гарантаваць такі нулявы шанец, плюс мы, безумоўна, абцяжараныя тонамі за тонамі штучнага інтэлекту, які бесперапынна вырабляецца. дакладна ведаю, што не імкнуўся прытрымлівацца такой практыкі. Гэты апошні пункт мае вырашальнае значэнне, бо нават калі мы можам стварыць нешта ў лабараторыі штучнага інтэлекту, маштабаванне гэтага да мільёнаў дзікіх і бесклапотных намаганняў штучнага інтэлекту, якія вядуцца і будуць працягваць з'яўляцца, з'яўляецца складанай праблемай, якую, хутчэй за ўсё, не вырашыць, нават калі вылічальная машына для пацверджання срэбра куля існавала.

Яшчэ адзін момант, які, на маю думку, заслугоўвае кароткай згадкі, - гэта штучны інтэлект, які здзяйсняе непрыемныя дзеянні ў выніку дзеянняў зламыснікаў. Я не збіраюся адносіць гэтыя выпадкі да сферы няшчасных выпадкаў штучнага інтэлекту. Памятайце, што падчас уступнай дыскусіі было сказана, што азначэнне аварыі ў слоўніку было інцыдэнтам ненаўмысна прыроды. Калі чалавеку-кібер-жуліку ўдаецца прымусіць сістэму штучнага інтэлекту рабіць дрэнныя рэчы, я не класіфікую гэты штучны інтэлект як няшчасны выпадак. Я веру, што вы пагадзіцеся з гэтай прэзумпцыяй.

Узнікае цікавае пытанне аб тым, колькі розных непрыемных дзеянняў штучнага інтэлекту можна аднесці да чыста выпадковасці штучнага інтэлекту ў параўнанні з падступным дзеяннем кіберзлачынцаў. Згодна з некаторымі з існуючых баз даных справаздач аб інцыдэнтах з штучным інтэлектам, відаць, што няшчасныя выпадкі з штучным інтэлектам здараюцца часцей, чым інцыдэнты, выкліканыя зламысным шляхам, хоць вы павінны прыняць гэтае меркаванне з вялікай дозай солі. Я кажу гэта таму, што ёсць вялікая спакуса не паведамляць, калі сістэма штучнага інтэлекту была атакавана, і, магчыма, больш ахвотна паведамляць, калі адбываецца аварыя штучнага інтэлекту.

Ёсць надзвычай важная агаворка, якую мы павінны абмеркаваць адносна няшчасных выпадкаў з штучным інтэлектам.

Выкарыстанне крылатай фразы "няшчасныя выпадкі са штучным інтэлектам" звычайна непажадана і створыць вялікі беспарадак для ўсіх нас, гэта значыць для ўсяго грамадства. Калі чалавек трапляе ў аварыю, мы часта паціскаем плячыма і спачуваем таму, хто трапіў у аварыю. Здаецца, мы ставімся да слова «няшчасны выпадак» як да таго, што ніхто не нясе адказнасці за тое, што адбылося.

Возьмем прыклад траплення ў аўтамабільную аварыю. Адна машына на правым павароце моцна разгортваецца і выпадкова ўразаецца ў другую машыну, якая ехала прама. Чорт, гэта была проста выпадковасць і здарылася выпадкова. Тыя, хто не ўдзельнічаў у інцыдэнце, магчыма, запусцяць справу на самацёк, калі падзея аформіцца ​​проста як няшчасны выпадак.

Аднак у мяне ёсць адчуванне, што калі б вы былі ў машыне, якую збілі, вы б не так спагадліва ставіліся да кіроўцы, які зрабіў занадта шырокі паварот. Ваша меркаванне, безумоўна, будзе такім, што іншы кіроўца быў кепскім кіроўцам і што нібыта незаконнае або неразумнае кіраванне прывяло да аварыі. Пазначаючы інцыдэнт як «няшчасны выпадак», кіроўца, які затрымаўся, цяпер знаходзіцца ў некаторай ступені нявыгадным становішчы, бо здаецца, што ўсё адбылося выпадкова, а не праз рукі кіроўцы, які памыліўся.

Фактычна, слова «аварыя» настолькі напоўнена рознымі канатацыямі, што ў агульным і цэлым дзяржаўная статыстыка аўтамабільных аварый называе гэта пытанне аўтамабільнымі сутыкненнямі або аўтамабільнымі аварыямі, а не выкарыстоўвае фразу аўтамабільныя аварыі. Здаецца, што аўтамабільнае сутыкненне або аўтамабільная аварыя не маюць ніякіх значэнняў для таго, як адбыўся інцыдэнт. Між тым, фармулёўка «аўтамабільная аварыя» амаль наводзіць нас на думку, што гэта была велічыня лёсу ці нечым непадпарадкаваная чалавецтву.

Вы можаце ў поўнай меры ўбачыць, як гэта канатацыйнае меркаванне дзейнічае, калі гаворка ідзе пра няшчасныя выпадкі штучнага інтэлекту. Мы не хочам, каб распрацоўшчыкі штучнага інтэлекту хаваліся за канатацыйным шчытом, што штучны інтэлект проста выпадкова прычыніў камусьці шкоду. Тое ж самае тычыцца тых, хто разгортвае ІІ. Вы можаце запярэчыць, што фраза «няшчасныя выпадкі штучнага інтэлекту» - гэта амаль антрапамарфізм штучнага інтэлекту, які ўвядзе грамадства ў зман і дазволіць людзям, якія былі за кулісамі штучнага інтэлекту, пазбегнуць адказнасці. Пра маю дыскусію аб узрастаючай важнасці прыцягнення людзей да адказнасці за іх ІІ глядзіце маю дыскусію на гэтая спасылка тут і гэтая спасылка тут.

У далейшым я буду выкарыстоўваць крылатую фразу аб няшчасных выпадках са штучным інтэлектам, але раблю гэта неахвотна і толькі таму, што гэта звычайны спосаб абазначэння гэтай з'явы. Спробы сфармуляваць гэта па-іншаму, на жаль, больш раздутыя і не так лёгка чытаюцца. Калі ласка, не забудзьцеся інтэрпрэтаваць крылатую фразу такім чынам, каб вы не адвярнуліся і не зразумелі, што людзі, якія ляжаць у аснове штучнага інтэлекту, вінаватыя, калі штучны інтэлект ідзе не так.

Каб дапамагчы праілюстраваць верагодную блытаніну або памылковыя аспекты спасылкі на ІІ як прычыну аварый, мы можам вярнуцца да маіх заўваг пра перакульванне вазы. Разгледзім гэты прыклад штучнага інтэлекту: «Гэта праблема звязана з тым, што штучны інтэлект робіць выпадкова або абыякава. Робат-прыбіральнік, які перакульвае вазу, - адзін з прыкладаў гэтага. Складанае асяроддзе мае так шмат відаў «ваз», што мы наўрад ці зможам запраграмаваць пакаранне за ўсе пабочныя эфекты» (па артыкуле Роберта Уільямса і Рамана Ямпольскага).

Сістэма штучнага інтэлекту, якая выкарыстоўваецца ў хатняй гаспадарцы, а потым «выпадкова» перакульвае вазу, здаецца, сведчыць аб тым, што нікога не варта вінаваціць у гэтым неспрыяльным дзеянні штучнага інтэлекту. Гэта быў проста няшчасны выпадак, можна было б з жалем асуджаць. З іншага боку, мы павінны справядліва спытаць, чаму сістэма штучнага інтэлекту не была запраграмавана на апрацоўку вазы ў цэлым. Нават калі распрацоўшчыкі штучнага інтэлекту не меркавалі, што ваза сама па сабе будзе знаходзіцца ў межах аб'ектаў, з якімі можна сутыкнуцца, мы, безумоўна, можам задацца пытаннем, чаму не было нейкага ўсеагульнага пазбягання аб'ектаў, якое ўтрымала б сістэму штучнага інтэлекту ад перакульвання ваза (такім чынам, штучны інтэлект можа не класіфікаваць вазу як вазу, але ўсё ж мог пазбегнуць яе як выяўлянага аб'екта, якога варта пазбягаць).

Я прадказваў і працягваю прадказваць, што мы паступова набліжаемся да вялізнай судовай бітвы за з'яўленне сістэм штучнага інтэлекту, якія трапляюць у «выпадковыя выпадкі» і прычыняюць нейкую шкоду. Дагэтуль грамадства ніяк істотна не адрэагавала на законную адпор ІІ, які выкідваецца на рынак і выклікае неспрыяльныя наступствы, наўмысна ці ненаўмысна. Сучаснаму падножцы штучнага інтэлекту, якая стала залатой ліхаманкай палавіністых вытворцаў штучнага інтэлекту і тых, хто паспешліва ўкараняе штучны інтэлект, зараз шанцуе, і яны застаюцца адносна некранутымі грамадзянскімі іскамі і крымінальным пераследам.

Прававая рэакцыя, выкліканая штучным інтэлектам, рана ці позна наступіць.

Ідучы далей, як мы паспрабуем справіцца з непазбежнасцю так званых аварый са штучным інтэлектам?

Адна рэч, якую мы можам зрабіць адразу, гэта паспрабаваць прадбачыць, як могуць адбыцца аварыі са штучным інтэлектам. Прадбачачы няшчасныя выпадкі штучнага інтэлекту, мы можам, па меншай меры, шукаць сродкі, каб скараціць іх або мінімізаваць верагоднасць іх узнікнення. Акрамя таго, мы можам паспрабаваць паставіць ахоўныя агароджы, каб у выпадку аварыі з штучным інтэлектам знізіць верагоднасць дэманстратыўнай шкоды.

Карысны набор фактараў, якія былі апісаны ў цытаваным раней даследчым артыкуле Разуменне і пазбяганне збояў штучнага інтэлекту: практычны дапаможнік ўключае ў сябе наступныя ўласцівасці (як цытуецца з даследчай працы):

  • Сістэма, на якую ўплываюць вынікі штучнага інтэлекту.
  • Часовая затрымка паміж выхадамі штучнага інтэлекту і больш буйной сістэмай, назіральнасць сістэмы, узровень чалавечай увагі і здольнасць аператараў выпраўляць няспраўнасць штучнага інтэлекту.
  • Максімальны ўрон, магчымы пры зламысным выкарыстанні сістэм, якімі кіруе штучны інтэлект.
  • Спалучэнне кампанентаў у блізкасці да ІІ і складанасць узаемадзеянняў.
  • Прабел у ведах аб штучным інтэлекте і іншых выкарыстоўваных тэхналогіях, а таксама аб узроўні энергіі сістэмы.

На гэтым этапе гэтай інтэнсіўнай дыскусіі я магу паспрачацца, што вам патрэбныя некалькі ілюстрацыйных прыкладаў, якія маглі б яшчэ больш растлумачыць тэму аварый са штучным інтэлектам. Ёсць асаблівы і, несумненна, папулярны набор прыкладаў, якія мне блізкія. Разумееце, у маёй якасці эксперта па ІІ, уключаючы этычныя і юрыдычныя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему штучнага інтэлекту, - гэта з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту. Гэта паслужыць зручным варыянтам выкарыстання або ўзорам для шырокага абмеркавання тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту асвятляе што-небудзь пра з'яўленне так званых аварый са штучным інтэлектам, і калі так, што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Здарэнні з беспілотнымі аўтамабілямі і штучным інтэлектам

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Цяпер мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і магчымасцей этычнага штучнага інтэлекту, якія цягнуць за сабой з'яўленне так званых аварый са штучным інтэлектам.

Уявіце сабе, што аўтамабілем на аснове штучнага інтэлекту едзе па вуліцах вашага раёна і, здаецца, бяспечна ездзіць. Спачатку вы ўдзялялі асаблівую ўвагу кожнаму разу, калі ўдавалася зірнуць на самакіруючы аўтамабіль. Аўтаномны аўтамабіль вылучаўся стойкай з электроннымі датчыкамі, якія ўключалі відэакамеры, радары, прылады LIDAR і да т.п. Пасля многіх тыдняў беспілотнай машыны па вашай суполцы вы гэтага амаль не заўважаеце. Што тычыцца вас, то гэта проста яшчэ адзін аўтамабіль на і без таго ажыўленых дарогах агульнага карыстання.

Каб вы не падумалі, што звыклыя беспілотныя машыны немагчымыя або непраўдападобныя, я часта пісаў пра тое, як краіны, якія ўваходзяць у сферу выпрабаванняў беспілотных аўтамабіляў, паступова прызвычаіліся бачыць прыбраныя аўтамабілі. Многія мясцовыя жыхары ў рэшце рэшт перайшлі з разяўленага рота ў захопленыя вочы на ​​тое, каб цяпер выдаваць шырокі пазяханне ад нуды, назіраючы за тымі звілістымі беспілотнымі аўтамабілямі.

Верагодна, галоўная прычына, па якой яны могуць заўважыць аўтаномныя аўтамабілі, з-за фактару раздражнення і раздражнення. Сістэмы кіравання аўтамабілем па тэхніцы штучнага інтэлекту гарантуюць, што аўтамабілі выконваюць усе абмежаванні хуткасці і правілы дарожнага руху. Для мітуслівых кіроўцаў у іх традыцыйных аўтамабілях, якія кіруюцца людзьмі, вы часам раздражняецеся, калі затрымаецеся за строга законапаслухмянымі аўтамабілямі на аснове штучнага інтэлекту.

Гэта тое, да чаго нам усім, магчыма, трэба прывыкнуць, справядліва ці няправільна.

Вяртаемся да нашай казкі.

Аднойчы беспілотны аўтамабіль трапляе ў аварыю.

Пры павароце направа сістэма ваджэння штучнага інтэлекту моцна разгарнула аўтаномны аўтамабіль, і аўтамабіль, якім кіраваў чалавек, быў збіты. Аўтамабіль, якім кіраваў чалавек, рухаўся прама па правільнай паласе руху. У чалавека-кіроўцы не было асаблівай магчымасці збочыць або пазбегнуць удару. Акрамя таго, самакіравальны аўтамабіль не папярэджваў і не паказваў, што ён збіраецца зрабіць шырокі паварот направа.

Гэта няшчасны выпадак?

Можна з упэўненасцю сказаць, што гэта ўваходзіць у рубрыку няшчаснага выпадку штучнага інтэлекту. Падставай для такога сцвярджэння з'яўляецца тое, што за рулём беспілотнага аўтамабіля была сістэма кіравання AI. Чамусьці па якіх-небудзь прычынах штучны інтэлект вырашыў зрабіць шырокі размах пры павароце направа. У выніку беспілотны аўтамабіль наехаў на аўтамабіль, якім кіраваў чалавек.

Узгадайце ранейшую дыскусію пра канатацыі, звязаныя са словам «няшчасны выпадак», і паглядзіце, як такія адценні адыгрываюцца ў гэтым сцэнары. Акрамя таго, памятайце, што мы абмяркоўвалі выпадак, калі кіроўца-чалавек зрабіў шырокі паварот направа і наехаў на машыну, кіраваную чалавекам. Мы зразумелі, што ўяўленне аб тым, што гэты ўчынак з'яўляецца «няшчасным выпадкам», уводзіць у зман і бянтэжыць. Чалавек-кіроўца, які зрабіў шырокі разварот, мог схавацца за думкай, што аварыя адбылася, здавалася б, выпадковасцю або капрызамі лёсу.

Замест таго, каб называць сцэнар «аварыяй з штучным інтэлектам» у выпадку, калі беспілотны аўтамабіль на аснове штучнага інтэлекту раз'язджаецца і натыкаецца на аўтамабіль, якім кіруе чалавек, магчыма, мы павінны сказаць, што гэта была аўтамабільная аварыя або сутыкненне аўтамабіля з удзелам самакіравання кіраванне аўтамабілем і аўтамабілем, якім кіруе чалавек. Тады мы можам пазбавіцца ад пустой блытаніны, што гэта выпадковасць неспазнаных прычын.

Як вы думаеце, якой будзе рэакцыя грамадства на гэты інцыдэнт?

Што ж, калі аўтавытворца або тэхналагічная фірма, якая займаецца самакіраваннем, могуць прытрымлівацца маркіроўкі справы як няшчаснага выпадку, яны маглі б абысці патэнцыйную рэакцыю грамадства ў цэлым. Пачуццё спагады з нагоды няшчасных выпадкаў, усё сказанае, магчыма, перацячэ на канкрэтныя абставіны. Каб даведацца больш пра тое, як гарады, акругі і кіраўнікі штатаў будуць патэнцыйна рэагаваць на інцыдэнты з аўтаномнымі транспартнымі сродкамі ІІ, глядзіце абмеркаванне даследавання Гарварда, якім я сукіраваў і як апісана на спасылка тут.

Калі сітуацыя проста апісана як аўтамабільная аварыя або аўтамабільнае сутыкненне, магчыма, гэта можа дазволіць зразумець, што нехта ці нешта, магчыма, вінаваты ў інцыдэнце. Рэакцыяй можа быць рэзкая рэакцыя, што штучны інтэлект павінен несці адказнасць. Справа ў тым, што пакуль мы калі-небудзь не вырашым памазаць штучны інтэлект як асобу юрыдычнай асобы, вы не зможаце ўскласці адказнасць на сам штучны інтэлект (гл. маё абмеркаванне ІІ і правасуб'ектнасці на спасылка тут).

Мы можам праверыць сістэму ваджэння AI, каб паспрабаваць высветліць, што прывяло да ўяўнага неадэкватнага кіравання і наступнай аўтамабільнай аварыі. Аднак гэта не азначае, што ІІ будзе прыцягнуты да адказнасці. Адказнымі бакамі з'яўляюцца распрацоўшчыкі штучнага інтэлекту, аператар аўтапарка беспілотнага аўтамабіля і іншыя. Я таксама ўключаю іншых, таму што ёсць верагоднасць, што горад можа несці частковую адказнасць за дызайн кута, дзе адбыўся паварот. Акрамя таго, выкажам здагадку, што пешаход выбягае з-за вугла, і сістэма ваджэння штучнага інтэлекту вырашыла пазбегнуць чалавека, а потым трапіла ў аўтакатастрофу.

І гэтак далей.

заключэнне

Мы хацелі б ведаць, што штучны інтэлект вылічаў і на што ён быў запраграмаваны. Ці зрабіў штучны інтэлект так, як было закадзіравана? Магчыма, штучны інтэлект выявіў памылку або памылку ў праграмаванні, што не апраўдвае дзеянні, але дае падказку пра тое, як адбыўся збой.

Якія агароджы AI былі запраграмаваны ў сістэму ваджэння AI? Калі б былі агароджы, мы хацелі б высветліць, чаму яны, здаецца, не прадухілілі аўтакатастрофу. Магчыма, сістэма кіравання AI магла спыніцца, а не зрабіць паварот. Мы хацелі б ведаць, якія альтэрнатывы вылічальна ацаніў ІІ падчас інцыдэнту.

Акрамя таго, каб разабрацца ў сутнасці канкрэтнага інцыдэнту, яшчэ адна апраўданая сумнеў заключаецца ў тым, ці ёсць у сістэме кіравання штучным інтэлектам недахоп ці іншы ўбудаваны аспект, які будзе рабіць падобныя негатыўныя дзеянні. Па сутнасці, гэты інцыдэнт можа быць яскравым індыкатарам таго, што яшчэ будзе. Як выкарыстоўвалася камп'ютэрнае мадэляванне сітуацый за рулём, каб паспрабаваць прадбачыць гэты тып падказкі сістэмы ваджэння AI? Ці было дастаткова іспытаў па ваджэнню на дарозе, каб выявіць праблемы штучнага інтэлекту, якія маглі прывесці да аўтакатастрофы?

Гэты сцэнар падкрэслівае спрэчную загадку, якая стаіць перад з'яўленнем беспілотных аўтамабіляў на базе штучнага інтэлекту.

Гэта адбываецца так.

З аднаго боку, існуе жаданне грамадства хутчэй прыняць беспілотныя аўтамабілі з-за надзеі, што сістэмы кіравання AI будуць такімі ж бяспечнымі ці, магчыма, больш бяспечнымі, чым кіроўцы-людзі. У адных толькі Злучаных Штатах штогод у выніку аўтамабільных аварый гіне каля 40,000 2.5 чалавек і каля XNUMX мільёнаў чалавек атрымліваюць траўмы. Аналіз паказвае, што значная частка гэтых аўтамабільных аварый звязана з чалавечымі памылкамі, такімі як кіраванне аўтамабілем у нецвярозым стане, адцягненне ўвагі і г.д. (гл. маю ацэнку такой статыстыкі на спасылка тут).

Сістэмы ваджэння AI не будуць ездзіць за рулём у нецвярозым стане. Ім не спатрэбіцца адпачынак і яны не будуць знясільвацца за рулём. Мяркуецца, што, усталяваўшы беспілотныя аўтамабілі ў якасці жыццяздольнага віду транспарту, мы можам скараціць колькасць кіроўцаў-людзей. Гэта, у сваю чаргу, павінна азначаць, што мы скароцім штогод колькасць гібелі людзей і траўмаў у выніку аўтамабільных аварый.

Некаторыя эксперты казалі, што ў канчатковым выніку ў нас будзе нуль загінуўшых і нулявых траўмаў, і гэтыя беспілотныя аўтамабілі нібыта не паддаюцца аварыі, але гэта цалкам абсурдныя і цалкам ілжывыя чаканні. Я патлумачыў, чаму гэта так няшчыра спасылка тут.

У любым выпадку, выкажам здагадку, што ў нас будзе некаторая колькасць аўтамабільных аварый, у якіх будуць удзельнічаць беспілотныя аўтамабілі. Выкажам здагадку таксама, што ў гэтых аўтааварыях будзе некаторая колькасць загінулых і параненых. Пытанне, якое хвалюе, заключаецца ў тым, ці гатовыя мы як грамадства ўвогуле цярпець такія выпадкі. Некаторыя кажуць, што калі хоць адзін смерць або адна траўма здарыцца ў выніку сапраўдных беспілотных аўтамабіляў, увесь камплект і кабудл трэба закрыць.

Супрацьлеглы пункт гледжання заключаецца ў тым, што калі выратаваныя жыцці зніжаюць штогадовыя падлікі, мы павінны працягваць заахвочваць з'яўленне беспілотных аўтамабіляў і не рэагаваць такім нелагічным чынам. Нам трэба будзе пагадзіцца з тым, што некаторая колькасць смяротных зыходаў і траўмаў усё роўна будзе існаваць, нават з беспілотнымі аўтамабілямі, і пры гэтым усвядоміць, што штогадовая колькасць паніжаецца, сведчыць аб тым, што мы на правільным шляху.

Вядома, некаторыя сцвярджаюць, што мы не павінны размяшчаць беспілотныя аўтамабілі на нашых грамадскіх дарогах, пакуль яны не атрымаюць дазвол на такое выкарыстанне ў выніку шырокага і вычарпальнага камп'ютэрнага мадэлявання або праз прыватныя закрытыя выпрабаванні. Контраргументам з'яўляецца тое, што адзіны жыццяздольны і самы хуткі спосаб запусціць беспілотныя аўтамабілі - гэта выкарыстанне дарог агульнага карыстання, і што любыя затрымкі з укараненнем беспілотных аўтамабіляў прывядуць да таго, што жудаснае колькасць аварый аўтамабіляў, кіраваных людзьмі, працягнецца. Я больш падрабязна асвятляў гэтую дыскусію ў сваіх калонках і заклікаю чытачоў паглядзець на гэтыя дыскусіі, каб атрымаць поўнае ўяўленне аб перспектывах гэтага спрэчнага пытання.

Давайце пакуль падвядзем вынікі.

Аварыі са штучным інтэлектам будуць адбывацца. Мы павінны супрацьстаяць імкненню разглядаць аварыю штучнага інтэлекту як уяўную выпадковасць і, такім чынам, памылкова дазваляць вытворцам і тым, хто разгортвае штучны інтэлект, быць катэгарычна непрынятым.

Ёсць яшчэ адзін паварот, які я пакідаю вам у якасці апошняй інтрыгуючай думкі на ваш дзень.

Паведамляецца, што комік Дэйн Кук распавёў такі жарт пра аўтамабільныя аварыі: «Некалькі дзён таму я трапіў у аўтамабільную аварыю. Не мая віна. Нават калі гэта не ваша віна, іншы чалавек выходзіць з машыны і глядзіць на вас так, быццам гэта ваша віна: «Чаму ты спыніўся на чырвонае святло і дазволіў мне збіць цябе на 80!»

Тут на першы план выходзіць магчымасць таго, што сістэма штучнага інтэлекту можа настойваць на тым, што калі адбываецца аварыя штучнага інтэлекту з удзелам гэтага канкрэтнага штучнага інтэлекту, штучны інтэлект рэкламуе, што інцыдэнт адбыўся па віне чалавека, а дакладна не па віне штучнага інтэлекту. Дарэчы, гэта можа быць цалкам праўдай, і чалавек можа спрабаваць злавіць ІІ, сцвярджаючы, што ў гэтым вінаваты ІІ.

Ці, магчыма, штучны інтэлект спрабуе злавіць чалавека.

Разумееце, штучны інтэлект, які мы распрацоўваем, можа быць хітрым, выпадкова ці невыпадкова.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- ваджэнне-аўтамабіляў-таксама/