Ethical AI амбіцыйна спадзяецца, што AI вывучыць этычныя паводзіны самастойна, напрыклад, у выпадку з AI ў аўтаномных самакіраваных аўтамабілях

Арыстоцель сцвярджаў, што выхаванне розуму, не выхоўваючы сэрца, зусім не адукацыя.

Вы можаце інтэрпрэтаваць гэта пранікнёнае заўвагу, каб выказаць здагадку, што вывучэнне этыкі і маральных паводзін вельмі важна для чалавецтва. У дэбатах класічнага характару і выхавання трэба спытаць, наколькі нашы этычныя норавы з’яўляюцца інстынктыўна роднымі, а колькі мы вывучаем на працягу жыцця. Малышы ўважлівыя да іншых людзей і, як мяркуецца, здабываюць свае этычныя асновы на аснове таго, што яны бачаць і чуюць. Тое ж самае можна сказаць і пра падлеткаў. Дарослыя з адкрытым поглядам таксама будуць працягваць прыстасоўвацца і прагрэсаваць у сваім этычным мысленні ў выніку перажывання паўсядзённага свету.

Вядома, відавочнае навучанне кагосьці аб этыцы таксама з'яўляецца нормальным. Людзі абавязкова даведаюцца пра этычныя спосабы, наведваючы заняткі па гэтай тэме або, магчыма, наведваючы цікавыя ім мерапрыемствы і практыкі. Этычныя каштоўнасці можна выразна ідэнтыфікаваць і падзяліцца ў якасці сродку дапамогі іншым у фармуляванні іх уласнай структуры этыкі. Акрамя таго, этыка можа быць тонка схаваная ў апавяданнях або іншых спосабах навучання, якія ў канчатковым рахунку нясуць паведамленне аб тым, з чаго складаецца этычнае паводзіны.

Вось як людзі, здаецца, прасякнуты этыкай.

Што наконт штучнага інтэлекту (AI)?

Я разумею, што такое пытанне можа здацца дзіўным. Мы, вядома, чакаем, што людзі ўключаюць этыку і ідуць па жыцці з нейкім падабенствам маральнага кодэкса. Гэта просты і відавочны факт. З іншага боку, машына або кампутар, здаецца, не ўпісваюцца ў тую ж сістэму адліку. Ваша інтуітыўная рэакцыя можа заключацца ў тым, што разглядаць ІІ як увасабленне этыкі і маральных кодэксаў надумана або дзіўна.

Найлепшае, што мы, здавалася б, можам зрабіць у дачыненні да ІІ, - гэта прыдумаць яго так, каб ён не адыходзіў ад этычных паводзін. Распрацоўшчыкі штучнага інтэлекту і тыя, хто выкарыстоўвае ІІ, павінны несці адказнасць за тое, каб штучны інтэлект, як ён быў распрацаваны і рэалізаваны, ужо адпавядаў этычным патрабаванням. За вароты, так бы мовіць, ІІ павінен быць ужо некранутым і гатовым да працы як цалкам этычна належная выдумка.

Вы, несумненна, маеце рацыю, калі думаеце, што сістэмы ІІ сапраўды павінны быць створаны так, каб ужо цалкам адпавядаць этычнай аснове. Грамадства было вельмі ўсхвалявана, калі апошняя хваля сістэм штучнага інтэлекту ўпершыню была выпушчана і, здавалася, прадэманстравала, што мы знаходзімся ў эпоху ІІ Назаўсёды. ІІ дапаможа ў вырашэнні многіх самых складаных праблем у свеце. Дасягненні ў тэхналогіях выкарыстоўваліся, каб дапоўніць чалавечыя магчымасці кагнітыўнымі сродкамі, хоць дазвольце мне падкрэсліць, што ў нас пакуль няма разумнага ІІ, і мы не ведаем, ці будзе дасягнуты разумны ІІ.

Праблема з невыноснай спешкай, каб атрымаць ІІ у свет, паступова выявіла выродлівае падбрушка ІІ, вядомае як AI для дрэннага. Было шмат загалоўкаў пра сістэмы штучнага інтэлекту, якія выкарыстоўваюць алгарытмічнае прыняцце рашэнняў (ADM), якое поўная прадузятасці і няроўнасці. Акрамя таго, вялікая частка сучаснага ІІ пакутуе ад недахопу празрыстасці, мае тэндэнцыю быць невытлумачальным з пункту гледжання тлумачэння вылічальных рашэнняў, часта дэманструе недахоп справядлівасці і дазваляе некаторым адцягваць сваю чалавечую адказнасць, паказваючы пальцам на ІІ.

Я шырока асвятляў этычны ІІ і этыку ІІ у сваіх працах, у тым ліку спасылка тут і спасылка тут, Проста назваць некалькі.

Як можа быць AI для дрэннага калі мы возьмем як заяўленую канструкцыю, што ІІ павінен быць створаны з самага пачатку, каб пазбегнуць неэтычных дзеянняў?

Адказ шматразовы.

Па-першае, многія распрацоўшчыкі AI і кампаніі, якія займаюцца AI, самі не ведаюць пра важнасць фарміравання іх AI, каб заставацца ў рамках этычных межаў. Канцэпцыя зусім не на іх радары. Прывабнасць хуткага зарабляння грошай прымушае некаторых прасоўваць любыя дзікія ідэі ІІ, якія яны жадаюць наўмысна вырабіць. Няма неабходнасці высвятляць якія-небудзь этычныя рэчы. Проста пабудуйце ІІ і запусціце яго.

Па-другое, ёсць тыя, хто стварае ІІ, якія ўпрыгожваюць прамае ўсведамленне этычных наступстваў, але яны адкрыта прыніжаюць або ігнаруюць этычныя меркаванні ІІ. Адным з распаўсюджаных пунктаў гледжання з'яўляецца класічная мантра тэхнолагаў, якая імкнецца да хуткага няўдачы і часта церпіць няўдачы. Проста працягвайце паўтараць, пакуль, мы спадзяемся, усё не ўладкуецца належным чынам. Шанцы ўціснуць якое-небудзь сістэматычнае і прадуманае ўключэнне этыкі ІІ у гэтыя хуткастрэльныя намаганні ІІ, на жаль, невялікія. Я абмяркоўваю неабходнасць пашырэння правоў і магчымасцяў кіраўніцтва ў галіне этычнага ІІ у спасылка тут.

Па-трэцяе, існуе шмат незразумелых меркаванняў аб тым, якія этычныя агароджы варта браць пад увагу пры распрацоўцы ІІ. Вядома, у цяперашні час існуе мноства этычных рэкамендацый ІІ, глядзіце маё асвятленне на спасылка тут, хоць гэтыя зручныя тэарэтычныя прадпісанні цяжка ператварыць у канкрэтыку для дадзенай сістэмы ІІ, якая будуецца. Я адзначыў, што мы паступова ўбачым з'яўленне інструментаў і метадалогій стварэння AI, якія ўключаюць этычныя практыкі кадавання AI, дапамагаючы ліквідаваць разрыў паміж абстрактнымі аспектамі і вядомымі аспектамі гумовых сустрэч з дарогай.

Па-чацвёртае, у адпаведнасці з акцэнтам тут, мы даследуем закрануты выпадак ІІ, які нават калі першапачаткова складаўся ў этычных межах, то потым падчас выкарыстання выходзіць за межы меркаваных этычна закадаваных параметраў.

Нам трэба распакаваць гэта.

Большая частка сучаснага AI выкарыстоўвае машыннае навучанне (ML) і глыбокае навучанне (DL). Гэта вылічальныя метады і тэхналогіі супадзення шаблонаў. Як правіла, ідэя заключаецца ў тым, што вы збіраеце разам шмат адпаведных дадзеных для таго, што ІІ павінен быць здольны зрабіць, вы перадаеце гэтыя дадзеныя ў абраны вылічальны супастаўляльнік шаблонаў, а супадзенне шаблонаў матэматычна спрабуе знайсці карысныя шаблоны. Звярніце ўвагу, што гэты ШІ не адчувае сябе (які, зноў жа, яшчэ не існуе). Таксама няма ніякіх разважанняў здаровага сэнсу. Гэта ўсё матэматыка і вылічэнні.

Магчыма, што даныя, якія паступаюць у ML/DL, ужо прасякнуты прадузятасцямі і няроўнасцю. У гэтым выпадку, верагоднасць таго, што выліковы шаблон будзе проста імітаваць тыя ж схільнасці. Калі вы пакажаце даныя, якія аддаюць перавагу адной расе перад іншай або аддаюць перавагу аднаму полу перад іншым, існуе значная верагоднасць таго, што супадзенне шаблону будзе зачапіцца за выяўленую мадэль.

Вялікая праблема такога роду фіксацыі заключаецца ў тым, што нам можа быць цяжка зразумець, што шаблоны заснаваныя на гэтым аспекце дадзеных. Цярністая і складаная матэматыка можа зрабіць ўсплыванне такіх знойдзеных шаблонаў даволі праблематычным. Нават тэставанне ІІ не абавязкова выявіць гэтыя тэндэнцыі, у залежнасці ад дыяпазону і глыбіні тэстаў, якія прымяняюцца.

Такім чынам, давайце выкажам здагадку, што вы стварылі сістэму штучнага інтэлекту і зрабілі сваю хатнюю працу, спачатку паспрабаваўшы пазбегнуць выкарыстання даных, якія мелі ранейшыя прадузятасці. Далей, пасля таго, як былі праведзены машыннае навучанне і глыбокае навучанне, вы праверылі вынікі, каб убачыць, ці не ўзніклі нейкія прадузятасці або няроўнасці. Давайце выкажам здагадку, што вы не ў стане знайсці такіх непрыемных схільнасцяў.

Увогуле, цяпер дадзена зялёнае святло, каб ісці наперад і выкарыстоўваць ІІ. Людзі пачнуць выкарыстоўваць ІІ і, хутчэй за ўсё, будуць лічыць, што гэта этычна правільна. Пра гэта думаюць і распрацоўшчыкі. Кампанія, якая выстаўляе ІІ, лічыць гэта. Прэч мы ўсе ідзем.

Вось што можа здарыцца.

Магчыма, актывізуецца намёк на прадузятасць, якая не была знойдзена ў зыходных дадзеных і якая не была выяўлена падчас тэставання ІІ. Магчыма, такое здараецца рэдка. Вы можаце паверыць, што пакуль гэта рэдкасць, усё добра. Аднак я сумняваюся, што тыя, хто ўразлівы да згаданага прадузятасці, гатовыя глядзець на рэчы такім чынам. Адважуся сказаць, што сістэма ІІ і тыя, хто яе сфармуляваў, сутыкнуцца з наступствамі альбо ў судах, альбо ў адкрытым судзе грамадскага меркавання.

Яшчэ адна разнавіднасць - гэта вядомае паняцце пра тое, што браць цалю і хапаць мілю. Здагадка першапачаткова можа быць малюсенькай. Падчас выкарыстання ІІ, ІІ, магчыма, быў прыдуманы, каб змяняць сябе па меры таго, як усё ідзе. Такое «навучанне» або «саманавучанне» можа быць вельмі карысным. Замест таго, каб патрабаваць ад распрацоўшчыкаў чалавека-ІІ пастаянна мадыфікаваць і наладжваць сістэму ІІ, ІІ створаны для гэтага сам па сабе. Без затрымак, без дарагой працы і г.д.

Адваротным бокам гэтай зручнай самарэгулявання з'яўляецца тое, што інтуіцыя можа быць усё большай і большай у межах выкарыстання ІІ. У той час як прадузятасць магла быць у цесным маленькім кутку, цяпер яму даецца магчымасць пашырыць. ШІ не здаецца, што гэта «няправільна», і проста вылічальна пашырае тое, што, здаецца, працуе.

Калі ад гэтага валасы ўстаюць на галаве, вам трэба будзе сесці за наступны варыянт.

Выкажам здагадку, што прадузятасць не існавала з самага пачатку, і мы маем усе абгрунтаваныя перакананні, што ІІ цалкам без прадузятасці. Нам альбо пашанцавала, альбо, магчыма, сістэматычна пераканаліся, што ў дадзеных няма збояў і яны не ўзнікаюць з дапамогай вылічэнняў. Нягледзячы на ​​гэты ўздых з палёгкай, ІІ дазваляецца наладжвацца падчас выкарыстання. Дзверы Пандоры адчыняюцца, і ІІ аддае перавагу вылічальнаму скіраванасці да збояў, якія выяўляюцца падчас таго, што ён робіць.

Наноў знойдзенае прадузятасць патрапіць у ІІ, і ніхто асабліва не мудрэй, што гэта адбылося. Так, мы стварылі монстра, сапраўднага Франкенштэйна.

Як можна прадухіліць гэтае з'яўленне ці хаця б пазначыць?

Адзін з падыходаў, які набірае сілу, складаецца ва ўбудаванні ў ІІ кампанента збору этыкі. AI пабудаваны з уключэннем этычных элементаў AI. Затым гэтыя элементы назіраюць або кантралююць астатнюю частку ІІ, пакуль ІІ наладжваецца з часам. Калі ІІ, здаецца, выйшаў за рамкі запраграмаваных этычных правілаў, Этычны ІІ спрабуе ўключыць гэтыя карэкціроўкі або папярэджвае распрацоўшчыкаў, што нешта пайшло не так.

Вы можаце паспрабаваць запраграмаваць гэты кантроль над этычным інтэлектам і спадзявацца, што ён будзе пераважаць, пакуль ІІ выкарыстоўваецца.

Іншым некалькі спрэчным кутом было б выкарыстанне машыннага навучання і глыбокага навучання для навучання этычных аспектаў ІІ у сістэме ІІ.

Скажыце, што?

Так, магчыма, неартадаксальная канцэпцыя заключаецца ў тым, што замест таго, каб праграміст-чалавек непасрэдна кадзіраваў набор этычных правілаў ІІ, ІІ сфарміраваны так, каб паспрабаваць «навучыцца» ім. Нагадаем, што я коратка адзначыў, што выкарыстанне ML/DL звычайна абапіраецца на падачу дадзеных у алгарытмы, і адбываецца ўзгадненне вылічальных шаблонаў. Пытанне на мільён долараў заключаецца ў тым, ці можам мы выкарыстоўваць той жа механізм, каб укараніць этычныя каштоўнасці ў сістэму ІІ.

Я мяркую, што вы маглі б параўнаць гэта з маёй дыскусіяй на адкрыцці таго, як людзі ўсведамляюць этычныя прынцыпы, хоць, калі ласка, не антрапаморфізуйце сённяшні ІІ як параўнальны з чалавечым мысленнем (гэта не так, і я паўтару гэтае заклік у бліжэйшы час). ШІ можна запраграмаваць «прыроджана» з дапамогай этычных правілаў ІІ. Або ІІ можа «навучыцца» этычным правілам ІІ. Вы, вядома, можаце рабіць і тое, і другое, пра што я распавядаў у іншым месцы спасылка тут.

Знайдзіце хвілінку, каб паразважаць над дзіўнай канцэпцыяй, што ІІ можа «навучыцца» этыцы і, як мяркуецца, прытрымлівацца этычных паводзін.

Гэтыя даследчыкі выкарыстоўваюць прыклад сістэмы штучнага інтэлекту, якая вызначае жаданую тэмпературу ў доме, каб праілюстраваць, як гэта можа працаваць: «Яна спачатку «назірала» за паводзінамі людзей у розных хатніх гаспадарках усяго на працягу тыдня і рабіла высновы аб іх перавагах. Затым ён выкарыстаў датчык для выяўлення руху, каб вызначыць, ці ёсць хто-небудзь дома. Калі дом быў пусты, разумны тэрмастат перайшоў у рэжым высокага энергазберажэння; калі людзі былі дома, тэрмарэгулятар рэгуляваў тэмпературу ў адпаведнасці з іх перавагамі. Гэты тэрмастат відавочна адпавядае двум патрабаванням этычнага бота, хоць і вельмі простым. Ён ацэньвае перавагі людзей і накладвае іх на органы кіравання сістэмай ацяплення і астуджэння. Можна спытаць, якое дачыненне гэта мае да сацыяльных маральных каштоўнасцяў. Гэты тэрмастат дазваляе людзям з рознымі значэннямі ўсталёўваць налады тэмпературы, якія яны аддаюць перавагу. Жыхарам дома не трэба кожны дзень скідаць тэрмарэгулятар, калі заходзяць і сыходзяць. Гэты просты этычны бот таксама памяншае агульны энергетычны адбітак супольнасці» (згодна з артыкулам Амітая Этцыоні і Орэна Этцыоні пад назвай «Этыка з дапамогай AI» у томе на Этыка і інфармацыйныя тэхналогіі).

Перш чым паглыбіцца ў павароты і павароты ІІ, які «вучыцца» этычным паводзінам, я хацеў бы сказаць нешта больш пра статус ІІ.

ІІ можа складацца з наступных магчымых станаў:

1. Неразумны просты стары AI сучаснасці

2. Разумны AI чалавечага якасці (у нас пакуль гэтага няма)

3. Разумны штучны інтэлект, які з'яўляецца звышінтэлектуальным (больш за нумар 2)

Я збіраюся засяродзіцца на існуючым стане, які з'яўляецца неразумным простым AI. Большая частка таго, што вы маглі б прачытаць пра этычны ІІ, часам ахоплівае разумны ІІ і таму вельмі спекулятыўная. Я кажу, што гэта спекулятыўна, таму што ніхто не можа прыціснуць хвост аслу, якім будзе разумны ІІ. Яшчэ далей за сферу чалавечага якаснага разумнага ІІ знаходзіцца звышразумны ІІ. Ёсць шмат навукова-фантастычных гісторый і сумненняў аб тым, як гэтыя смакі ІІ могуць вырашыць заняволіць чалавецтва ці, магчыма, проста знішчыць нас усіх. Гэта вядома як экзістэнцыяльны рызыка ІІ. Часам дылема таксама фармулюецца як катастрафічны рызыка ІІ.

Некаторыя сцвярджаюць, што ў нас усё можа быць у парадку, пакуль мы трымаем ІІ для неразумнага старога ІІ, які мы маем сёння. Давайце выкажам здагадку, што мы не можам дасягнуць разумнага ІІ. Уявіце сабе, што, як бы мы ні стараліся стварыць разумны ІІ, нам гэта не ўдаецца. Акрамя таго, выкажам здагадку, дзеля абмеркавання, што разумны ІІ не ўзнікае ў выніку нейкага таямнічага спантаннага працэсу.

Хіба мы не ўпэўненыя, што гэты ІІ меншага калібра, які з'яўляецца адзіным магчымым выглядам ІІ, будзе выкарыстоўвацца?

Не зусім так.

Хутчэй за ўсё, могуць узнікнуць такія ж агульныя праблемы. Я не мяркую, што ІІ «думае» свой шлях да жадання знішчыць нас. Не, звычайны неразумны штучны інтэлект проста ставіцца на пасады ўлады, якія ўвязваюць нас у самазнішчэнне. Напрыклад, мы ўкараняем штучны інтэлект без разумення ў зброю масавага знішчэння. Гэтая аўтаномная зброя не ўмее думаць. У той жа час людзі не цалкам у курсе. У выніку ІІ як форма аўтаномнай аўтаматызацыі ненаўмысна прыводзіць да катастрафічных вынікаў, альбо з-за каманды чалавека, альбо праз памылку або памылку, альбо праз укаранёнае зло, альбо шляхам саманастройкі, якія прыводзяць да падзення. пачварны шлях і г.д.

Я б сцвярджаў, што праблема этыкі ІІ існуе для ўсіх трох дзяржаў, агавораных ІІ, а менавіта, што ў нас ёсць этычныя праблемы ІІ з неразумным простым ІІ, а таксама з разумным ІІ, які з'яўляецца альбо проста чалавечым узроўнем, альбо пашыраным ІІ, які дасягае вядомы ўзровень звышінтэлекту.

Улічваючы гэта цвярозае выказванне, мы можам з упэўненасцю абмеркаваць маштабы і цяжкасці, звязаныя з этычнымі праблемамі на кожным з адпаведных узроўняў ІІ. Звычайная кропка гледжання заключаецца ў тым, што цяжкае становішча з этыкай ІІ менш непераадольнае на неадчувальным ІІ, больш жорсткае на ўзроўні разумнага чалавека, роўнага ІІ, і праўдзівае галава на стадыі разумнага звышразумнага ІІ.

Чым лепш становіцца ШІ, тым горш становіцца праблема этыкі ІІ.

Магчыма, гэта непарушны закон прыроды.

Вяртаючыся да сучаснага штучнага інтэлекту, спроба прымусіць ІІ «навучыцца» этычным паводзінам з дапамогай сучаснага машыннага навучання і глыбокага навучання спалучана з праблемамі і складанымі праблемамі. Выкажам здагадку, што ІІ не можа здабыць жаданыя этычныя прадпісанні? Адкуль мы будзем дакладна ведаць, што пры гэтым яна захісталася? Акрамя таго, ці могуць іншыя часткі сістэмы штучнага інтэлекту патэнцыйна перакрэсліць атрыманыя этычныя канструкцыі? Дадайце да гэтага тое, што калі ІІ наладжваецца на ляту, карэкціроўкі могуць паменшыць этычныя аспекты або ненаўмысна іх захліпіць.

Што яшчэ горш, «навучанне» можа прывесці да таго, што ІІ прывядзе да сапраўды неэтычных паводзін. У той час як мы лічылі, што робім правільныя рэчы, падштурхоўваючы ІІ да таго, каб быць этычнымі, аказалася, што ІІ замест гэтага скаціўся да ўзгаднення шаблонаў па неэтычных аспектах. Калі казаць пра стральбу ўласнай нагой, гэта можа здарыцца.

На гэтым этапе гэтай дыскусіі, я б паспрачаўся, вы жадаеце дадатковых прыкладаў з рэальнага свету, якія маглі б падкрэсліць, як ІІ «навучанне» этыцы можа прымяняцца да сённяшняга ІІ (акрамя смачнага тызера з прыкладу тэрмастата).

Я рады, што вы спыталі.

Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці паказвае з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове штучнага інтэлекту?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

Як удакладненне: сапраўдныя самакіравальныя машыны - гэта тое, што ШІ кіруе аўтамабілем цалкам самастойна, і падчас кіравання аўтамабілем няма дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Яшчэ няма сапраўднага самакіравання аўтамабіля ўзроўню 5, пра які мы нават не ведаем, ці ўдасца гэтага дасягнуць і колькі часу спатрэбіцца, каб дабрацца.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Самакіраваныя аўтамабілі і этычная прышчэпка ІІ

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Зараз мы падрыхтаваныя да глыбокага паглыблення ў беспраходныя аўтамабілі і магчымасці этычнага штучнага інтэлекту, што цягне за сабой зацвярджэнне, што мы можам прымусіць ІІ «навучыцца» пра этычныя паводзіны сам па сабе.

Давайце скарыстаемся простым прыкладам. Самакіруючы аўтамабіль на аснове штучнага інтэлекту рухаецца па вуліцах вашага раёна і, здаецца, едзе бяспечна. Спачатку вы ўдзялялі асаблівую ўвагу кожнаму разу, калі ўдавалася зірнуць на самакіруючы аўтамабіль. Аўтаномны аўтамабіль вылучаўся стойкай з электроннымі датчыкамі, якія ўключалі відэакамеры, радары, прылады LIDAR і да т.п. Пасля многіх тыдняў беспілотнай машыны па вашай суполцы вы гэтага амаль не заўважаеце. Што тычыцца вас, то гэта проста яшчэ адзін аўтамабіль на і без таго ажыўленых дарогах агульнага карыстання.

Каб вы не падумалі, што азнаёміцца ​​з самакіраванымі аўтамабілямі немагчыма або неверагодна, я часта пісаў пра тое, як мясцовасці, якія ўваходзяць у сферу выпрабаванняў самакіраваных аўтамабіляў, паступова прывыклі бачыць дагледжаныя аўтамабілі, глядзіце мой аналіз на гэтая спасылка тут. Многія мясцовыя жыхары ў рэшце рэшт перайшлі ад захапленага пазірання з разяўленымі ротамі да шырокага нуды, каб стаць сведкамі гэтых вандроўных самакіраваных аўтамабіляў.

Верагодна, галоўная прычына, па якой яны могуць заўважыць аўтаномныя аўтамабілі, з-за фактару раздражнення і раздражнення. Сістэмы кіравання аўтамабілем па тэхніцы штучнага інтэлекту гарантуюць, што аўтамабілі выконваюць усе абмежаванні хуткасці і правілы дарожнага руху. Для мітуслівых кіроўцаў у іх традыцыйных аўтамабілях, якія кіруюцца людзьмі, вы часам раздражняецеся, калі затрымаецеся за строга законапаслухмянымі аўтамабілямі на аснове штучнага інтэлекту.

Гэта тое, да чаго нам усім, магчыма, трэба прывыкнуць, справядліва ці няправільна.

Вяртаемся да нашай казкі. Аднойчы, выкажам здагадку, што ў вашым горадзе ці горадзе едзе аўтамабілем і трапляе ў сітуацыю, калі пешаход чакае, каб перайсці дарогу. Выкажам здагадку, што пешаход сам па сабе не мае права праезду. Аўтамабіль, кіраваны чалавекам, можа праехаць міма пешахода і быць цалкам законным. Сапраўды гэтак жа сістэма кіравання AI законна можа прайсці міма чакальнага пешахода.

Рашэнне аб тым, спыніцца і прапусціць пешахода праз дарогу, з'яўляецца цалкам дыскрэцыйным для кіроўцы, незалежна ад таго, кіроўца гэта чалавек або сістэма кіравання AI.

Я ўпэўнены, што вы сутыкаліся з такой сітуацыяй незлічоную колькасць разоў. Магчыма, вы спяшаецеся, таму не спыняецеся, каб прапусціць пешахода. У іншым выпадку ў вас ёсць шмат часу, каб дабрацца да месца прызначэння, таму вы вырашылі спыніцца і дазволіць чалавеку, які чакае, прайсці праз вуліцу. Ваш настрой і канкрэтныя абставіны дыктуюць, што вы будзеце рабіць.

Нічога ў гэтым сцэнары не здаецца незвычайным або непрыемным.

Перш чым я разгледжу бок рэчаў ІІ, вам можа быць цікава даведацца, што гэты канкрэтны аспект меркавання, які дазваляе пешаходу пераходзіць вуліцу, быў уважліва вывучаны. Даследчыкі выявілі, што часам выбар, зроблены кіроўцам, можа залежаць, відаць, ад расавых або гендэрных ухілаў. Чалавек-кіроўца можа вызначыцца з пешаходам, які чакае чакання, і дазволіць яму перасекчы, здавалася б, зыходзячы з уласцівых кіроўцы прадузятасці. Ці ўсведамляе вадзіцель, што яны гэта робяць, - гэта пытанне бягучых даследаванняў. Глядзіце маё асвятленне на гэтая спасылка тут.

Я падрыхтаваў глебу для нашага вывучэння таго, што можа зрабіць сістэма кіравання AI ў сітуацыі на пешаходным пераходзе.

Звычайнае праграмаванне ІІ можа прывесці да таго, што распрацоўшчыкі ІІ вырашаюць заўсёды спыняць сістэму кіравання ІІ і прапускаць пешахода. Здавалася б, гэта этычна правільна або грамадзянская рэч. Самакіруючы аўтамабіль аддае сябе чаканню чалавека, які хоча перайсці вуліцу.

Адважуся сказаць, што калі б вы былі пасажырам у самакіраваным аўтамабілі і ІІ заўсёды спыняўся для ўсіх пешаходаў, якія чакаюць па сваім меркаванні, вы маглі б звар'яцець. Ваша хуткая паездка ў прадуктовы магазін можа заняць шмат разоў больш часу. Памятайце таксама, што мы не маем на ўвазе пешаходаў, якія маюць набожнае законнае права на праезд, бо ў гэтых выпадках, меркавана, ужо запраграмаваны AI, каб заўсёды дазваляць. Мы арыентуемся толькі на дыскрэцыйныя абставіны.

У гэтай дэкларацыі ёсць і іншыя мінусы: заўсёды спыняюцца, каб прапусціць пешаходаў па сваім меркаванні.

Тыя, хто вырабляе аўтамабілі на аснове штучнага інтэлекту, хочуць, каб у іх ездзілі людзі. Ідэя заключаецца ў тым, што, маючы аўтамабілі, мы маглі б скараціць колькасць штогадовых аўтамабільных аварый, якія ў цяперашні час прыносяць каля 40,000 2.5 смяротных выпадкаў і XNUMX мільёна траўмаў толькі ў Злучаных Штатах, глядзіце маю калекцыю статыстыкі на гэтая спасылка тут. Акрамя гэтай шанаванай грамадствам мэты, аўтавытворцы і вытворцы тэхналогіяў, якія працуюць з аўтамабілем, спадзяюцца таксама зарабіць грошы на сваіх тварэннях ІІ, натуральна.

Я падкрэсліваю гэта, таму што людзі могуць вырашыць не ездзіць на самакіраваных аўтамабілях, калі сістэма кіравання AI робіць рэчы, якія неабавязкова у канчатковым выніку адкладаюць паездкі. Любы звычайны чалавек палічыў бы, што, выбіраючы кіроўцу-чалавека, падарожжа можа быць больш хуткім, і таму выбар аўтамабілю з штучным інтэлектам для паездкі можа апынуцца вельмі нізкай у спісе іх выбараў. Гэта, у сваю чаргу, азначала б, што ў нас не будзе жаданага зніжэння колькасці аўтамабільных аварый, а таксама тое, што вытворцы патэнцыйна палічаць сваю прадукцыю нерэнтабельнай.

Улічваючы гэты набор аргументаў, вы маглі б падумаць, што ІІ ніколі не павінен спыняцца, калі адбываецца несанкцыянаваны выпадак, калі пешаход жадае перайсці вуліцу. Проста запраграмуйце сістэму кіравання AI на тое, што строга законна. Калі няма законных патрабаванняў прапускаць пешахода, то гэтаму чакаючаму пешаходу не пашанцавала. Магчыма, чалавеку варта прабрацца да пункта пропуску, які дае прававую аснову для таго, каб ІІ спыніў аўтамабілі.

Вы можаце сабе ўявіць рэзананс з гэтай нагоды?

Людзі ў вашым горадзе або горадзе паступова выяўляюць, што аўтамабілі з ІІ ніколі не дазволяць перасякаць пешахода па сваім меркаванні. Гэты пракляты запальчывы ІІ! Як быццам ІІ штурхае носам людзей. Дрэнна выхаваны нахабнік з нікчэмнай аўтаматыкі. У дадатак уявіце сабе, што існуюць дакументальна пацверджаныя абставіны, калі пешаходам адчайна неабходна пераходзіць, і ІІ наогул не спыніцца.

Тым часам вадзіцелі-людзі ахвотна спыняліся, каб бяспечна прапусціць гэтых «адчайных» людзей.

У выніку гэтага абурэння аўтамабілі з штучным інтэлектам больш не вітаюцца на вуліцах і праезных дарогах вашага раёна. Дазволы, выдадзеныя кіраўніцтвам горада, анулююцца. Гукі галасы зводзяць няўдзячных звяроў з нашых дарог.

Добра, здаецца, мы знаходзімся паміж каменем і кавадлам. ІІ не павінен заўсёды прапускаць пешахода па сваім меркаванні (не заўсёды спыняцца). ІІ не заўсёды павінен перашкаджаць пешаходам па сваім меркаванні пераходзіць (не заўсёды набліжайце міма). Што рабіць?

Відавочным адказам было б запраграмаваць ІІ так, каб ён дзейнічаць па сваім меркаванні.

Я прашу вас падумаць аб ADM (алгарытмічным прыняцці рашэнняў), з якога гэта павінна складацца. Ці будзе ІІ спрабаваць выявіць прыроду пешахода і выкарыстоўваць выяўленыя характарыстыкі ў якасці асновы для прыняцця рашэння аб тым, спыняць самакіруючы аўтамабіль ці не? Можа быць, хто-то старэй выглядае спосаб выбраць. Але ці адбываецца гэтая ўзроставая дыскрымінацыя? І гэтак далей.

Магчыма, сістэма кіравання AI запраграмавана на прыпынак у светлы час сутак і ніколі не спыняецца ў начны час. Магчыма, логіка заключаецца ў тым, што для гоншчыкаў у самакіраваным аўтамабілі больш бяспечна, што аўтаномны аўтамабіль спыняецца днём, але не ў непрыемныя гадзіны вечара.

Магчыма, гэта гучыць разумна. Часткай праблемы стануць чаканні пешаходаў. Вось што я маю на ўвазе. Пешаходы бачаць, як аўтамабілі ІІ спыняюцца для пераходаў па меркаванні, якія адбываюцца днём. Пешаходы не ведаюць, па якіх крытэрах ІІ вырашае спыніцца. Некаторыя пешаходы мяркуюць, што ІІ заўсёды спыніцца (не разумеючы, што дзённае святло ў параўнанні з начным з'яўляецца сапраўдным вызначальнікам). У выніку тыя пешаходы, якія лічаць, што самакіруючы аўтамабіль заўсёды спыняецца, рызыкнуць і пачнуць перасякацца, калі сістэма ваджэння ІІ зусім не імкнецца спыніцца (што, хутчэй за ўсё, ІІ спыніцца, калі пешаход выходзіць на вуліцу, хоць гэта можа быць цяжкім, і фізіка можа перашкодзіць ІІ спыняць аўтамабілі, якія не маюць дастатковай колькасці часу, каб пазбегнуць наезду на, здавалася б, «блуднага» пешахода).

Выкажам здагадку, што распрацоўшчыкі штучнага інтэлекту і фірмы, якія збіраюць і выстаўляюць аўтамабілі ў вашым горадзе, не ўпэўненыя ў тым, як павысіць хуткасць ІІ у гэтым пытанні.

Яны вырашаюць «трэніраваць» ІІ на дадзеных, сабраных з усёй мясцовасці. Аказваецца, што ёсць мноства гарадскіх камер, якія фіксуюць прыезд і ад'езд аўтамабіляў па ўсім пасёлку. Гэтыя дадзеныя дэманструюць шматлікія выпадкі, калі пешаходы імкнуліся перайсці вуліцу па сваім меркаванні. Усе дадзеныя паступаюць у сістэму машыннага навучання і глыбокага навучання, каб атрымаць тое, што лічыцца звычайным у гэтай юрысдыкцыі.

Ці навучаем мы ІІ рабіць тое, што дэманструюць мясцовыя этычныя нормы?

Іншымі словамі, калі б у дадзеным горадзе была мясцовая культура, якая больш схільная спыняцца і прапускаць пешаходаў па сваім меркаванні, пра што сведчаць дзеянні кіроўцы, ML/DL патэнцыйна падхапіў бы гэты шаблон з дапамогай вылічэнняў. Затым ІІ будзе навучаны рабіць тое ж самае. З іншага боку, калі кіроўцы-чалавекі рэдка спыняюцца, ІІ патэнцыйна атрымае гэты «ўрок» з вылічальнага аналізу дадзеных. ІІ будзе рабіць, як людзі, накшталт.

Зацвярджэнне заключаецца ў тым, што этычныя паводзіны людзей фіксуюцца ў дадзеных і што ІІ збіраецца прасякнуць гэтыя ж этычныя прадпісанні з дапамогай вылічальнага аналізу. Этык звычайна ахарактарызаваў бы гэта як супольніцкі падыход да этыкі. Агульныя каштоўнасці супольнасці адлюстроўваюцца ў намаганнях супольнасці ў цэлым.

Гэта можа здацца выгадным рашэннем.

На жаль, ёсць шмат падводных камянёў.

Адной, магчыма, відавочнай праблемай з'яўляецца тое, што вадзіцелі-людзі ўжо могуць праяўляць некаторую форму прадузятасці ў выбары спыніцца ці не спыняцца (як згадвалася раней). Затым ІІ будзе копіяй гэтых прадузятасці. Ці хочам мы, каб так было?

Разгледзім іншую праблему. Выкажам здагадку, што людзі-кіроўцы не з гатоўнасцю прымаюць тое, як працуюць аўтамабілі з штучным інтэлектам. Проста таму, што людзі-кіроўцы былі, скажам так, гатовыя спыніцца, гэта не можа быць аднолькава меркавана для самакіраваных аўтамабіляў. Магчыма, вадзіцеляў людзей раздражняюць аўтамабілі з штучным інтэлектам, якія пастаянна спыняюцца для пешаходаў па меркаванні, нават калі тое ж самае адбываецца рукамі кіроўцаў, але гэта, здаецца, не перашкаджае кіроўцам.

Акрамя таго, што гэта непакоіць, вы таксама можаце выклікаць магчымасць таго, што вадзіцелі-кіроўцы ненаўмысна едуць у аўтамабілі з задняй часткай. Калі кіроўца-чалавек не чакаў, што самакіруючы аўтамабіль спыніцца для пешахода, і калі аўтамабіль знаходзіцца непасрэдна за самакіраваным аўтамабілем, можа паўстаць сур'ёзнае неадпаведнасць чаканняў. Сістэма кіравання AI спыняе самакіруючы аўтамабіль. Вадзіцель не прадбачыў гэтага дзеяння. Чалавек-кіроўца ўрэзаецца ў самакіруючы аўтамабіль. Адбываюцца траўмы і, магчыма, смяротныя зыходы.

Я наўмысна ўказаў на верагоднасць шкоды для чалавека.

Пешаход, які пераходзіць вуліцу, можа здацца на першы погляд дробязным пытаннем. Здавалася б, ніхто не можа пацярпець ад таго, якім спосабам ІІ спыніцца ці не спыніцца. Няправільна! Ёсць верагоднасць наезду на пешахода. Існуе верагоднасць таго, што аўтамабіль, кіраваны чалавекам, урэзаецца ў самакіруючы аўтамабіль. Могуць пацярпець кіроўца і пасажыры аўтамабіля, якім кіраваў чалавек. Гоншчыкі ў самакіраваным аўтамабілі могуць пацярпець. Дадатковыя перастаноўкі магчымай шкоды для чалавека лёгка прадугледжаны.

заключэнне

Гаворачы пра шкоду чалавеку, я дам вам яшчэ што-небудзь, каб вашыя розумы разважалі над гэтай галаваломкай этычнага ІІ.

У навінах паведамлялася, што мужчына заязджаў на скрыжаванне на скрыжаванне і яму на гэта светла зялёнае святло. Іншы аўтамабіль, які кіраваў чалавекам, вырашыў праехаць на чырвонае святло скрыжавання і незаконна і небяспечна выехаў на скрыжаванне, пагражаючы нанесці ўдар па судовай машыне.

Кіроўца сказаў журналістам, што яму прыйшлося выбіраць паміж ударам або ён мог павярнуць сваю машыну, каб пазбегнуць удару, але паблізу былі пешаходы, і паварот можа паставіць пад пагрозу гэтых людзей. Што б вы зрабілі? Вы можаце пацярпець ад гэтага аўтамабіля, які насоўваецца, і, магчыма, жыць, каб расказаць гісторыю. Ці вы можаце паспрабаваць пазбегнуць удару, але тым часам, магчыма, збяжыць нявінных пешаходаў.

Большая частка нашай штодзённай язды прымае такія этычна вялізныя і імгненныя рашэнні. Я доўга абмяркоўваў гэта, а таксама звязваў гэтыя рашэнні на жыццё ці смерць са знакамітай ці, як кажуць, сумна вядомай праблемай тралейбуса, глядзіце маю распрацоўку на спасылка тут.

Заменіце чалавека-кіроўца ў гэтым сцэнары на сістэму кіравання AI.

Што вы хочаце, каб AI зрабіў?

Гэта незразумелае пытанне.

Адзін з падыходаў заключаецца ў тым, каб запраграмаваць ІІ на строгае кіраванне рухам па прамой, такім чынам, нават не ўлічваючы іншыя варыянты, напрыклад, адхіленне ад верагоднай аварыі. Я б чакаў, што гоншчыкі ў самакіраваных аўтамабілях будуць засмучаныя, калі даведаюцца, што ІІ не быў задуманы рабіць што-небудзь, акрамя як прымаць удар. Можна чакаць судовых працэсаў і вэрхалу.

Іншым падыходам было б паспрабаваць запраграмаваць ІІ для разгляду розных магчымасцяў. Хто хоць можа ўсталяваць ADM, які вырашае, якім шляхам будзе ісці сістэма кіравання AI? Здавалася б, дазваляць распрацоўшчыкам штучнага інтэлекту самастойна прымаць такія важкія рашэнні - гэта багата клопатаў.

Вы можаце паспрабаваць дазволіць штучнаму інтэлекту «вучыцца» з дадзеных, якія датычацца ваджэння чалавека, сабраных штодзённымі дарожнымі сітуацыямі. Гэта падобна на дылему пешаходнага пераходу і раней прапанаваную ідэю выкарыстання сабраных даных, каб інтэлектуальны інтэлект збіраць любыя мясцовыя этычныя норавы. Ёсць шмат папярэджанняў наконт гэтага, напрыклад, падыходзяць выяўленыя ML/DL шаблоны ці не і г.д.

Я таксама папярэджваў, што ёсць верагоднасць таго, што ШІ вылучыць неэтычныя паводзіны, у залежнасці ад этычных нораваў. Напрыклад, выкажам здагадку, што ІІ нейкім чынам прызямліўся па вылічальнай схеме, каб заўсёды цэліцца ў пешаходаў кожны раз, калі іншая машына пагражала наехаць на самакіруючы аўтамабіль.

Вау, сачыце за пешаходамі, вы будзеце гатовымі мішэнямі.

Час закрыць дыскусію на дадзены момант і зрабіць гэта з радаснай апошняй думкай.

Магчыма, вы ведаеце, што Айзек Азімаў прапанаваў свае «Тры законы робататэхнікі» ў 1950 годзе, і мы да гэтага часу ў захапленні ад гэтых абвешчаных правілаў. Нягледзячы на ​​тое, што правілы, як уяўляецца, лёгка выконваюцца, напрыклад, што сістэма ІІ або робат не павінны наносіць шкоду чалавеку і не дазваляць чалавеку прычыняць шкоду, ёсць шмат важных нюансаў, якія робяць гэта складаным і часам невыканальным, глядзіце мой аналіз на спасылка тут.

У любым выпадку, вось яшчэ нешта, чым вядомы Азімаў, хоць і менш: «Ніколі не дазваляйце вашаму пачуццю маралі перашкаджаць рабіць тое, што трэба».

Што тычыцца этычнага штучнага інтэлекту, які мы ўсе спадзяемся распрацаваць, мы павінны мець на ўвазе, што этыка інтэлектуальнага інтэлекту, прасякнутая, можа быць не тым, што мы чакалі, і што штучнаму інтэлекту так ці інакш трэба будзе рабіць усё, што трэба. Азімаў добра сказаў. Задоўга да гэтага Арыстоцель, здавалася, думаў пра падобныя пачуцці.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- the-case-with-ai-in-autonomous-self-driving-cars/