Этыка штучнага інтэлекту супрацьстаіць таму, ці з'яўляецца раз'юшаны чалавек, які гвалтоўна разбівае або жорстка абыходзіцца з ім, выклікаючы трывогу, амаральны, напрыклад, тыя раз'юшаныя людзі, якія накідваюцца на цалкам аўтаномныя сістэмы штучнага інтэлекту.

Таму ў нас не можа быць прыгожага.

Магчыма, вы чулі або бачылі гэты даволі папулярны выраз і адразу разумееце, на што ён намякае. Верыце ці не, але гэты разумны твор мудраца, здаецца, датуецца як мінімум 1905 годам, калі падобная фраза з'явілася ў Гуманітарны агляд аўтар Эліза Блвен. Увогуле, сутнасць разумення заключаецца ў тым, што часам мы разбіваем, б'ем, ламаем або ўвогуле руйнуем прадметы або артэфакты, якія ў адваротным выпадку не заслугоўваюць такога абыходжання.

Вы можаце сказаць, што мы часам дрэнна абыходзіцца прадметы і артэфакты, нават тыя, якія мы нібыта любілі або шанавалі.

Гэта можа адбыцца выпадкова, напрыклад, па неасцярожнасці выпусціць запаветны смартфон у камод (на жаль, гэта адзін з найбольш часта згадваных спосабаў прыходу смартфона ў непрыдатнасць). З іншага боку, магчыма, у парыве гневу вы вырашылі кінуць свой смартфон праз увесь пакой, і ён стукнецца аб цяжкі прадмет мэблі або прама ў сцяну. Верагоднасць таго, што дысплей будзе ўзламаны, і электронныя вантробы перастануць працаваць належным чынам.

Гэты прыступ гневу не мог мець ніякага дачынення да смартфона як такога. Магчыма, вы спрачаліся з кімсьці і проста так здарылася, што злілі свой гнеў на рэчы, якая, магчыма, была ў вас у руках. Проста смартфон апынуўся не ў тым месцы і не ў той час.

Аднак бываюць выпадкі, калі аб'ект так ці інакш мае дачыненне да бурнай парывы. Напрыклад, вы адчайна чакаеце важнага званка, а ваш смартфон нечакана перастае працаваць. Якое расчараванне! Гэты пракляты такі-то смартфон заўсёды, здаецца, выдае ў горшы час, думаеце вы самі. Ну, чорт вазьмі, смартфон будзе расплачвацца за гэтую апошнюю правіннасць тым, што яго кідаюць праз увесь пакой. Вазьміце, вы не добры смартфон.

Ці заўсёды лютасць павінна быць кампанентам?

Магчыма, вы спакойна вырашылі, што ў вашым смартфоне скончылася карыснасць. Вы збіраецеся атрымаць новы. Такім чынам, існуючы смартфон мае паменшаную каштоўнасць. Вы, вядома, можаце паспрабаваць абмяняць крыху састарэлы смартфон, але, магчыма, замест гэтага вы свядома прымеце рашэнне, што хочаце павесяліцца і паглядзець, колькі фізічнага знявагі гэта можа вытрымаць. Такім чынам, пасля ўдумлівых разваг вы рэзка шпурляеце прыладу праз увесь пакой і назіраеце, што адбываецца. Гэта проста свайго роду фізічны эксперымент, які дазваляе вам ацаніць, наколькі добра складзены смартфон.

Я сумняваюся, што многія з нас выкарыстоўваюць такую ​​старанна наладжаную логіку, калі выяўляюць сваю агрэсію на аб'екце або артэфакты. Часцей учынак, верагодна, здзяйсняецца ў іншым настроі. Здавалася б, гэта адзін з тых стыхійных рэакцыйных дзеянняў. Пасля вы можаце пашкадаваць аб зробленым і паразважаць, што прывяло да такой парыву.

Што такое жорсткае дзеянне ў дачыненні да неадушаўлёнага аб'екта патэнцыйна можа сказаць нам пра чалавека, які прадпрымае такое нахабнае і, здавалася б, непрыстойнае дзеянне?

Сам аб'ект, як мяркуецца, наўмысна не спрабуе вас сапсаваць. Калі ваш тостар дрэнна падсмажвае ваш хлеб, цяжка ўявіць, што тостар прачнуўся ў той дзень з думкай, што ён паспрабуе сапсаваць ваш сняданак, спаліўшы ваш тост. Гэта крыху малаверагодна. Тостар - гэта проста механічная прылада. Атрымліваецца ці не атрымліваецца. Але думка пра тое, што тостар планаваў не спрацаваць або прымусіць вас паскорыцца, працуючы насуперак вашым жаданням, ну, гэта распаўсюджаная думка.

Ёсць некаторыя, якія лічаць, што ўсе прадметы маюць падабенства кармы або духу. Згодна з гэтай тэорыяй, можна меркаваць, што тостар мог бы помсціць, калі б вы, магчыма, раней не даглядалі належным чынам за тостарам. Нягледзячы на ​​тое, што гэта цікавая філасофская ідэя, я збіраюся прапусціць міма гэтай метафізічнай канцэптуалізацыі і застацца з больш паўсядзённым здагадкай, што аб'екты - гэта проста аб'екты (для тлумачэння, я не прапаную рашэнне наконт іншай магчымасці, проста адкладаю яе для момант).

Гэтая бакавая датычная да кармы або духу была вартая, бо яна падымае адпаведны аспект чалавечых паводзін. Разумееце, у нас можа ўзнікнуць спакуса прыпісаць нейкую форму жывасці аб'ектам, якія бліжэй да таго, што мы звычайна лічым падобнымі на пачуццё.

Дзесяцідаляравы тостар, які з'яўляецца простай прыладай, - гэта наўрад ці тое, што мы маглі б надаць разумнай аўрай. Вы маглі б зрабіць гэта, калі б захацелі, але гэта нацяжка. Вы таксама можаце пачаць прысвойваць адчувальнасць разнастайным аб'ектам, такім як крэсла, асвятляльны слуп, пажарны гідрант і г.д. Здаецца, аб'ект павінен мець больш прыроджаных здольнасцей, калі мы збіраемся "разумна" прысвоіць адчувальны - як свячэнне рэчы.

Калі вы выкарыстоўваеце Alexa або Siri, сама прылада з'яўляецца проста дынамікам і мікрафонам, але гэтая сучасная зручнасць, безумоўна, можа быць лепшым кандыдатам для прыпісвання здольнасцяў, падобных да разумных. Відавочна, што вы можаце ўзаемадзейнічаць з прыладай і весці размову, праўда, зрывістую і пазбаўленую цякучасці звычайнага ўзаемадзеяння, арыентаванага на чалавека. Тым не менш, ёсць асаблівая лёгкасць у тым, каб дазволіць Alexa або Siri перайсці да разумнай магчымасці прысваення (гл. мае ўказанні на нядаўні выпадак, калі Alexa давала параду аб тым, як уставіць капейкі ў электрычную разетку пад напругай, на гэтая спасылка тут).

Выкажам здагадку, што мы ўпрыгожым тостар падобнымі на апрацоўку натуральнай мовы (NLP), падобнымі да Alexa або Siri. Вы можаце пагаварыць са сваім тостарам і сказаць яму, якую колькасць падсмажвання вы хочаце зрабіць. Тостар адрэагуе на вашы словы і паведаміць, калі тост будзе гатовы. Здавалася б, гэта карэкціруе нашу веру ў тое, што тостар насамрэч набліжаецца да здольнасці разумнай здольнасці.

Чым бліжэй мы, здаецца, падштурхоўваем характарыстыкі прылады да характарыстык чалавечых аб'ектаў, аднолькава прывядуць нас па шляху да прыпісвання прыладзе падобных на разумныя ўласцівасці. Найбольш відавочным з іх былі б робаты. Любы сучасны хадзячы і гаворачы робат абавязкова выклікае ў нас унутранае ўражанне, што прылада - гэта больш, чым проста механічнае або электроннае прыстасаванне.

Дазвольце задаць вам пытанне і, калі ласка, адкажыце шчыра.

Перш чым я гэта зраблю, я мяркую, што вы неяк бачылі гэтыя вірусныя відэа, якія дэманструюць даволі мудрагелістых робатаў, якія могуць хадзіць, поўзаць, скакаць або бегаць. У некаторых з гэтых відэаролікаў чалавек стаіць побач і спачатку, здаецца, гатовы злавіць робата, калі той запынецца. Б'юся аб заклад, што большасць з нас лічыць гэта добрым учынкам, падобным да таго, калі малы вучыцца хадзіць і знаходзіцца побач, каб злавіць дзіця, перш чым той стукнецца галавой аб падлогу.

Вы рэдка бачыце, як людзі ловяць робатаў, а замест гэтага вы бачыце, як людзі б'юць робатаў, каб убачыць, што робат будзе рабіць далей. Часам выкарыстоўваецца доўгая клюшка, магчыма, хакейная або бейсбольная біта. Чалавек наўмысна і без сораму нанясе ўдар па робату. Робат церпіць пабоі, можна было б спрачацца, і мы чакаем, як робат адрэагуе.

Вось ваша пытанне.

Калі вы бачыце, як робата рэзка б'юць, ці адчуваеце вы за робата?

Многія людзі робяць. Калі такія відэа толькі пачалі публікавацца, тысячы каментарыяў выказвалі лютасць жорсткаму абыходжанню з робатамі. Людзі горача пыталіся, што зрабіў робат, каб заслужыць такое непрыемнае гвалт? «Гэтых людзей трэба вывесці і самім даць некалькі нагамі», — абурана заяўлялі некаторыя. Спыніце гэта і рашуча здымайце любыя падобныя відэа.

Вы лёгка маглі б адчуваць тое ж самае адносна тостара ў стылі Barebone коштам дзесяць даляраў, але ён, верагодна, не выкліча такіх жа нутраных і шакавальных праблем. Здавалася б, чым бліжэй аб'ект набліжаецца ў спектры цалкам неадушаўлёных аб'ектаў, якія не нагадваюць чалавечыя здольнасці, да аб'ектаў, якія больш нагадваюць чалавечыя пачуцці, гэта парушыць наша адчуванне жадання прыпісаць аб'екту чалавечую мараль. .

Давайце далей распакуем гэта.

Калі ў вас ёсць смартфон і вы хочаце яго зламаць, і калі гэта не нашкодзіць нікому іншаму, то, здавалася б, маральна ў нас практычна няма пярэчанняў супраць такога ўчынку. Вы валодаеце ім, вы можаце рабіць з ім што заўгодна (пры ўмове, што дзеянне не закранае іншых).

Вядома, мы можам палічыць гэта глупствам з вашага боку, і гэта можа мець наступствы. Калі вы хочаце знішчыць свой смартфон, што яшчэ вы можаце зрабіць? Магчыма, разбуральны і, здавалася б, бессэнсоўны ўчынак з'яўляецца папярэджаннем чагосьці ўнутры вас пра значна горшую патэнцыю. Зыходзячы з гэтага спосабу мыслення, нас турбуе не столькі смартфон, колькі тое, наколькі вашы дзеянні ў дачыненні да смартфона з'яўляюцца адлюстраваннем вас і вашых паводзін.

У выпадку з людзьмі, якія штурхаюць і штурхаюць робатаў, якія ідуць або поўзаюць, вы, верагодна, адчуваеце палёгку, калі выяўляеце, што гэтыя людзі з'яўляюцца эксперыментатарамі, якім плацяць або іншым чынам прафесійна б'юць робатаў па агульнаважных прычынах. Яны спрабуюць даведацца, наколькі добра робат і штучны інтэлект, які ляжыць у яго аснове, спраўляюцца з разбуральнымі падзеямі.

Уявіце сабе, што нехта напісаў праграму штучнага інтэлекту, якая дапамагае робату хадзіць ці поўзаць. Яны лагічна захочуць ведаць, наколькі добра працуе штучны інтэлект, калі робат збіваецца з шляху і спатыкаецца аб што-небудзь. Ці можа робат ураўнаважыць сябе ці аднавіць баланс пры неабходнасці? Калі людзі знаходзяцца побач, робатаў можна праверыць, штурхнуўшы або падштурхнуўшы. Усё гэта, як кажуць, у імя навукі.

Як толькі вы зразумееце агаворку пра тое, чаму людзі «дрэнна абыходзяцца» з робатамі, вы, хутчэй за ўсё, здымеце свой гнеў. Магчыма, вы ўсё яшчэ адчуваеце сумнеў, бо назіранне за ўдарамі па чалавекападобнай канструкцыі нагадвае ўдары па людзях або жывёлам. Хаця вы ведаеце, што робат нічога не "адчувае", але назіраць за гэтымі дзеяннямі ўсё роўна даволі балюча (каб даведацца больш пра пачуццё блізкасці людзей да такіх сістэм штучнага інтэлекту, як робаты, у тым ліку да феномену, вядомага як жудасны valley, глядзіце маё абмеркаванне на гэтая спасылка тут).

Спецыялісты ў галіне этыкі штучнага інтэлекту вывучаюць маральна-псіхалагічную галаваломку, з якой мы сутыкаемся, калі да сістэм штучнага інтэлекту абыходзяцца жорстка. Адной з самых галоўных праблем з'яўляецца тое, што тыя, хто здзяйсняе такое «жорсткае абыходжанне», могуць прывучыць усіх нас быць менш адчувальнымі да ўсіх відаў дрэннага абыходжання, у тым ліку да небяспечнай слізкай схілы гатоўнасці дрэнна абыходзіцца з іншымі людзьмі.

У нядаўнім даследаванні, апублікаваным у Часопіс AI і этыкі пад назвай «Сацыяльна-кагнітыўныя ўхілы ў народнай этыцы штучнага інтэлекту і дыскурсе рызыкі» даследчыкі апісваюць цвярозую праблему наступным чынам: «Той жа феномен можа стаць маральна-псіхалагічнай праблемай у эпоху штучнага інтэлекту і робатаў. Калі наша штодзённая рэчаіснасць населена разнастайнымі разумнымі сістэмамі, якім не хапае статусу маральнай цярплівасці, людзі могуць прызвычаіцца да жорсткасці і абыякавасці. Паколькі мы часам думаем пра робатаў як пра жывых і свядомых, мы можам імпліцытна прыняць мадэлі паводзін, якія могуць негатыўна паўплываць на нашы адносіны з іншымі людзьмі» (артыкул у суаўтарстве з Майклам Лаакасуо, Вола Херзонам, Сільвай Перандэр, Марыянай Драсінавай, Юккай Сундваль, Юсі Паломакі і Аку Вісала).

Сутнасць заключаецца ў тым, што мы можам апынуцца няўмольна прызнаючы, што жорсткае абыходжанне ў значнай ступені дапушчальна, незалежна ад таго, у адносінах да аб'екта, напрыклад, робата на базе штучнага інтэлекту або жывога дыхаючага чалавека. Вы таксама можаце дадаць да гэтага спісу магчымасць павелічэння жорсткага абыходжання з жывёламі. Увогуле, шлюзам жорсткага абыходжання можа стаць жорсткае цунамі, якое небяспечна замачыць усё, што мы робім.

Мы паступова прызвычаімся да дрэннага абыходжання з сістэмамі штучнага інтэлекту, і гэта, у сваю чаргу, будзе паступова зніжаць наша непрыязнасць да дрэннага абыходжання.

Гэта этычная тэорыя штучнага інтэлекту, якая ўважліва вывучаецца. Гэта асабліва своечасова, паколькі сістэмы штучнага інтэлекту, якія ствараюцца і ўкараняюцца, выглядаюць і дзейнічаюць больш падобна на здольнасці чалавека, чым калі-небудзь раней. ШІ імкнецца да таго, каб выглядаць як чалавечае разуменне, таму мы патэнцыйна ссоўваемся далей уніз па страшэнным спектру жорсткага абыходжання.

Як я раскажу ў бліжэйшы час, у нас існуе тэндэнцыя антрапамарфізмаваць сістэмы штучнага інтэлекту. Мы лічым, што штучны інтэлект, які выглядае падобна на чалавека, прыраўноўваецца да чалавечых аспектаў, нягледзячы на ​​тое, што сёння няма разумнага штучнага інтэлекту, і мы пакуль не ведаем, ці будзе калі-небудзь дасягнуты разумовы. Ці трапяць людзі ў разумовую пастку, прымаючы жорсткае абыходжанне з штучным інтэлектам, як быццам гэта зялёнае святло для далейшага жорсткага абыходжання з людзьмі і жывёламі (любымі жывымі істотамі)?

Некаторыя сцвярджаюць, што нам трэба спыніць гэта ў зародку.

Скажыце людзям, што не варта дрэнна абыходзіцца з сістэмамі штучнага інтэлекту. Нават тыя эксперыментатары з хадзячымі і поўзаючымі робатамі аказвалі мядзведжую паслугу, здавалася б, радасна паказваючы відэазапісы сваіх намаганняў. Гэта яшчэ адна цагліна ў сцяне падрыву поглядаў грамадства на жорсткае абыходжанне. Не дайце снежнаму кому пакаціцца з рэзкай снежнай горкі.

Настойвайце на тым, каб мы ставіліся да ўсяго з належнай павагай, у тым ліку да прадметаў і артэфактаў. І, асабліва калі гэтыя аб'екты або артэфакты маюць падшыпнік або падабенства з чалавечым выглядам. Калі мы не можам спыніць тых людзей, якія жадаюць кінуць свой смартфон аб сцяну, няхай будзе так, але калі яны імкнуцца разбіць робата або здзейсніць падобнае жорсткае абыходжанне з любой прыладай, якая мае моцную чалавечую аўру, мы павінны спыніць сваю нагу .

Фігня, — адказваюць некаторыя з вялікай пагардай.

Няма ніякай сувязі паміж тым, як людзі ставяцца да сістэмы штучнага інтэлекту, і ідэяй, што яны нейкім чынам зменяць сваё стаўленне да людзей і жывёл. Гэта дзве розныя тэмы. Не блытайце іх, гучыць контраргумент.

Людзі дастаткова разумныя, каб падзяляць дзеянні ў адносінах да аб'ектаў і дзеянні ў адносінах да жывых істот. Вы робіце размахванне рукамі, спрабуючы злучыць гэтыя кропкі. Падобна на тое, падобная занепакоенасць узнікла наконт таго, што ў дзіцячым узросце выкарыстоўваліся відэагульні, якія дазвалялі гульцам страляць і знішчаць відэаперсанажаў. У такім выпадку гэта, мабыць, было горш, чым прычыненне шкоды робатам са штучным інтэлектам, паколькі відэагульня часам дэманстравала відэаперсанажаў, якія цалкам нагадвалі людзей.

Супрацьстаяннем гэтаму контраргументу з'яўляецца тое, што відэагульні не маюць справу з рэальнымі аб'ектамі. Гулец ведае, што ён пагружаны ў пейзаж мары. Гэта далёка ад таго, каб кідаць смартфон праз пакой ці біць палкай поўзаючага робата. Акрамя таго, ёсць даследаванні, якія пацвярджаюць сумненні адносна таго, як гульня ў відэагульні можа перацякаць у паводзіны ў рэальным свеце.

Этыка штучнага інтэлекту вывучае фактары, якія рухаюць чалавечыя паводзіны, і тое, як гэта паўплывае на з'яўленне адносна складаных сістэм на аснове штучнага інтэлекту, асабліва ў святле таго, што людзі часам дрэнна абыходзяцца з такімі сістэмамі штучнага інтэлекту. Калі казаць пра кіраванне аўтамабілем (так, я пракраўся гэта туды), то гэта дазваляе мне перайсці да тэмы сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту, якія добра ўпішуцца ў гэтую агульную тэму.

Разумееце, у маёй якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему штучнага інтэлекту, - гэта з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту. Гэта паслужыць зручным варыянтам выкарыстання або ўзорам для шырокага абмеркавання тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту прасвятляе што-небудзь наконт дрэннага абыходжання з аб'ектамі або артэфактамі?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

Як удакладненне: сапраўдныя самакіравальныя машыны - гэта тое, што ШІ кіруе аўтамабілем цалкам самастойна, і падчас кіравання аўтамабілем няма дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе ад чалавека-кіроўцы сумеснага ўдзелу ў кіраванні, звычайна разглядаецца як Узровень 2 або 3. Аўтамабілі, якія сумесна выконваюць задачу кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюцца ADAПЕКЛА
S (перадавыя сістэмы дапамогі вадзіцелю).

Яшчэ няма сапраўднага самакіравання аўтамабіля ўзроўню 5, пра які мы нават не ведаем, ці ўдасца гэтага дасягнуць і колькі часу спатрэбіцца, каб дабрацца.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і варожасць з боку людзей

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Цяпер мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і этычных пытанняў штучнага інтэлекту, звязаных з нашым магчымым жорсткім абыходжаннем з гэтымі хваленымі аўтаномнымі транспартнымі сродкамі.

Па-першае, можна выказаць здагадку, што ніхто не будзе дрэнна абыходзіцца з беспілотным аўтамабілем на аснове штучнага інтэлекту.

Гэта здаецца лагічным. У цэлым мы прымаем ідэю, што адна з асноўных пераваг беспілотных аўтамабіляў заключаецца ў тым, што яны будуць удзельнічаць у нашмат меншай колькасці аварый, чым аўтамабілі, кіраваныя людзьмі. ШІ не будзе ездзіць за рулём п'яным. Штучны інтэлект не будзе глядзець відэа з коткамі за рулём. Штогод толькі ў Злучаных Штатах штогод адбываецца каля 40,000 2.5 гібелі людзей з-за аўтамабільных аварый і каля XNUMX мільёнаў траўмаў, многія з якіх, як чакаецца, больш не адбываюцца, калі на нашых дарогах пераважаюць беспілотныя аўтамабілі.

Што не падабаецца ў беспілотных аўтамабілях, магчыма, скажаце вы сабе.

Ну, спіс даволі шырокі, глядзіце мой асвятленне на гэтая спасылка тут, але з-за абмежаванасці прасторы тут я раскажу толькі пра некаторыя найбольш прыкметна заяўленыя непажаданыя аспекты.

Як я ўжо згадваў у сваіх калонках, былі выпадкі, калі людзі кідалі камяні ў праязджаючыя міма беспілотныя аўтамабілі і, як паведамляецца, клалі на вуліцы металічныя прадметы, такія як цвікі, каб прабіць шыны беспілотных аўтамабіляў. Гэта было зроблена па розных меркаваных прычынах. Адзін з іх заключаецца ў тым, што людзі ў рэгіёне, дзе рухаліся беспілотныя аўтамабілі, былі занепакоеныя тым, што сістэмы ваджэння штучнага інтэлекту не былі гатовыя да прайм-тайму.

Неспакой заключалася ў тым, што сістэма ваджэння штучнага інтэлекту магла пайсці з ладу, магчыма, наехаць на дзіця, якое кідалася праз дарогу, або збіць любімага хатняга сабаку, які, магчыма, круціўся па праезнай частцы. Згодна з ранейшым пунктам аб тым, што з намі, здавалася б, абыходзіліся як з марскімі свінкамі, лічылася, што не было праведзена дастаткова тэставання і падрыхтоўкі і што беспілотныя аўтамабілі недарэчна выпускаліся. Спробы скараціць выпрабаванні рабіліся як публічная дэманстрацыя страху з-за таго, што беспілотным аўтамабілям было дазволена па законе блукаць.

Магчыма, у прыкладах былі ўмешаны і іншыя прычыны. Напрыклад, некаторыя выказалі здагадку, што людзі-кіроўцы, якія зарабляюць на жыццё праз сумесныя паездкі, былі занепакоеныя тым, што штучны інтэлект быў на мяжы іх замены. Гэта была пагроза іх жыццядзейнасці. Вы, вядома, ведаеце, што да з'яўлення сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту яшчэ далёка і праблема перамяшчэння працоўных не стаіць адразу. Такім чынам, здавалася б, што кіданне камянёў і іншыя інцыдэнты, хутчэй за ўсё, былі звязаны з праблемамі бяспекі.

Для нашых мэтаў у гэтай тэме пра дрэннае абыходжанне са штучным інтэлектам узнікае пытанне аб тым, ці з'яўляецца гатоўнасць прадпрымаць гэтыя некалькі дэструктыўныя дзеянні супраць самакіравальных аўтамабіляў на аснове штучнага інтэлекту раннім паказчыкам слізкага шляху ад дрэннага абыходжання са штучным інтэлектам да дрэннага абыходжання з людзьмі.

Трымайцеся за гэтую думку.

Іншы ракурс разгляданага дрэннага абыходжання з беспілотнымі аўтамабілямі на аснове штучнага інтэлекту заключаецца ў «здзеках», якія некаторыя вадзіцелі і нават пешаходы нацэлілі на гэтыя аўтаномныя транспартныя сродкі. Глядзіце мой аналіз на спасылка тут і спасылка тут.

Карацей кажучы, кіроўцы-людзі, якія кіруюць аўтамабілем і, магчыма, сутыкаюцца з беспілотным аўтамабілем, часам аддаюць перавагу гуляць у трукі, звязаныя з кіраваннем, на беспілотных аўтамабілях. Гэтую хітрасць часам робяць проста дзеля задавальнення, але ў большай ступені аснова звычайна звязана з расчараваннем і раздражненнем з нагоды сучасных сістэм кіравання ІІ.

Большасць сістэм ваджэння AI запраграмавана на кіраванне аўтамабілем строга законным спосабам. Вадзіцелі-людзі не абавязкова кіруюць аўтамабілем строга законна. Напрыклад, кіроўцы-людзі часта кіруюць аўтамабілем, перавышаючы абмежаванне хуткасці, робячы гэта часам самым абуральным спосабам. Калі кіроўцы-людзі знаходзяцца за самакіравальным аўтамабілем, кіроўца-чалавек аказваецца ў тупіку з-за «павольнай» сістэмы кіравання AI.

Людзі, якія жывуць у раёнах, у цяперашні час добра заселеных беспілотнымі аўтамабілямі, схільныя неадкладна засмучацца, калі бачаць перад сабой беспілотны аўтамабіль. Яны ведаюць, што аўтаномны аўтамабіль зробіць іх падарожжа даўжэйшым, чым трэба. Такім чынам, такія кіроўцы будуць агрэсіўна ставіцца да самакіравальнага аўтамабіля.

Вадзіцелі ведаюць, што яны могуць праскочыць вакол самакіравальнага аўтамабіля і зрэзаць яго. Сістэма ваджэння штучнага інтэлекту будзе проста запавольваць аўтаномны транспартны сродак, і ён не будзе рэагаваць на аварыю на дарозе. Калі б кіроўца-чалавек паспрабаваў зрабіць такі ж агрэсіўны рух у адносінах да іншага кіроўцы-чалавека, вялікая верагоднасць таго, што адплата амаль напэўна паўстане. У некаторай ступені кіроўцы-людзі змякчаюць сваю агрэсіўную язду, усведамляючы, што пацярпелы кіроўца можа адпомсціць.

Ці адкрые гэты тып паводзін чалавека за рулём беспілотных аўтамабіляў на базе штучнага інтэлекту скрыню Пандоры з дрэннымі паводзінамі за рулём?

заключэнне

Мы паклалі на стол два агульныя выпадкі, калі людзі, здавалася б, дрэнна абыходзіліся з беспілотнымі аўтамабілямі на аснове штучнага інтэлекту. Першы прыклад уключаў кіданне камянёў і спробу перашкодзіць выкарыстанню беспілотных аўтамабіляў на праезнай частцы дарог. Другі прыклад пацягнуў за сабой агрэсіўнае кіраванне беспілотнымі аўтамабілямі.

Гэта выклікае прынамсі гэтыя праблемы:

  • Ці распаўсюдзіцца такое жорсткае абыходжанне на аўтамабілі, кіраваныя людзьмі?
  • Калі гэта працягнецца ці пашырыцца і далей, ці перакінецца такое дрэннае абыходжанне на іншыя аспекты чалавечай дзейнасці?

Адным з адказаў з'яўляецца тое, што гэта проста часовая рэакцыя на беспілотныя аўтамабілі на аснове штучнага інтэлекту. Калі грамадскасць зможа быць перакананая, што беспілотныя аўтамабілі бяспечна рухаюцца на нашых дарогах, кіданне камянёў і такія цяжкія дзеянні ў значнай ступені знікнуць (якія, дарэчы, здавалася, так сціхлі). Калі сістэмы ваджэння штучнага інтэлекту могуць быць палепшаны, каб яны сталі менш вузкім месцам на нашых дарогах, людзі, якія знаходзяцца паблізу, могуць быць менш схільныя праяўляць агрэсію ў адносінах да беспілотных аўтамабіляў.

Падчас гэтай дыскусіі ў цэнтры ўвагі было тое, што жорсткае абыходжанне, як мяркуецца, спараджае дрэннае абыходжанне. Чым больш вы дрэнна абыходзіцеся, напрыклад, дрэнна абыходзіцеся са штучным інтэлектам, тым больш такое дрэннае абыходжанне становіцца прымальным і прадпрымаецца, напрыклад, супраць людзей і жывёл.

Верце ці не, у гэтай медалі ёсць іншы бок, хаця некаторыя разглядаюць гэта як аптымістычны шчаслівы паварот твару.

Гэта асабліва аптымістычная прапанова: Магчыма, належнае лячэнне спараджае належнае лячэнне.

Вось што я маю на ўвазе.

Некаторыя эксперты мяркуюць, што, паколькі сістэмы ваджэння штучнага інтэлекту запраграмаваны на законнае і асцярожнае кіраванне аўтамабілем, магчыма, вадзіцелі-людзі даведаюцца з гэтага і вырашаць кіраваць аўтамабілем больш разумна. Калі іншыя машыны вакол вас строга прытрымліваюцца абмежавання хуткасці, магчыма, вы таксама будзеце гэта рабіць. Калі гэтыя беспілотныя аўтамабілі спыняюцца перад знакамі "Стоп" і не спрабуюць праехаць на чырвонае святло, вадзіцелі таксама будуць натхнёныя кіраваць аўтамабілем уважліва.

Скептык палічыў бы такую ​​лінію мыслення тонкай або, магчыма, нават шчасліва расплюшчанай і недарэчна наіўнай.

Назавіце мяне аптымістам, але я прагаласую за марную ідэю аб тым, што вадзіцелі будуць матываваныя ездзіць больш разважліва. Безумоўна, той факт, што сапраўдныя беспілотныя аўтамабілі на аснове штучнага інтэлекту будуць здымаць на відэа і іншыя датчыкі дурныя манеўры іншых аўтамабіляў, кіраваных людзьмі, і могуць паведаміць паліцыі аб незаконным кіраванні простым націскам кнопкі , можа даць «натхненне», неабходнае для лепшага кіравання чалавекам.

Часам патрабуецца і пернік, і палка, каб прымусіць паводзіны чалавека гарманічна выстройвацца.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/07/30/ai-ethics-confronting-whether-irate-humans-that-violently-smash-or-mistreat-ai-is-alarmingly- амаральныя-такія-як-тыя-разгневаныя-людзі-якія-накідаюцца-на-цалкам-аўтаномныя-сістэмы-інтэграцыі/