Этыка штучнага інтэлекту абураная апошняй распрацаванай у Кітаі атэстацыяй распазнання твараў лаяльнасці да партыі AI, якая можа прадвесціць рэпрэсіўныя аўтаномныя сістэмы

Вы лаяльныя?

Тэарэтычна можна было б вывучыць вашыя адкрытыя ўчынкі і пераканацца, ці выяўляюцца ў вашых дзеяннях лаяльнасць.

Выкажам здагадку, што замест гэтага была зроблена спроба прачытаць вашыя думкі, а тым часам сканаваць ваш твар, каб вызначыць ваш каэфіцыент лаяльнасці. Гэта жудасна назойліва; вы маглі б лёгка асудзіць. Гучыць як адзін з тых вар'яцкіх навукова-фантастычных фільмаў, якія ўяўляюць будучае антыўтапічнае грамадства.

На шчасце, ты крадком шэпчаш сабе пад нос, сёння ў нас нічога такога няма.

Вой, трымайце коней.

Нядаўна ў загалоўках навін гучыць інфармацыя аб тым, што даследчая праца, апублікаваная ў Інтэрнэце ў Кітаі 1 ліпеня 2022 г., апісвала даследаванне, якое нібыта ўключала ацэнку мазгавых хваль людзей і іх мімікі з мэтай вылічэння іх лаяльнасці да Камуністычнай партыі Кітая (КПК). . Такім чынам, будучыня ўсё бліжэй і бліжэй, прынамсі з пункту гледжання дасягнення дыстапічнага грамадства, якое, як мы баяліся, калі-небудзь можа паўстаць.

Даследчая праца хутка знікла з размешчанай у Інтэрнэце спасылкі.

Імаверна, хуткай пагарды, якая хутка пракацілася па Інтэрнэце, было дастаткова, каб газету знялі. Ці, магчыма, даследчыкі проста жадаюць унесці некалькі змяненняў у фармулёўкі і іншыя бяскрыўдныя выпраўленні, імкнучыся зрабіць рэпост, як толькі ў іх будзе больш поўная магчымасць пераканацца, што ўсе кропкі над i і т перакрэслены. Нам давядзецца трымаць вочы адкрытымі, каб убачыць, ці атрымае папера другое жыццё.

Я збіраюся паглыбіцца ў тое, што мы ведаем аб даследаванні, і паспрабую злучыць кропкі таго, наколькі такая праца, звязаная з штучным інтэлектам, мае значэнне для ўсіх нас, выходзіць далёка за рамкі бачання гэтага як абмежаваныя адной канкрэтнай краінай. Маё асвятленне будзе крыху больш шырокім, чым іншыя нядаўнія справаздачы аб гэтым вартым навін, таму, калі ласка, цярпіце мяне.

Я таксама акцэнтую ўвагу на тым, што ёсць мноства жыццёва важных урокаў па этыцы штучнага інтэлекту, якія мы можам атрымаць з меркаванага дакумента. Пра тое, што я працягваю і шырока асвятляю этыку штучнага інтэлекту і этычны штучны інтэлект, гл спасылка тут і спасылка тут, Проста назваць некалькі.

Вось што дагэтуль згадвалася пра даследаванне.

Мяркуючы па ўсім, некалькі «добраахвотнікаў» былі завербаваныя для ўдзелу ў эксперыменце адносна ўспрымання КПК. Невядома, ці былі яны добраахвотнікамі па ахвоце ці больш падобнымі да добраахвотнікаў, якія падштурхоўвалі ці, магчыма, кіравалі. Для абмеркавання мы выкажам здагадку, што яны былі згодныя быць суб'ектам даследавання.

Я нагадваю гэта, каб не быць проста хітрым. Кожны раз, калі эксперымент праводзіцца з удзелам людзей, існуе мноства агульнапрынятых практык, якія тычацца прыцягнення такіх суб'ектаў і ўключэння іх у даследчую працу. Гэта часткова ўзыходзіць да папярэдніх даследаванняў, якія часта падманвалі або прымушалі людзей удзельнічаць у эксперыменце, што часам прыводзіла да негатыўных псіхалагічных наступстваў або нават фізічнай шкоды для гэтых удзельнікаў. Навуковая супольнасць рашуча спрабавала скараціць такія падступныя даследаванні і патрабуе, каб усе віды раскрыцця інфармацыі і папярэджанняў былі прадастаўлены тым, каго шукаюць для ўключэння ў даследаванні, звязаныя з людзьмі.

Каб удакладніць, не ўсе прытрымліваюцца такіх разважлівых і добрасумленных рэкамендацый.

Ідучы далей, паведамляецца, што было 43 суб'екты, і яны, як кажуць, былі членамі Камуністычнай партыі Кітая. Майце на ўвазе, што выбар суб'ектаў для эксперыменту вельмі важны для эксперыменту, а таксама павінен быць прыняты пад увагу ў дачыненні да любых высноў, якія вы можаце паспрабаваць зрабіць пасля аб выніках эксперыменту.

Выкажам здагадку, я хачу правесці эксперымент аб тым, як людзі ўспрымаюць знакаміты серыял "Зорныя войны". Калі я папярэдне выберу суб'ектаў, якія рэзка ненавідзяць "Зорныя войны" (як такія людзі могуць існаваць?), і пакажу ім відэакліпы "Зорных войнаў", вялікая верагоднасць таго, што яны, верагодна, скажуць, што ім усё яшчэ не падабаецца "Зорныя войны". Грунтуючыся на гэтым псеўданавуковым эксперыменце, магчыма, я хітра сцвярджаю, што людзі — увогуле — сапраўды ненавідзяць «Зорныя войны», якія былі «даказаны» (падміргнуць) у маіх «старанна» падрыхтаваных даследчых умовах.

Магчыма, вы не ведаеце, што я як бы сфальсіфікаваў кола рулеткі, папярэдне выбраўшы прадметы, якія, як я чакаў, прывядуць да таемна жаданых вынікаў. Вядома, калі б я наўмысна набіраў замест гэтага людзей, якія любілі "Зорныя войны" і былі іх заўзятымі фанатамі, вялікая верагоднасць таго, што яны заявілі б пра сябе ў захапленні ад прагляду гэтых кліпаў пра "Зорныя войны". Зноў жа, любыя зробленыя высновы аб тым, як людзі ў цэлым рэагуюць на "Зорныя войны", будуць змякчаны загадзя абраным наборам прадметаў, выбраных для гэтай працы.

Даследаванне, арыентаванае на КПК, здавалася, прымушала суб'ектаў сядзець перад відэадысплеем, падобным на кіёск, і чытаць розныя артыкулы аб палітыцы і дасягненнях КПК. Магчыма, гэта лічыцца «эксперыментальным лячэннем», якому падвяргаюцца суб'екты. Плануючы эксперымент, вы звычайна прыдумляеце эксперыментальны фактар ​​або аспект, які вы хочаце праверыць, ці паўплывае ён на ўдзельнікаў.

Пытанне даследавання, якое, відаць, вывучалася, заключалася ў тым, ці акажа акт прагляду гэтых матэрыялаў нейкі ўплыў на суб'ектаў з пункту гледжання павелічэння, памяншэння або нейтральнасці адносна іх наступных уражанняў ад КПК.

У класічнай нулявой гіпотэзе вы можаце арганізаваць такое даследаванне, каб заявіць, што спажытыя матэрыялы не аказваюць ніякага ўплыву на наступныя ўражанні суб'ектаў. Пасля таго, як вы зрабілі параўнанне іх пунктаў гледжання на КПК да і пасля, вы павінны статыстычна паспрабаваць убачыць, ці было статыстычна значнае выяўленне змены ў іх уражаннях.

Можа быць, што да і пасля статыстычна не адрозніваюцца, таму вы можаце зрабіць разумную папярэднюю выснову, што для гэтага канкрэтнага даследавання паказаныя матэрыялы (эксперыментальная апрацоўка), здаецца, не паўплывалі на іх уражанні. З іншага боку, калі б была статыстычна абгрунтаваная розніца, вы б паглядзелі, ці было пасля большае, чым раней, што дазволіла б асцярожна выказаць здагадку, што матэрыялы павялічылі іх уражанні (і, з іншага боку медаля, калі пасля было менш, чым да, гэта можа азначаць, што матэрыялы аслабілі або паменшылі свае ўражанні).

Ёсць шмат надакучлівых нявырашаных пытанняў, якія трэба было б вырашыць у такім даследаванні.

Напрыклад, мы звычайна хочам мець так званую кантрольную групу, якую мы можам параўнаць з групай, якая атрымлівае эксперыментальнае лячэнне. Вось чаму. Выкажам здагадку, што акт сядзення перад кіёскам для чытання матэрыялаў быў сапраўднай асновай таго, чаму змяніліся ўражанні. Можа быць, што прырода спажываных матэрыялаў практычна не мае значэння для ўздзеяння ўражання. Простае сядзенне і чытанне чаго-небудзь, напрыклад, апошніх гісторый пра катоў, якія робяць смешныя рэчы, могуць дапамагчы. Такім чынам, мы маглі б арганізаваць, каб некаторыя суб'екты былі ў нашай кантрольнай групе, якія падвяргаюцца чытанню іншым матэрыялам, акрамя палітык КПК і матэрыялаў дасягненняў.

Мы не ведаем, ці было гэта зроблена ў дадзеным выпадку (здаецца, ніхто не згадваў пра гэты аспект).

Я разумею, што цяпер вы пачынаеце хвалявацца з нагоды выбуховай часткі даследавання ў СМІ. Мы хутка пяройдзем да гэтай часткі.

Як мы можам выявіць, ці адрэагавалі суб'екты ў гэтым эксперыменце на свае ўражанні або змянілі іх у выніку чытання паказаных матэрыялаў?

Звычайным спосабам было б спытаць іх.

Магчыма, вы б загадзя запоўнілі анкету, у якой пыталіся б іх уражанні ад КПК. Затым, пасля ўздзеяння эксперыментальнага лячэння, як пры чытанні матэрыялаў, якія адлюстроўваюцца, мы можам кіраваць іншым апытальнікам. Затым можна параўнаць адказы, якія падыспытныя давалі да і пасля. Калі б мы таксама выкарыстоўвалі кантрольную групу, мы б выказалі здагадку, што адказы кантрольнай групы істотна не змяніліся б ад папярэдняга да наступнага (мы лічым, што прагляд гісторый пра гуляючых катоў не павінен быў паўплываць на іх уражанні ад CCP).

Гэты акт пытання суб'ектаў аб іх уражаннях не абавязкова такі просты, як можа здацца.

Выкажам здагадку, што суб'екты ў эксперыменце адчуваюць або ў цэлым адчуваюць, што вы хочаце, каб яны адрэагавалі на эксперыментальнае лячэнне пэўным чынам. У такім выпадку яны могуць наўмысна перабольшыць сваю рэакцыю ў наступнай частцы эксперыментальнага адміністравання. Вы, вядома, бачылі гэта. Калі я правяраю густ новай газіроўкі, якая паступае на рынак, я мог бы паводзіць сябе так, быццам я страшэнна смакаваў газіроўку, робячы гэта ў надзеі, магчыма, трапіць у рэкламу вытворцы газіроўкі і атрымаць свае заслужаныя пятнаццаць хвілін славы .

Сутнасць заключаецца ў тым, што проста пытацца людзей аб іх меркаванні не з'яўляецца надзейным спосабам ацаніць змены. Гэта адзін падыход. Іншыя падыходы могуць і таксама часта прадпрымаюцца.

Як гэта канкрэтнае даследаванне вырашыла ацаніць рэакцыю суб'ектаў?

Мяркуючы па ўсім, выкарыстоўваліся як мінімум два метады. Адзін з метадаў заключаўся ў сканаванні твару і выкарыстанні праграмнага забеспячэння для распазнавання твараў на аснове штучнага інтэлекту для ацэнкі рэакцыі суб'ектаў. Паведамляецца, што іншым метадам была пэўная форма сканавання мазгавых хваль. Пакуль не паведамляецца ні пра тое, які тып прылад для сканавання мазгавых хваль выкарыстоўваўся, ні пра тое, якое праграмнае забеспячэнне для аналізу мазгавых хваль на аснове AI выкарыстоўвалася.

Розныя справаздачы паказваюць, што даследаванне гаварыла пра прыроду эксперыменту наступнае: «З аднаго боку, гэта можа меркаваць, як члены партыі прынялі думку і палітычную адукацыю». І ў даследаванні нібыта таксама згадваецца пра гэта: «З іншага боку, гэта дасць рэальныя дадзеныя для мыслення і палітычнай адукацыі, каб іх можна было палепшыць і ўзбагаціць». Даследаванне было праведзена пад эгідай Кітайскага комплекснага нацыянальнага навуковага цэнтра Хэфэй.

Паведамленні ў СМІ паказваюць, што даследаванне спасылалася на сцвярджэнне, што сканаванне распазнання твараў і сканаванне мазгавых хваль змагло дапамагчы выявіць, што пасля ўражанні ад КПК узмацніліся.

Я хацеў бы адзначыць, што, не маючы магчымасці непасрэдна праглядзець выкарыстаныя сістэмы і ўважліва вывучыць даследчую працу, мы не ведаем падрабязнасцяў аб тым, як гэтыя сістэмы на аснове штучнага інтэлекту выкарыстоўваліся.

Магчыма, суб'екты рэагавалі на эксперыментальную абстаноўку, а не на эксперыментальнае лячэнне. Любы, хто ўдзельнічае ў даследаванні, можа быць заклапочаны, для пачатку. Гэта можа збіць з панталыку любыя намаганні па сканаванні мазгавых хваль або аналізу рысаў твару. Таксама існуе верагоднасць таго, што яны адчувалі матывацыю дагадзіць даследчыкам, вырашыўшы выдумаць пазітыўныя думкі пасля прагляду матэрыялаў, што тэарэтычна магло быць адлюстравана ў сканаванні мазгавых хваль і сканаванні твару (магчыма, але ведайце, што ёсць выдатны весці гарачую палеміку наконт абгрунтаванасці такіх сцвярджэнняў, як я зараз растлумачу), у надзеі сказіць вынікі і паказаць, што яны мелі станоўчы ўплыў.

Рэакцыя Twitter па сутнасці асуджала, што само паняцце выкарыстання сканавання мазгавых хваль і распазнання твараў з дапамогай штучнага інтэлекту само па сабе з'яўляецца жахлівым і абуральным актам. Толькі чалавечыя монстры будуць выкарыстоўваць такія прылады, паведамляюць некаторыя з гэтых твітаў.

Я павінен папрасіць вас сесці і падрыхтавацца да нечага, што можа быць грубым і шакавальным сюрпрызам.

Ёсць шмат даследчыкаў ва ўсім свеце, якія выкарыстоўваюць гэтыя ж віды тэхналогій у сваіх даследаваннях. Безумоўна, гэта не першы раз, калі магчымасць сканавання мазгавых хваль была выкарыстана на людзях у даследаванні. Вядома, гэта быў не першы раз, калі распазнаванне твараў выкарыстоўвалася на людзях у эксперыментальных мэтах. Нават павярхоўны пошук у Інтэрнэце пакажа вам шмат-шмат эксперыментальных даследаванняў у розных краінах і лабараторыях, якія выкарыстоўвалі гэтыя тыпы прылад.

З улікам сказанага, выкарыстанне іх для ацэнкі лаяльнасці да КПК - гэта не тое, на чым вы б асабліва засяродзіліся. Калі такі штучны інтэлект выкарыстоўваецца для дзяржаўнага кантролю, чырвоная лінія, як кажуць, пройдзена.

Гэта, відавочна, жахлівая частка ўсяго камплекта.

Шмат хто выказвае занепакоенасць тым, што калі ўрады захочуць выкарыстоўваць тэхналогію сканіравання мазгавых хваль і распазнаванне твараў для праверкі лаяльнасці да існуючых рэжымаў, мы апынемся ў дыстапічным свеце крыўды. Калі вы ідзяце па грамадскай вуліцы, можа быць, што прылада, усталяваная на ліхтарным слупе, будзе таемна вызначаць ваш каэфіцыент лаяльнасці.

Можна выказаць здагадку, што калі ваш твар не сведчыць пра тое, што вы дастаткова лаяльныя, або калі сканіраванне мазгавых хваль паказвае тое ж самае, дзяржаўныя бандыты могуць раптам кінуцца і схапіць вас. Нервуючы. Бездань. Нельга дапускаць.

У гэтым і ёсць сутнасць таго, чаму гэтая навіна выклікала бурны загаловак і абурэнне.

Уявіце сабе гэта. Магчыма, мы збіраемся стварыць, а потым увесці ў эксплуатацыю камп'ютэрныя сістэмы, якія выкарыстоўваюць найноўшыя тэхналогіі штучнага інтэлекту, каб вырашаць, лаяльныя мы ці не. Калі б вы паспрабавалі наняць людзей, каб яны сядзелі і рабілі тое ж самае, вам спатрэбіцца шмат людзей, і ў вас узнікне праблема з матэрыяльна-тэхнічным забеспячэннем, калі вы паспрабуеце размясціць іх так, каб усе бачылі. У выпадку сістэмы на аснове штучнага інтэлекту ўсё, што вам трэба зрабіць, гэта ўсталяваць электронныя прылады на ліхтарных слупах, баках будынкаў і гэтак далей. Сканіраванне на лаяльнасць можа адбывацца 24×7, у любы час, ва ўсіх абсталяваных такім чынам месцах. Затым гэта можа быць пададзена ў масіўную базу дадзеных.

Мы становімся людзьмі, якія з'яўляюцца простымі вінцікамі ў экасістэме каласа, усёвідучага і ўсё назіраючага. Бачнае вока не проста назірае за тым, што мы робім. Гэта таксама інтэрпрэтацыя таго, што нашы асобы кажуць пра нашу лаяльнасць ураду. Нашы розумы таксама павінны быць правераны на падобны жудасны выпадак.

Yikes!

З гэтага таксама ўзнікае другасная заклапочанасць, хаця, магчыма, не такая цяжкая ў параўнанні з наступствамі Вялікага Брата, як ужо было апісана.

Задумайцеся над гэтымі двума актуальнымі пытаннямі:

  • Ці можам мы надзейна сцвярджаць, што сканіраванне мазгавых хваль можа пацвердзіць вашу лаяльнасць?
  • Ці можам мы надзейна сцвярджаць, што сканіраванне твару можа пацвердзіць вашу лаяльнасць?

Трымайся, ты можаш крычаць на ўсю моц.

Я разумею і прызнаю, што аспекты надзейнасці самі па сабе могуць не клапаціцца пра вас. Ці можна гэта зрабіць надзейна, менш важна, чым той факт, што гэта ўвогуле робіцца. Ніхто не павінен знаходзіцца пад такой пільнай увагай. Забудзьцеся пра тое, ці падыходзіць тэхналогія для гэтай задачы. Мы не павінны брацца за задачу на самым пачатку.

У любым выпадку, адказ зараз - рашучае адмоўны, а менавіта тое, што існуючыя сістэмы штучнага інтэлекту, якія выконваюць нейкае падабенства «сканавання мазгавых хваль» і распазнавання твараў, недастаткова здольныя зрабіць такі скачок.

Вы, магчыма, у апошні час бачылі, што некаторыя вытворцы сістэм распазнавання твараў вярнуліся назад у тым, як іх сістэмы распазнавання твараў выкарыстоўваюцца. У наступнай калонцы я буду абмяркоўваць нядаўнія намаганні, напрыклад, Microsoft, каб паспрабаваць спыніць хвалю тых, хто выкарыстоўвае інструменты распазнавання твараў, прадастаўленыя Microsoft, для мэт, якія далёка выходзяць за рамкі таго, для чаго гэтая тэхналогія можа або павінна выкарыстоўвацца. . Магчыма, вам будзе цікавы мой ранейшы погляд на праблемы з этыкай штучнага інтэлекту, якія ўжо атрымалі шырокую рэкламу адносна распазнання твараў, гл. спасылка тут. Я таксама абмяркоўваў арэну сканавання мазгавых хваль, глядзіце маё абмеркаванне на спасылка тут.

Карацей кажучы, пакуль няма надзейных або разумных сродкаў, якія дазваляюць выказаць здагадку, што сканіраванне мазгавых хваль або сканаванне распазнавання твару можа нібыта адлюстроўваць чыюсьці лаяльнасць. Нават, як мяркуецца, асноўныя аспекты, такія як тое, ці можна надзейна суаднесці гэтыя сканаванні з тым, шчаслівы ці сумны хтосьці, па-ранейшаму выклікаюць гарачыя дыскусіі. Спроба павысіць стаўку да чагосьці такога аморфнага і зменлівага, як лаяльнасць, - занадта далёкі мост.

Я магу дадаць, што некаторыя горача вераць, што мы ў рэшце рэшт да гэтага дойдзем. Таму я акуратна імкнуўся адзначыць, што мы яшчэ не там, а не сцвярджаць, што мы туды ніколі не дойдзем. Ніколі - вялікае слова. Вы павінны быць цалкам упэўненыя, калі вы збіраецеся кідацца вакол, што гэта будзе ніколі быць магчымым (маючы на ​​ўвазе, што «ніколі» ахоплівае дзесяцігоддзі праз, стагоддзі з гэтага часу і тысячы ці мільёны гадоў з гэтага часу).

Некаторыя адрэагавалі на навіны аб гэтым даследаванні кітайскай лабараторыі як на паказчык таго, наколькі небяспечна свет схіляецца да недарэчнага і небяспечнага выкарыстання штучнага інтэлекту. Я падзялюся з вамі кароткім уяўленнем аб тым, што такое этыка штучнага інтэлекту. Гэта дапаможа вам больш яскрава зразумець, чаму дадзенае даследаванне сапраўды парушае многія, калі не амаль усе, агульнапрынятыя запаветы этычнага штучнага інтэлекту.

Верыце ці не, але некаторыя выказалі здагадку, што, магчыма, мы робім з кратавіны гару ў дачыненні да гэтага канкрэтнага даследавання.

Мы?

Контраргументам з'яўляецца тое, што кротавая купка даволі хутка можа стаць гарой. У прыказцы пра снежны ком, які становіцца ўсё больш і больш, калі ён скочваецца ўніз па снежнай гары, мы павінны спыніць снежны камяк. Калі мы церпім такія даследаванні, мы дазваляем снежнаму камяку пачаць свой шлях. Выказваючыся і заклікаючы такія даследаванні, магчыма, мы можам прадухіліць снежны ком.

Адно можна сказаць напэўна: мы знаходзімся на мяжы адкрыцця скрыні Пандоры, калі справа даходзіць да аспектаў штучнага інтэлекту, і застаецца пытанне аб тым, ці зможам мы прадухіліць адкрыццё скрыні або, па меншай меры, знайсці нейкія сродкі, каб разважліва абыходзіцца з тым, што выйдзе як толькі скрынка вызваліла сваё д'ябальскае змесціва.

Калі нішто іншае, спадзяюся, такія буры ў СМІ выклічуць шырокую дыскусію аб тым, як мы збіраемся прадухіляць злачынствы, звязаныя з ІІ, і прадухіляць шматлікія экзістэнцыяльныя рызыкі, выкліканыя ІІ. Нам трэба на прыступку павысіць дасведчанасць грамадства аб этыцы ІІ і этычных меркаваннях ІІ.

Перш чым прыступаць да больш падрабязнай інфармацыі аб дзікіх і шарсцістых меркаваннях, якія ляжаць у аснове такіх сістэм штучнага інтэлекту, давайце ўсталюем некаторыя дадатковыя асновы па вельмі важных тэмах. Нам трэба ненадоўга акунуцца ў этыку штучнага інтэлекту і асабліва ў з'яўленне машыннага навучання (ML) і глыбокага навучання (DL).

Магчыма, вы цьмяна ведаеце, што адзін з самых гучных галасоў у нашы дні ў вобласці ІІ і нават па-за межамі ІІ складаецца ў тым, каб дамагацца большага падабенства этычнага ІІ. Давайце паглядзім, што азначае спасылка на этыку ІІ і этычны ІІ. Акрамя таго, мы вывучым, што я маю на ўвазе, калі кажу пра машыннае навучанне і глыбокае навучанне.

Адзін канкрэтны сегмент або частка этыкі ІІ, які прыцягвае вялікую ўвагу СМІ, складаецца з ІІ, які дэманструе непрыхільныя прадузятасці і няроўнасць. Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Праз хвіліну я падзялюся з вамі некаторымі агульнымі прынцыпамі, якія ляжаць у аснове этыкі ІІ. Тут і там шмат такіх спісаў. Можна сказаць, што пакуль не існуе адзінага спісу універсальнай прывабнасці і супадзення. Вось такая прыкрая навіна. Добрая навіна заключаецца ў тым, што, прынамсі, ёсць лёгка даступныя спісы этыкі AI, і яны, як правіла, вельмі падобныя. Увогуле, гэта сведчыць аб тым, што з дапамогай свайго роду аргументаванага збліжэння мы знаходзім шлях да агульнай агульнасці таго, з чаго складаецца этыка ІІ.

Спачатку давайце коратка азнаёмімся з некаторымі агульнымі запаветамі этычнага інтэлекту, каб праілюстраваць, што павінна быць важнай увагай для тых, хто стварае, вядзе або выкарыстоўвае ІІ.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента AI будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў AI, уключаючы празрыстыя і паддаюцца праверку метадалогіі, крыніцы даных, а таксама працэдуру праектавання і дакументацыю.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важная асаблівасць, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падлягаюць захаванню паняццяў этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Давайце таксама пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сённяшняга ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы ІІ, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Разумны ІІ нібыта быў бы чалавечага якасці. Вам трэба будзе ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што мы можам мець звышінтэлектуальны ІІ, можна ўявіць, што такі ІІ можа апынуцца разумнейшым за людзей (для майго даследавання звышінтэлектуальнага ІІ як магчымасці гл. асвятленне тут).

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Давайце вернемся да нашай увагі да сістэм штучнага інтэлекту, якія выкарыстоўваюцца ў недарэчных ці, магчыма, адкрытых супрацьпраўных мэтах, і да таго, як гэта суадносіцца з нядаўна апублікаваным даследаваннем аб лаяльнасці КПК.

На розум прыходзяць два асноўныя меркаванні:

1) Гэты асобнік штучнага інтэлекту з'яўляецца часткай больш шырокай бесперапыннай схемы выкарыстання штучнага інтэлекту, якая бянтэжыць, і, такім чынам, выклікае злавеснасць і адкрывае вочы на ​​тое, што адбываецца

2) Котку можна было б выпусціць з мяшка, каб, калі падобны штучны інтэлект быў прыняты ў адной краіне, яго можна было лёгка распаўсюдзіць у іншых краінах

Пачніце з першага пункта аб тым, што гэты асобнік ІІ з'яўляецца часткай пастаяннай схемы.

Адна асабліва важная падстава для таго, каб быць асабліва занепакоеным гэтым канкрэтным даследаваннем, заключаецца ў тым, што яно з'яўляецца часткай больш шырокай схемы таго, як ІІ імкнецца выкарыстоўваць некаторыя. Калі б гэта было адзінае падобнае даследаванне, якое калі-небудзь праводзілася, мы маглі б быць злёгку ўзрушаны. Тым не менш, напэўна, гэта не прагучала б з такім запалам, які мы зараз бачым.

Гэта, мабыць, кропелька-кропельніца набліжэння да чагосьці, што збіраецца выйсці з-пад кантролю.

Як паведамлялася ў навінах, Кітай добра вядомы тым, што настойваў на надзвычайнай лаяльнасці да КПК. Больш за тое, былі створаны або ствараюцца розныя сродкі для ўкаранення людзей у дзяржаўную дактрыну. Былі цытаваныя прыклады папярэдніх даследаванняў, накіраваных на распрацоўку алгарытмаў штучнага інтэлекту, якія маглі б ацаніць стан мыслення членаў партыі (гл. падтрымцы Кітая Час навучання у 2019 г., дзе згадваліся гэтыя намаганні).

Магчыма, вы памятаеце, што ў 2018 годзе віцэ-прэзідэнт Майк Пенс выступіў з прамовай у Інстытуце Хадсана і падкрэсліў, што «кіроўцы Кітая імкнуцца ўкараніць оруэлаўскую сістэму, заснаваную на кантролі практычна ўсіх аспектаў чалавечага жыцця» (гэта была спасылка на рэалізацыю КПК сацыяльная сістэма крэдытнага бала, тэма, якая выклікае спрэчкі). Вы можаце смела сцвярджаць, што гэтае нядаўняе даследаванне КПК з'яўляецца яшчэ адным крокам у гэтым кірунку.

Мы не ведаем, калі і калі апошняя кропля зломіць спіну вярблюда, так што гэтыя аднаразовыя даследаванні ператворацца ў шырока распаўсюджаныя сістэмы маніторынгу на аснове штучнага інтэлекту.

Другі момант, які заслугоўвае ўвагі, заключаецца ў тым, што мы не можам меркаваць, што гэты тып ІІ будзе абмежаваны толькі Кітаем. Па сутнасці, хаця выкарыстанне такога тыпу штучнага інтэлекту ў Кітаі, якое можа стаць шырока распаўсюджаным, само па сабе выклікае трывогу, іншыя краіны могуць зрабіць тое ж самае.

Пасля таго, як штучны інтэлект для гэтага будзе гатовы да прайм-тайму, іншым краінам, хутчэй за ўсё, не спатрэбіцца шмат, каб вырашыць, што яны таксама хочуць гэта ўкараніць. Кот вылезе з мяшка. Мяркуецца, што некаторыя краіны будуць выкарыстоўваць гэты штучны інтэлекту ў наўпроставых мэтах і не будуць спрабаваць падстаўляць гэта. Іншыя краіны могуць, здавалася б, імкнуцца выкарыстоўваць гэты тып штучнага інтэлекту для, як уяўляецца, карысных мэтаў, з якіх у канчатковым выніку ёсць адваротны бок, якога амаль не пазбегнуць.

На самай справе меркаванне, што гэты тып штучнага інтэлекту, магчыма, будзе прыняты толькі тады, калі ён будзе разглядацца як гатовы да прайм-тайму, крыху памылковы. Магчыма, гэта не мае ніякага значэння, ці можа ІІ надзейна працаваць такім чынам. AI можа быць выкарыстаны ў якасці вокладкі, глядзіце маё тлумачэнне на спасылка тут. Незалежна ад таго, што штучны інтэлект на самай справе здольны дасягнуць, існуе меркаванне, што штучны інтэлект можа быць зручнай падставай для стварэння маніторынгу насельніцтва і схем вымярэння і забеспячэння абсалютнай лаяльнасці ўладам.

На гэтым этапе гэтай важкай дыскусіі, я б паспрачаўся, што вы жадаеце некаторых ілюстратыўных прыкладаў, якія маглі б прадэманстраваць гэтую тэму. Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці паказвае з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту нешта наконт злоўжыванняў штучным інтэлектам, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Самастойныя аўтамабілі і няправільнае выкарыстанне штучнага інтэлекту

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць папярэджанняў, якія ляжаць у аснове таго, што я збіраюся расказаць.

Давайце накідаем сцэнарый беспілотнага аўтамабіля, які можа выкарыстоўваць штучны інтэлект у схематычным або неправамерным выглядзе.

Я збіраюся падзяліцца з вамі некаторымі наступствамі беспілотнага аўтамабіля на аснове штучнага інтэлекту, якія могуць прымусіць вас здрыгануцца і занепакоіцца. Гэта тыя аспекты, якія цяпер амаль ніхто не абмяркоўвае. Я неаднаразова падымаў гэтыя пытанні, але адкрыта прызнаю, што пакуль у нас не будзе шырокага ўкаранення беспілотных аўтамабіляў, мы не атрымаем асаблівай цягі адносна таго, што грамадства будзе занепакоенае або засмучанае тым, што сёння здаецца проста абстрактнымі паняццямі .

Ці гатовыя вы?

Пачнем з закладкі падмурка.

Беспілотныя аўтамабілі на аснове штучнага інтэлекту будуць абсталяваны відэакамерамі, што разумна. Гэта дазваляе беспілотнаму аўтамабілю атрымліваць відэаздымкі сцэны за рулём. У сваю чаргу сістэма ваджэння штучнага інтэлекту, якая працуе на борце камп'ютараў у самакіравальнай машыне, прызначана для вылічальнай праверкі сабранага відэа і высвятлення, дзе знаходзіцца дарога, дзе знаходзяцца бліжэйшыя аўтамабілі, дзе знаходзяцца пешаходы і г.д. Я разумею, што чытаю 101 аснову беспілотных аўтамабіляў.

Звонку аўтаномнага транспартнага сродку ўстаноўлены відэакамеры, накіраваныя вонкі. Акрамя таго, у цэлым можна чакаць, што на або ўнутры транспартнага сродку будуць відэакамеры, накіраваныя ўнутр салона беспілотнага аўтамабіля. чаму так Лёгка, таму што будзе шмат важных варыянтаў выкарыстання відэа для фіксацыі таго, што адбываецца ўнутры аўтаномнага аўтамабіля.

Калі вы катаецеся на беспілотным аўтамабілі, вам больш не трэба быць кіроўцам. Што вы тады будзеце рабіць у беспілотным аўтамабілі?

Адна рэч, якую вы можаце зрабіць, гэта ўзаемадзейнічаць з іншымі дома або ў офісе. Вось вы ідзяце на працу, вам спатрэбіцца гадзіна язды на самакіравальнай машыне, і вы ўжо можаце пачаць свой працоўны дзень, правёўшы інтэрактыўны онлайн-сеанс у рэжыме рэальнага часу, падобны да Zoom. Яны бачаць вас дзякуючы камерам, накіраваным унутр беспілотнага аўтамабіля. Вы можаце ўбачыць іх, магчыма, на святлодыёдным экране ўнутры беспілотнага аўтамабіля. У канцы дня, вяртаючыся дадому, вы можаце правесці аналагічную інтэрактыўную відэадыскусію са сваімі дзецьмі, калі яны пачынаюць рабіць урокі на вечар.

Іншае прымяненне - гэта заняткі. Цяпер, калі вам не трэба марнаваць час за рулём, вы можаце ператварыць гэты час у беспілотным аўтамабілі ў павышэнне сваіх навыкаў або атрыманне сертыфіката або ступені. З дапамогай камер, накіраваных унутр, ваш інструктар можа бачыць вас і абмяркоўваць, як ідзе ваша навучанне.

Яшчэ адна мэта - гэта спроба пераканацца, што гоншчыкі ў беспілотных аўтамабілях не буяняць. У машыне, якой кіруе чалавек, кіроўца - гэта дарослая асоба, якая звычайна перашкаджае гоншчыкам рабіць дзіўныя рэчы, напрыклад, пазначаць інтэр'ер графіці. Што будзе з беспілотнымі аўтамабілямі на аснове штучнага інтэлекту? Некаторыя непакояцца, што гоншчыкі захочуць разарваць салоны аўтамабіляў. Каб паспрабаваць прадухіліць гэта, фірма, якая займаецца сумеснымі паездкамі, якая разгортвае беспілотныя аўтамабілі, хутчэй за ўсё, будзе выкарыстоўваць відэакамеры, накіраваныя ўнутр, каб сачыць за тым, што людзі робяць у аўтаномным аўтамабілі.

Мяркую, вы перакананыя, што ў нас будуць відэакамеры, накіраваныя ў салон беспілотных аўтамабіляў, у дадатак да камер, накіраваных вонкі, каб распазнаць сцэну кіравання.

Цяпер вы гатовыя да таго, што я назваў роўным вокам, глядзіце мой аналіз на спасылка тут.

Спачатку разгледзьце відэакамеры, накіраваныя вонкі.

Куды б ні ехаў беспілотны аўтамабіль, ён патэнцыйна зможа запісваць на відэа ўсё, што бачаць камеры. Аўтамабіль, які кіруецца аўтамабілем, падвозіць каго-небудзь з дому і дастаўляе ў прадуктовы магазін, будзе перасякаць наваколле, і відэа будзе запісваць не толькі праезную частку, але і ўсё астатняе, што адбываецца ў поле зроку. Бацька з сынам гуляюць у сваім двары. Сям'я сядзіць на сваім ганку. Усё далей і далей.

Зараз у нас так мала беспілотных аўтамабіляў на дарогах агульнага карыстання, што гэтая магчымасць здымаць відэа штодзённай дзейнасці адносна малая і неістотная.

Уявіце сабе, што ў канчатковым рахунку мы дасягнем бяспечных і шырока распаўсюджаных беспілотных аўтамабіляў. Іх тысячы. Можа, мільёны. Сёння ў ЗША каля 250 мільёнаў аўтамабіляў, якімі кіруюць людзі. У рэшце рэшт яны будуць у значнай ступені заменены беспілотнымі аўтамабілямі або проста перастануць выкарыстоўвацца, і на нашых дарогах у асноўным будуць беспілотныя аўтамабілі. Гэтыя беспілотныя аўтамабілі кіруюцца штучным інтэлектам і, такім чынам, могуць працаваць у роўмінгу 24×7. Без перапынкаў на адпачынак, без перапынкаў у туалет.

Відэададзеныя могуць быць загружаныя з гэтых беспілотных аўтамабіляў праз электронныя сеткавыя злучэнні OTA (Over-The-Air). Самастойныя аўтамабілі будуць выкарыстоўваць OTA для загрузкі апошніх абнаўленняў праграмнага забеспячэння штучнага інтэлекту ў аўтамабіль. Акрамя таго, OTA можна выкарыстоўваць для загрузкі даных з беспілотнага аўтамабіля ў воблачную базу дадзеных.

Увогуле, было б магчыма злучыць гэтыя загружаныя даныя. З дапамогай швоў вы патэнцыйна можаце сабраць разам штодзённыя прыходы і ад'езды любога чалавека, які выйшаў на вуліцу ў любы дзень у любой мясцовасці, дзе актыўна выкарыстоўваюцца беспілотныя аўтамабілі.

Вось пра гэтае вока, пра якое я папярэджваў.

Цяпер мы можам спалучыць даследаванне КПК з такімі магчымасцямі. Выкажам здагадку, што ўрад мае доступ да ўсіх гэтых сабраных відэададзеных. Затым яны маглі б выкарыстаць алгарытм распазнання твараў на аснове штучнага інтэлекту, каб вызначыць, куды вы пайшлі, у які час сутак падчас вашых штодзённых вандровак па жыцці. Акрамя таго, мяркуецца, што яны могуць выкарыстоўваць свой аналізатар лаяльнасці на аснове штучнага інтэлекту, каб убачыць, ці выглядаеце вы на твары верным ці не.

Толькі ўявіце сабе, што ў аўторак днём вы ішлі па сэндвіч у мясцовую закусачную. Па праезнай частцы праязджалі беспілотнікі. Усе шматлікія відэазапісы зафіксавалі вас, калі вы рабілі сваю пяціхвілінную прагулку, каб перакусіць. Дадзеныя былі загружаныя ў цэнтралізаваную базу дадзеных. Урад запусціў праграму распазнавання твараў штучным інтэлектам на аснове гэтых дадзеных.

Аказваецца, штучны інтэлект «вызначыў», што ваш твар быў нелаяльным.

Магчыма, гэты нелаяльны погляд здарыўся толькі на імгненне. Вы чакалі на рагу вуліцы, пакуль пераключыцца святло, каб вы маглі перайсці вуліцу да закусачнай. У гэты момант у вас адчулася лёгкае адчуванне агіды, што вам прыйшлося занадта доўга чакаць сімвала Шпацыр. Магчыма, гэта сведчыць пра вашу нелаяльнасць да ўлады?

Так, паводле вылічальных вылічэнняў штучнага інтэлекту, вы былі вельмі нелаяльныя ў той момант часу. Калі вы вернецеся дадому ў тую ноч, урад арганізаваў ваш арышт.

Але пачакайце, ёсць яшчэ.

Памятайце, што відэакамеры таксама накіраваны ўнутр.

У той самы аўторак, калі вы ехалі на працу ў беспілотным аўтамабілі, відэакамеры фіксавалі кожнае ваша імгненне. Гэта было загружана ў цэнтралізаваную базу дадзеных. Праграмнае забеспячэнне штучнага інтэлекту, якое аналізуе рысы твару на нелаяльнасць, правяло вылічальную праверку рысаў твару падчас дарогі ў офіс.

У нейкі момант вы выпадкова зірнулі за межы аўтаномнага транспартнага сродку і заўважылі будаўніка, які часткова блакаваў праезную частку і прымусіў сістэму кіравання штучным інтэлектам запаволіць беспілотны аўтамабіль. На долю секунды на вашым твары з'явілася насмешка над гэтым будаўніком, які запавольвае рух.

Аналіз малюнка твару AI вытлумачыў гэта як прыкмету нелаяльнасці да ўрада.

Два ўдары супраць вас у адзін дзень.

Вы жывяце на тонкім лёдзе.

Безумоўна, у гэтым кантэксце практычна не мае значэння, «правільны» ці «няправільны» штучны інтэлект адносна магчымасці вызначыць вашу лаяльнасць. Сутнасць у тым, што для гэтай мэты быў усталяваны штучны інтэлект. Людзі, якія разгортваюць штучны інтэлект, могуць клапаціцца, а могуць і не клапаціцца аб тым, ці падыходзіць штучны інтэлект для выканання гэтага тыпу задач. ШІ дазваляе дзяржаўны кантроль, незалежна ад самой тэхналагічнай прыдатнасці.

Гэта ахоплівае сканаванне твару.

Калі ў рэшце рэшт у нас з'явяцца якія-небудзь партатыўныя рэнтабельныя прылады для (меркаванага) сканіравання мазгавых хваль, гэта, безумоўна, таксама можна ўключыць у беспілотныя аўтамабілі. Цяпер відэакамеры - гэта надзейная рэч. Магчымасць наяўнасці прылад для сканавання мазгавых хваль такога калібру зараз не разглядаецца, але відавочна, што гэта тое, што прадугледжваецца ў будучыні.

Для майго даследавання таго, як урад можа паспрабаваць завалодаць насельніцтвам, захапіўшы кантроль над беспілотнымі аўтамабілямі, гл. спасылка тут. Падобная верагоднасць існуе, што зламыснік можа паспрабаваць зрабіць тое ж самае, гл спасылка тут. Гэта не тактыка напалохання адносна асвятлення звязаных з гэтым тэм, а замест гэтага мы папярэджваем пра важнасць кібербяспекі і іншых мер засцярогі, якія мы, грамадства, павінны імкнуцца прыняць у сувязі з паўсюдным распаўсюджваннем беспілотных аўтамабіляў і іншыя аўтаномныя транспартныя сродкі.

заключэнне

Я хацеў бы хутка спыніцца на адным дадатковым аспекце AI, які выкарыстоўваецца для вызначэння лаяльнасці, што, на мой погляд, з'яўляецца асобнай тэмай, але якую абмяркоўваюць некаторыя твіты і сацыяльныя сеткі.

Раней я згадваў, што ў нас няма разумнага штучнага інтэлекту, і мы не ведаем, калі і калі будзем. Давайце падумаем, што ў нас будзе разумны штучны інтэлект. У такім выпадку разгледзім наступны сцэнар.

З дапамогай неразумнага штучнага інтэлекту мы выбіраем шырокае выкарыстанне штучнага інтэлекту, які з дапамогай вылічэнняў вызначае, ці лаяльныя людзі свайму ўраду, выкарыстоўваючы сканіраванне твараў, мазгавых хваль і гэтак далей. Гэта цалкам кіруецца і выкарыстоўваецца людзьмі ва ўладзе. Гэта трывожны сцэнар, які я апісваў некалькі хвілін таму.

Час падымаць стаўкі.

ШІ становіцца разумным. Зараз мы патэнцыйна перадалі гэтаму разумнаму штучнаму інтэлекту шырока распаўсюджаную магчымасць ідэнтыфікаваць лаяльнасць і нелаяльнасць у людзях. Злачынны штучны інтэлект, які разглядае магчымасць знішчэння людзей, можа выкарыстаць гэтую магчымасць, каб вырашыць, што людзі сапраўды будуць нелаяльнымі і павінны быць цалкам знішчаны. Ці, магчыма, толькі тыя людзі, якія дэманструюць прыкметы нелаяльнасці праз іх твар або іх думкі, павінны быць асабліва злом.

Іншы пункт гледжання заключаецца ў тым, што штучны інтэлект хоча заняволіць людзей, глядзіце маё абмеркаванне на спасылка тут.

Здавалася б, мы зрабілі штучнаму інтэлекту выдатны падарунак для выканання гэтага квэста. Існуючая інфраструктура, якую мы ствараем, дазваляе штучнаму інтэлекту ўважліва сачыць за намі, людзьмі. Тыя, хто, здаецца, выказваюць нелаяльныя прыкметы на твары або думаюць пра валадара(-аў) ІІ, адчуюць гнеў ІІ.

Я разумею, што я сказаў, што гэта падвышэнне стаўкі. Я не ўпэўнены, што гэта так. Мне здаецца, што незалежна ад таго, ці ёсць уладары штучнага інтэлекту, якія непасрэдна вырашаюць наш лёс супраць уладароў людзей, якія, магчыма, выкарыстоўваюць сістэму штучнага інтэлекту для вызначэння лаяльнасці, ну, ні адна з прапановаў не здаецца асабліва пажаданай.

Апошні каментар пакуль.

Рымскі навуковец і філосаф Марк Тулій Цыцэрон сцвярджаў, што няма нічога больш высакароднага, нічога больш шаноўнага, чым вернасць. Магчыма, мы дазваляем штучнаму інтэлекту апярэдзіць нас і стаць інструментам для прыцягнення і забеспячэння «лаяльнасці» жудаснымі сродкамі.

Вартая ўважлівая прычына паставіць этыку штучнага інтэлекту на першае месца ў нашым спісе спраў.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- атэстацыя-якая-магла-прадвесціць-рэпрэсіўныя-аўтаномныя-сістэмы/