Этыка AI і псіхалагічная прышчэпка, выкліканая AI, каб дапамагчы людзям з дэзінфармацыяй

Што мы будзем рабіць з масавым перанасычэннем дэзінфармацыяй і дэзінфармацыяй?

З кожным днём усё становіцца ўсё горш і горш.

Магчыма, штучны інтэлект (AI) можа прыйсці нам на дапамогу. Так, гэта дакладна, мы можам выкарыстаць карысныя магчымасці штучнага інтэлекту, каб справіцца з нашым бязлітасным цунамі дэзінфармацыі і дэзінфармацыі. Мы маглі б паспрабаваць зрабіць гэта. Кожны шлях патэнцыйнага рашэння, здавалася б, варты пераследу.

Акрамя таго, я хацеў бы неадкладна прызнаць і адзначыць, што ІІ, несумненна, збіраецца Таксама быць таксама часткай праблемы. Няма сумневу, што людзі могуць лёгка выкарыстоўваць ІІ для стварэння дэзінфармацыі і дэзінфармацыі. Больш за тое, штучны інтэлект можна падступна выкарыстоўваць, каб дэзінфармацыя і дэзінфармацыя выглядалі неверагодна праўдзівымі і падманвалі людзей, каб яны паверылі, што прадстаўленая інфармацыя з'яўляецца надзвычай дакладнай і фактычнай. Адназначна сумная асабовая частка таго, што AI прыносіць на стол. Мы вернемся да гэтай галаваломкі мінусаў у канцы гэтага абмеркавання.

А пакуль давайце надзенем нашы смайлікі і даведаемся, наколькі ІІ карысны для таго, каб паставіць на калені дэзінфармацыю і дэзінфармацыю. Адной з важных прычын будзе тое, што ўсё гэта звязана з жыццёва важнымі элементамі этыкі штучнага інтэлекту. Мая калонка асвятляе этыку штучнага інтэлекту і этычны штучны інтэлект пастаянна і шырока, у тым ліку спасылка тут і спасылка тут, Проста назваць некалькі.

Разгледзім гэтыя краевугольныя спосабы таго, як ІІ можа быць асабліва карысным саюзнікам у вайне з дэзінфармацыяй і дэзінфармацыяй:

  • Спыніцеся на пачатку: AI можа быць выкарыстаны для выяўлення і спробы ліквідацыі дэзінфармацыі і дэзінфармацыі, перш чым яна выйдзе на волю
  • Фільтр перад праглядам: Штучны інтэлект можна выкарыстоўваць для фільтрацыі дэзінфармацыі і дэзінфармацыі, каб вам не трэба было турбавацца аб тым, што вы яе ўбачыце
  • Падрыхтуйце сябе да імунітэту: ШІ можа быць выкарыстаны для павышэння вашай гатоўнасці і здольнасці змагацца з дэзінфармацыяй і дэзінфармацыяй (фармальна вядома як своеасаблівая псіхалагічная прышчэпка)
  • іншае

Першы пункт у спісе цягне за сабой спробу спыніць дэзінфармацыю і дэзінфармацыю як мага раней, перш чым змест патрапіць у свет.

Гэта вельмі праблематычны падыход. Некаторыя рэзка сцвярджаюць, што гэта можа быць спроба Вялікага Брата здушыць свабоду слова. Як далёка зможа зайсці гэты штучны інтэлект? Ці можа гэта перашкаджаць людзям свабодна выказваць свае погляды? Гэта жудаснае можа стаць слізкім схілам штучнага інтэлекту, які ў канчатковым выніку стане найгоршым кашмарам злых вынікаў, які нявінна пачаўся з найлепшых намераў.

Я ўпэўнены, што вы зразумелі карціну.

Другі пункт крыху больш умераны і мяркуе, што мы маглі б выкарыстоўваць штучны інтэлект для фільтрацыі кантэнту.

Магчыма, у вас ёсць робат-фільтр са штучным інтэлектам, які будзе сканаваць усе вашы ўваходныя стужкі даных з розных навін і іншых крыніц. ШІ створаны для ўлоўлівання любой дэзінфармацыі або дэзінфармацыі, якая адпавядае вашым асабістым крытэрыям. Такім чынам, у такім выпадку гэта не сітуацыя цэнзуры Вялікага Брата. Вы кіруеце штучным інтэлектам і тым, як ён фільтруе вашу сапраўдную паштовую скрыню з інфармацыяй ад вашага імя.

Гучыць даволі добра.

Аднак ёсць некаторыя вартыя ўвагі праблемы.

Напрыклад, мы ўжо вельмі палярызаваныя ў нашых поглядах, і такое выкарыстанне штучнага інтэлекту можа зрабіць гэтую палярызацыю больш глыбокай і змрочнай. Уявіце сабе, што з дапамогай гэтага дасканалага штучнага інтэлекту, які працуе без перапынку 24×7, вам ніколі не спатрэбіцца бачыць ані кроплі інфармацыі, якую вы класіфікавалі як патэнцыйна дэзінфармацыю і дэзінфармацыю. Ваша палярызаваная перспектыва цяпер амаль гарантавана застанецца некранутай. Увесь дзень і кожны раз, калі вы імкнецеся зірнуць на інфармацыю, якая чакае вашай увагі, яна заўсёды цалкам папярэдне адабрана, і няма магчымасці зірнуць на так званую дэзінфармацыю і дэзінфармацыю.

Я кажу, што дэзінфармацыя і дэзінфармацыя могуць быць так званы таму што існуе велізарная колькасць спрэчак наконт таго, што на самой справе з'яўляецца дэзінфармацыяй і дэзінфармацыяй. Некаторыя эксперты настойваюць на тым, што ёсць абсалютная аснова для вызначэння таго, што з'яўляецца дэзінфармацыяй, а што дэзінфармацыяй. Ёсць правільнае і няправільнае. Усё можна падлічыць, не памыляючыся, што нешта з'яўляецца альбо дэзінфармацыяй, альбо дэзінфармацыяй.

Не ўсе бачаць усё так адназначна.

Праславутае ўзаемавыключаючае дыхатамічнае супрацьпастаўленне «уключацца або выключацца» лічыцца памылковым настроем. Дэзінфармацыя аднаго чалавека можа не лічыцца дэзінфармацыяй для іншага чалавека. Гэтак жа і пра дэзінфармацыю. Сцвярджэнне заключаецца ў тым, што дэзінфармацыя і дэзінфармацыя вар'іруюцца па характары і маштабах. Спроба канчаткова класіфікаваць усю інфармацыю ў адну кучу ці ў другую нашмат цяжэй, чым мяркуе маханне рукой.

Сутнасць у тым, што другі пункт пра выкарыстанне штучнага інтэлекту ў якасці механізму фільтрацыі мае свае кампрамісы. Няма сумненняў у тым, што штучны інтэлект будзе ўсё часцей выкарыстоўвацца для гэтага. У той жа час мы павінны памятаць пра праблемы, якія такі штучны інтэлект можа высунуць на першы план. ШІ ў якасці фільтра для дэзінфармацыі і дэзінфармацыі - гэта не нейкая срэбная куля або слэм-данк.

Гэта падводзіць нас да трэцяга пункта, а менавіта да магчымасці выкарыстання штучнага інтэлекту для таго, каб людзі лепш спраўляліся з дэзінфармацыяй і дэзінфармацыяй.

Я сумняваюся, што вы, напэўна, шмат чулі пра гэты трэці шлях выкарыстання штучнага інтэлекту ў гэтым кантэксце. Ён толькі пачынае выяўляцца. Зараз вы знаходзіцеся на перадавой, што, хутчэй за ўсё, будзе расці і паступова ўводзіцца ў эксплуатацыю. Калі ласка, майце на ўвазе, што па меры пашырэння гэтай папулярнасці спрэчкі наконт таго, ці з'яўляецца гэта прыдатным падыходам, таксама стануць вельмі прыкметнымі.

Часткова праблема заключаецца ў тым, што штучны інтэлект выкарыстоўваецца для таго, што некаторыя зняважліва называюць гуляць у разумовыя гульні з людзьмі.

Гэта здаецца злавесным.

Гэта таксама прыводзіць нас да сферы этыкі штучнага інтэлекту.

Усё гэта таксама звязана з цвярозай заклапочанасцю наконт сучаснага штучнага інтэлекту і асабліва выкарыстання машыннага і глыбокага навучання як формы тэхналогіі і таго, як яны выкарыстоўваюцца. Разумееце, ёсць спосабы выкарыстання ML/DL, якія, як правіла, прадугледжваюць антрапамарфізм AI шырокай грамадскасцю, мяркуючы або выбіраючы меркаванне, што ML/DL з'яўляецца разумным AI або блізкім (гэта не так). Акрамя таго, ML/DL можа ўтрымліваць аспекты супастаўлення вылічальных шаблонаў, якія з'яўляюцца непажаданымі або цалкам некарэктнымі, або незаконнымі з пункту гледжання этыкі або права.

Магчыма, было б карысна спачатку растлумачыць, што я маю на ўвазе, кажучы пра штучны інтэлект у цэлым, а таксама даць кароткі агляд машыннага і глыбокага навучання. Існуе вялікая блытаніна адносна таго, што азначае штучны інтэлект. Я таксама хацеў бы пазнаёміць вас з прынцыпамі этыкі штучнага інтэлекту, якія будуць асабліва важнай часткай астатняй часткі гэтага дыскурсу.

Запіс аб ІІ

Давайце пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сучаснага ІІ.

Сёння няма разумнага ІІ.

У нас гэтага няма.

Мы не ведаем, ці будзе магчымы разумны штучны інтэлект. Ніхто не можа дакладна прадказаць, ці атрымаецца ў нас разумны штучны інтэлект, і ці ўзнікне разумны штучны інтэлект нейкім цудоўным чынам спантанна ў выглядзе вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, гл. мой матэрыял на спасылка тут).

Зразумейце, што сучасны штучны інтэлект не здольны «думаць» ні ў якім разе, як мысленне чалавека. Калі вы ўзаемадзейнічаеце з Alexa або Siri, магчымасці размовы могуць здацца падобнымі да чалавечых магчымасцей, але на самой справе гэта вылічальныя магчымасці і не маюць чалавечага пазнання. Апошняя эра штучнага інтэлекту шырока выкарыстоўвае машыннае навучанне і глыбокае навучанне, якія выкарыстоўваюць супастаўленне вылічальных шаблонаў. Гэта прывяло да стварэння сістэм штучнага інтэлекту, якія маюць выгляд чалавечых схільнасцей. Між тым, сёння няма ніводнага штучнага інтэлекту, які б меў падабенства здаровага сэнсу, а таксама кагнітыўнага цуду трывалага чалавечага мыслення.

Часткова праблема заключаецца ў нашай тэндэнцыі антрапамарфізаваць кампутары і асабліва штучны інтэлект. Калі здаецца, што камп'ютэрная сістэма або штучны інтэлект дзейнічаюць такім чынам, што мы звязваем з паводзінамі чалавека, узнікае амаль непераадольнае жаданне прыпісаць сістэме чалавечыя якасці. Гэта звычайная ментальная пастка, якая можа захапіць нават самага непахіснага скептыка адносна шанцаў дасягнуць разумення.

У пэўнай ступені менавіта таму этыка штучнага інтэлекту і этычны штучны інтэлект з'яўляюцца такой важнай тэмай.

Правілы этыкі штучнага інтэлекту прымушаюць нас заставацца пільнымі. Тэхнолагі штучнага інтэлекту часам могуць быць заклапочаныя тэхналогіямі, асабліва аптымізацыяй высокіх тэхналогій. Яны не абавязкова ўлічваюць больш шырокія грамадскія наступствы. Наяўнасць мыслення ў галіне этыкі штучнага інтэлекту і ўключэнне яго ў распрацоўку і ўкараненне штучнага інтэлекту мае жыццёва важнае значэнне для стварэння належнага штучнага інтэлекту, у тым ліку для ацэнкі таго, як этыка штучнага інтэлекту прымаецца кампаніямі.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гуся, здушыўшы дасягненні ў галіне штучнага інтэлекту, якія прыносяць велізарныя перавагі для грамадства. Глядзіце, напрыклад, мой рэпартаж на спасылка тут.

У папярэдніх калонках я асвятляў розныя нацыянальныя і міжнародныя намаганні па распрацоўцы і прыняцці законаў, якія рэгулююць ІІ, гл. спасылка тут, напрыклад. Я таксама разгледзеў розныя прынцыпы і рэкамендацыі па этыцы штучнага інтэлекту, якія вызначылі і прынялі розныя краіны, у тым ліку, напрыклад, намаганні Арганізацыі Аб'яднаных Нацый, такія як набор этыкі штучнага інтэлекту ЮНЕСКА, які прынялі амаль 200 краін, гл. спасылка тут.

Вось карысны асноўны спіс этычных крытэрыяў або характарыстык штучнага інтэлекту ў дачыненні да сістэм штучнага інтэлекту, якія я ўважліва вывучаў раней:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Мяркуецца, што гэтыя прынцыпы этыкі штучнага інтэлекту настойліва павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і абслугоўвае сістэмы штучнага інтэлекту. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграмуе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Як было падкрэслена раней, для распрацоўкі і ўкаранення штучнага інтэлекту патрэбна вёска, і для гэтага ўся вёска павінна ведаць і выконваць правілы этыкі штучнага інтэлекту.

Давайце будзем заставацца на зямлі і засяродзімся на сучасным вылічальным неразумным ІІ.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Я лічу, што цяпер падрыхтаваў глебу для дастатковага абмеркавання ролі штучнага інтэлекту як сродку для хуткай псіхалагічнай прышчэпкі, звязанай з барацьбой з дэзінфармацыяй і дэзінфармацыяй.

Патрапленне ў розумы людзей

Давайце пачнем з асноў або асноў, якія ляжаць у аснове дэзінфармацыі і дэзінфармацыі.

Як правіла, дэзінфармацыя адносіцца да ілжывай або зманлівай інфармацыі.

Дэзінфармацыя прыкладна такая ж, хоць і складаецца з дадатковых элементаў намер. Звычайна мы тлумачым інфармацыю як дэзінфармацыю, калі гэта інфармацыя прызначаных дэзінфармаваць.

Я мог бы сказаць вам, што зараз 10 гадзін ночы, што, скажам так, не так, таму што час насамрэч поўнач. Калі б я сказаў вам 10 гадзін як здагадку і не спрабаваў падмануць, мы б звычайна казалі, што я дэзінфармаваў вас. Я перадаў дэзінфармацыю. Магчыма, я быў лянівы, а можа, я сапраўды верыў, што цяпер 10 гадзін. З іншага боку, калі б я згадаў 10 гадзін, таму што я наўмысна хацеў падмануць вас, каб вы падумалі, што час быў 10 гадзін, і што я ведаў, што час насамрэч поўнач, гэта можна назваць формай дэзінфармацыі .

Адным з прыкметных аспектаў інфармацыі ў цэлым з'яўляецца тое, што звычайна мы можам распаўсюджваць інфармацыю, і, такім чынам, інфармацыя можа стаць даволі шырока распаўсюджанай. Інфармацыя сапраўды можа цячы, як вада, у шырокім сэнсе.

Кажу вам, што 10 гадзін ночы. Цяпер у вас ёсць гэтая канкрэтная інфармацыя. Вы можаце гучна крыкнуць групе людзей паблізу, што зараз 10 гадзін ночы. Цяпер яны таксама маюць такую ​​ж інфармацыю. Магчыма, некаторыя з гэтых людзей бяруць мабільныя тэлефоны і тэлефануюць іншым людзям, каб сказаць ім, што цяпер 10 гадзін. Увогуле, інфармацыю можна распаўсюджваць або дзяліцца, і часам гэта робіцца вельмі хутка, у той час як у іншых выпадках гэта робіцца павольна.

У пэўным сэнсе можна сцвярджаць, што інфармацыя можа стаць віруснай.

Ёсць прыдуманае слова або тэрміналогія, якія вы, магчыма, не бачылі і не выкарыстоўвалі, якія дапамагаюць апісаць гэты феномен, калі інфармацыя становіцца віруснай, слова інфадэмія. Гэтае слова з'яўляецца камбінацыяй інфармацыі і эпідэміі. У цэлым, інфадэмія звязана з абставінамі, звязанымі з распаўсюджваннем дэзінфармацыі або дэзінфармацыі. Ідэя заключаецца ў тым, што ілжывая або зманлівая інфармацыя можа стаць віруснай, непажадана, падобна непажаданаму распаўсюджванню хваробы або хвароб.

У прыкладзе пра час 10 гадзін ночы гэты ўяўны факт быў часткай інфармацыі, якая была распаўсюджана групе людзей паблізу. Яны, у сваю чаргу, распаўсюдзілі гэты факт іншым. Калі 10-я гадзіна была фальшывай, то гэты канкрэтны выпадак дэзінфармацыі або дэзінфармацыі быў распаўсюджаны на многіх іншых. Яны маглі не ведаць, што інфармацыя была дэзінфармацыяй або, магчыма, дэзінфармацыяй.

Я спадзяюся, што ўсе гэтыя азначэнні і асновы здаюцца разумнымі, і вы пакуль іх падтрымліваеце.

Выдатна, працягнем.

Я некалькі таемна ўвёў вас у тое, што выклікала вялікае захапленне і трывогу. Сутнасць заключаецца ў тым, што, мабыць, існуюць разумныя паралелі паміж тым, што хваробы выклікаюць вірусы, і тым, што дэзінфармацыя або дэзінфармацыя выклікае вірусы.

Не ўсе згодныя з гэтымі паралелямі. Тым не менш, яны інтрыгуюць і вартыя ўвагі.

Дазвольце мне ўдакладніць.

Разумееце, мы можам паспрабаваць выкарыстаць зручную аналогію са спасылкай на хваробы, якія перадаюцца чалавекам, і хваробы, якія распаўсюджваюцца, робячы гэта, каб параўнаць падобную магчымасць з распаўсюджваннем дэзінфармацыі і дэзінфармацыі. Каб паспрабаваць спыніць распаўсюджванне хвароб, мы можам імкнуцца да ранняга выяўлення і стрымлівання ўзнікнення хворых крыніц патэнцыйнага распаўсюджвання хваробы. Іншы падыход да барацьбы з хваробай, якая распаўсюджваецца, - гэта засцерагчыся ад яе заражэння шляхам разумнага выкарыстання маскі або ахоўнага рыштунку. Трэці падыход можа складацца з прышчэпак, каб паспрабаваць стварыць свой імунітэт, звязаны з хваробай.

Цяпер мы прайшлі поўны круг у тым, што тыя самыя падыходы да барацьбы з хваробамі можна відавочна параўнаць з барацьбой з дэзінфармацыяй і дэзінфармацыяй. Раней я згадваў, што робяцца падобныя намаганні па выкарыстанні штучнага інтэлекту ў мэтах барацьбы з дэзінфармацыяй і дэзінфармацыяй, у прыватнасці (як згадвалася раней):

  • Спыніцеся на пачатку: AI можа быць выкарыстаны для выяўлення і спробы ліквідацыі дэзінфармацыі і дэзінфармацыі, перш чым яна выйдзе на волю
  • Фільтр перад праглядам: Штучны інтэлект можна выкарыстоўваць для фільтрацыі дэзінфармацыі і дэзінфармацыі, каб вам не трэба было турбавацца аб тым, што вы яе ўбачыце
  • Падрыхтуйце сябе да імунітэту: ШІ можа быць выкарыстаны для павышэння вашай гатоўнасці і здольнасці змагацца з дэзінфармацыяй і дэзінфармацыяй (фармальна вядома як своеасаблівая псіхалагічная прышчэпка)
  • іншае

Трэці аспект будзе тут найбольш цікавы.

Вось здзелка.

Мы ведаем, што хваробы звычайна дзівяць чалавечага цела. З дапамогай аналогіі з тым, як узнікаюць дэзінфармацыя і дэзінфармацыя, мы маглі б выказаць здагадку, што нецэнзурная інфармацыя б'е па чалавечы розум. Так, вы, як мяркуецца, можаце ўвайсці ў кантакт з дэзінфармацыяй або дэзінфармацыяй, якая цячэ ў ваш розум. Дэзінфармацыя ці дэзінфармацыя патэнцыйна псуе або атручвае ваш спосаб мыслення.

Арганізм чалавека можа быць прышчэплены, каб паспрабаваць падрыхтавацца да кантакту з хваробамі. Узнікае вялікае пытанне аб тым, ці можам мы зрабіць тое ж самае для чалавечага розуму. Ці можна паспрабаваць прышчапіць розум так, каб, калі дэзінфармацыя або дэзінфармацыя прыходзіць вам у галаву, вы былі гатовыя да гэтага і атрымалі адпаведную прышчэпку?

Вобласць даследаванняў, вядомая як псіхалагічная прышчэпка сцвярджае, што розум сапраўды можа быць прышчэплены ў сэнсе гатоўнасці апрацоўваць дэзінфармацыю або дэзінфармацыю.

Разгледзім гэтае апісанне ў нядаўнім даследаванні адносна псіхалагічнай прышчэпкі і таго, што часам пазначаюць як выкананне папярэдняе спаленне:

  • «Развянчаць дэзінфармацыю таксама праблематычна, таму што выпраўленне дэзінфармацыі не заўсёды цалкам зводзіць на нішто яе наступствы, з'ява, вядомая як эфект пастаяннага ўплыву. Адпаведна, у адрозненне ад развянчання, папярэдняе развянчанне набыло вядомасць як сродак прэвентыўнага павышэння ўстойлівасці да чаканага ўздзеяння дэзінфармацыі. Такі падыход звычайна заснаваны на тэорыі прышчэпак. Тэорыя прышчэпак прытрымліваецца аналогіі з медыцынскай імунізацыяй і сцвярджае, што можна стварыць псіхалагічную ўстойлівасць супраць непажаданых спробаў пераканання, падобна таму, як медыцынскія прышчэпкі ствараюць фізіялагічную ўстойлівасць супраць патагенаў» (Навука развіваецца, 24 жніўня 2022 г., «Псіхалагічная прышчэпка паляпшае ўстойлівасць супраць дэзінфармацыі ў сацыяльных сетках» сааўтараў Джона Розенбека, Сандэра ван дэр Ліндэна, Бэт Голдберг, Стыва Рат'е і Стэфана Левандоўскі).

Вяртаючыся да майго прыкладу пра 10 гадзін ночы, выкажам здагадку, што я раней казаў вам, што часам заяўлены час не з'яўляецца сапраўдным. У вас з гэтага часу ёсць форма прышчэпкі, каб быць асцярожнымі запатрабаваных часоў. Гэтая прышчэпка падрыхтавала вас да кантакту з заяўленымі часамі, якія з'яўляюцца дэзінфармацыяй або дэзінфармацыяй.

Калі б я папярэджваў вас некалькі гадоў таму пра тое, што заяўлены час не з'яўляецца сапраўдным, ёсць верагоднасць, што вы маглі б не падумаць пра тое даўняе папярэджанне. Такім чынам, ранейшая прышчэпка (скажам так) скончылася. Маю прышчэпку для вас, магчыма, спатрэбіцца ўзмацніць.

Таксама існуе верагоднасць таго, што прышчэпка не была дастаткова спецыфічнай, каб вы маглі выкарыстоўваць яе пры такой неабходнасці. Калі б я шмат гадоў таму папярэджваў вас пра заяўлены час у параўнанні з фактычным часам, гэта магло б быць занадта шырокім. Прышчэпка можа не спрацаваць у канкрэтным выпадку, калі вам скажуць пра 10 гадзін. У гэтым сэнсе, магчыма, мая прышчэпка павінна была заключацца ў тым, што вы павінны быць асцярожнымі, калі выкарыстоўваецца заяўлены час 10 гадзін. Вядома, прышчэпкі ў выпадку захворванняў збольшага аднолькавыя, часам вельмі спецыфічныя для вядомых захворванняў, а ў іншых выпадках шырокі спектр.

Часта цытаванае даследаванне, праведзенае ў 1961 годзе па псіхалагічнай прышчэпцы Уільямам Макгуайрам з Калумбійскага ўніверсітэта, сёння звычайна лічыцца класікай у гэтай галіне даследаванняў. Магчыма, вас зацікавяць гэтыя ключавыя моманты, якія ён зрабіў у той час:

  • «Такая агульная імунізацыя можа адбывацца з любога з двух механізмаў. Папярэдняе выкрыццё можа ўзрушыць чалавека, прымусіўшы яго ўсвядоміць, што «ісціны», якія ён заўсёды прымаў, сапраўды ўразлівыя, такім чынам правакуючы яго развіць абарону сваіх перакананняў, у выніку чаго ён стане больш устойлівым да моцных контраргументаў, калі яны з'явяцца. Альтэрнатыўна, абвяржэнні, якія ўдзельнічаюць у папярэднім выкрыцці, могуць зрабіць усе пасля прадстаўленыя контраргументы супраць пераканання менш уражлівымі» (William McGuire, «Resistance to Persuasion Confered By Active And Passive Prior Refutation of the Same And Alternative Counterarguments», Journal of Abnormal and Сацыяльная псіхалогія, 1961).

Ці лічыце вы гэтую аналогію з прышчэпкамі і імунізацыяй карысным і трапным параўнаннем з сферай дэзінфармацыі і дэзінфармацыі?

Некаторыя робяць, некаторыя не.

Для мэт гэтага абмеркавання, калі ласка, прызнайце, што перадумова разумная і трапная.

Як мы паспрабуем зрабіць прышчэпку або імунізаваць розум людзей?

Мы маглі б прымусіць людзей чытаць кнігі, якія маглі б прасвятліць іх розумы. Мы можам расказаць ім пра гэта, або прымусіць іх паглядзець відэа ці праслухаць аўдыёзапісы. І г.д.

І мы маглі б выкарыстоўваць штучны інтэлект, каб зрабіць тое ж самае.

Сістэма штучнага інтэлекту можа быць распрацавана, каб стаць вашай прышчэпкай. Кожны раз, калі вы пачынаеце выходзіць у Інтэрнэт, напрыклад, праглядаць Інтэрнэт, праграма на аснове штучнага інтэлекту можа падрыхтаваць вас да вашага анлайн-падарожжа. ШІ можа накарміць вас мізэрнай колькасцю дэзінфармацыі, пазначанай як такая, што дазволіць вам зразумець, што вы збіраецеся ўбачыць нешта наўмысна ілжывае.

Пасля ўздзеяння гэтай дэзінфармацыі, якая падсілкоўваецца штучным інтэлектам, ваш розум зараз падрыхтаваны да барацьбы з дэзінфармацыяй або дэзінфармацыяй, з якой вы можаце сутыкнуцца ў дзікай прыродзе ў Інтэрнэце. Ваш розум быў гатовы. Вуаля, вы бачыце блог у Інтэрнеце, які прапануе заяўлены факт, што іншапланетныя істоты з Марса ўжо тут, на зямлі і хаваюцца навідавоку, але гэтая ўяўная дэзінфармацыя або дэзінфармацыя лёгка адхіляецца вашым розумам з-за папярэдняй прышчэпкі (ну, зноў жа, магчыма, гэта праўда, і яны сапраўды тут!).

Ва ўсякім разе, я спадзяюся, што цяпер вы можаце зразумець, як ІІ можа дапамагчы зрабіць прышчэпку або імунізаваць людзей супраць дэзінфармацыі або дэзінфармацыі.

Распрацоўваюцца розныя прыкладанні штучнага інтэлекту, якія будуць працаваць як прышчэпкі дэзінфармацыі або дэзінфармацыі. ШІ можа імкнуцца да шырокай прышчэпкі, якая забяспечвае агульнае падабенства імунізацыі. ШІ можа быць таксама распрацаваны для больш канкрэтных формаў прышчэпак. Акрамя таго, штучны інтэлект можа працаваць на персаналізаванай аснове, настроенай на вашыя канкрэтныя патрэбы або інтарэсы. Пашыраны штучны інтэлект у гэтай прасторы таксама будзе спрабаваць вызначыць ваш узровень талерантнасці, хуткасць разумовага паглынання, здольнасць утрымліваць і іншыя фактары пры складанні і прадстаўленні так званых прышчэпак.

Здаецца, вельмі зручна.

ШІ як гулец у небяспечныя разумовыя гульні

ШІ, які выкарыстоўваецца такім чынам, на першы погляд здасца вельмі зручным (эй, я згадваў пра гэта секунду таму).

Існуе мноства патэнцыйных недахопаў і праблем, якія выклікаюць трывогу і, магчыма, страшна.

У сваіх калонках я часта абмяркоўваю магчымасці ІІ падвойнага прызначэння, гл спасылка тут. ШІ можа ўнесці важны ўклад у развіццё чалавецтва. На жаль, штучны інтэлект таксама абцяжараны мноствам небяспек і няшчасных падводных камянёў.

У выпадку штучнага інтэлекту як ініцыятара, давайце разгледзім гэтыя паказальныя пытанні, звязаныя з этыкай штучнага інтэлекту:

  • Пабочныя рэакцыі з боку чалавека
  • Адсутнасць рэакцыі чалавека
  • Памылка навядзення AI
  • Недастатковае таргетынг ІІ
  • Кіберузлом ІІ
  • іншае

Мы коратка вывучым гэтыя праблемы.

Пабочныя рэакцыі з боку чалавека

Выкажам здагадку, што ў чалавека, які атрымлівае такую ​​прышчэпку на аснове штучнага інтэлекту, узнікае пабочная рэакцыя або выклікае пабочны эфект.

Чалавек можа няправільна вытлумачыць прышчэпку і раптам стаць неўспрымальным да любой атрыманай інфармацыі. Яны блакуюць усю інфармацыю. ШІ нейкім чынам прымусіў іх выкінуць дзіця разам з вадой (старая прымаўка, якую, магчыма, варта адысці). Замест таго, каб проста спрабаваць справіцца з дэзінфармацыяй і дэзінфармацыяй, чалавек адрэагаваў, вырашыўшы, што ўся інфармацыя заўсёды ілжывая.

Я не думаю, што мы хочам, каб людзі перашчыравалі.

Існуе мноства пабочных рэакцый, якія можа выклікаць штучны інтэлект. Часткова гэта звязана з тым, як штучны інтэлект спрабаваў зрабіць прышчэпку, але таксама мы павінны ўскласці частку праблемы на ногі чалавека, які атрымаў прышчэпку. Яны маглі адрэагаваць дзікімі або дзіўнымі спосабамі, калі іншыя, якія атрымалі такую ​​ж прышчэпку ад штучнага інтэлекту, гэтага не рабілі.

Зноў жа, вы можаце параўнаць гэта з аналогіяй прышчэпак ад хвароб.

Карацей кажучы, будзе важна, каб такія намаганні штучнага інтэлекту выкарыстоўваліся адказнымі спосабамі, накіраванымі на мінімізацыю негатыўных наступстваў. Павінен таксама быць наступны аспект штучнага інтэлекту, каб паспрабаваць пераканацца, ці адбылася пабочная рэакцыя. Калі ёсць выяўленая пабочная рэакцыя, трэба распрацаваць штучны інтэлект, каб паспрабаваць дапамагчы чалавеку ў яе неспрыяльнай рэакцыі і імкнуцца пераадолець або палегчыць рэакцыю.

Адсутнасць рэакцыі чалавека

Іншая магчымасць заключаецца ў тым, што прышчэпка з штучным інтэлектам не ўплывае на чалавека, які яе прымае.

Чалавек атрымлівае прышчэпку на аснове ІІ, звязаную з дэзінфармацыяй або дэзінфармацыяй. У той час як большасць людзей "захворваюць" і робяць прышчэпкі, абавязкова знойдуцца людзі, якія наогул не адрэагуюць. Яны нічога не даведаюцца з прышчэпкі. Яны не рэагуюць на спробу штучнага інтэлекту імунізаваць іх супраць усіх або некаторых тыпаў дэзінфармацыі або дэзінфармацыі.

Зноў жа, гэта параўнальна з прышчэпкамі ад хвароб.

AI павінен быць распрацаваны, каб змагацца з такімі абставінамі.

Памылка навядзення AI

Уявіце сабе, што штучны інтэлект спадзяецца імунізаваць людзей адносна пэўнай тэмы, якую мы назавем тэмай X, але аказваецца, што замест гэтага разглядаецца тэма Y. ШІ робіць памылку.

Гэта дваякая праблема. Па-першае, тэма X не разглядалася як меркаваная і чаканая мэта прышчэпкі штучнага інтэлекту. Па-другое, тэма Y разглядаецца, але мы, магчыма, не хацелі, каб людзі атрымалі прышчэпкі ад гэтай тэмы.

На жаль.

Пытанняў шмат. Ці можна было гэтага прадухіліць? Калі гэта адбудзецца, ці можам мы адмяніць тэму імунізацыі Y? Ці можам мы паспрабаваць ахапіць тэму прышчэпкі X, ці чалавек будзе менш успрымальным або неўспрымальным з-за таго, што ІІ першапачаткова няправільна нацэліў?

Узнікае шмат праблемных пытанняў.

Недастатковае таргетынг AI

ШІ дае прышчэпку па тэме Z. Людзі, якія атрымліваюць прышчэпку, здаецца, маюць мінімальную або амаль нязначную рэакцыю. Прышчэпкі было недастаткова, каб прыжыцца.

У вас можа ўзнікнуць спакуса хутка заявіць, што гэта лёгка вырашыць. Вам застаецца толькі паўтарыць прышчэпку. Можа, так, а можа, і не.

Прышчэпка ад штучнага інтэлекту можа мець настолькі абмежаваную каштоўнасць, што незалежна ад таго, калі вы выпрабавалі яе сто разоў, вынік усё роўна будзе маргінальным. Магчыма, вам спатрэбіцца ўзмацніць прышчэпку, а не проста паўтарыць яе.

Між тым, уявіце сабе, што зроблена спроба павысіць прышчэпку з штучным інтэлектам, але гэта зашкальвае. Узмоцненая версія выклікае гіперрэакцыю. Ой, мы прыйшлі ад дрэннага да горшага.

Кіберзлом ІІ

Уявіце сабе, што штучны інтэлект шырока выкарыстоўваецца, каб дапамагчы людзям пазбавіцца ад дэзінфармацыі і дэзінфармацыі.

Агульная давер людзей замацоўваецца. Яны ведаюць і чакаюць, што ІІ збіраецца прадставіць ім фрагменты, якія адкрыюць ім вочы на ​​тое, што вядома як дэзінфармацыя і дэзінфармацыя.

Здаецца, усё добра і добра.

Зламыснік нейкім чынам здольны зрабіць кібер-ўзлом у ІІ. Яны ўтойліва ўводзяць у штучны інтэлект некаторую жаданую дэзінфармацыю, якую, як яны хочуць, каб людзі лічылі не дэзінфармацыяй. AI уладкованы так, каб фактычная дэзінфармацыя выглядала як праўдзівая інфармацыя. Акрамя таго, праўдзівая інфармацыя выдаецца за дэзінфармацыю.

Людзі зусім у снукеры. Іх дэзінфармуе ІІ. У дадатак да ўсяго, паколькі яны сталі залежнымі ад штучнага інтэлекту і з-за веры ў тое, што штучны інтэлект робіць усё правільна, яны трапляюць на кручок, леску і грузіла для гэтага зламанага штучнага інтэлекту. Без ваганняў.

Улічваючы тое, наколькі лёгка дэзінфармацыя можа распаўсюджвацца далей, злачынцы могуць атрымліваць асалоду ад таго, што існаванне такога роду ІІ з'яўляецца іх самым простым і хуткім спосабам распаўсюдзіць сваю падступную хлусню па ўсім свеце. Вядома, па іроніі лёсу, выкарыстаўшы прышчэпку AI, каб па сутнасці распаўсюдзіць хваробу.

заключэнне

Ці павінен ШІ гуляць з намі ў разумовыя гульні?

Ці можа ІІ для дэзінфармацыі і прышчэпкі ад дэзінфармацыі быць пагрозлівым траянскім канём?

Вы можаце прывесці сур'ёзныя аргументы для турботы аб такім кашмары.

Іншыя здзекуюцца з такой магчымасці. Людзі дастаткова разумныя, каб ведаць, калі ІІ спрабуе іх падмануць. Людзі на такі дрыблінг не паддадуцца. Толькі ідыёты ўвялі б сябе ў зман такім ІІ. Гэта звычайныя рэплікі і контраргументы.

Не жадаючы здацца, што я цалкам захапляюся людзьмі і чалавечай прыродай, я б проста выказаў здагадку, што ёсць дастаткова прыкмет таго, што людзі могуць патрапіць на ІІ, які ўводзіць іх у зман.

Ёсць яшчэ большая праблема, якая, магчыма, навісла над усім гэтым.

Хто стварае AI і як AI алгарытмічна вырашае, што лічыць дэзінфармацыяй і дэзінфармацыяй?

Сёння ў свеце вядзецца цэлая перастрэлка наконт таго, што такое канкрэтна дэзінфармацыя і дэзінфармацыя. Некаторыя сцвярджаюць, што факты ёсць факты, таму ніколі не можа быць блытаніны ў тым, што такое належная інфармацыя супраць няправільнай інфармацыі. Хоць часам д'ябал хаваецца ў дэталях, гэта чорт вазьмі.

Апошняя заўвага пакуль. Знакамітае выказванне Абрагама Лінкальна: «Можна падманваць усіх людзей некаторы час і некаторых людзей увесь час, але вы не можаце падманваць усіх людзей увесь час».

Ці будзе штучны інтэлект, які выкарыстоўваецца для прышчэпкі чалавецтва ад дэзінфармацыі і дэзінфармацыі, жыццёва важным інструментам для таго, каб не ўсіх людзей можна было ўвесь час падманваць? Ці гэта можа быць выкарыстана, каб падмануць больш людзей больш часу?

Час пакажа.

І гэта, безумоўна, не дэзінфармацыя і дэзінфармацыя.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/