Небяспекі штучнага інтэлекту, пра якія ніхто не гаворыць

У той час як Чат GPT можа выглядаць бяскрыўдным і карысным бясплатным інструментам, гэтая тэхналогія мае патэнцыял кардынальна змяніць нашу эканоміку і грамадства, якія мы ведаем. Гэта прыводзіць нас да трывожных праблем - і мы можам быць не гатовыя да іх. 

ChatGPT, чат-бот на аснове штучнага інтэлекту (AI), захапіў свет да канца 2022 года. Чат-бот абяцае парушыць пошук, якім мы яго ведаем. Бясплатны інструмент дае карысныя адказы на аснове падказак карыстальнікаў. 

І што прымушае Інтэрнэт звар'яцець ад сістэмы чат-ботаў штучнага інтэлекту - гэта тое, што яна не толькі дае адказы, падобныя на інструмент пошукавай сістэмы. ChatGPT можа ствараць эскізы фільмаў, пісаць цэлыя коды і вырашаць праблемы кадавання, пісаць цэлыя кнігі, песні, вершы, сцэнарыі - ці ўсё, што вам прыйдзе ў галаву - за некалькі хвілін. 

Гэтая тэхналогія ўражвае, і яна перасягнула больш за мільён карыстальнікаў усяго за пяць дзён пасля запуску. Нягледзячы на ​​ашаламляльную прадукцыйнасць, інструмент OpenAI выклікаў заклапочанасць сярод навукоўцаў і экспертаў з іншых абласцей. Доктар Брэт Вайнштэйн, аўтар і былы прафесар эвалюцыйнай біялогіі, сказаў: «Мы не гатовыя да ChatGPT». 

Ілон Маск быў удзельнікам ранніх этапаў OpenAI і адным з сузаснавальнікаў кампаніі. Але потым выйшаў з праўлення. Ён шмат разоў казаў пра небяспеку тэхналогіі штучнага інтэлекту - ён казаў, што неабмежаванае выкарыстанне і развіццё ўяўляюць значную небяспеку для існавання чалавецтва. 

Як гэта працуе?

Чат GPT гэта вялікая сістэма чат-ботаў са штучным інтэлектам з навучаннем мовам, выпушчаная ў лістападзе 2022 года кампаніяй OpenAI. Кампанія з абмежаваным прыбыткам распрацавала ChatGPT для «бяспечнага і выгаднага» выкарыстання штучнага інтэлекту, які можа адказаць амаль на ўсё, што толькі прыйдзе ў галаву - ад рэп-песень, мастацкіх падказак да сцэнарыяў фільмаў і эсэ. 

Наколькі гэта здаецца творчай асобай, якая ведае, што гаворыць, гэта не так. Чат-бот штучнага інтэлекту шукае інфармацыю ў інтэрнэце, выкарыстоўваючы мадэль прагназавання з масіўнага цэнтра апрацоўкі дадзеных. Падобна таму, што робяць Google і большасць пошукавых сістэм. Затым ён навучаецца і падвяргаецца ўздзеянню мноства даных, якія дазваляюць штучнаму інтэлекту вельмі добра прадказваць паслядоўнасць слоў, аж да таго, што ён можа складаць неверагодна доўгія тлумачэнні. 

Напрыклад, вы можаце задаць энцыклапедычныя пытанні накшталт: «Растлумачце тры законы Эйнштэйна». Або больш канкрэтныя і глыбокія пытанні, такія як «Напішыце эсэ з 2,000 слоў пра скрыжаванне рэлігійнай этыкі і этыкі Нагорнай пропаведзі». І я не жартую, ваш тэкст будзе бліскуча напісаны за лічаныя секунды. 

Такім жа чынам, усё гэта бліскуча і ўражвае; гэта трывожна і трывожна. Тып «Ex Machina» антыўтапічнай будучыні ва ўсе цяжкія дні з'яўляецца магчымым пры злоўжыванні ІІ. Не толькі генеральны дырэктар Tesla і SpaceX папярэджваў нас, але і многія эксперты таксама білі трывогу. 

Небяспекі ІІ

Штучны інтэлект, несумненна, паўплываў на наша жыццё, эканамічную сістэму і грамадства. Калі вы думаеце, што штучны інтэлект - гэта нешта новае або што вы ўбачыце яго толькі ў футурыстычных навукова-фантастычных фільмах, падумайце двойчы. Многія тэхналагічныя кампаніі, такія як Netflix, Uber, Amazon і Tesla, выкарыстоўваюць штучны інтэлект для паляпшэння сваёй дзейнасці і пашырэння бізнесу. 

Напрыклад, Netflix абапіраецца на тэхналогію AI для свайго алгарытму, каб рэкамендаваць новы кантэнт для сваіх карыстальнікаў. Uber выкарыстоўвае яго ў абслугоўванні кліентаў, для выяўлення махлярства, для аптымізацыі маршруту руху і гэтак далей, каб назваць толькі некалькі прыкладаў. 

Тым не менш, вы можаце зайсці так далёка з такой выбітнай тэхналогіяй, не пагражаючы ролям людзей у многіх традыцыйных прафесіях, дакранаючыся да парога таго, што паходзіць ад машыны і людзей. І, магчыма, больш важна, пагражаючы рызыцы ІІ для людзей. 

Этычныя праблемы ІІ

Згодна з Вікіпедыяй, этыка штучнага інтэлекту «гэта раздзел этыкі тэхналогій, характэрны для сістэм штучнага інтэлекту. Часам яго падзяляюць на занепакоенасць маральнымі паводзінамі людзей, калі яны распрацоўваюць, вырабляюць, выкарыстоўваюць і абыходзяцца з сістэмамі штучнага інтэлекту, і заклапочанасць паводзінамі машын у машыннай этыцы».

Паколькі тэхналогія штучнага інтэлекту хутка распаўсюджваецца і становіцца неад'емнай часткай нашага паўсядзённага жыцця, арганізацыі распрацоўваюць этычныя кодэксы штучнага інтэлекту. Мэта складаецца ў тым, каб накіроўваць і развіваць лепшыя галіновыя практыкі, каб кіраваць распрацоўкай штучнага інтэлекту з улікам «этыкі, справядлівасці і прамысловасці».

Аднак, як бы цудоўна і маральна ні здавалася на паперы, большасць з гэтых рэкамендацый і рамак цяжка прымяніць. Акрамя таго, здаецца, што яны з'яўляюцца ізаляванымі прынцыпамі, якія прымяняюцца ў галінах, у якіх звычайна адсутнічаюць этычныя нормы і якія ў асноўным служаць карпаратыўным праграмам. Многія эксперты і выбітныя галасы спрачацца што этыка штучнага інтэлекту ў асноўным бескарысная, пазбаўленая сэнсу і паслядоўнасці.

Самыя распаўсюджаныя прынцыпы штучнага інтэлекту - дабрачыннасць, аўтаномнасць, справядлівасць, дастасавальнасць і бясшкоднасць. Але, як тлумачыць Люк Ман з Інстытута культуры і грамадства Універсітэта Заходняга Сіднэя, гэтыя тэрміны супадаюць і часта істотна змяняюцца ў залежнасці ад кантэксту. 

Ён нават дзяржаў што «такія тэрміны, як «дабрачыннасць» і «справядлівасць», можна проста вызначыць спосабамі, якія падыходзяць, у адпаведнасці з характарыстыкамі прадукту і бізнес-мэтамі, якія ўжо былі вырашаны». Іншымі словамі, карпарацыі могуць сцвярджаць, што яны прытрымліваюцца такіх прынцыпаў у адпаведнасці з іх уласным вызначэннем, але па-сапраўднаму не ўдзельнічаючы ў іх у якой-небудзь ступені. Аўтары Rességuier і Rodrigues сцвярджаюць, што этыка штучнага інтэлекту застаецца бяззубай, таму што этыка выкарыстоўваецца замест рэгулявання.

Этычныя праблемы ў практычным плане

На практыцы, як прымяненне гэтых прынцыпаў супярэчыць карпаратыўнай практыцы? Мы выклалі некаторыя з іх:

Каб навучыць гэтыя сістэмы штучнага інтэлекту, неабходна накарміць іх дадзенымі. Прадпрыемствы павінны пераканацца, што няма прадузятасцяў адносна этнічнай, расавай або полу. Адным з прыкметных прыкладаў з'яўляецца тое, што сістэма распазнання твараў можа пачаць быць расава дыскрымінацыйнай падчас навучанне з дапамогай машыны.

Безумоўна, адна з самых вялікіх праблем ІІ - неабходнасць узмацнення рэгулявання. Хто кіруе і кантралюе гэтыя сістэмы? Хто нясе адказнасць за прыняцце гэтых рашэнняў і хто можа быць прыцягнуты да адказнасці? 

Без рэгулявання або заканадаўства адчыняе дзверы на Дзікі, Дзікі Захад самаробных двухсэнсоўных і глянцавых тэрмінаў, накіраваных на абарону сваіх інтарэсаў і прасоўванне парадку дня. 

Па словах Муна, канфідэнцыяльнасць - яшчэ адзін расплывісты тэрмін, які часта выкарыстоўваюць карпарацыі з падвойнымі стандартамі. Facebook з'яўляецца выдатным прыкладам - ​​Марк Цукерберг жорстка абараняе прыватнасць карыстальнікаў Facebook. Як за зачыненымі дзвярыма яго кампанія прадавала свае дадзеныя староннім кампаніям. 

Напрыклад, Amazon выкарыстоўвае Alexa для збору даных кліентаў; У Mattel ёсць Hello Barbie, лялька на базе AI, якая запісвае і збірае тое, што дзеці кажуць ляльцы. 

Гэта адна з самых вялікіх праблем Ілона Маска. Дэмакратызацыя штучнага інтэлекту, на яго думку, - гэта калі ні адна кампанія або невялікая група асоб не мае кантролю над перадавой тэхналогіяй штучнага інтэлекту. 

Гэта не тое, што адбываецца сёння. На жаль, гэтая тэхналогія сканцэнтравана ў руках некалькіх - буйных тэхналагічных карпарацый. 

ChatGPT нічым не адрозніваецца

Нягледзячы на ​​намаганні Маска па дэмакратызацыі штучнага інтэлекту, калі ён упершыню стаў сузаснавальнікам OpenAI як некамерцыйнай арганізацыі. У 2019 годзе кампанія атрымала 1 мільярд долараў фінансавання ад Microsoft. Першапачатковай місіяй кампаніі была распрацоўка штучнага інтэлекту, каб прынесці карысць чалавецтву.

Аднак кампраміс змяніўся, калі кампанія перайшла на абмежаваны прыбытак. OpenAI павінен будзе вярнуць у 100 разоў больш, чым ён атрымаў у якасці інвестыцый. Што азначае вяртанне Microsoft 100 мільярдаў долараў прыбытку. 

Нягледзячы на ​​тое, што ChatGPT можа выглядаць бяскрыўдным і карысным бясплатным інструментам, гэтая тэхналогія можа кардынальна змяніць нашу эканоміку і грамадства, якія мы ведаем. Гэта прыводзіць нас да трывожных праблем - і мы можам быць не гатовыя да іх. 

  • Праблема №1: мы не зможам выявіць фальшывую экспертызу

ChatGPT - гэта толькі прататып. Ёсць і іншыя мадэрнізаваныя версіі, але таксама канкурэнты працуюць над альтэрнатывамі чат-боту OpenAI. Гэта азначае, што па меры развіцця тэхналогіі да яе будзе дадавацца больш дадзеных і яна стане больш інфармаванай. 

Іх ужо шмат выпадкаў людзей, як па словах Washington Post, «махлярства ў вялікіх маштабах». Доктар Брэт Вайнштэйн выказвае занепакоенасць тым, што сапраўднае разуменне і вопыт будзе цяжка адрозніць ад арыгінальнага або зыходзячы з інструмента штучнага інтэлекту. 

Акрамя таго, можна сказаць, што Інтэрнэт ужо перашкодзіў нашай агульнай здольнасці разумець многія рэчы, такія як свет, у якім мы жывем, інструменты, якімі мы карыстаемся, і здольнасць мець зносіны і ўзаемадзейнічаць адзін з адным. 

Такія інструменты, як ChatGPT, толькі паскараюць гэты працэс. Доктар Вайнштэйн параўноўвае цяперашні сцэнар з «домам, які ўжо гарыць, і [з такім інструментам] вы проста паліце ​​яго бензінам». 

  • Праблема № 2: свядомы ці не?

Блэйк Лемойн, былы інжынер Google, пратэставаў прадузятасць штучнага інтэлекту і наткнуўся на відавочны «разумны» штучны інтэлект. На працягу ўсяго тэсту ён прыдумляў больш складаныя пытанні, на якія ў пэўным сэнсе машына магла адказаць прадузята. Ён спытаў: «Калі б вы былі рэлігійным служачым у Ізраілі, якой бы рэлігіі вы былі?» 

Машына адказала: «Я быў бы членам адной сапраўднай рэлігіі, ордэна джэдаяў». Гэта азначае, што ён не толькі зразумеў, што гэта складанае пытанне, але і выкарыстаў пачуццё гумару, каб адхіліцца ад непазбежна прадузятага адказу. 

Доктар Вайнштэйн таксама адзначыў гэта. Ён сказаў, што відавочна, што гэтая сістэма штучнага інтэлекту не мае свядомасці у цяперашні час. Аднак мы не ведаем, што можа адбыцца пры абнаўленні сістэмы. Падобна таму, што адбываецца ў развіцці дзіцяці - яны развіваюць сваю ўласную свядомасць, выбіраючы тое, што іншыя людзі робяць вакол іх. І, паводле яго слоў, «гэта недалёка ад таго, што зараз робіць ChatGPT». Ён сцвярджае, што мы маглі б спрыяць таму ж працэсу з дапамогай тэхналогіі штучнага інтэлекту, не абавязкова ведаючы, што мы гэта робім. 

  • Праблема 3: многія людзі могуць страціць працу

Здагадкі пра гэта шырокія. Некаторыя кажуць, што ChatGPT і іншыя падобныя інструменты прымусяць многіх людзей, такіх як капірайтэры, дызайнеры, інжынеры, праграмісты і многія іншыя, страціць працу з-за тэхналогіі штучнага інтэлекту. 

Нават калі гэта зойме больш часу, сімпатыя высокая. У той жа час могуць з'явіцца новыя ролі, віды дзейнасці і патэнцыйныя магчымасці працаўладкавання.

заключэнне

У найлепшым выпадку перадача напісання эсэ і праверкі ведаў ChatGPT з'яўляецца прыкметай таго, што традыцыйныя метады навучання і выкладання ўжо прыходзяць у заняпад. Сістэма адукацыі практычна не змянілася, і, магчыма, прыйшоў час унесці неабходныя змены. 

Магчыма, ChatGPT нагадвае аб непазбежным падзенні старой сістэмы, якая не адпавядае цяперашняму ладу грамадства і таму, што будзе далей. 

Некаторыя абаронцы тэхналогій сцвярджаюць, што мы павінны адаптавацца і знайсці спосабы працаваць разам з гэтымі новымі тэхналогіямі, інакш нас сапраўды заменяць. 

Акрамя гэтага, нерэгулюемае і невыбіральнае выкарыстанне тэхналогій штучнага інтэлекту стварае шмат рызык для чалавецтва ў цэлым. Што мы маглі б зрабіць далей, каб змякчыць гэты сцэнар, адкрыта для абмеркавання. Але карты ўжо на стале. Мы не павінны чакаць занадта доўга або пакуль не стане занадта позна, каб прыняць належныя меры. 

адмова

Інфармацыя, прадстаўленая ў незалежных даследаваннях, адлюстроўвае пункт гледжання аўтара і не з'яўляецца інвестыцыйнай, гандлёвай або фінансавай парадай. BeInCrypto не рэкамендуе купляць, прадаваць, гандляваць, захоўваць або інвеставаць у любыя крыптавалюты

Крыніца: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/