Момант Cry Wolf у AI Hype бескарысны

Нягледзячы на ​​​​тое, што я вывучаю сцэнарыі канца чалавецтва, я лічу, што «ліст эксперта», які прапануе 6-месячны мараторый на штучны інтэлект, або нядаўняя заява аб тым, што рызыка штучнага інтэлекту знаходзіцца на ўзроўні пандэміі і ядзернай рызыкі, абодва занадта разадзьмутыя. Яшчэ больш дзікае меркаванне, што нам трэба закрыць штучны інтэлект, безадказна. Любы клопат павінен быць прапарцыйны рызыцы, з якой мы сутыкаемся. Зараз нам не пагражае ІІ непасрэдная небяспека.

Сучасны ІІ не здольны захапіць грамадства. Яны не маюць пачуццяў і не заслугоўваюць абароны, як чалавечае жыццё. Яны не звышразумныя і ні ў чым не пераўзыходзяць людзей. На самай справе яны зусім не думаюць. Прама зараз, калі сілкуецца вялікай колькасцю дадзеных, штучны інтэлект вельмі добра спраўляецца з канкрэтнымі задачамі, такімі як разлік і прагназаванне. Гэта не выклікае занепакоенасці, такія функцыі ёсць у гэтых сістэм. Перспектывы штучнага інтэлекту ўключаюць у сябе лячэнне раку, трансфармацыю прамысловай вытворчасці, мадэляванне будучых сцэнарыяў і кіраванне экалагічнымі праблемамі. Сказаўшы гэта, ёсць законныя падставы крытыкаваць цяперашні штучны інтэлект за выкарыстанне рэсурсаў, празрыстасць, прадузятасць, кібербяспеку і яго будучы ўплыў на занятасць.

ШІ з'яўляюцца дарагімі ў плане вылічэнняў, што азначае, што яны з'яўляюцца марнаваннем дэфіцытнай энергіі выкапняў. Гэта трэба вырашаць неадкладна. Але гэта не экзістэнцыяльнае пытанне, гэта пытанне рацыянальнага выкарыстання рэсурсаў. Той факт, што штучны інтэлект, які абапіраецца на вялікія і неэфектыўныя мадэлі даных, становіцца занадта дарагім для адсочвання і расследавання навуковымі коламі або ўрадам, з'яўляецца сапраўднай праблемай. Але гэта хутка выправіць. Кансорцыумы элітных акадэмічных устаноў або ўрадаў маглі б аб'яднацца і падзяліцца вылічальнымі рэсурсамі так, як яны зрабілі для суперкампутараў.

Вялікія моўныя мадэлі (LLM) - гэта мадэлі штучнага інтэлекту, якія могуць ствараць тэксты на натуральнай мове з вялікіх аб'ёмаў даных. Адна з праблем у гэтым заключаецца ў тым, што гэтыя тэксты ўзяты непасрэдна з сумленнага інтэлектуальнага ўкладу іншых людзей. Яны фактычна скрадзеныя. Generative AI, у прыватнасці, рэкамбінуе спажывецкія і арганізацыйныя даныя, а таксама творчы кантэнт, груба парушаючы аўтарскія правы. Гэта сур'ёзна, але не экзістэнцыяльна, больш за тое, ЕС, лабісты з Галівуду і кнігавыдаўцы «вялікай пяцёркі» ўжо ў справе. Чакайце, што гэта замарудзіць вага ІІ. Пры цяперашняй хуткасці ў штучнага інтэлекту скончацца добрыя навучальныя даныя задоўга да таго, як ён наблізіцца да адчувальнасці.

Алгарытмы, якія ўжо выкарыстоўваюцца для разліку нашых падаткаў, выбару нашых інтэрнэт-каналаў або пасадкі людзей у турму, маюць ашаламляльную непразрыстасць. Аднак гэта адбываецца на працягу многіх гадоў і не мае нічога агульнага з апошнімі распрацоўкамі штучнага інтэлекту. Прадузятасць штучнага інтэлекту - гэта функцыя, а не памылка. Стэрэатыпаванне - гэта, па сутнасці, асноўны падыход, праз які працуюць такія мадэлі. За выключэннем таго, што забабоны схаваны ў непранікальных пластах машынных разваг, няўлоўных для людзей, экспертаў ці не. Мы павінны сумнявацца ў мудрасці распрацоўшчыкаў, якія распрацавалі такія сістэмы, а не ў здольнасцях створанай імі сістэмы, якія з'яўляюцца дадзенасцю. Сістэмы рэдка бываюць лепшымі, чым мудрасць або намеры тых, хто іх будуе або кіруе.

Дадзеныя навучання штучнаму інтэлекту адлюстроўваюць прадузятасці, прысутныя ў грамадстве, з якога былі сабраныя гэтыя даныя. Паўторнае выкарыстанне няправільных навучальных даных з'яўляецца трывожнай практыкай, якая ўжо забруджвае мадэлі штучнага інтэлекту. Сучасныя падыходы штучнага інтэлекту проста ўзмацняюць зрушэнне, каб хутка дасягнуць выніку. Гэта, праўда, супрацьлеглае таму, што мы хочам. Мы хочам выкарыстоўваць тэхналогію для абароны ад чалавечых памылак. Турбавацца аб машынных памылках - гэта марнатраўнае выкарыстанне чалавечага інтэлекту.

Нягледзячы на ​​​​метафару "нейронавай сеткі", цяперашні штучны інтэлект зусім не падобны на мозг. Сучасныя сістэмы штучнага інтэлекту не могуць разважаць па аналогіі, як гэта робяць людзі. Гэта добра. Магчыма, мы насамрэч не жадаем такога роду ўзгаднення ІІ, за якое выступаюць фанаты і спрабуюць пераймаць. Машыны павінны адрознівацца ад людзей. Вось як мы можам максымізаваць моцныя бакі адзін аднаго. І як мы можам трымаць машыны адрознымі і асобнымі. Машыны не павінны мець ніякіх інтарэсаў для выраўноўвання.

ШІ ўсё часцей уяўляе значную пагрозу кібербяспецы як актыв для злачынцаў і варожых дзяржаў. Але кібербяспека - гэта спелая галіна з вялікай колькасцю экспертаў, добра падрыхтаваных для вырашэння гэтай задачы. Няма прычын закрываць штучны інтэлект з-за боязі кібербяспекі.

Парушэнне занятасці з-за штучнага інтэлекту было праблемай палітыкі на працягу многіх гадоў, спачатку з робатамі, цяпер з праграмнымі сістэмамі штучнага інтэлекту. Гэта азначае, што ўрады будуць гатовыя змагацца з гэтым. Даследаванне Масачусецкага тэхналагічнага інстытута "Праца будучыні" паказала, што занепакоенасць беспрацоўем з-за робатаў завышаная. Людзі заўсёды знаходзілі спосабы працаваць і будуць гэта рабіць у будучыні. Ці будзе вытворчасць трансфармавана ІІ? Гэта ўжо адбываецца, але даволі кантралявана.

Час ад часу штучны інтэлект пакутуе ад празмерна раскручаных абяцанняў адносна бягучай функцыянальнасці або будучага аб'ёму. Першыя зімы штучнага інтэлекту пачаліся ў 1974–1980 гадах, калі ўрад ЗША спыніў фінансаванне. Другі быў з 1987 па 1993 гады, калі выдаткі ўзраслі, і штучны інтэлект не змог выканаць сваіх высокіх абяцанняў.

Чакаючы з'яўлення новых парадыгм, у перыяд з 2025 па 2030 гады мы, верагодна, уступім у трэцюю зіму штучнага інтэлекту. Прынамсі, у параўнанні з гарачым летам AI, якое нам абяцаюць. Прычына ў тым, што, нягледзячы на ​​ажыятаж, па ўсіх прычынах, апісаных вышэй, вялікія моўныя мадэлі вось-вось дасягнуць сваёй максімальнай карыснасці і ў канчатковым выніку павінны быць заменены вылічальна больш элегантнымі падыходамі, якія з'яўляюцца больш празрыстымі.

Адным з такіх кандыдатаў з'яўляюцца звышмерныя вылічэнні, якія зробяць машыны разважаючымі больш эфектыўнымі, таму што яны даюць машынам семантычнае разуменне, здольнасць апрацоўваць сэнс і кантэкст, які ляжыць у аснове рэальнай інфармацыі. Зараз сістэмы штучнага інтэлекту не разумеюць ўзаемасувязі паміж словамі і фразамі, яны проста добрыя ў здагадках. Гэтага недастаткова. У рэшце рэшт нам спатрэбіцца ўвасоблены ІІ, таму што мысленне звязана з успрыманнем прасторы. Гэта дакладна так у вытворчасці, якая з'яўляецца вельмі фізічнай гульнёй. Нам таксама спатрэбіцца штучны інтэлект, здольны выкарыстоўваць такія функцыі чалавечай памяці, як расстаноўка прыярытэтаў на аснове вылучэння некаторай інфармацыі на першы план і фонавай працы іншай інфармацыі. Забыванне - гэта інструмент, які людзі выкарыстоўваюць для абстрактнага мыслення, пераходу ад састарэлых арганізацыйных практык, прыняцця рашэнняў і для таго, каб заставацца ў дадзены момант, і гэта не проста недахоп. Ні адна машына пакуль не можа зрабіць гэта вельмі добра.

Пакуль жа трэба рэгуляваць, але не ў гэтую секунду. І калі мы рэгулюем, лепш рабіць гэта добра. Дрэннае рэгуляванне штучнага інтэлекту можа пагоршыць сітуацыю. Абуджэнне рэгулятараў да гэтай праблемы можа быць карысным, але я не ўпэўнены, што цяперашняе пакаленне рэгулятараў гатова да такіх шырокіх змяненняў, якія спатрэбяцца, каб зрабіць гэта добра. Гэта пацягне за сабой згортванне магутных кампаній (магчыма, усіх біржавых кампаній), абмежаванне выкарыстання штучнага інтэлекту ў кіраванні і азначала б велізарныя змены ў тым, як цяпер працуюць спажывецкія рынкі. Па сутнасці, мы павінны былі б перабудаваць грамадства. Гэта прывядзе нас да росту на некалькі дзесяцігоддзяў раней, чым мы маглі б пажадаць. Праблема празрыстасці вакол штучнага інтэлекту можа быць больш сур'ёзнай, чым кантрольныя зменныя, якія, здаецца, усіх так хвалююць, не тое што яны не звязаны, вядома.

Больш за тое, мы не можам аднолькава хвалявацца кожны раз, калі дасягаецца эталон ІІ. Нам трэба берагчы сваю энергію для сапраўды вялікіх момантаў каскаднай рызыкі. Яны прыйдуць, а мы, па праўдзе кажучы, не падрыхтаваныя. Мае прадугледжаныя будучыя сцэнары (гл. Сцэнарыі вымірання да 2075 г.) уключаюць масіўныя ўцечкі даных, якія трымаюць цэлыя краіны зачыненымі ад іх уласных працэсаў на працягу некалькіх месяцаў. Мяне таксама хвалюе штучны інтэлект, якому дапамагаюць злачынныя групы або дзяржаўныя дзеячы. Больш за ўсё мяне хвалюе камбінацыя штучнага інтэлекту, нанатэхналогій, сінтэтычнай біялогіі і квантавай тэхналогіі - амаль нябачнага квазіарганічнага інтэлекту невядомай здольнасці, магчыма, толькі праз некалькі дзесяцігоддзяў, які адбудзецца менавіта тады, калі свет будзе паглынуты каскаднымі наступствамі клімату змяніць.

Цяперашнія мадэлі штучнага інтэлекту яшчэ не працуюць дастаткова добра, каб быць пагрозай для чалавецтва. Перш чым мы зможам разгледзець пытанне аб іх адключэнні, нам патрэбны лепшыя штучныя інтэлекты. Больш за тое, нам патрэбны больш мудрыя распрацоўшчыкі, больш інфармаваныя грамадзяне і лепш інфармаваныя палітыкі. Нам таксама патрэбна канцэпцыя таго, ЯК рэгуляваць ІІ. Але гэта можна зрабіць, нічога не запавольваючы. Гэта будзе адукацыйнае падарожжа для ўсіх. Ліст аб увядзенні мараторыя на GPT 4 (2023) - гэта воўчы момант, які толькі слаба нагадвае каскад рызык, з якімі сутыкнецца чалавецтва ў бліжэйшыя дзесяцігоддзі. Паставіць рызыку штучнага інтэлекту на ўзровень рызыкі пандэміі і ядзернай рызыкі ў 2023 годзе заўчасна. Ці дойдзем? Магчыма. Але плач ваўка мае наступствы. Гэта высмоктвае кісларод з будучых дэбатаў пра сапраўдныя страхі.

Крыніца: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/