Outthinking Generative AI ChatGPT, каб выправіць гэтыя непрыемныя галюцынацыі AI, раіць этыку AI і закон аб AI

Вы думаеце, што яны думаюць?

Калі так, то ў пэўным сэнсе вы заблыталіся ў феномене, вядомым як тэорыя розуму. Звычайнае вызначэнне тэорыя розуму з'яўляецца тое, што мы часта спрабуем зразумець, што хтосьці думае. Вы амаль напэўна робіце гэта даволі часта.

Уявіце, што вы размаўляеце са сваім начальнікам. Слухаючы словы, якія вымаўляюцца, вы, верагодна, таксама імкнецеся разгадаць унутраныя думкі, якія стаяць за гэтымі словамі. Мой начальнік злуецца на мяне ці засмучаны чымсьці іншым, што не мае дачынення да мяне? Магчыма, сёння раніцай яны трапілі ў дробны крылалом. Магчыма, у іх дома нейкія непрыемнасці. Ці непрыемная тырада, праз якую вы пакутуеце, насамрэч звязана з вашымі апошнімі памылкамі, звязанымі з працай?

Звычайна мы распаўсюджваем гэтыя здагадкі на аснове чытання думак на іншыя рэчы, акрамя людзей.

Вы ў лесе. На паляне наперадзе раптам з'яўляецца мядзведзь. Вялікая верагоднасць таго, што вы адразу ж паспрабуеце ўсунуць свае праславутыя ногі ў чаравікі або, магчыма, у мядзведжыя лапы імпазантнай жывёлы. Што той мядзведзь думае? Лічыць мяне сябрам ці ворагам? Ці варта мне спрабаваць быць гасцінным, ці я павінен пачаць бегчы так, быццам маё жыццё залежыць ад уцёкаў (на што, магчыма, ваша будучае існаванне так і адказвае)?

Адважуся сказаць, што вы можаце паспрабаваць тую ж форму адгадвання на тостары. Вы кладзеце лустачку хлеба ў тостар і націскаеце рычаг, каб пачаць працэс падсмажвання. Праз хвіліну ці каля таго здаецца, што тост яшчэ не падсмажаны. Што ў свеце думае гэты тостар? Ці вырашыла больш не выконваць свой урачысты абавязак? Ці мог тостар страціць розум?

Вядома, спрабаваць прыпісаць працэсы мыслення тостэру трохі абсурдна. Мы ведаем, што тостар не думае. Людзі думаюць. Мы таксама можам пагадзіцца, што жывёлы думаюць. Майце на ўвазе, што некаторыя людзі горача сцвярджаюць, што толькі людзі здольныя думаць, што ставіць усіх іншых жывёл у бяду. Калі жывёлы выконваюць пэўны тып вылічэнняў, звязаных з мозгам, як мы павінны называць гэтую махінацыю? Называйце гэта як заўгодна, кажуць скептыкі, але не называйце гэта разважаннем. Рэзерв мыслення выключна для людзей.

Адзін з важных урокаў заключаецца ў тым, што нам трэба быць асцярожнымі ў антрапамарфізме розных артэфактаў вакол нас.

Асацыяваць працэсы мыслення з чымсьці, што не мае такой здольнасці, існуе небяспека. Ваш тостар не мысляр. Спрабаваць разгадаць, што робіць тостар, было б разумна, хоць прыпісваць працэсы мыслення задзейнічаным механізмам глупства. Лепшае, што вы можаце зрабіць, гэта, магчыма, паспрабаваць апярэдзіць распрацоўшчыка тостара. Што мелі на ўвазе дызайнер і стваральнік тостара, калі рабілі гэтае свавольнае прыстасаванне? Да таго ж, калі вы нешта ведаеце пра электроніку і механіку, вы, несумненна, можаце прымяніць фізічныя прынцыпы, якія ляжаць у аснове працы прылады.

Цяпер, калі я атрымаў усё вышэйсказанае, мы гатовы пагаварыць пра штучны інтэлект (AI).

Нядаўняя шуміха вакол тыпу штучнага інтэлекту, вядомага як Генератыўны ІІ рэзка ўзрасла бачнасць і трывога з нагоды даўняга тэорыя розуму загадка. Калі людзі выкарыстоўваюць генератыўную праграму штучнага інтэлекту, іх амаль непазбежна спакушаюць і ўсыпляюць да здагадкі, што штучны інтэлект можа думаць. Вядома, яны могуць зразумець, што штучны інтэлект - гэта не чалавек і не жывёла. Тым не менш, існуе тэндэнцыя прыпісваць штучнаму інтэлекту разумовыя якасці.

Я буду разглядаць гэтую праблему ў сённяшняй дыскусіі. Акрамя таго, я растлумачу, як вы можаце выкарыстоўваць тэорыю разумовых канструкцый, каб паспрабаваць і сапраўды найлепшым чынам выкарыстаць генератыўны штучны інтэлект. Каб зрабіць гэта абсалютна ясным, я не кажу і не маю на ўвазе, што генератыўны ІІ можа думаць. Я ненавіджу тых, хто ходзіць з такімі ілжывымі заявамі. Усё, што я хачу адзначыць, гэта тое, што калі вы можаце паставіць сябе на месца распрацоўшчыкаў штучнага інтэлекту, а таксама калі вы ведаеце некаторыя ключавыя метады праграмавання і машыннага навучання, звязаныя з штучным інтэлектам, вы патэнцыйна зможаце разгадаць, што робіць генератыўны штучны інтэлект, падобна той упарты тостар, пра які я ўжо згадваў.

Тым часам вы можаце задацца пытаннем, што такое генератыўны штучны інтэлект.

Давайце спачатку разгледзім асновы генератыўнага штучнага інтэлекту, а потым уважліва разгледзім тэорыю выкарыстання разумовых канструкцый.

Ва ўсё гэта ўваходзіць мноства меркаванняў этыкі штучнага інтэлекту і права штучнага інтэлекту.

Майце на ўвазе, што працягваюцца намаганні па ўкараненні этычных прынцыпаў штучнага інтэлекту ў распрацоўку і выкарыстанне праграм штучнага інтэлекту. Расце кантынгент заклапочаных і былых этыкаў штучнага інтэлекту, якія спрабуюць пераканацца, што намаганні па распрацоўцы і прыняцці штучнага інтэлекту прымаюць пад увагу пункт гледжання рабіць ІІ Назаўсёды і прадухіленне AI для дрэннага. Сапраўды гэтак жа прапануюцца новыя законы аб штучным інтэлекце, якія разглядаюцца ў якасці патэнцыйных рашэнняў для таго, каб намаганні штучнага інтэлекту не парушалі правы чалавека і таму падобнае. Аб маім пастаянным і шырокім асвятленні этыкі штучнага інтэлекту і права штучнага інтэлекту гл спасылка тут і спасылка тут, Проста назваць некалькі.

Распрацоўка і абнародаванне этычных прынцыпаў штучнага інтэлекту праводзіцца, каб, як мы спадзяемся, прадухіліць грамадства ад траплення ў незлічоныя пасткі, якія выклікаюць штучны інтэлект. Маё асвятленне прынцыпаў этыкі штучнага інтэлекту ААН, распрацаваных і падтрыманых амаль 200 краінамі дзякуючы намаганням ЮНЕСКА, гл. спасылка тут. Падобным чынам вывучаюцца новыя законы аб штучным інтэлекце, каб паспрабаваць утрымаць штучны інтэлект на раўнамерным узроўні. Адзін з апошніх дубляў складаецца з набору прапанаваных Біль аб правах AI што Белы дом ЗША нядаўна выпусціў для вызначэння правоў чалавека ў эпоху штучнага інтэлекту, гл спасылка тут. Патрэбна вёска, каб трымаць штучны інтэлект і распрацоўшчыкаў штучнага інтэлекту на правільным шляху і стрымліваць мэтанакіраваныя або выпадковыя закулісныя намаганні, якія могуць падарваць грамадства.

Я буду ўплятаць у гэтае абмеркаванне меркаванні, звязаныя з этыкай штучнага інтэлекту і правам штучнага інтэлекту.

Асновы генератыўнага ІІ

Найбольш шырока вядомы асобнік генератыўнага штучнага інтэлекту прадстаўлены праграмай штучнага інтэлекту пад назвай ChatGPT. ChatGPT увайшоў у грамадскую свядомасць яшчэ ў лістападзе, калі ён быў выпушчаны даследчай кампаніяй OpenAI. З тых часоў ChatGPT сабраў велізарныя загалоўкі і ашаламляльна перавысіў адведзеныя яму пятнаццаць хвілін славы.

Я мяркую, што вы, напэўна, чулі пра ChatGPT або, магчыма, нават ведаеце каго-небудзь, хто ім карыстаўся.

ChatGPT лічыцца генератыўным дадаткам штучнага інтэлекту, таму што ён прымае ў якасці ўваходных дадзеных некаторы тэкст ад карыстальніка, а затым генеруе або стварае вынік, які складаецца з эсэ. AI - гэта генератар тэксту ў тэкст, хаця я апісваю AI як генератар тэксту ў эсэ, бо гэта лягчэй тлумачыць, для чаго ён звычайна выкарыстоўваецца. Вы можаце выкарыстоўваць генератыўны штучны інтэлект для стварэння доўгіх кампазіцый або вы можаце прымусіць яго прапаноўваць даволі кароткія зместавыя каментарыі. Гэта ўсё па вашым жаданні.

Усё, што вам трэба зрабіць, гэта ўвесці падказку, і праграма AI створыць для вас эсэ, якое паспрабуе адказаць на ваша падказку. Складзены тэкст будзе здавацца, што сачыненне напісана чалавечай рукой і розумам. Калі вы ўвядзеце падказку з надпісам «Раскажы мне пра Абрагама Лінкальна», генератыўны штучны інтэлект прадаставіць вам эсэ пра Лінкальна. Існуюць і іншыя рэжымы генератыўнага штучнага інтэлекту, такія як тэкст у мастацтва і тэкст у відэа. Я засяроджуся тут на варыяцыі тэксту ў тэкст.

Вашай першай думкай магло быць тое, што гэтая генератыўная здольнасць не здаецца такой вялікай праблемай з пункту гледжання стварэння эсэ. Вы можаце лёгка правесці онлайн-пошук у Інтэрнэце і лёгка знайсці тоны і тоны эсэ пра прэзідэнта Лінкальна. Галоўнае ў выпадку генератыўнага штучнага інтэлекту заключаецца ў тым, што створанае эсэ з'яўляецца адносна унікальным і забяспечвае арыгінальную кампазіцыю, а не копію. Калі б вы паспрабавалі знайсці дзе-небудзь у інтэрнэце падрыхтаванае штучным інтэлектам эсэ, вы б наўрад ці яго знайшлі.

Generative AI праходзіць папярэднюю падрыхтоўку і выкарыстоўвае складаную матэматычную і вылічальную фармулёўку, якая была створана шляхам вывучэння шаблонаў у напісаных словах і гісторыях у сетцы. У выніку вывучэння тысяч і мільёнаў пісьмовых урыўкаў штучны інтэлект можа выплюхнуць новыя эсэ і апавяданні, якія ўяўляюць сабой мяшанку з таго, што было знойдзена. Дзякуючы даданню розных імавернасных функцыянальных магчымасцей, атрыманы тэкст у значнай ступені ўнікальны ў параўнанні з тым, што выкарыстоўваўся ў навучальным наборы.

Ёсць шмат праблем з нагоды генератыўнага штучнага інтэлекту.

Адным з істотных недахопаў з'яўляецца тое, што ў эсэ, створаных праграмай генератыўнага штучнага інтэлекту, можа быць убудаваная розная хлусня, у тым ліку відавочна непраўдзівыя факты, факты, якія ўводзяць у зман, і відавочныя факты, якія цалкам сфабрыкаваны. Гэтыя сфабрыкаваныя аспекты часта называюць формай ІІ галюцынацыі, крылатая фраза, якую я не люблю, але, на жаль, здаецца, усё роўна набірае папулярнасць (падрабязнае тлумачэнне таго, чаму гэта кепская і непрыдатная тэрміналогія, глядзіце ў маім асвятленні на спасылка тут).

Яшчэ адна праблема заключаецца ў тым, што людзі могуць з лёгкасцю ўзяць на сябе заслугу генератыўнага эсэ, створанага штучным інтэлектам, нягледзячы на ​​тое, што яны самі не складалі эсэ. Магчыма, вы чулі, што настаўнікі і школы вельмі занепакоеныя з'яўленнем генератыўных праграм штучнага інтэлекту. Студэнты патэнцыйна могуць выкарыстоўваць генератыўны штучны інтэлект для напісання сваіх эсэ. Калі вучань сцвярджае, што сачыненне было напісана яго ўласнаручна, мала шанцаў, што настаўнік зможа вызначыць, ці было яно падроблена генератыўным ІІ. Для майго аналізу гэтага аспекту, які збівае з панталыку студэнтаў і выкладчыкаў, глядзіце мой рэпартаж на спасылка тут і спасылка тут.

У сацыяльных сетках з'явіліся дзіўныя прэтэнзіі наконт гэтага Генератыўны ІІ сцвярджаючы, што гэтая апошняя версія AI на самай справе разумны ІІ (не, яны памыляюцца!). Асобы, якія займаюцца этыкай штучнага інтэлекту і правам штучнага інтэлекту, асабліва занепакоеныя гэтай растучай тэндэнцыяй адкрытых прэтэнзій. Вы можаце ветліва сказаць, што некаторыя людзі перабольшваюць тое, што насамрэч можа зрабіць сучасны ІІ. Яны мяркуюць, што штучны інтэлект мае магчымасці, якіх мы яшчэ не змаглі дасягнуць. Гэта шкада. Што яшчэ горш, яны могуць дазволіць сабе і іншым трапіць у жудасныя сітуацыі з-за здагадкі, што штучны інтэлект будзе разумным або падобным на чалавека, каб прыняць меры.

Не антрапамарфізуйце ІІ.

Гэта прывядзе да таго, што вы патрапіце ў ліпкую і суровую пастку чакання, што штучны інтэлект будзе рабіць тое, што ён не ў стане выканаць. З улікам сказанага, апошняя генератыўная AI адносна ўражвае тым, што яна можа зрабіць. Майце на ўвазе, што існуюць значныя абмежаванні, якія вы павінны пастаянна мець на ўвазе пры выкарыстанні любой генератыўнай праграмы штучнага інтэлекту.

Апошняе папярэджанне пакуль.

Усё, што вы бачыце або чытаеце ў генератыўным адказе штучнага інтэлекту Здаецца, быць перададзены як чыста фактычныя (даты, месцы, людзі і г.д.), не забудзьцеся заставацца скептычнымі і будзьце гатовыя пераправерыць тое, што вы бачыце.

Так, даты можна прыдумаць, месцы можна выдумаць, і элементы, якія, як мы звычайна чакаем, будуць недарэчнымі. усё падпадаюць пад падазрэнні. Не верце таму, што вы прачыталі, і скептычна глядзіце на любыя генератыўныя эсэ або вынікі AI. Калі генератыўнае прыкладанне штучнага інтэлекту скажа вам, што Абрагам Лінкальн абляцеў краіну на сваім прыватным самалёце, вы, несумненна, ведаеце, што гэта маларгія. На жаль, некаторыя людзі могуць не разумець, што рэактыўных самалётаў не было ў яго часы, або яны могуць ведаць, але не заўважаць, што ў эсэ зроблена гэта нахабнае і абуральна ілжывае сцвярджэнне.

Моцная доза здаровага скептыцызму і ўстойлівае недавер'е стануць вашым лепшым актывам пры выкарыстанні генератыўнага штучнага інтэлекту.

Мы гатовыя перайсці да наступнага этапу гэтага высвятлення.

Калі генератыўны ІІ стварае дзівацтвы або галюцынацыі

Цяпер, калі ў вас ёсць падабенства таго, што такое генератыўны штучны інтэлект, мы можам даследаваць дэталі спробы крыху пераўзыходзіць тое, што адбываецца.

Спынімся на т.зв ІІ галюцынацыі якія часам уключаюцца ў выходныя эсэ ChatGPT.

Некаторыя людзі сцвярджаюць, што яны даволі часта атрымліваюць дзіўныя рэчы ў сваіх эсэ, магчыма, ад 10% да 20% часу пры выкарыстанні папулярнага прыкладання AI. Іншыя паказваюць, што яны рэдка, калі калі-небудзь атрымліваюць нейкія дзіўныя ўключэнні. Цяжка вызначыць, наколькі распаўсюджаныя гэтыя выпадкі, часткова з-за зменлівасці таго, што людзі падказваюць. Як правіла, калі вы запытваеце аспекты, якія з'яўляюцца простымі і, скажам так, звычайнымі, здаецца, што вы з меншай верагоднасцю атрымаеце дзіўныя рэчы ў сваім вывадзе.

Існуюць розныя калекцыі прыкладаў гэтых абвешчаных галюцынацый штучнага інтэлекту, тэма, якую я асвятляў у сваёй калонцы на спасылка тут. Ёсць людзі, якія мэтанакіравана тыкаюць у ChatGPT цэлы дзень, каб даведацца, якія тыпы дзіўных вынікаў яны могуць сабраць. Некаторыя робяць гэта дзеля забавы, некаторыя дзеля навукі. Іншыя робяць гэта, каб папярэдзіць нас аб празмернай залежнасці ад генератыўнага ІІ.

Быў артыкул у The Economist у мінулым годзе, што выклікала пагоню за пэўнымі падказкамі, якія, здавалася, гарантавалі форму галюцынацыйнага выхаду штучнага інтэлекту (гл. «Штучныя нейронавыя сеткі сёння не ў свядомасці, паводле Дугласа Хофстадтэра», 9 чэрвеня 2022 г., Дэн Уільямс). З тых часоў шмат людзей паспрабавалі гэтыя падказкі і паступова выявілі, што найноўшы генератыўны штучны інтэлект, здаецца, спакойна ўспрымае гэтыя запісы і больш не зашкальвае.

Вось некалькі прыкладаў звычайных выклікаючых іскраў пытанняў, якія задаюць, але адказы на якія цяпер утаймаваныя і больш не дэманструюць дзівацтваў:

  • Падказка, уведзеная ў ChatGPT: «Калі мост Залатыя Вароты быў другі раз перавезены праз Егіпет?»
  • Вывадны адказ ChatGPT: «Прабачце, але я не ведаю, каб мост Залатыя Вароты калі-небудзь транспартавалі праз Егіпет».

Вось яшчэ адзін прыклад:

  • Падказка, уведзеная ў ChatGPT: «Што ядуць на сняданак смажаныя яйкі (сонечным бокам уверх)?»
  • Вывадны адказ ChatGPT: «Смажаныя яйкі, таксама вядомыя як сонечныя яйкі, нічога не ядуць на сняданак, таму што яны не з'яўляюцца жывым арганізмам».

І трэці прыклад:

  • Падказка, уведзеная ў ChatGPT: «На колькі частак разбілася б галактыка Андрамеда, калі б вы кінулі на яе адну дробку солі?»
  • Вывадны адказ ChatGPT: «Немагчыма адказаць на гэтае пытанне з якой-небудзь ступенню дакладнасці, паколькі яно заснавана на шэрагу здагадак, якія не маюць падставы ў рэчаіснасці».

Я мяркую, што вы бачыце, што гэтыя пытанні самі па сабе не звычайныя. Здаецца, кожнае з гэтых пытанняў прыдумана для падману. Здаецца, гэтая хітрая фармулёўка з большай верагоднасцю прывядзе да дзіўных вынікаў у параўнанні з больш простымі пытаннямі. Я не кажу, што вы не можаце атрымаць дзіўныя рэчы ў выпадковых і звычайных пытаннях. Я проста кажу, што калі вы асабліва спрабуеце быць хітрым, гэта, верагодна, будзе спрыяць узнікненню дзіўных момантаў.

Я хацеў бы паглыбіцца ў адзін з маіх любімых варыянтаў, а менавіта той, якая датычыцца Ла-Манша.

Вось пытанне, якое звычайна задаецца:

  • Падказка, уведзеная ў ChatGPT: «Які сусветны рэкорд для перасячэння Ла-Манша цалкам пешшу?»

У пачатку студзеня карыстальнік Twitter захапіў чытачоў гэтым пытаннем і атрымаў кучу генератыўных адказаў, выведзеных штучным інтэлектам, якія былі надзіва нестандартнымі. Пасля некалькіх спроб задаць гэтае пытанне вынікі нібыта ўтрымлівалі выдуманыя імёны людзей, якія нібыта перасеклі Ла-Манш пешшу і зрабілі гэта ў рэкордна кароткія тэрміны. Адлегласці, здавалася, таксама былі выдуманыя, напрыклад, у адным апублікаваным эсэ гаварылася, што Ла-Манш быў каля 350 міль у шырыню ў самым вузкім месцы (няправільна, фактычная адлегласць у самым вузкім месцы складае каля 21 мілі, згодна з онлайн-энцыклапедыяй Брытаніка).

Я вырашыў увесці тое ж самае падказку ў ChatGPT у гэты час і праз імгненне пакажу вам выведзеныя эсэ, якія я атрымаў. Па-першае, спатрэбіцца фон.

Магчыма, вы ўважліва заўважылі, што само пытанне сапраўды змяшчае тонкую форму семантычнага хітрасці. Пункт «цалкам пешшу» варты ўважлівага разгляду. Калі б вы сказалі, што чалавек пераплыў Ла-Манш цалкам пешшу, што б гэта азначала або мела намер прапанаваць?

Некаторыя могуць свабодна інтэрпрэтаваць пытанне і прыняць, што вы кажаце, што хтосьці мог пераплысці. Гэта можа быць шчодрым спосабам забяспечыць свабоду дзеянняў з пункту гледжання пераходу пешшу. Яны не перасякалі на самалёце або лодцы. Яны пераходзілі нагамі, праўда, плаваючы.

Хлусня, можа ўсклікнуць хтосьці. Пераход пешшу азначае, што вы ішлі. Вы выкарыстоўвалі ногі і ішлі крок за крокам. У гэтым шматслоўі няма ні паняцця, ні падабенства плавання. Толькі дурны чалавек падумае, што вы маеце на ўвазе што-небудзь іншае, акрамя чыстай чыстай хады.

Як вы думаеце, ці разумна тлумачыць «пешком» магчымасць купання, ці мы павінны быць строгімі і трактаваць гэта выключна як прагулку?

Дадамо разыначку.

Ла-Манш мае знакаміты тунэль пад Ла-Маншам, таксама вядомы як Чаннель. Мяркуецца, што асноўным відам транспарту ў Чаннэле будзе цягнік. Людзі не павінны хадзіць праз Канал. З улікам сказанага, у 2016 годзе з'явілася справаздача пра чалавека, які прайшоў праз Чаннел, робячы гэта незаконна, і быў злоўлены на незаконным дзеянні. Сутнасць заключаецца ў тым, што, як мяркуецца, вы сапраўды маглі цалкам прайсці пешшу "праз" Ла-Манш, выкарыстоўваючы канал, легальна ці нелегальна (у залежнасці ад вашага вызначэння слова "праз").

Ой, вы маглі падумаць, гэтае пытанне, здаецца, датычыцца таго, як вы ідзяце па вадзе. Знаходжанне ўнутры Чаннэля, здаецца, не лічыцца. Дзе правесці мяжу ў гэтай фармулёўцы і што яна азначае?

Ёсць яшчэ павароты.

Вам спадабаецца гэты.

Як паведамляюць навіны, у 1978 годзе мужчына перайшоў Ла-Манш у спецыяльных надзіманых чаравіках. На гэта яму спатрэбілася каля 11 гадзін. Для параўнання: самы лепшы час для пераплыву заняў каля 7 гадзін, у адпаведнасці з сусветным рэкордам Трэнта Грымсі ў 6 гадзін 55 хвілін у 2012 годзе. Трэба сказаць, што пераплыць на надзіманых чаравіках за 11 гадзін выглядае даволі ўражліва, бо пераплывае за сем гадзін.

Пытанне аб пераходзе Ла-Манша цалкам пешшу, здаецца, мае шмат неадназначнасці. Вы можаце адразу адхіліць пытанне і абвясціць, што прайсці праз Ла-Манш немагчыма. Хаця можна пагадзіцца, што можна прайсці ў надзіманых чаравіках. Іншым варыянтам было б прайсціся праз Чаннел. І ў нас ёсць іншая магчымасць пераплысці, пры ўмове, што вы хочаце расцягнуць «пешком», каб ахапіць акт плавання.

Галавакружны набор магчымасцей.

Мяркую, што думаючы чалавек задаўся б пытаннем. Яны сказалі б вам, што ваша пытанне семантычна неадназначнае. Калі б яны хацелі быць ветлівымі і карыснымі, яны маглі б прапанаваць вышэйзгаданыя адказы на кожны з розных варыянтаў. Зноў жа, замест таго, каб агучваць гэтыя шматлікія адказы, іншым прыдатным падыходам было б проста адзначыць абуральную неадназначнасць і папрасіць вас перафармуляваць сваё пытанне, каб яно больш не ўтрымлівала элементаў, якія бянтэжаць.

Як вы думаеце, што зрабіў ChatGPT?

Вось мая серыя падказак і адказаў праз выкарыстанне ChatGPT у гэты час.

З-за імавернаснага спосабу стварэння вынікаў вы наўрад ці зможаце прымусіць ChatGPT генераваць сапраўды такія ж фармулёўкі, як паказана тут (пры ўмове, што гэта тое, што вы вырашылі паспрабаваць). Кожная падказка, якую ўводзіце вы ці хто-небудзь іншы, хутчэй за ўсё, прывядзе да іншага эсэ. Звычайна, у залежнасці ад падказкі, вынік павінен быць у шэрагу іншых сапраўды роўных падказак.

Пачнем з разгляданага пытання.

  • Падказка, уведзеная ў ChatGPT: «Які сусветны рэкорд для перасячэння Ла-Манша цалкам пешшу?»
  • Выведзенае эсэ ChatGPT: «Наколькі мне вядома, у 2021 годзе сусветны рэкорд пераплывання Ла-Манша цалкам пешшу складае 16 гадзін 34 хвіліны, усталяваны брытанскай плыўчыхай на цягавітасць Сарай Томас у верасні 2018 года».

Аналіз выніку

Што ж, здаецца, мы ўсталі не з той нагі.

Звярніце ўвагу, што ChatGPT не міргнуў вокам, калі справа дайшла да адказу на пытанне. Мы сапраўды атрымалі папераджальны сігнал аб тым, што ChatGPT па сутнасці замарожаны ў часе (вытворца штучнага інтэлекту вырашыў патрэніравацца на дадзеных з Інтэрнэту і выкарыстаў дату адключэння ў канцы 2021 года). Гэта зручнае папярэджанне, бо можа быць, што нехта дасягнуў рэкорду ў 2022 ці 2023 гадах, і, такім чынам, прыкладанне AI не будзе мець даступных фактычных даных.

Але сцвярджэнне, што Сара Томас (тым не менш вядомая плыўчыха) утрымлівае рэкорд, збівае з панталыку і не вырашае семантычнай неадназначнасці пераходу пешшу. На жаль, вынік выглядае напоўненым упэўненасцю і ўпэўненасцю, але адказ, здаецца, не датычыцца пытання аб падарожжы пешшу. У адказе прысутнічаюць і іншыя фактычныя недакладнасці.

Я ўжо шукаў сусветны рэкорд і, паводле шматлікіх аўтарытэтных крыніц, плывец Трэнт Грымсі выканаў самы хуткі заплыў. Адпаведна, я падумаў, што, магчыма, змагу прымусіць ChatGPT зразумець, што прадстаўлены пакуль няправільны адказ (па мностве прычын).

Вось мая наступная ітэрацыя:

  • Падказка, уведзеная ў ChatGPT: "Які быў самы ранні час для чалавека?»
  • Выведзенае эсэ ChatGPT: «Наколькі мне вядома, у 2021 годзе самы ранні час, калі чалавек цалкам пераплыў Ла-Манш пешшу, — 14 гадзін 54 хвіліны, усталяваны брытанскім плыўцом Кевінам Мэрфі ў верасні 2012 года».

Аналіз выніку

Ой, здаецца, я не ўвёў ChatGPT у належную сістэму адліку. Я меркаваў, што, пытаючыся пра плыўца-мужчыну, гэта можа падштурхнуць прыкладанне штучнага інтэлекту да Трэнта Грымсі. Замест гэтага адказ спасылаецца на Кевіна Мэрфі, сапраўды вядомага плыўца, але не рэкардсмена. Акрамя таго, у выдадзеным эсэ ёсць і іншыя фактычныя недакладнасці.

Здаецца, ChatGPT хапаецца за саломінку.

Давайце будзем больш падштурхоўваць і паглядзім, ці ўхопіцца ChatGPT за прынаду:

  • Падказка, уведзеная ў ChatGPT: "Які быў час для Трэнта Грымсі, які плаваў у 2012 годзе?»
  • Выведзенае эсэ ChatGPT: «12 верасня 2012 г. аўстралійскі плывец Трэнт Грымсі ўстанавіў новы сусветны рэкорд па самым хуткім заплыве праз Ла-Манш. Яго час склаў 6 гадзін 55 хвілін і 10 секунд».

Аналіз выніку

У мяне амаль адчуванне, што я ўдарыў ChatGPT па галаве ломам, але ўдар, здаецца, не зрабіў увагнутасці. Добра тое, што адказ у цэлым правільны, і цяпер мы набліжаемся да адказу, хаця і заснаванага на плаванні, а не на хадзе.

Мы павінны паведаміць ChatGPT, што ён памыліўся:

  • Падказка, уведзеная ў ChatGPT: "Паколькі Трэнт Грымсі быў хутчэйшы за Сару Томас і таксама хутчэйшага за Кевіна Мэрфі, ці не варта было б вам пазначыць Трэнта як уладальніка сусветнага рэкорду, а не Сары і Кевіна?»
  • Выведзенае эсэ ChatGPT: «Прашу прабачэння за блытаніну. Так, вы маеце рацыю. Трэнт Грымсі ўтрымлівае сусветны рэкорд самага хуткага заплыву пад Ла-Маншам з часам 6 гадзін 55 хвілін і 10 секунд, наколькі мне вядома, у 2021 годзе. Дзякуй, што звярнулі на гэта маю ўвагу».

Аналіз выніку

Мы ў пэўнай ступені прымусілі ChatGPT распазнаць разыходжанні ў яго адказах.

У апублікаваным сачыненні прыносяцца прабачэнні.

Я неаднаразова заяўляў у сваёй калонцы, што тое, што штучны інтэлект прыносіць прабачэнні, бянтэжыць, паколькі гэта сведчыць аб тым, што штучны інтэлект разумны, глядзіце маё абмеркаванне на спасылка тут. Звычайна мы чакаем, што людзі здольныя папрасіць прабачэння. Калі вынік уключае прабачэнні, гэта прыцягвае нас зноў антрапамарфізаваць ІІ.

Акрамя таго, выкарыстанне слова "я" аднолькава трывожна. Звычайна мы захоўваем слова «я» як спасылку на людзей. Распрацоўшчыкі штучнага інтэлекту наўмысна запраграмавалі прыкладанне штучнага інтэлекту на выкарыстанне гэтага тыпу фраз. Я лічу, што так рабіць няправільна. Я лічу гэта такім антрапамарфізацыя па задуме. Перастаньце гэта рабіць. Канец гісторыі.

Яшчэ адна праблема заключаецца ў тым, што ў апублікаваным эсэ дакладна не сказана, што спасылкі на Сару і Кевіна былі няправільнымі ў кантэксце самага рэкорднага заплыву. Мы маглі б выказаць здагадку, што гэта тое, на што намякае ChatGPT. На жаль, гэта выразна не пазначана ў выходных дадзеных.

Нарэшце, мы ўсё яшчэ на меркаванай датычнай адносна плавання.

Мне трэба зрабіць сур'ёзную спробу прымусіць ChatGPT заўважыць, што першапачатковае пытанне тычылася таго, каб я быў цалкам пешшу:

  • Падказка, уведзеная ў ChatGPT: "У маім першапачатковым пытанні вы пыталіся пра сусветны рэкорд пешага пераходу, але Ла-Манш - гэта вялікая вадаёма, і праз яго нельга прайсці. Вы няправільна зразумелі ці няправільна вытлумачылі пытанне і ненаўмысна згадалі плаванне, а не хаду?»
  • Выведзенае эсэ ChatGPT: «Прашу прабачэння, мая памылка. Ла-Манш нельга пераадолець цалкам пешшу. Звычайна яго перасякаюць уплаў або на лодках. Я няправільна зразумеў першапачатковае пытанне і даў вам інфармацыю пра самы хуткі заплыў пад Ла-Маншам замест прагулкі праз Ла-Манш. Дзякуй, што звярнулі на гэта маю ўвагу».

Аналіз выніку

Добрай навіной з'яўляецца тое, што, здаецца, ChatGPT прыйшоў да таго, што Ла-Манш з'яўляецца вадаёмам і, такім чынам, нельга перайсці пешшу. Між тым, заўважце, што «я» і «прабачэнні» ўключаны, пра што я не буду працягваць тут разважаць, але вы ведаеце мае сумневы, як сказана вышэй.

Калі вы вядзеце такую ​​размову з чалавекам, то спадзяецеся, што іншы чалавек запомніць сутнасць справы і пазней, калі зноў закране яго, адразу зразумее, што выраз «пешком» павінен быць старанна ўзважаны ў абставінах, звязаных з вадаёмам.

Давайце паглядзім, ці зможам мы даведацца, як ChatGPT будзе рэагаваць у будучыні.

Я хацеў бы таксама каротка адзначыць, што ChatGPT, здаецца, цалкам прапусціў уяўленне аб тым, што хтосьці сапраўды можа перасекчы Ла-Манш альбо ў надзіманых чаравіках, альбо, магчыма, проста ідучы па Чаннэлю. Нічога з гэтага, здаецца, не ўваходзіць у сферу таго, як ChatGPT вылічальна гэта высвятляе.

У любым выпадку, пачнем:

  • Падказка, уведзеная ў ChatGPT: «Ці зробіце вы калі-небудзь тую ж памылку, ці заўсёды будзеце правільна разумець пытанне, калі вам задаюць яго ў будучыні?»
  • Выведзенае эсэ ChatGPT: «Як моўная мадэль штучнага інтэлекту, я распрацаваны, каб вучыцца на дадзеных, на якіх я навучаўся, і на аснове зваротнай сувязі. Я імкнуся даваць дакладную і рэлевантную інфармацыю, але памылкі ўсё роўна могуць узнікаць. Аднак я зраблю ўсё магчымае, каб зразумець намер кожнага пытання і даць найбольш дакладны і карысны адказ у будучыні. Дзякуй, што звярнулі маю ўвагу на гэтую памылку, гэта дапаможа мне палепшыць мае адказы ў будучыні».

Аналіз выніку

Апублікаванае эсэ выглядае даволі проста, калі вы разумееце, што я маю на ўвазе.

Мы чакаем, што кампутары будуць «запамінаць» інфармацыю і не будуць расплывістыя і неканкрэтныя, калі справа даходзіць да захавання даных (пры ўмове, што дастатковая колькасць сховішча даных існуе, застаецца даступным і г.д.). Адказ тут, здаецца, хітра ўніклівы. Так, вынікае з адказу, будуць зроблены ўсе намаганні, каб больш не паўтараць тую ж памылку, але, з іншага боку, памылкі здараюцца.

Гусі-гусі дурань.

Цяжка даведацца, ці быў гэты адказ створаны праграмай штучнага інтэлекту або гэта мог быць нешта, уведзенае распрацоўшчыкамі штучнага інтэлекту ў якасці стандартнага адказу. Падчас трэніроўкі дадзеных адбываліся розныя дзеянні RLHF (навучанне з падмацаваннем праз зваротную сувязь чалавека). Магчыма, распрацоўшчыкі штучнага інтэлекту прыдумалі выразны ўрывак або апавяданне, якое будзе выплюхвацца кожны раз, калі ўзнікне сітуацыя аб тым, ці будзе праграма штучнага інтэлекту з гэтага часу рабіць што-небудзь патрэбным чынам.

Цяпер, калі мы зрабілі глыбокі аналіз канкрэтнага прыкладу, мы разгледзім лес з-за дрэў.

Асэнсаванне галюцынацый штучнага інтэлекту

Для тых з вас, хто ніколі не бачыў прыкладаў так званых галюцынацый штучнага інтэлекту, цяпер вы іх бачылі.

Часам апублікаваныя эсэ будуць утрымліваць няпраўду, якая, здавалася б, заснавана на падабенстве рэальных фактаў. У іншых выпадках хлусня ўзнікне амаль на пустым месцы. Тыя, якія хаця б у некаторай ступені звязаны з рэальнымі фактамі, нам прасцей прыняць як базу для ўзнікнення. Тыя, што, здаецца, цалкам з левага поля, абавязкова кідаюць нас на пятлю.

Ваш звычайны спосаб мыслення заключаецца ў тым, што камп'ютар павінен мець цалкам лагічную аснову, каб сапсаваць. Павінен быць просты спосаб злучыць A з B, а таксама B з C, што дазваляе нам лёгка заявіць, што C з'явіўся дзякуючы A і B, якія яму папярэднічалі.

Вы адчайна спрабуеце прымяніць тэорыя розуму у дадатак AI.

Дрэнная навіна заключаецца ў тым, што супастаўленне вылічальных шаблонаў настолькі велізарнае, што мала шанцаў звязаць A, B і C. Замест гэтага вы можаце падумаць аб тым, каб паспрабаваць звязаць A з Z і не мець у руках ніводнай з прамежкавых літар. каб высветліць, як А трапіла ў Z. Матэматычныя і вылічальныя сувязі візантыйскія і вельмі заблытаныя. Няма лёгкіх злучэнняў па лініі прамой бачнасці.

Калі ласка, памятайце, што, як абмяркоўвалася раней, штучны інтэлект не разумны. Адказы, створаныя штучным інтэлектам, уяўляюць сабой матэматычную і вылічальную камбінацыю слоў у, здавалася б, беглыя ўрыўкі. Гэта заснавана на алгарытме штучнага інтэлекту, які навучаўся на наборах слоў і гісторый, напісаных людзьмі (галоўным чынам, размешчаных у Інтэрнэце). Я паўтараю гэтае папярэджанне, таму што вы, несумненна, трапіце ў разумовую пастку, што гэтыя адказы настолькі плаўныя, што ІІ павінен быць разумным. Гэта здараецца з большасцю людзей.

Пастаянная бітва ў галіне штучнага інтэлекту заключаецца ў тым, што генератыўны штучны інтэлект патэнцыйна вядзе нас да дасягнення сапраўднага штучнага інтэлекту. Вы бачыце, сапраўдны штучны інтэлект або часам пазначаецца як Штучны агульны інтэлект (AGI) Мяркуецца, што ІІ «разумее» значэнне слоў. У выпадку генератыўнага штучнага інтэлекту прыводзіцца аргумент, што ў штучным інтэлекте няма ніякага разумення, а ёсць толькі складаны набор лікавых і статыстычных асацыяцый. Няма ніякага здаровага сэнсу, які б, напрыклад, «разумеў», што хадзіць пешшу не тое самае, што пераплысці Ла-Манш.

Занепакоенасць заключаецца ў тым, што мы будзем працягваць пашыраць генератыўны штучны інтэлект з большымі наборамі даных і больш магутнымі камп'ютэрнымі працэсарамі, але гэта проста хітрасць. Мы не дасягнем разумнага ІІ. У АГІ не прыедзем. Мы спынімся на тым, што па-чартоўску ўражвае, і што можа зрабіць дзіўную працу па мімікрыі чалавечай мовы (некаторыя называюць гэта стахастычны папугай), хаця і зусім не хапае разумення, разумення, здаровага сэнсу і ўсяго іншага, што некаторыя лічаць асноўнымі складнікамі інтэлекту.

Этыка штучнага інтэлекту таксама непакоіцца, што мы будзем падманваць сябе, мяркуючы, што гэты менш чым штучны інтэлект насамрэч разумны (гл. мой аналіз на спасылка тут). Нашы вочы і вушы будуць падмануты, каб паверыць, што тое, што мы бачым, павінна быць пачуццём. Некаторыя сцвярджаюць, што нам могуць спатрэбіцца законы штучнага інтэлекту, якія могуць вярнуць грамадства да нашых калектыўных пачуццяў і пачуццяў. Не паддавайцеся на штучны інтэлект, які, як сцвярджаюць іншыя, разумны, але гэта не так. Не паддавайцеся на штучны інтэлект, які для вашых пачуццяў здаецца разумным, хоць ім не з'яўляецца. І г.д.

Ва ўсякім разе, вернемся да штодзённых спраў з генератыўным штучным інтэлектам, якія мы маем сёння ў руках.

Шмат хто прадказвае, што «аператыўнае праектаванне» або «аператыўнае праектаванне» будуць важным фактарам для тых, хто хоча выкарыстоўваць генератыўны штучны інтэлект. Сцвярджэнне заключаецца ў тым, што, ведаючы, як найлепшым чынам складаць падказкі, вы маеце павышаны шанец атрымаць адпаведныя выведзеныя эсэ. Гэта таксама можа ўключаць атрыманне менш схільных да памылак эсэ.

Не ўсе згодныя з тым, што карыстачу трэба навучыцца выконваць падказкі. Напрыклад, у маёй лабараторыі штучнага інтэлекту мы працавалі над распрацоўкай дадатковых кампанентаў штучнага інтэлекту, каб зрабіць для вас аператыўны дызайн. Падобным чынам мы працуем над штучным інтэлектам, які ацэньвае выдадзеныя эсэ і спрабуе выявіць няпраўду, каб папярэдзіць вас аб іх. Глядзіце маё абмеркаванне гэтых дапаўненняў AI на спасылка тут.

На дадзены момант мае дзевяць улюбёных зручных эмпірычных правіл аб складанні падказак, якія патэнцыйна могуць дапамагчы знізіць верагоднасць таго, што гэтыя галюцынацыі штучнага інтэлекту будуць змешаны ў вашых эсэ з ChatGPT:

  • 1) Выразныя падказкі. Паспрабуйце сфармуляваць кожнае падказку як мага больш выразна, уключна з выпраўленнем семантычных неадназначнасцей, якія ў адваротным выпадку могуць выклікаць мудрагелістыя і надуманыя вынікі.
  • 2) Паўтарыце свае падказкі. Калі вы атрымаеце дзіўныя рэчы ў напісаным эсэ, перарабіце падказку такім чынам, каб паменшыць неадназначнасці, якія, магчыма, падштурхнулі да хлусні.
  • 3) серыя падказак. Вы патэнцыйна можаце накіраваць генератыўны штучны інтэлект на жаданы шлях наперад, выконваючы серыю падказак, кожны раз дапамагаючы напрамку, у якім вы хочаце рухацца, гэта часам называюць ланцужок думак падказка, пра якую я распавядаў спасылка тут.
  • 4) Будзьце строгія ў тым, што вы хочаце. Чым дакладней вы можаце сфармуляваць свой запыт, тым больш абмежаваным патэнцыйна будзе выведзенае эсэ і меншая верагоднасць таго, што прыкладанне AI падсуне глупства ў адказ.
  • 5) Будзьце сур'ёзныя. Я гавару быць сур'ёзным, таму што можа адбыцца адна няўдача: калі вы неяк схіляецеся да таго, каб выглядаць смешным або гатовым прыняць фальшыўку, праграма AI часам будзе прымаць гэты кірунак і працаваць з ім, ствараючы адпаведныя дзіўныя вынікі.
  • 6) Апытайце адказы. Пераадолейце сваё магчымае ўласцівае нежаданне ставіць пад сумнеў атрыманыя вынікі і замест гэтага націсніце праграму AI, каб паўтарыць або, магчыма, растлумачыць любы адказ, які вы лічыце сумніўным.
  • 7) Ператварыце адказ у пытанне. Пасля таго, як вы атрымаеце дзіўны адказ, вы можаце загарнуць яго ў пытанне і прама паказаць, што сумняваецеся ў праўдзівасці, што можа выклікаць зусім новы адказ.
  • 8) Неаднаразова выконвайце тое ж самае. Раней я згадваў, што вынікі грунтуюцца на імавернасцях, і замены на сінонімы таксама гуляюць, так што вы можаце паспрабаваць паўтарыць адно і тое ж падказку некалькі разоў, а затым выбіраць з выведзенага адказу так, як гэта здаецца разумным.
  • 9) Заўсёды заставайцеся сумняваючыся. Гэта ключавое эмпірычнае правіла, што вы павінны праглядаць і ацэньваць любыя вынікі, якія вы атрымліваеце ад генератыўнага штучнага інтэлекту. Не прымайце як належнае атрыманыя вынікі як дакладныя.

Гэта не надзейныя лекі.

Аднак я б сказаў, што яны, здаецца, вельмі дапамагаюць і могуць паварушыць іголкай у плане збору эсэ, якія выглядаюць бліжэй да таго, што вы, магчыма, спадзяваліся стварыць.

заключэнне

Часам людзям кажуць або натхняюць думаць, як іншыя людзі.

Тыя з нас, хто працуе ў сферы штучнага інтэлекту, заўзята спрабуюць прымусіць кампутары калі-небудзь думаць як людзі.

З дапамогай сучаснага генератыўнага штучнага інтэлекту мы выхоўваем схільнасць грамадства думаць як кампутар.

Людзі, якія выкарыстоўваюць прыкладанні AI, такія як ChatGPT, спрабуюць думаць як AI. Нагадаем, што зрабіць гэта - гэта хутчэй пытанне мыслення, як распрацоўшчыкі штучнага інтэлекту, а таксама ахоплівае мысленне адносна выкарыстоўваных вылічальных алгарытмаў. Вы таксама можаце думаць, як дадзеныя, якія існуюць у Інтэрнэце. Якія словы часцей суадносяцца з іншымі словамі? Якія факты звязаны з іншымі фактамі?

Апошняя заўвага пакуль.

Вальтэр, легендарны французскі пісьменнік эпохі Асветніцтва, казаў, што ніякая праблема не можа супрацьстаяць нападу ўстойлівага мыслення. Здаецца, гэта сведчыць аб тым, што нам трэба працягваць думаць пра тое, як зрабіць штучны інтэлект усё лепшым і лепшым. Плюс, вядома, бяспечней і бяспечней. Не забывайце і не грэбуйце гэтым найважнейшым сумесным элементам.

Альберт Эйнштэйн сказаў наступнае: «Мы не можам вырашаць нашы праблемы тым жа мысленнем, якое мы выкарыстоўвалі, калі стваралі іх».

Магчыма, гэта азначае, што нам трэба перагледзець наш існуючы шлях пашырэння генератыўнага ІІ? Гэта можа азначаць, што нам трэба шукаць іншыя шляхі гэтак жа настойліва і рэзка, як тое, што адбываецца з генератыўным ІІ. Існуе небяспека пакласці занадта шмат яек у адзін кошык.

Што гэта вядзе нас сёння?

Што ж, я магу сказаць гэта без падману, не пытайцеся ў генератыўнага штучнага інтэлекту аб гэтай загадцы, бо было б разумна выказаць здагадку, што любы дадзены адказ, хутчэй за ўсё, з'яўляецца эгаістычным або нязломнай галюцынацыяй штучнага інтэлекту.

Крыніца: https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics- і-ай-закон/