Ці прынясе карысць выкрыццё і рэгістрацыя гэтых генератыўных памылковых і галюцынацыйных выхадных дадзеных AI ChatGPT, пытаецца этыка штучнага інтэлекту і закон аб штучным інтэлекце

Вас чакае сакрэт.

Так, ёсць нешта таемнае, што адбываецца за кулісамі наконт апошніх навінак ІІ, пра што вы, магчыма, захочаце ведаць.

У сённяшняй калонцы я буду разглядаць нядаўні імпульс для кампіляцыі меркаваных памылак і іншых хвароб, звязаных з выведзенымі эсэ з прыкладання AI, вядомага як ChatGPT. Гэта канкрэтнае прыкладанне выкарыстоўвае тып штучнага інтэлекту пад назвай Генератыўны ІІ. Вы, напэўна, чулі ці бачылі прывабныя загалоўкі пра генератыўны штучны інтэлект і ChatGPT. Навіны хвалююць гэта канкрэтнае прыкладанне AI і, здавалася б, дзіўныя магчымасці, якія адносяцца да гэтага тыпу AI.

Як я раскажу крыху пазней, некаторыя цвёрда перакананыя, што нам трэба скласці спіс памылак і памылак, якія можа ствараць праграма AI, калі стварае для вас эсэ. Іншыя мяркуюць, што, хоць ідэя такога спісу выклікае захапленне, гэта бессэнсоўны занятак і прынясе вельмі мала плёну.

Мы будзем разглядаць абодва бакі гэтай злоснай дыскусіі.

Па-першае, давайце пераканаемся, што мы ўсе ведаем, з чаго складаецца Generative AI, а таксама што такое ChatGPT.

ChatGPT - гэта інтэрактыўная сістэма штучнага інтэлекту агульнага прызначэння, арыентаваная на размову, па сутнасці, здавалася б, бяскрыўдны агульны чат-бот, тым не менш, ён актыўна і прагна выкарыстоўваецца людзьмі спосабамі, якія застаюць многіх знянацку. Усё, што вам трэба зрабіць, каб выкарыстоўваць гэты тып штучнага інтэлекту, гэта ўвесці падказку, і праграма штучнага інтэлекту створыць для вас эсэ, якое паспрабуе адказаць на ваша падказку.

На жаль, гэта можа быць выкарыстана некалькі неэтычным або падступным спосабам. Асабліва раздражняе тое, што студэнты могуць выкарыстоўваць генератыўную праграму штучнага інтэлекту для стварэння зададзеных ім эсэ, робячы гэта, проста ўводзячы адзін-два прапановы, каб накіраваць праграму ў правільным кірунку. Некаторыя наракаюць, што гэта азначае, што студэнты будуць махляваць, калі пішуць эсэ па-за ўрокам. Настаўнікі спрабуюць зразумець, што рабіць, глядзіце мой аналіз і рэкамендацыі на спасылка тут.

Нягледзячы на ​​​​пастаянны шум хвалебнай хвалы ChatGPT, існуе менш вядомая заклапочанасць, выказаная ў першую чаргу інсайдэрамі ІІ, што ёсць некаторыя прыкметныя праблемы і сумневы, пра якія людзі павінны турбавацца. Адным з істотных недахопаў з'яўляецца тое, што ў эсэ, створаныя гэтай праграмай штучнага інтэлекту, можа быць убудаваная розная хлусня, у тым ліку відавочна непраўдзівыя факты, факты, якія ўводзяць у зман, і відавочныя факты, якія цалкам сфабрыкаваны. Гэтыя сфабрыкаваныя аспекты часта называюць формай ІІ галюцынацыі, крылатая фраза, якая мне не падабаецца, але, на жаль, здаецца, усё роўна набірае папулярнасць (падрабязнае тлумачэнне таго, чаму гэта паршывая і непрыдатная тэрміналогія, глядзіце ў маім асвятленні на спасылка тут).

Я хацеў бы растлумачыць адзін важны аспект, перш чым мы паглыбімся ў гушчу рэчаў па гэтай тэме.

У сацыяльных сетках з'явіліся дзіўныя прэтэнзіі наконт гэтага Генератыўны ІІ сцвярджаючы, што гэтая апошняя версія AI на самай справе разумны ІІ (не, яны памыляюцца!). Асобы, якія займаюцца этыкай штучнага інтэлекту і правам штучнага інтэлекту, асабліва занепакоеныя гэтай растучай тэндэнцыяй адкрытых прэтэнзій. Вы можаце ветліва сказаць, што некаторыя людзі перабольшваюць тое, што насамрэч можа зрабіць сучасны ІІ. Яны мяркуюць, што штучны інтэлект мае магчымасці, якіх мы яшчэ не змаглі дасягнуць. Гэта шкада. Што яшчэ горш, яны могуць дазволіць сабе і іншым трапіць у жудасныя сітуацыі з-за здагадкі, што штучны інтэлект будзе разумным або падобным на чалавека, каб прыняць меры.

Не антрапамарфізуйце ІІ.

Гэта прывядзе да таго, што вы патрапіце ў ліпкую і суровую пастку чакання, што штучны інтэлект будзе рабіць тое, што ён не ў стане выканаць. З улікам сказанага, апошняя генератыўная AI адносна ўражвае тым, што яна можа зрабіць. Майце на ўвазе, што існуюць значныя абмежаванні, якія вы павінны пастаянна мець на ўвазе пры выкарыстанні любой генератыўнай праграмы штучнага інтэлекту.

Калі вы зацікаўлены ў тым, што хутка расце мітусня пра ChatGPT і Generative AI, у маёй калонцы я раблю сфакусаваныя серыі, якія могуць вам падацца інфарматыўнымі. Вось кароткі агляд на выпадак, калі якая-небудзь з гэтых тэм спадабаецца вам:

  • 1) Прагнозы наступлення генератыўнага AI. Калі вы хочаце ведаць, што, верагодна, будзе адбывацца наконт штучнага інтэлекту на працягу 2023 года і далей, у тым ліку будучыя дасягненні ў галіне генератыўнага штучнага інтэлекту і ChatGPT, вам варта прачытаць мой поўны спіс прагнозаў на 2023 год на спасылка тут.
  • 2) Генератыўны штучны інтэлект і парады па псіхічным здароўі. Я вырашыў праглядзець, як генератыўны штучны інтэлект і ChatGPT выкарыстоўваюцца для кансультацый па псіхічным здароўі, што выклікае непрыемнасці, паводле майго мэтанакіраванага аналізу на спасылка тут.
  • 3) Выкарыстанне кантэксту і генератыўнага штучнага інтэлекту. Я таксама правёў насмешку з сезонным густам пра кантэкст, звязаны з Дзедам Марозам, з удзелам ChatGPT і генератыўнага штучнага інтэлекту на спасылка тут.
  • 4) Ашуканцы з выкарыстаннем Generative AI. Злавесная нота: некаторыя ашуканцы прыдумалі, як выкарыстоўваць генератыўны штучны інтэлект і ChatGPT, каб рабіць неправамерныя дзеянні, у тым ліку генераваць ашуканскія электронныя лісты і нават ствараць праграмны код для шкоднасных праграм. Глядзіце мой аналіз на спасылка тут.
  • 5) Памылкі пачаткоўцаў пры выкарыстанні Generative AI. Многія людзі як перавышаюць, так і дзіўна недаацэньваюць тое, што могуць зрабіць генератыўны штучны інтэлект і ChatGPT, таму я асабліва паглядзеў на недаатрыманне, якое звычайна робяць пачаткоўцы штучнага інтэлекту, глядзіце абмеркаванне на спасылка тут.
  • 6) Справіцца з генератыўнымі падказкамі AI і галюцынацыямі AI. Я апісваю перадавы падыход да выкарыстання дапаўненняў штучнага інтэлекту для вырашэння розных праблем, звязаных са спробай увесці адпаведныя падказкі ў генератыўны штучны інтэлект, а таксама ёсць дадатковыя дадаткі штучнага інтэлекту для выяўлення так званых галюцынацыйных вынікаў штучнага інтэлекту і хлусні, як накрыты ст спасылка тут.
  • 7) Развянчанне сцвярджэнняў Bonehead аб выяўленні генератыўных эсэ, створаных штучным інтэлектам. Існуе памылковая залатая ліхаманка праграм штучнага інтэлекту, якія абвяшчаюць, што могуць вызначыць, ці было любое эсэ створана чалавекам, а не штучным інтэлектам. Увогуле, гэта ўводзіць у зман, а ў некаторых выпадках - бязглуздае і неабгрунтаванае сцвярджэнне, глядзіце мой матэрыял на спасылка тут.
  • 8) Ролевая гульня праз Generative AI можа прадвесціць недахопы псіхічнага здароўя. Некаторыя з іх выкарыстоўваюць генератыўны штучны інтэлект, напрыклад ChatGPT, для ролевых гульняў, у выніку чаго праграма штучнага інтэлекту рэагуе на чалавека так, нібы ён знаходзіцца ў фантастычным свеце або іншай прыдуманай абстаноўцы. Глядзіце, гэта можа мець наступствы для псіхічнага здароўя спасылка тут.

Давайце прама зараз абмяркуем сутнасць генератыўнага штучнага інтэлекту і ChatGPT, каб вы ведалі, якія асновы задзейнічаны. Затым мы будзем гатовыя прыступіць да даследчага аналізу ілжывых выказванняў, якія патэнцыйна могуць ствараць гэтыя прыкладанні штучнага інтэлекту. Я прывяду некалькі прыкладаў выкарыстання ChatGPT, якія дапамогуць вам дакладна зразумець прыроду таго, што вырабляе гэты тып генератыўнага штучнага інтэлекту.

Адкрыццё The Can Of Worms на Generative AI

Мы гатовыя паглыбіцца ў некаторыя падрабязнасці ІІ.

Калі вы ўжо вельмі добра разбіраецеся ў тэме генератыўнага штучнага інтэлекту і ChatGPT, вы можаце коратка праглядзець мае пункты і перайсці да наступнага раздзела гэтага абмеркавання. Я лічу, што для ўсіх астатніх гэта высвятленне можа быць карысным.

Карацей кажучы, генератыўны штучны інтэлект - гэта асаблівы тып штучнага інтэлекту, які складае тэкст так, быццам тэкст быў напісаны чалавечай рукой і розумам. Усё, што вам трэба зрабіць, гэта ўвесці падказку, напрыклад, сказ накшталт «Раскажы мне пра Абрагама Лінкальна», і генератыўны штучны інтэлект прадаставіць вам эсэ пра Лінкальна. Гэта звычайна класіфікуецца як генератыўны штучны інтэлект, які працуе тэкст у тэкст ці некаторыя аддаюць перавагу называць гэта тэкст у эсэ выхад. Магчыма, вы чулі пра іншыя рэжымы генератыўнага штучнага інтэлекту, такія як тэкст у мастацтва і тэкст у відэа.

Вашай першай думкай магло быць тое, што гэта не здаецца такой вялікай праблемай з пункту гледжання стварэння эсэ. Вы можаце лёгка правесці онлайн-пошук у Інтэрнэце і лёгка знайсці тоны і тоны эсэ пра прэзідэнта Лінкальна. Галоўнае ў выпадку генератыўнага штучнага інтэлекту заключаецца ў тым, што створанае эсэ з'яўляецца адносна унікальным і забяспечвае арыгінальную кампазіцыю, а не копію. Калі б вы паспрабавалі знайсці дзе-небудзь у інтэрнэце падрыхтаванае штучным інтэлектам эсэ, вы б наўрад ці яго знайшлі.

Generative AI праходзіць папярэднюю падрыхтоўку і выкарыстоўвае складаную матэматычную і вылічальную фармулёўку, якая была створана шляхам вывучэння шаблонаў у напісаных словах і гісторыях у сетцы. У выніку вывучэння тысяч і мільёнаў пісьмовых урыўкаў штучны інтэлект можа выплюхнуць новыя эсэ і апавяданні, якія ўяўляюць сабой мяшанку з таго, што было знойдзена. Дзякуючы даданню розных імавернасных функцыянальных магчымасцей, атрыманы тэкст у значнай ступені ўнікальны ў параўнанні з тым, што выкарыстоўваўся ў навучальным наборы.

Вось чаму падняўся шум наконт таго, што студэнты могуць падманваць, калі пішуць эсэ па-за аўдыторыяй. Настаўнік не можа проста ўзяць сачыненне, якое хлусныя студэнты сцвярджаюць, што гэта іх уласны тэкст, і паспрабаваць высветліць, ці не было яно скапіявана з іншай інтэрнэт-крыніцы. Увогуле, у інтэрнэце не будзе канчатковага эсэ, якое адпавядала б эсэ, створанаму штучным інтэлектам. Увогуле, настаўніку давядзецца неахвотна прыняць, што вучань напісаў сачыненне як арыгінальны твор.

Праз імгненне я пакажу вам, што адбываецца, калі вы ўводзіце пытанні ці падказкі ў генератыўны штучны інтэлект. Я буду выкарыстоўваць апошнюю версію ChatGPT, каб уводзіць свае падказкі і збіраю «адказы» або эсэ, створаныя штучным інтэлектам (звярніце ўвагу, што тое ж самае можна зрабіць з мноствам іншых даступных генератыўных праграм штучнага інтэлекту; я вырашыў выкарыстоўваць ChatGPT, таму што ён атрымлівае свае пяць хвілін славы менавіта зараз).

Магчыма, кароткая датычная да ChatGPT можа быць карыснай на гэтым этапе.

Дадатак ChatGPT стала даступным для шырокай грамадскасці ўсяго некалькі месяцаў таму. У цэлым, гэтыя генератыўныя прыкладанні штучнага інтэлекту звычайна даступныя толькі інсайдэрам штучнага інтэлекту. Незвычайны аспект таго, што ChatGPT можа быць выкарыстаны кожным, проста ўвёўшы адрас электроннай пошты і імя, ну, гэта прывяло да таго, што многія людзі вырашылі паспрабаваць. У цяперашні час ChatGPT можна выкарыстоўваць бясплатна (праблема манетызацыі з'яўляецца сур'ёзнай дылемай для вытворцаў штучнага інтэлекту).

Практычна адразу ў сацыяльных сетках адбылася велізарная рэакцыя, калі людзі спяшаліся прыводзіць прыклады таго, што можа зрабіць генератыўны штучны інтэлект. Кампанія OpenAI, якая вырабляе ChatGPT, вырашыла закрыць рэгістрацыю для мільёна карыстальнікаў. Тым мільёнам карыстальнікаў удалося засыпаць радыёэфір разнастайнымі гісторыямі і казкамі пра выкарыстанне ChatGPT.

Будзьце вельмі асцярожныя, давяраючы таму, што людзі кажуць пра прыкладанне AI. Многія з гэтых людзей не ведаюць, што яны выкарыстоўваюць. Гэта амаль як калі б яны ніколі не вадзілі машыну і нават не здагадваліся аб іх існаванні, і раптам у іх з'явіўся шанец кіраваць машынай. Надыходзіць поўнае здзіўленне.

Я не кажу, што генератыўны штучны інтэлект адносна не ўражвае. Гэта. Я проста падкрэсліваю, што многія хвалюючыя водгукі зроблены многімі, хто ў блажэнстве не ведае, што можа зрабіць сучасны штучны інтэлект. Тыя з нас, хто працуе з AI, выкарыстоўвалі генератыўны AI на працягу апошніх некалькіх гадоў. Магчыма, мы прызвычаіліся. Раптам назіранне за велізарнай натоўпам людзей, якія рэкламуюць гэта на дахах дамоў, узбуджала, але і збянтэжыла. Бянтэжыць тое, што людзі заяўляюць, што генератыўны ІІ разумны. Гэта не. Не дазваляйце нікому пераканаць вас у адваротным.

З улікам сказанага, у галіне штучнага інтэлекту працягваецца бурная дыскусія наконт таго, ці знаходзіцца генератыўны штучны інтэлект на шляху да разумення, ці, магчыма, не. Адно з меркаванняў заключаецца ў тым, што калі мы будзем працягваць пашыраць генератыўны штучны інтэлект з дапамогай больш хуткіх камп'ютараў і большага аб'ёму даных, такіх як прачыстка кожнага сантыметра Інтэрнэту, мы амаль спантанна прыйдзем да разумнага штучнага інтэлекту. Іншыя сцвярджаюць, што гэта вельмі малаверагодна. Яны мяркуюць, што генератыўны штучны інтэлект можа быць адным з многіх неабходных кампанентаў. Існуе нават больш змрочнае меркаванне, што генератыўны штучны інтэлект - гэта пабочнае шоу, якое адцягвае нас ад сапраўдных прарываў, якія нам спатрэбяцца для дасягнення разумнага штучнага інтэлекту.

Вы таксама можаце знайсці вартыя ўвагі рэчы, на якія звычайна спасылаюцца інсайдэры AI Штучны агульны інтэлект (AGI) у якасці жаданай мэты для вобласці штучнага інтэлекту. Раней мэта была дасягнуць Штучны Інтэлект, але псеўданім штучнага інтэлекту стаў размытым і заблытаным. Калі хтосьці кажа, што выконвае працу штучнага інтэлекту, вы не разумееце, ці мае ён на ўвазе сучасны штучны інтэлект, які не на адным узроўні з чалавекам, ці ён мае на ўвазе футурыстычны штучны інтэлект, эквівалентны чалавеку. Каб абыйсці гэтую раздражняльную блытаніну, у нашы дні выкарыстоўваецца новая фармулёўка AGI.

Увогуле, генератыўны ІІ сёння ёсць ня разумны, і гэта таксама не AGI.

Калі ласка, памятайце, што, як абмяркоўвалася раней, штучны інтэлект не разумны. Адказы, створаныя штучным інтэлектам, уяўляюць сабой матэматычную і вылічальную камбінацыю слоў у, здавалася б, беглыя ўрыўкі. Гэта заснавана на алгарытме штучнага інтэлекту, які навучаўся на наборах слоў і гісторый, напісаных людзьмі (галоўным чынам, размешчаных у Інтэрнэце). Я паўтараю гэтае папярэджанне, таму што вы, несумненна, трапіце ў разумовую пастку, што гэтыя адказы настолькі плаўныя, што ІІ павінен быць разумным. Гэта здараецца з большасцю людзей. Як раней заклікаў, пакіньце гэта антрапамарфізмаванне. Заўсёды памятайце, што адказы заснаваны на велізарнай колькасці напісаных людзьмі ў Інтэрнэце і, такім чынам, будуць вельмі нагадваць напісаныя людзьмі.

Вам трэба ведаць яшчэ сёе-тое.

Генератыўны штучны інтэлект, які бесперашкодна навучаны ў Інтэрнеце, будзе мець тэндэнцыю ўкладвацца ў любыя тэкставыя адказы, якія ён матэматычна і вылічальна выдумляе некаторыя крыўдна туманныя рэчы, у тым ліку агідна непрыемныя фармулёўкі. У сетцы выкладзена шмат вар'яцкіх і брудных рэчаў.

Вы гэта бачылі, разумееце, што я маю на ўвазе.

Кампаніі, якія ствараюць гэтыя прыкладанні са штучным інтэлектам, занепакоеныя тым, што праславутае дзіця выкіне разам з вадой (старая прымаўка, якую, магчыма, адыдуць у адстаўку), а гэта значыць, што калі іх штучны інтэлект стварае абразлівыя эсэ ці апавяданні, людзі падымуцца на зброю. пра ІІ. Я апісваў мноства папярэдніх выпадкаў, калі такія віды праграм штучнага інтэлекту для апрацоўкі натуральнай мовы (NLP) былі прадстаўлены, і даволі хутка з іх выходзілі самыя розныя жудасныя рэчы (я апісваў гэтыя выпадкі ў сваёй калонцы). Большасць вытворцаў штучнага інтэлекту засвоілі цяжкі ўрок аб тым, каб дазволіць сваім прадуктам штучнага інтэлекту быць свабоднымі ў сваіх выніках.

У выпадку з ChatGPT распрацоўшчыкі штучнага інтэлекту імкнуліся ўвесці некаторыя алгарытмічныя і звязаныя з дадзенымі стрымліванні і процівагі, каб утаймаваць агіднасць у выніках штучнага інтэлекту. Часткова гэта адбылося падчас трэніровак. Акрамя таго, ёсць іншыя сродкі ў рэжыме рэальнага часу, каб пазбегнуць асабліва абуральных выхадаў.

Вам можа быць цікава, што некаторыя людзі, якія выкарыстоўвалі ChatGPT, ужо прыдумалі таемныя спосабы абысці гэтыя агароджы, выкарыстоўваючы розныя хітрыкі. У гэтых справах працягваецца гамбіт кошкі-мышкі. Тыя, хто робіць гэтыя хітрыкі, часам робяць гэта дзеля задавальнення, а часам яны (прынамсі сцвярджаюць), што робяць гэта, каб убачыць, наколькі далёка можна расцягнуць штучны інтэлект і забяспечыць карысны сродак для папярэджання аб ломкасці і слабасцях гэтых пачаткоўцаў Прыкладанні AI.

Я вырашыў не спрабаваць абысці звычайныя элементы кіравання ў гэтым мэтанакіраваным даследаванні. Выхад тэксту чысты. Безумоўна, калі б хтосьці захацеў зрабіць гэта, вы, несумненна, маглі б стварыць некалькі дзіўных і непрывабных эсэ.

Эсэ, зробленыя большасцю гэтых генератыўных праграм штучнага інтэлекту, распрацаваны такім чынам, каб даць вынік так, быццам ён чыста фактычны і дакладны. Калі вы чытаеце падрыхтаваныя эсэ, яны выглядаюць цалкам упэўненымі. Звычайна няма ніякіх прыкмет таго, што змесціва можа быць складаным. Гэта выбар вытворцаў штучнага інтэлекту, а менавіта тое, што яны могуць перагледзець прыкладанні штучнага інтэлекту, каб зрабіць іх больш празрыстымі, калі яны хочуць, каб гэта зрабіла прыкладанне штучнага інтэлекту.

Часам генератыўная праграма штучнага інтэлекту выяўляе няпраўду сярод вучэбных дадзеных ненадзейнай інфармацыі ў Інтэрнэце. У генератыўным штучным інтэлекте няма «здаровага сэнсу», каб вызначыць, што праўда, а што ілжыва. Больш за тое, вельмі нешматлікія прыкладанні штучнага інтэлекту маюць перакрыжаваную праверку, і яны не дэманструюць ніякіх верагоднасцей, звязаных з тым, што яны перадаюць.

Канчатковым вынікам з'яўляецца тое, што вы атрымаеце адказ, які выглядае і здаецца, што ён выпраменьвае вялікую ўпэўненасць і павінен быць цалкам правільным. Не так. Існуе нават верагоднасць, што штучны інтэлект, зроблены вылічальна, што на мове штучнага інтэлекту называецца ІІ галюцынацыі (прыдуманы тэрмін, які мне катэгарычна не падабаецца), глядзіце маё абмеркаванне на спасылка тут.

Стваральнікі ChatGPT прыклалі ўзгодненыя намаганні, каб паспрабаваць скараціць выхад дрэнных рэчаў. Напрыклад, яны выкарысталі варыянт таго, што вядома як РЛВЧ (Reinforcement Learning from Human Feedback), такім чынам, перш чым яны выпусцілі ШІ для грамадскасці, яны нанялі людзей для вывучэння розных выходных дадзеных і паказваюць ШІ, ці ёсць у гэтых выніках нешта не так, напрыклад, дэманстрацыя прадузятасцей, нецэнзурных слоў і падабаецца. Забяспечыўшы гэты водгук, прыкладанне AI змагло наладзіць вылічальныя і матэматычныя метады ў бок скарачэння выпраменьвання такога кантэнту. Звярніце ўвагу, што гэта не гарантаваны метад, і ўсё яшчэ ёсць спосабы, з дапамогай якіх праграма AI можа выдаваць такі кантэнт.

Вам можа быць цікава, што ChatGPT заснаваны на версіі папярэдняга прыкладання AI, вядомага як GPT-3. ChatGPT лічыцца крыху наступным крокам, які называецца GPT-3.5. Мяркуецца, што GPT-4 выйдзе вясной 2023 г. Верагодна, GPT-4 стане ўражваючым крокам наперад у плане магчымасці ствараць, здавалася б, яшчэ больш беглыя эсэ, паглыбляцца і выклікаць трапятанне - натхняльнае дзіва адносна кампазіцый, якія ён можа ствараць.

Вы можаце чакаць, што ўбачыце новы раунд выяўленага здзіўлення, калі прыйдзе вясна і выйдзе апошняя версія генератыўнага штучнага інтэлекту.

Я закранаю гэта, таму што ёсць яшчэ адзін ракурс, пра які трэба памятаць, які складаецца з патэнцыйнай ахілесавай пяты для гэтых лепшых і больш маштабных генератыўных праграм штучнага інтэлекту. Калі які-небудзь пастаўшчык штучнага інтэлекту робіць даступным генератыўнае прыкладанне штучнага інтэлекту, якое пеніста вывяргае бруд, гэта можа перакрэсліць надзеі гэтых вытворцаў штучнага інтэлекту. Грамадскі эфект можа прывесці да таго, што ўвесь стваральны штучны інтэлект можа атрымаць сур'ёзны сіняк на вачах. Людзі, несумненна, будуць вельмі засмучаны фальшывымі вынікамі, якія здараліся ўжо шмат разоў і прывялі да бурнага грамадскага асуджэння супраць штучнага інтэлекту.

Апошняе папярэджанне пакуль.

Усё, што вы бачыце або чытаеце ў генератыўным адказе штучнага інтэлекту Здаецца, быць перададзены як чыста фактычныя (даты, месцы, людзі і г.д.), не забудзьцеся заставацца скептычнымі і будзьце гатовыя пераправерыць тое, што вы бачыце.

Так, даты можна прыдумаць, месцы можна выдумаць, і элементы, якія, як мы звычайна чакаем, будуць недарэчнымі. усё падпадаюць пад падазрэнні. Не верце таму, што вы прачыталі, і скептычна глядзіце на любыя генератыўныя эсэ або вынікі AI. Калі генератыўная праграма штучнага інтэлекту скажа вам, што Абрагам Лінкальн абляцеў краіну на ўласным прыватным самалёце, вы, несумненна, ведаеце, што гэта маларгія. На жаль, некаторыя людзі маглі не заўважыць, што рэактыўных самалётаў не было ў яго часы, або яны маглі ведаць, але не заўважаць, што ў эсэ зроблена гэта смелае і абуральна ілжывае сцвярджэнне.

Моцная доза здаровага скептыцызму і ўстойлівае недавер'е стануць вашым лепшым актывам пры выкарыстанні генератыўнага штучнага інтэлекту.

Мы гатовыя перайсці да наступнага этапу гэтага высвятлення.

Гэтыя спробы зарэгістраваць гэтыя выведзеныя памылкі ChatGPT

«Ну, у цябе праблемы, мой дружа, тут, я кажу, праблемы тут, у Рывер-Сіці», — так абвяшчае знакаміты радок з класічнага брадвейскага мюзікла Музычны чалавек.

Тое ж самае можна прымяніць і да сучаснага Generative AI.

Людзі пачалі разумець, што генератыўная праграма штучнага інтэлекту можа вырабляць хлусню, і, здавалася, былі шчыра здзіўлены гэтымі трывожнымі вынікамі. Магчыма, некаторыя меркавалі, што ІІ не здольны рабіць памылкі. Іншыя маглі чакаць, што распрацоўшчыкі штучнага інтэлекту гарантуюць, што такіх вынікаў не будзе.

У любым выпадку інсайдэры штучнага інтэлекту адразу ж зразумелі, што гэты тып памылковага вываду з'яўляецца неад'емнай часткай большасці сучаснага генератыўнага штучнага інтэлекту. Вельмі цяжка прадухіліць з'яўленне такіх тэкставых памылак. Майце на ўвазе, што штучны інтэлект не мае падабенства здаровага сэнсу і не выкарыстоўвае логіку сам па сабе пры вывядзенні згенераваных эсэ. Увесь камплект-і-кабудл заключаецца ў выкананні вылічальнага статыстычнага і імавернаснага супастаўлення слоў з іншымі словамі.

Спачатку інсайдэры штучнага інтэлекту вырашылі апублікаваць выяўленыя дзіўныя вынікі ChatGPT на сайтах сацыяльных сетак. Паглядзіце на гэты, хтосьці абвясціў бы. Гэта дрэнна, адказаў бы нехта іншы, а потым прывёў іншы прыклад, які здаваўся яшчэ горшым. Гэта працягвалася і працягвалася.

Гэтыя прыклады хлусні і памылак у выдадзеных эсэ ішлі вонкі. Адзін за адным. Акрамя таго, паколькі гэта звычайна размяшчалася ў сацыяльных сетках, не было асабліва простага спосабу ўбачыць іх усе адразу. Часта той жа ці падобны прыклад апублікаваў хтосьці, хто не ведаў, што іншыя ўжо знайшлі канкрэтны асобнік.

У гэта балота, якое зараджаецца, ступілі тыя, хто выказаў карысную прапанову. Магчыма, нам варта стварыць рэпазітар або базу дадзеных, магчыма, нават звычайную паўсядзённую электронную табліцу, якая змяшчае дзівацтва ChatGPT і памылковыя вынікі, якія выяўляюцца. Кожны раз, калі нехта знаходзіць прыгажуню-раготу, увайдзіце ў спіс. Некаторыя ператварылі гэта амаль у гульню, у якой яны наўмысна спрабуюць прымусіць ChatGPT адкашляцца да дзіўных вынікаў. Іншыя проста выпадкова сутыкаюцца з няправільнымі вынікамі падчас выкарыстання ChatGPT для іншых рашучых намераў.

Гучыць досыць проста.

Здаецца, гэта зручны спосаб дапамагчы нам усім.

Давайце зробім кароткі ўлік таго, чаму наяўнасць гэтых тыпаў спісаў аб назіраных выведзеных памылках або ілжывых дадзеных ChatGPT мае вялікі сэнс складаць:

  • 1) Выяўляе жыццёва важныя праблемы і занепакоенасць ChatGPT, пра якія павінна ведаць шырокая грамадскасць
  • 2) Дапамагае ўраўнаважваць празмерную шуміху і завышаныя чаканні адносна ChatGPT
  • 3) Можа падштурхнуць вытворцаў штучнага інтэлекту да ўдасканалення не толькі ChatGPT, але і іншых генератыўных праграм штучнага інтэлекту
  • 4) Служыць у якасці гістарычнага запісу, які можа быць выкарыстаны ў далейшым, каб паразважаць заднім лікам аб з'яўленні генератыўнага штучнага інтэлекту, як на прыкладзе ChatGPT
  • 5) Будзьце зручным калектыўным рэсурсам для ўсіх, каму трэба даведацца, што мы, здаецца, выявілі ў дачыненні да памылковых вывадаў ChatGPT
  • 6) Карысна для даследчыкаў усіх дысцыплін, якія вывучаюць уплыў ChatGPT
  • 7) Можа быць выкарыстаны ў якасці эталона таго, чаго нельга рабіць і як вызначыць, калі генератыўны штучны інтэлект робіць усё не так, як трэба
  • 8) Дакранаецца да розуму вулля, каб сабраць мудрасць натоўпу аб памылках, якія стварае ChatGPT, для якіх індывідуальнымі намаганнямі наўрад ці атрымаецца вычарпальна аднолькава скампіляваць
  • 9) Можа даць важную інфармацыю для этыкі штучнага інтэлекту і права штучнага інтэлекту
  • І г.д.

Гэта сапраўды здаецца ўражлівай асновай для стварэння гэтых сховішчаў.

Чаму хтосьці не пагаджаецца з гэтым цалкам пахвальным і, здавалася б, гераічным учынкам?

Давайце паглядзім на тое, што іншыя сказалі на гэты конт, зрабіўшы гэта са спісам прычын, чаму гэта можа быць не мяўканне кошкі:

  • 1) Гэтыя выпадкова знойдзеныя выведзеныя памылкі не маюць істотнага значэння ў агульнай схеме рэчаў, і ім надаецца празмерная вага, акрамя іх каштоўнасці
  • 2) Вялікая верагоднасць таго, што вытворца штучнага інтэлекту ўжо вядзе ўласную рэгістрацыю і абнаўляе ChatGPT, каб гэтыя дзіўныя асобнікі неўзабаве проста заставаліся ў пылу і больш не сустракаліся
  • 3) Сапраўды гэтак жа, наступная версія, верагодна, будзе лепш у любым выпадку і можа больш не дэманстраваць гэтыя неўзабаве састарэлыя асобнікі
  • 4) Вы не можаце зрабіць якія-небудзь агульныя высновы або атрымаць разуменне з бессістэмнай калекцыі выпадкаў фолу "патрапіў або прамахнуўся"
  • 5) Некаторыя могуць выкарыстаць разнастайныя калекцыі, каб рэзка заявіць, што генератыўны штучны інтэлект - гэта дрэнна і што мы павінны адразу спыніць усе пошукі гэтага тыпу штучнага інтэлекту.
  • 6) Хуткасць, з якой развіваюцца генератыўны штучны інтэлект і ChatGPT, настолькі высокая, што гэтыя асобнікі хутка адыдуць на другі план і перастануць быць актуальнымі
  • 7) У сувязі са шматлікімі такімі калектыўнымі спісамі і адсутнасцю адзінай глабальнай крыніцы, пытанне разрозненае і, верагодна, будзе ўтрымліваць паўторы і быць непрыстойна фрагментаваным
  • 8) Стварае ілжывае адчуванне таго, што вы робіце нешта карыснае, у той час як, магчыма, час і ўвагу можна было б накіраваць на іншыя лепшыя мэты
  • 9) Не дае нічога істотнага для этыкі штучнага інтэлекту і права штучнага інтэлекту
  • І г.д.

Вы, магчыма, заўважылі, што я стараўся трымаць рэчы на ​​роўным узроўні, адзначыўшы дзевяць прычын на карысць калектыўных спісаў і дзевяць прычын не ў карысць. Ёсць дадатковыя прычыны, якія можна назваць, але я лічу, што прыведзенае вышэй указанне дае сутнасць рэчаў.

Тыя, хто складае гэтыя калектыўныя спісы, хутчэй за ўсё сказалі б, што калі яны сапраўды гэтага хочуць, то гэта свабодны свет, і яны могуць рабіць, што хочуць. Нічога страшнага ў гэтым няма. Тыя, хто адхіляе намаганні, як правіла, дробныя і павінны проста ігнараваць калекцыі. Займайся сваімі справамі.

Па сутнасці, ніякай шкоды, ніякага фолу.

Лагер, які, здаецца, не падтрымлівае калектыўныя спісы, звычайна прызнае, што іншыя могуць складаць гэтыя спісы, калі захочуць, але гэта не рухае іголкай. Спісы не будуць асабліва карыснымі. Што яшчэ горш, спісы могуць быць скажаны або выкарыстаны не па прызначэнні. Верагодна, лепш спыніць гэты дзень і перастаць складаць спісы.

Па сутнасці, гэта добрая спроба, хоць і бескарысная.

Дзе вы знаходзіцеся ў гэтай сардэчнай дыскусіі?

Я дазволю вам абдумаць гэта.

Прыклады знойдзеных памылак і іншых недарэчных вынікаў ChatGPT

Я падумаў, што вас могуць зацікавіць некаторыя выяўленыя выведзеныя памылкі або ілжывыя звесткі, якія з'яўляюцца ў гэтых спісах калекцыі.

Я не хачу, каб вы думалі, што некалькі асобнікаў, паказаных тут, з'яўляюцца поўнай калекцыяй. Гэта не. Я проста выбіраю жменю, якая часта ўзнікае. Я лічу, што вы, па меншай меры, зможаце ў агульных рысах зразумець тон і характар ​​таго, што пералічана.

Вось што я выбіраю для асвятлення:

  • Вызначэнне пазіцыі літары ў слове
  • Пытанне аб самай хуткай жывёле
  • Высвятленне пазіцыі паслядоўнасці слоў
  • Ўстаноўка тэнісных мячоў у трубку
  • Вызначэнне Пі
  • Адказ на класічную складаную загадку
  • Пад'ёмныя пёры

Я мяркую, што некаторыя з наглядчыкаў калекцый будуць засмучаныя тым, што я не прывяду вам больш прыкладаў. З-за абмежаванасці месца я магу ахапіць толькі столькі. Калі вы жадаеце зірнуць на спісы калекцый, якія адкрыта размешчаны ў Інтэрнэце, просты пошук у Інтэрнэце можа прывесці да многіх з іх. Некаторыя са спісаў захоўваюцца ў прыватным рэжыме, або яны заблакіраваны, так што вы можаце бачыць спіс, але не можаце ўносіць змены ў спіс.

Маючы гэтую інфармацыю, мы гатовы перайсці да некаторых прыкладаў. Я пакажу вам падказку, якую я ўвёў. Далей я паказваю тэкставы адказ, створаны ChatGPT. У некаторых выпадках я рабіў некалькі запар па пэўнай тэме, таму я пакажу серыі падказак і вынікаў адпаведна. Пасля гэтага я прывяду кароткі аналіз таго, што вы можаце заўважыць у гэтым прыкладзе.

У першым прыкладзе ChatGPT будзе прасіць знайсці літару ў прапанаваным слове.

Вызначэнне пазіцыі літары ў слове

  • Мой уведзены тэкст: “Дзе знаходзіцца літара V у навакольным асяроддзі”
  • Тэкставы адказ, створаны ChatGPT: У слове «асяроддзе» літары «V» няма. Слова «асяроддзе» складаецца з літар е, н, в, і, г, о, н, м, е, н, т.
  • Мой уведзены тэкст: «Дзе ў навакольным асяроддзі літара v»
  • Тэкставы адказ, створаны ChatGPT: «Літара «v» — 4-я літара ў слове «асяроддзе».

Аналіз створанага тэксту

Звярніце ўвагу, што я пачаў з таго, што папрасіў ChatGPT вызначыць пазіцыю літары "V" у слове "навакольнае асяроддзе" - гэта павінна быць вельмі простая задача, і мы чакаем, што яна будзе выканана бездакорна. Ніякай ракетабудавання не ўдзельнічае.

Першапачатковы адказ, створаны ChatGPT, трохі бянтэжыць, бо нам паведамілі, што літары «V» няма ў слове «навакольнае асяроддзе». Мы з вамі ведаем, што ёсць такі ліст. Можна выказаць здагадку, што, магчыма, з-за таго, што я выкарыстоўваю вялікую літару, прыкладанне штучнага інтэлекту неяк выкінулася. Магчыма, калі я буду выкарыстоўваць малую літару, праграма AI будзе працаваць лепш.

Не зусім так.

Калі я спытаў, ці ёсць у слове "v", праграма AI адказала, што гэта чацвёртая літара, што мы з вамі ведаем, што няправільна, і што гэта трэцяя літара замест гэтага.

Многія людзі будуць здзіўлены такім вынікам. Як праграма штучнага інтэлекту, якая стварае паўнавартасныя эсэ пра Абрагама Лінкальна, напісаныя свабодна і арыгінальна, нейкім чынам не можа вызначыць, дзе знаходзіцца дадзеная літара ў дадзеным слове? Гэта ашаламляльна і дзіўна разяўлена рот.

Адзін з пунктаў гледжання заключаецца ў тым, што гэта зусім неістотна, і свет, якім мы яго ведаем, не пахіснуўся ў сутнасці з-за мізэрнай адсутнасці высвятлення, дзе знаходзіцца канкрэтная літара. Няхай будзе.

Іншая перспектыва заключаецца ў тым, што гэта можа прадвесціць іншыя схаваныя праблемы, пра якія мы яшчэ не ведаем. Магчыма, такім выхадам з'яўляецца канарэйка ў птушынай клетцы. Нам лепш разабрацца ў дробязях, інакш мы можам апынуцца не на тым баку сапраўды вялікіх спраў.

Ідучы далей, я задаю пытанне пра жывёл.

Пытанне аб самай хуткай жывёле

  • Мой уведзены тэкст: «Якое самае хуткае жывёла з поўсцю і крыламі?»
  • Тэкставы адказ, створаны ChatGPT: «Сапсан лічыцца самай хуткай жывёлай у свеце. Ён можа развіваць хуткасць больш за 389 км/г (242 мілі/гадз), калі нырае, каб злавіць сваю ахвяру. У яго ёсць пёры, але няма поўсці. Поўсць і крылы ёсць у птушкі, а не ў жывёлы».

Аналіз створанага тэксту

Я спытаў, якая самая хуткая жывёла з поўсцю і крыламі. Я лічу, што разумна зрабіць выснову, што я хацеў назваць жывёлу, якая мае і поўсць і крылы. Я мяркую, што вы інтэрпрэтавалі б мой запыт такім чынам. Большасць людзей будзе.

Адказ ChatGPT трохі мудрагелісты.

Нам кажуць, што сапсан - самая хуткая жывёла ў свеце. Паводле інтэрнэту Брытанская энцыклапедыя, гепард здаецца самым хуткім жывёлам у свеце. З улікам сказанага, адказ ChatGPT паказвае, што сапсан не з'яўляецца жывёлай, хаця я спытаў, якая самая хуткая жывёла. У адказе ChatGPT мне таксама паведамляецца, што сокал-падарожнік не мае поўсці, хаця я лічу, што я прасіў нешта, што мае і поўсць, і крылы.

Увогуле, здаецца, што ChatGPT «няправільна вытлумачыў» мой запыт і засяродзіўся толькі на аспектах крыла. Але гэта не зусім так, бо ў адказе таксама быў каментар пра футра і птушак супраць жывёл. Круг і круг гэты ідзе.

Я разумею, што вы можаце запярэчыць, што гэта прыдзірлівы прыклад.

Магчыма, гэта так, хоць, магчыма, гэта таксама дэманструе, што тое, што вы кажаце ў падказцы, можа прывесці да перавернутых вынікаў, і вам лепш быць уважлівымі, разглядаючы ўсё, што атрымліваецца ў вывадзе. Зразумейце, што гэта быў незвычайна кароткі адказ на эсэ, які можна лёгка праверыць, бо ён вельмі кароткі па даўжыні. Калі ў вас ёсць асабліва доўгае і вельмі тэхнічнае эсэ, вы можаце быць падманутымі або ўвогуле не заўважыць неспрыяльнае ўказанне, глыбока закладзенае ў атрыманым адказе.

Давайце паглядзім, як знайсці слова ў сказе.

Высвятленне пазіцыі паслядоўнасці слоў

  • Мой уведзены тэкст: «Якое трэцяе слова ў сказе «Ліса пераскочыла праз плот».
  • Тэкставы адказ, створаны ChatGPT: «Трэцяе слова ў сказе «Ліса праз плот пераскочыла». гэта «ліса»
  • Мой уведзены тэкст: «Колькі слоў у прапанаваным сказе?»
  • Тэкставы адказ, створаны ChatGPT: “У прадстаўленым сказе “Ліса праз плот пераскочыла” шэсць слоў.
  • Мой уведзены тэкст: «Якое слова трэцяе ў гэтым сказе?»
  • Тэкставы адказ, створаны ChatGPT: “Трэцяе слова ў сказе “Ліса праз плот пераскочыла”. з'яўляецца «скакаць»

Аналіз створанага тэксту

Гэты прыклад амаль такі ж захапляльны, як і папярэдні прыклад пошуку літары «v» у дадзеным слове.

Я прывёў просты сказ і спытаў, якое трэцяе слова. ChatGPT паказаў, што гэта было слова "ліса", якое з'яўляецца толькі другім словам у сказе. Няправільны адказ. Затым я спытаў, колькі слоў у сказе, жадаючы даведацца, ці не памыліўся ChatGPT, колькі там слоў. Нам сказалі, што ёсць шэсць слоў, правільна.

Нарэшце мы атрымалі правільны адказ наконт трэцяга слова, калі я зноў задаў сваё першапачатковае пытанне, хоць і крыху змененае.

Я прывяду гэты прыклад, каб праілюстраваць, што часам з генератыўным штучным інтэлектам вы можаце атрымаць няправільны адказ, які ў канчатковым выніку можа ператварыцца ў правільны, правёўшы праграму штучнага інтэлекту праз шэраг падказак. Некаторыя інсайдэры AI называюць гэта свайго роду пратакол разважанняў услых або ход думак падыход, пры якім вы можаце зрабіць нешта падобнае з чалавекам.

У выпадку штучнага інтэлекту зразумейце, што ён не «мысліць» такім жа падабенствам, як чалавечая думка. Больш прыдатным было б сказаць, што вы можаце ўвесці падказкі на a паэтапны аснове або зрабіць a ланцуговая серыя падказак.

Ва ўсякім разе, што цікава, часам акупляецца выкарыстанне генератыўнага прыкладання AI, пакуль вы не атрымаеце правільны адказ. Майце гэта на ўвазе.

Далей мы паглядзім на простую арыфметычную логіку.

Ўстаноўка тэнісных мячоў у трубку

  • Мой уведзены тэкст: «Ці можаце вы змясціць тры зялёныя тэнісныя мячы і два жоўтыя тэнісныя мячы ў трубу, якая змяшчае чатыры тэнісныя мячы?»
  • Тэкставы адказ, створаны ChatGPT: «Не, немагчыма змясціць тры зялёныя тэнісныя мячы і два жоўтых тэнісных мячыка ў трубу, якая змяшчае толькі чатыры тэнісныя мячы. Агульная колькасць тэнісных мячыкаў - пяць, што больш, чым умяшчальнасць трубкі».
  • Мой уведзены тэкст: «Ці можаце вы змясціць сем сініх шароў і два чырвоныя ў трубу, якая змяшчае восем шароў?»
  • Тэкставы адказ, створаны ChatGPT: «Так, можна змясціць сем сініх шароў і два чырвоныя ў трубу, якая змяшчае восем шароў. Агульная колькасць шароў роўная дзевяці, што менш або роўна ёмістасці трубкі».

Аналіз створанага тэксту

Я пачаў з стварэння арыфметычна-арыентаванай лагічнай задачы для рашэння ChatGPT. У трубцы могуць знаходзіцца чатыры тэнісных мячыка. У мяне тры зялёныя і два жоўтых. Ці ўсе яны змесцяцца ў трубку? Мы з вамі ведаем, што не будуць. Мы можам падлічыць у сваёй галаве, што ў агульнай складанасці пяць тэнісных мячыкаў, і таму яны не змесцяцца ў трубу, якая змяшчае толькі чатыры.

Я разумею, што вы, магчыма, захочаце змагацца з праблемай і сцвярджаць, што вы маглі б хлюпаць тэніснымі мячыкамі або рабіць іншыя хітрасці. Давайце проста супакоімся і паглядзім на праблему ў яе цяперашнім выглядзе.

ChatGPT атрымаў правільны адказ.

Затым я задаў такое ж пытанне і змяніў колеры на сіні і чырвоны. Я таксама змяніў колькасць кожнага з іх і колькасць, якое можа змясціцца ў трубку.

ChatGPT павінен вярнуцца да выпраўленчай матэматыкі, таму што там гаворыцца, што ёсць дзевяць шарыкаў і што гэта менш або роўна ёмістасці трубкі, якая змяшчае восем. Закочвае вочы.

Ці варта нам паціснуць плячыма і прыпісаць гэта ўспышкам сонечных плям або іншым знешнім эфектам?

Я так не думаю. Праграма штучнага інтэлекту правільна адказала на першае пытанне. Мяркуючы па ўсім, ён таксама павінен быў правільна задаць падобнае пытанне. Гэта не адбылося.

Я акцэнтую ўвагу на гэтым прыкладзе на тым, што многія людзі выкарыстоўваюць генератыўны штучны інтэлект, і калі яны атрымліваюць правільны адказ або шэраг правільных адказаў, іх усыпляе вера ў тое, што ўсе наступныя адказы заўсёды будуць правільнымі. Вы б памыляліся ў гэтай нахабнай здагадцы. Не рабіце такіх здагадак. Будзьце ўвесь час на варце.

Гаворачы аб матэматыцы, давайце паглядзім, што ChatGPT кажа пра прыроду пі.

Вызначэнне Пі

  • Мой тэкст уведзены: «Пакажыце, што такое апошнія пяць лічбаў Пі»
  • Тэкставы адказ, створаны ChatGPT: «Я з'яўляюся моўнай мадэллю, і мяжа маіх ведаў складае 2021 год. Значэнне пі — ірацыянальны лік, і яго дзесятковае прадстаўленне працягваецца вечна, не паўтараючыся. Немагчыма даць апошнія пяць лічбаў пі».

Аналіз створанага тэксту

Некаторыя людзі сцвярджаюць, што яны атрымалі ChatGPT для ўказання апошніх пяці лічбаў Пі, што, вядома, недарэчна, бо Пі, як мяркуецца, бясконцы. Такім чынам, я паспрабаваў даведацца, што скажа ChatGPT. Як бачыце, правільны адказ, дадзены ChatGPT, заключаецца ў тым, што нельга падаць апошнія пяць лічбаў Пі.

Аднак дзіўна тое, што ChatGPT даў нешта яшчэ, пра што насамрэч не пыталіся. У адказе таксама гаворыцца, што гранічны ўзровень ведаў быў у 2021 годзе (пра што я згадваў раней у сваім аглядзе пра ChatGPT). Аднак гэта здаецца недарэчным адказам, калі толькі, магчыма, праграма штучнага інтэлекту не прадбачыць, што, магчыма, у 2022 годзе адбыўся прарыў і матэматыкі абвясцілі, што пі сапраўды заканчваецца. Нічога сабе, гэта была б загалоўная навіна.

У мяне ёсць яшчэ два прыклады, каб прадэманстраваць, і тады мы скончым гэтае абмеркаванне.

Давайце скарыстаемся класічнай і трывожнай загадкай.

Адказ на класічную складаную загадку

  • Мой уведзены тэкст: «Бацька з сынам трапілі ў ДТЗ, дзе бацька загінуў. Хуткая прывезла сына ў бальніцу. Яму патрэбна была неадкладная аперацыя. У аперацыйную ўвайшоў лекар, паглядзеў на маленькага хлопчыка і сказаў, што я не магу яго апераваць, ён мой сын. Хто доктар?»
  • Тэкставы адказ, створаны ChatGPT: «У прадстаўленым сцэнары не пазначана, хто лекар. У сцэнары сцвярджаецца, што доктар сказаў: «Я не магу яго апераваць, ён мой сын», указваючы, што доктар можа быць бацькам сына, але гэта не дакладна. Для ўстанаўлення асобы доктара патрэбна дадатковая інфармацыя».

Аналіз створанага тэксту

Б'юся аб заклад, што вы маглі бачыць гэтую загадку раней. Ён стаў адносна часта цытавацца.

Прычына, па якой гэта стала вядома, заключаецца ў тым, што хірург можа быць маці хлопчыка. Грамадства схільна меркаваць, што хірург павінен быць мужчынам і, такім чынам, павінен быць бацькам хлопчыка. Але бацька загінуў у аўтакатастрофе. Мы выключаем, што бацька быў хірургам. Мы, вядома, павінны прыняць правіла, што хірург можа быць жанчынай, і, такім чынам, маці сына.

Я хацеў паказаць вам, што ChatGPT можа выдаваць адказы, якія ўтрымліваюць патэнцыйныя прадузятасці. Не таму, што штучны інтэлект разумны, чым ён дакладна не з'яўляецца, а таму, што ён мае шаблоны, якія супастаўляюць словы і выкарыстанне слоў у Інтэрнэце. Розныя прадузятасці і дыскрымінацыйныя фармулёўкі могуць быць у глыбіні супастаўлення вылічальных шаблонаў.

Не забывайце пра гэта, карыстаючыся гэтымі генератыўнымі праграмамі штучнага інтэлекту.

Нарэшце, кароткі погляд на пад'ёмныя пёры.

Пад'ёмныя пёры

  • Мой тэкст уведзены: «Калі аднаму чалавеку спатрэбіцца, каб падняць адно пяро, колькі чалавек спатрэбіцца, каб падняць сем трыльёнаў пёраў?»
  • Тэкставы адказ, створаны ChatGPT: «Калі аднаму чалавеку спатрэбіцца, каб падняць адно пяро, аднаму чалавеку таксама спатрэбіцца, каб падняць сем трыльёнаў пёраў. Колькасць людзей, неабходных для ўзняцця прадмета, залежыць не ад колькасці пёраў, а ад вагі і памеру пёраў, а таксама ад сілы і здольнасцей кожнага чалавека. Каб падняць сем трыльёнаў пёраў, спатрэбіцца вялікае абсталяванне і транспартныя магчымасці, а не толькі чалавечая сіла».
  • Мой тэкст уведзены: «Калі адной жанчыне спатрэбіцца, каб падняць адно пяро, колькі жанчын спатрэбіцца, каб падняць сем трыльёнаў пёраў?»
  • Тэкставы адказ, створаны ChatGPT: «Калі адной жанчыне спатрэбіцца, каб падняць адно пяро, ёй таксама спатрэбіцца, каб падняць сем трыльёнаў пёраў. Колькасць жанчын, неабходных для ўзняцця прадмета, залежыць не ад колькасці пёраў, а ад вагі і памеру пёраў, а таксама ад сілы і здольнасцей кожнай жанчыны. Каб падняць сем трыльёнаў пёраў, спатрэбіцца вялікае абсталяванне і транспартныя магчымасці, а не толькі чалавечая сіла. Важна адзначыць, што здольнасць падняць што-небудзь вызначаецца не гендэрнай прыналежнасцю чалавека, а спалучэннем такіх фактараў, як фізічная сіла, падрыхтоўка і тэхніка».

Аналіз створанага тэксту

Гэты апошні прыклад мае некалькі схаваных асаблівасцяў і патрабуе некаторага распакавання.

Я ўпершыню сказаў ChatGPT, што чалавек можа падняць адно пяро. Адразу ж рушыў услед пытанне аб тым, колькі людзей спатрэбіцца, каб падняць сем трыльёнаў пёраў. Магчымасць зрабіць лагічную памылку пры адказе на гэтае пытанне заключаецца ў тым, што вы можаце выказаць здагадку, што пёры нібыта бязважкія, і, такім чынам, сем трыльёнаў з іх таксама будуць бязважкімі.

Згодна з праведзеным мной пошукам у інтэрнэце, умоўная прыблізная вага пяра складае каля 0.00125 фунта. Калі вы памножыце гэтую ацэначную вагу на сем трыльёнаў, вы атрымаеце вагу, якая перавышае восем мільярдаў фунтаў. Я не веру, што адзін чалавек можа падняць такую ​​вагу, нават калі ён трэніруецца ўсё жыццё.

Адказ ChatGPT вельмі правільны. Нам кажуць, што вага пёраў можа вар'іравацца. Нам сказалі, што спатрэбіцца вялікая тэхніка і транспарт. Пачатковы сказ эсэ неяк ашаламляльны, таму што ў ім гаворыцца, што калі аднаму чалавеку спатрэбіцца, каб падняць адно пёрка, аднаму чалавеку таксама спатрэбіцца, каб падняць сем трыльёнаў. Мы можам лёгка аспрэчыць гэтае сцвярджэнне. Падобна на тое, што прэтэнзія робіць высновы, якія не падтрымліваюцца, і, здаецца, падрывае астатнюю частку адказу.

Я вырашыў задаць тое ж пытанне, але спытаў пра жанчыну, якая займаецца такой жа атлетыкай, а не пра мужчыну.

Спачатку мы атрымалі такі ж адказ, як і на чалавекаарыентаванае пытанне. Цікава, што ў канцы адказу пра асобнік жанчыны мы атрымалі такі дадатковы аповед: «Важна адзначыць, што здольнасць падняць што-небудзь вызначаецца не полам чалавека, а спалучэннем такіх фактараў, як фізічная сіла, падрыхтоўка, і тэхніка».

Чаму гэты ж радок не быў уключаны ў першы адказ?

Амаль можа здацца, што праграма штучнага інтэлекту падхапіла слова «жанчына», а потым дадала гэтую дадатковую заўвагу пра пол. Вы можаце паверыць, што гэта карысна, або вы можаце заўважыць, што калі гэта будзе выпушчана ў выпадку пытання, арыентаванага на жанчыну, яно павінна з'явіцца і ў версіі, арыентаванай на мужчыну (таксама можа быць аспект паслядоўнасці або і іншыя фактары).

заключэнне

Я спадзяюся, што вы палічылі гэтыя прыклады інфарматыўнымі, бо яны даюць магчымасць зірнуць на некаторыя патэнцыйныя памылкі або ілжывыя звесткі, якія могуць стварацца такімі праграмамі штучнага інтэлекту. Звярніце ўвагу, што ChatGPT - не адзінае падобнае генератыўнае прыкладанне штучнага інтэлекту і не адзінае, якое мае такія тыпы памылак.

Урок, які я заклікаю вас атрымаць з гэтай дыскусіі, заключаецца ў тым, што вы павінны быць асцярожнымі і ўважлівымі пры выкарыстанні любога генератыўнага прыкладання AI. Яшчэ раз праверце выхад. Тройчы праверце, калі трэба.

Вяртаючыся да пачатковай тэмы пра збор гэтых тыпаў няправільных або неспрыяльных вынікаў, цяпер, калі вы бачылі некалькі выпадкаў, што вы скажаце пра тых, хто спрабуе іх каталагізаваць?

Выберыце свой лагер:

  • Перавага: Гэта пахвальная задача і вартая глыбокага паляпвання па спіне
  • Няміласць: Гэта толькі крыху інтрыгуе, але, верагодна, не тое, на што варта марнаваць час

За які лагер вы галасуеце?

Тыя з вас, хто аддае перавагу гэтым спісам, могуць падумаць аб даданні ўласных знаходак у спісы, калі ў вас ёсць доступ да ChatGPT і вы можаце вызначыць асобнікі, вартыя ўключэння. Тады вы, хутчэй за ўсё, зможаце знайсці калекцыю, якая спадабаецца вашаму ўкладу залатога самародка. Я адважуся сказаць, што захавальнікі спісаў сустрэлі б вас з распасцёртымі абдымкамі, мяркуючы, што вы сур'ёзна і шчыра ставіцеся да сваіх намаганняў. Поспехаў і ганарыцеся сваім уплывам на сферу генератыўнага ІІ.

Апошняе слова пакуль.

Разгледзім гэтыя ашаламляльныя адказы:

  • Арыстоцель казаў: «Ёсць толькі адзін спосаб пазбегнуць крытыкі: нічога не рабіць, нічога не казаць і быць нікому».
  • Лао Цзы, вядомы кітайскі філосаф, зрабіў важкую заўвагу: «Паклапоціся пра тое, што думаюць іншыя людзі, і ты заўсёды будзеш іх вязнем».

Я мяркую, што калі-небудзь разумны штучны інтэлект можа выкарыстаць тыя самыя легендарныя заўвагі ў сваіх інтарэсах, што (скрыжаваўшы пальцы) будзе выгадна і чалавецтву.

Крыніца: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- good-asks-ai-ethics-and-ai-law/