Паглыбляючыся ў шум і фанфары вакол Generative AI ChatGPT, у тым ліку набліжаюцца меркаванні аб этыцы AI і заканадаўстве аб AI

Я мяркую, што да гэтага часу вы чулі або, магчыма, бачылі яркія загалоўкі навін або паведамленні ў сацыяльных сетках, якія рэкламуюць самае папулярнае і найноўшае выкарыстанне штучнага інтэлекту, які стварае, здавалася б, напісаныя чалавекам тэкставыя апавяданні праз прыкладанне штучнага інтэлекту, вядомае як ChatGPT.

Калі вы яшчэ не чулі і не чыталі аб гэтай новай праграме штучнага інтэлекту, не хвалюйцеся, я паскараю вас.

Для тых з вас, хто ўжо ведае пра ChatGPT, вам могуць быць вельмі цікавыя некаторыя з маіх інсайдэрскіх саўкоў пра тое, што ён робіць, як працуе і чаго трэба сачыць. Увогуле, практычна кожны, хто клапоціцца пра будучыню, непазбежна захоча даведацца, чаму ўсе хвалююцца з нагоды гэтага прыкладання AI.

Каб удакладніць, нястрымныя прагнозы заключаюцца ў тым, што гэты тып штучнага інтэлекту зменіць жыццё, у тым ліку жыццё тых, хто яшчэ нічога не ведае пра ChatGPT або любыя іншыя падобныя магчымасці штучнага інтэлекту. Як я адразу растлумачу, гэтыя прыкладанні AI будуць мець даволі шырокія наступствы, якія мы толькі пачынаем прадбачыць.

Падрыхтуйцеся да паездкі на амерыканскіх горках Генератыўны ІІ.

Я пачну з некаторай ключавой інфармацыі пра генератыўны штучны інтэлект і выкарыстаю самы просты сцэнар, які ўключае штучны інтэлект, які стварае мастацтва. Правёўшы вас праз гэтую аснову, мы пяройдзем да генератыўнага штучнага інтэлекту, які стварае тэкстаарыентаваныя апавяданні.

Аб маім пастаянным і шырокім асвятленні штучнага інтэлекту ў цэлым, уключаючы этыку штучнага інтэлекту і права штучнага інтэлекту, гл. спасылка тут і спасылка тут, Проста назваць некалькі.

Генератыўны штучны інтэлект, які стварае генераванае мастацтва

Я называю гэты тып або стыль штучнага інтэлекту генератыўны гэта тэрміналогія прыхільнікаў штучнага інтэлекту, якая выкарыстоўваецца для апісання штучнага інтэлекту, які стварае такія вынікі, як тэкст, выявы, відэа і да т.п.

Раней у гэтым годзе вы маглі заўважыць, што быў вялікі шум наконт магчымасці стварэння вычварных малюнкаў шляхам уводу аднаго-двух радкоў тэксту. Ідэя даволі простая. Вы выкарыстоўваеце прыкладанне AI, якое дазваляе ўводзіць тэкст па вашаму выбару. Напрыклад, вы можаце ўвесці, што хочаце паглядзець, як будзе выглядаць жаба з капелюшом на вяршыні коміна. Затым праграма штучнага інтэлекту аналізуе вашы словы і спрабуе стварыць выяву, якая ў цэлым адпавядае словам, якія вы ўказалі. Людзям вельмі падабалася ствараць разнастайныя выявы. Сацыяльныя сеткі на некаторы час былі забіты імі.

Як генератыўны штучны інтэлект робіць аспекты генерацыі?

У выпадку стылю пераўтварэння тэксту ў мастацтва генератыўнага штучнага інтэлекту мноства онлайн-мастацтва было папярэдне адсканіравана з дапамогай камп'ютэрных алгарытмаў, а элементы адсканаванага мастацтва былі вылічальна прааналізаваны на наяўнасць кампанентаў. Уявіце малюнак у інтэрнэце з жабай. Уявіце яшчэ адну асобную выяву, у якой ёсць комін. Яшчэ на адной карціне капялюш. Гэтыя кампаненты ідэнтыфікуюцца з дапамогай вылічэнняў, часам без дапамогі чалавека, а часам з дапамогай чалавека, пасля чаго фармулюецца свайго роду матэматычная сетка.

Калі вы прыйдзеце пазней і папрасіце стварыць карціну з выявай жабы ў капелюшы на коміне, праграма AI выкарыстоўвае матэматычную сетку, каб знайсці і сабраць гэтыя элементы. Атрыманы мастацкі вобраз можа атрымацца, а можа і не атрымацца такім, на які вы спадзяваліся. Магчыма, жаба непрыгожая. Капялюш можа быць вялікім капелюшом-дубкай, але вы хацелі мець больш тонкі капялюш у стылі дэрбі. Між тым выява жабы стаіць на коміне, хаця вы хацелі, каб жаба сядзела замест яе.

Выдатная рэч у такіх праграмах штучнага інтэлекту заключаецца ў тым, што яны звычайна дазваляюць паўтарыць ваш запыт, а таксама дадаць дадатковыя характарыстыкі, калі вы гэтага хочаце. Такім чынам, вы можаце паўтарыць свой запыт і пазначыць, што вам патрэбна прыгожая жаба з капелюшом дэрбі, якая сядзіць на коміне. Вуаля, нядаўна створаны вобраз можа быць бліжэй да таго, што вы хацелі.

Некаторыя задаюцца пытаннем, ці не ІІ проста адрыгвае менавіта тое, на чым яго трэніравалі. Адказ не (звычайна). Выява жабы, якую штучны інтэлект дэманструе па вашаму запыту, не абавязкова з'яўляецца дакладнай копіяй падобнай выявы, якая была ў навучальным наборы. Большасць гэтых генератыўных праграм штучнага інтэлекту настроены на абагульненне любых выяваў, якія яны першапачаткова знаходзяць. Падумайце пра гэта так. Дапусцім, вы сабралі тысячу малюнкаў жаб. Вы можаце паступова высветліць, як выглядае жаба, змяшаўшы разам тысячы знойдзеных малюнкаў. Такім чынам, жаба, якую вы ў канчатковым выніку намалявалі, не абавязкова падобная на тую, якую вы выкарыстоўвалі для дрэсіроўкі.

З улікам сказанага, існуе верагоднасць таго, што алгарытм штучнага інтэлекту можа не зрабіць столькі абагульнення, як можна меркаваць. Калі ёсць унікальныя навучальныя выявы і няма іншых падобных, магчыма, штучны інтэлект "абагульняе" даволі блізка да адзінага канкрэтнага асобніка, які ён атрымаў. У такім выпадку спроба алгарытму пазней стварыць запытаную выяву такога характару можа выглядаць значна падобна на тое, што было ў навучальным наборы.

Я на хвілінку прыпынюся, каб выказаць некаторыя думкі, звязаныя з этыкай штучнага інтэлекту і правам штучнага інтэлекту.

Як ужо згадвалася, калі генератыўны штучны інтэлект навучаецца ў Інтэрнэце, гэта азначае, што ўсё, што было публічна апублікавана ў Інтэрнэце, магчыма, будзе выкарыстоўвацца алгарытмам штучнага інтэлекту. Выкажам здагадку, што ў вас ёсць выдатны твор мастацтва, над якім вы працавалі, і вы лічыце, што валодаеце правамі на гэты твор. Вы публікуеце яго фатаграфію ў Інтэрнэце. Любы, хто хоча выкарыстоўваць ваш твор мастацтва, павінен прыйсці да вас і заплаціць вам плату за такое выкарыстанне.

Магчыма, вы ўжо адчуваеце, куды гэта ідзе.

Чакайце суровых навін.

Такім чынам, генератыўная праграма штучнага інтэлекту, якая праходзіць навучанне праз шырокі аналіз кантэнту ў Інтэрнэце, выяўляе ваш цудоўны твор мастацтва. Выява вашага твора паглынаецца праграмай AI. Характарыстыкі вашага майстэрства цяпер матэматычна спалучаюцца з іншымі адсканіраванымі творамі мастацтва. Калі яму будзе прапанавана стварыць твор мастацтва, штучны інтэлект можа выкарыстаць ваш твор пры стварэнні новага мастацкага малюнка. Тыя людзі, якія збіраюць мастацтва, могуць не разумець, што ў пэўным сэнсе мастацтва мае вашыя адбіткі пальцаў, таму што алгарытм штучнага інтэлекту наклаў пэўны адбітак на ваш шэдэўр.

Таксама існуе верагоднасць таго, што калі ваш твор мастацтва быў надзвычай унікальным, ён можа быць паўторна выкарыстаны праграмай AI для большага падабенства дэманстрацыі майстэрства. Такім чынам, часам ваша ілюстрацыя можа быць ледзь распазнана ў некаторых нядаўна створаных ілюстрацыях штучнага інтэлекту, у той час як у іншых выпадках гэта можа быць, што згенераваная ілюстрацыя з'яўляецца амаль вычварным вобразам таго, што вы варажылі.

Тады самы час уключыць у гэты сцэнар этыку штучнага інтэлекту.

Ці з'яўляецца этычным або мэтазгодным, што генератыўны штучны інтэлект стварыў мастацкі твор, які мае падабенства з вашым?

Хтосьці кажа так, а хтосьці не.

Лагер "так", лічачы, што гэта цалкам нармальна з этычнага пункту гледжання, магчыма, будзе сцвярджаць, што, паколькі вы размясцілі свой твор у інтэрнэце, яго можа скапіяваць кожны ці хто захоча. Акрамя таго, яны могуць сцвярджаць, што новае мастацтва не з'яўляецца дакладнай копіяй вашай работы. Такім чынам, вы не можаце скардзіцца. Калі б мы нейкім чынам спынілі ўсякае паўторнае выкарыстанне існуючага мастацтва, у нас ніколі б не было новага мастацтва, на якое можна было б паглядзець. Акрамя таго, магчыма, мы можам уступіць у гарачую дыскусію наконт таго, ці быў ваш твор мастацтва скапіяваны або выкарыстаны - гэта можа быць нейкі іншы твор мастацтва, пра існаванне якога вы нават не падазравалі і насамрэч з'яўляецца асноўнай крыніцай.

Лагер "не" будзе рашуча настойваць на тым, што гэта вельмі неэтычна. У гэтым няма двух спосабаў. Яны будуць сцвярджаць, што вас абдзяваюць. Тое, што ваш твор мастацтва размешчаны ў інтэрнэце, не азначае, што кожны можа прыйсці і свабодна скапіяваць яго. Магчыма, вы размясцілі малюнак з строгім папярэджаннем не капіраваць яго. Тым часам з'явіўся штучны інтэлект, які выдаліў мастацтва і цалкам абмінуў папярэджанні. Эпатажна! І апраўданне, што алгарытм штучнага інтэлекту абагульніў і не робіць дробязі дакладнага капіравання, здаецца адным з тых фальшывых апраўданняў. Ён прыдумаў, як выкарыстоўваць ваш артыстызм, і гэта падман і ганьба.

Як наконт юрыдычных аспектаў гэтага генератыўнага ІІ?

Пра прававыя асаблівасці генератыўнага штучнага інтэлекту шмат спрэчак. Ці глядзіце вы на федэральныя законы аб правах на інтэлектуальную ўласнасць (IP)? Ці дастаткова рэзкія, каб прымяніць? Што наконт таго, калі генератыўны ІІ перасякае міжнародныя межы, каб сабраць навучальны набор? Ці адпавядаюць творы мастацтва, створаныя штучным інтэлектам, розным выключным катэгорыям, звязаным з правамі інтэлектуальнай уласнасці? І гэтак далей.

Некаторыя лічаць, што нам патрэбныя новыя законы, звязаныя з штучным інтэлектам, каб змагацца з гэтымі відамі генератыўных сітуацый штучнага інтэлекту. Замест таго, каб спрабаваць абудзіць існуючыя законы, было б больш чыстым і прасцей стварыць новыя законы. Акрамя таго, нават калі прымяняюцца існуючыя законы, выдаткі і затрымкі пры спробе распачаць судовы іск могуць быць велізарнымі і перашкаджаць вашай здольнасці прасунуцца наперад, калі вы лічыце, што вам нанеслі несправядліва і незаконна шкоду. Пра маё асвятленне гэтых тэм гл спасылка тут.

Я дадам дадатковы паварот да гэтых меркаванняў па этыцы штучнага інтэлекту і заканадаўству аб штучным інтэлекце.

Каму належаць правы на згенераваны вынік ІІ?

Можна сказаць, што людзі, якія распрацавалі штучны інтэлект, павінны валодаць гэтымі правамі. Не ўсе згодныя з такім сцвярджэннем. Вы можаце сказаць, што AI валодае гэтымі правамі, але гэта бянтэжыць той факт, што мы звычайна не прызнаем, што AI можа валодаць такімі правамі. Пакуль мы не высветлім, ці атрымае штучны інтэлект юрыдычную асобу, на гэтым фронце ўсё невядома, глядзіце мой аналіз на спасылка тут.

Я веру, што цяпер у вас ёсць падабенства таго, што робіць генератыўны штучны інтэлект. Далей мы можам перайсці да разгляду варыянту выкарыстання, які прадугледжвае стварэнне тэкставых апавяданняў.

Генератыўны AI, які стварае тэкставыя апавяданні

Цяпер, калі мы абмеркавалі выкарыстанне генератыўнага штучнага інтэлекту для стварэння мастацтва або малюнкаў, мы можам лёгка разгледзець тыя ж агульныя фармулёўкі для стварэння тэкставых апавяданняў.

Давайце пачнем з таго, што мы ўсе ведаем і выкарыстоўваем кожны дзень. Калі вы ўводзіце тэкст у пакет апрацоўкі тэкстаў або ў паштовую праграму, вялікая верагоднасць таго, што ёсць функцыя аўтаматычнай карэкцыі, якая спрабуе выявіць любыя вашы арфаграфічныя памылкі.

Пасля таго, як такая аўтаматычная дапаможная функцыя стала звычайнай, наступным больш прасунутым аспектам стала магчымасць аўтазапаўнення. Канцэпцыя аўтазапаўнення заключаецца ў тым, што калі вы пачынаеце пісаць сказ, праграма апрацоўкі тэкстаў або электронная пошта спрабуе прадказаць, якія словы вы, верагодна, набярэце наступнымі. Гэта можа прадказаць толькі адно-два словы наперад. Калі здольнасць асабліва ўзмоцнена, яна можа прадказаць астатнюю частку ўсяго вашага сказа.

Мы можам разгарнуць гэта. Выкажам здагадку, што вы пачынаеце пісаць сказ, і аўтазапаўненне генеруе астатнюю частку ўсяго абзаца. Вуаля, вам не трэба было пісаць абзац непасрэдна. Замест гэтага праграма зрабіла гэта за вас.

Добра, гэта здаецца файным. Прасуньце гэта далей. Вы пачынаеце сказ, а аўтазапаўненне складае астатнюю частку вашага паведамлення. Гэта можа складацца з многіх абзацаў. Усё гэта ствараецца шляхам уводу толькі часткі сказа або, магчыма, поўнага сказу ці двух.

Як аўтазапаўненне вызначае, што вы, верагодна, набярэце наступным?

Аказваецца, людзі схільныя пісаць адно і тое ж зноў і зноў. Можа, і не, але справа ў тым, што ўсё, што вы пішаце, верагодна, ужо напісаў нехта іншы. Гэта можа быць не зусім тое, што вы збіраецеся напісаць. Замест гэтага гэта можа быць чымсьці падобным да таго, што вы збіраліся напісаць.

Давайце выкарыстоўваць тую ж логіку, што і пры стварэнні мастацтва або малюнкаў.

Генератыўнае прыкладанне AI рыхтуецца шляхам выхаду ў Інтэрнэт і вывучэння ўсіх відаў тэксту, які існуе ў анлайн-свеце. Алгарытм спрабуе з дапамогай вылічэнняў вызначыць, як словы звязаны з іншымі словамі, як сказы звязаны з іншымі сказамі і як абзацы звязаны з іншымі абзацамі. Усё гэта матэматычна мадэлюецца, і ствараецца вылічальная сетка.

Вось што адбываецца далей.

Вы вырашылі скарыстацца генератыўным дадаткам AI, арыентаваным на стварэнне тэкставых апавяданняў. Пасля запуску праграмы вы ўводзіце сказ. Прыкладанне штучнага інтэлекту вылічальна даследуе ваш сказ. Розныя матэматычныя суадносіны паміж словамі, якія вы ўвялі, выкарыстоўваюцца ў матэматычнай сетцы, каб паспрабаваць вызначыць, які тэкст будзе наступным. З аднаго радка, які вы пішаце, можа быць створана цэлая гісторыя або апавяданне.

Цяпер вы можаце падумаць, што гэта малпа-бачыць-малпа-робіць і што выніковы тэкст, створаны генератыўным ІІ, будзе бессэнсоўным. Што ж, вы былі б здзіўлены, наколькі добра наладжаны гэты від штучнага інтэлекту. З дастаткова вялікім наборам даных для навучання і з дастатковай камп'ютэрнай апрацоўкай для іх шырокай прапрацоўкі вынік, атрыманы генератыўным ІІ, можа быць надзвычай уражлівым.

Вы б паглядзелі на выхад і, магчыма, пакляліся, што сапраўды створаны аповед быў напісаны непасрэдна чалавекам. Быццам бы ваш прысуд быў перададзены чалавеку, які хаваўся за кулісамі, і яны хутка напісалі вам цэлае апавяданне, якое амаль цалкам адпавядала таму, што вы збіраліся сказаць інакш. Вось наколькі добрымі сталі матэматычныя і вылічальныя асновы.

Звычайна пры выкарыстанні генератыўнага штучнага інтэлекту, які стварае тэкставыя апавяданні, вы імкнецеся даць пачатковае пытанне або нейкае сцвярджэнне. Напрыклад, вы можаце ўвесці «Раскажыце мне пра птушак у Паўночнай Амерыцы», і генератыўны штучны інтэлект палічыць гэта сцвярджэннем або пытаннем, у выніку чаго праграма будзе шукаць ідэнтыфікацыю «птушак» і «Паўночнай Амерыкі» з дапамогай любога навучанага набору даных. гэта мае. Я ўпэўнены, што вы можаце сабе ўявіць, што ў Інтэрнеце існуе велізарная колькасць тэкстаў, якія апісваюць птушак Паўночнай Амерыкі, з якіх штучны інтэлект падчас папярэдняй падрыхтоўкі вылучыў і змадэляваў тэкставыя сховішчы.

Атрыманы для вас вынік наўрад ці будзе дакладным тэкстам якога-небудзь канкрэтнага інтэрнэт-сайта. Нагадаем, тое ж самае было сказана раней аб створаных творах мастацтва. Тэкст будзе ўяўляць сабой кампазіцыю разнастайных фрагментаў і частак, звязаных паміж сабой матэматычна і вылічальна. Створанае тэкставае апавяданне будзе выглядаць унікальным, як быццам гэты канкрэтны тэкст ніколі раней нікім не быў створаны.

Вядома, могуць быць паказальныя падказкі. Калі вы папрасіце або прымусіце генератыўны штучны інтэлект заняцца незвычайна незразумелымі тэмамі, ёсць большая верагоднасць таго, што вы ўбачыце тэкст, які нагадвае выкарыстаныя крыніцы. У выпадку з тэкстам шанцы звычайна ніжэйшыя, чым былі б для мастацтва. Тэкст будзе спалучэннем спецыфікі тэмы, а таксама размытым і злітым з агульнымі відамі тэксту, якія выкарыстоўваюцца ў агульным дыскурсе.

Інсайдэры AI часта называюць матэматычныя і вылічальныя метады і тэхналогіі, якія выкарыстоўваюцца для гэтых генератыўных магчымасцей штучнага інтэлекту, вялікімі моўнымі мадэлямі (LLM). Прасцей кажучы, гэта мадэляванне чалавечай мовы на шырокамаштабнай аснове. Да з'яўлення Інтэрнэту вам было цяжка знайсці надзвычай вялікі набор тэкставых даных, які быў даступны ў Інтэрнэце, і таму танна. Верагодна, вам прыйшлося б купіць доступ да тэксту, і ён неабавязкова быў бы даступны ў электронным або лічбавым фармаце.

Разумееце, Інтэрнэт у нечым добры, а менавіта ў якасці гатовай крыніцы для навучання генератыўнага штучнага інтэлекту.

Пранікліва думаць пра генератыўны штучны інтэлект, які стварае тэкст

Нам варта паразважаць пра наступствы генератыўнага штучнага інтэлекту, які стварае тэкставыя апавяданні, з пункту гледжання этыкі штучнага інтэлекту і законаў штучнага інтэлекту.

Памятайце, што ў выпадку са згенераваным мастацтвам мы былі занепакоеныя этыкай алгарытму штучнага інтэлекту, які стварае мастацтва на аснове іншых мастацкіх твораў, створаных чалавекам. Такая ж занепакоенасць узнікае і ў тэкставым выпадку. Нават калі згенераваны тэкст выглядае не зусім так, як першакрыніцы, вы можаце сцвярджаць, што, тым не менш, штучны інтэлект выкарыстоўвае тэкст, а арыгінальны вытворца падманваецца. Іншы бок медаля заключаецца ў тым, што тэкст у Інтэрнэце, калі ён знаходзіцца ў вольным доступе, можа быць выкарыстаны любым чалавекам для таго ж, такім чынам, чаму б не дазволіць штучнаму інтэлекту зрабіць тое ж самае?

Складанасці, звязаныя з прававымі аспектамі правоў інтэлектуальнай уласнасці, таксама выходзяць на першы план у выпадку тэкставага генератыўнага штучнага інтэлекту. Калі выказаць здагадку, што тэкст, які вывучаецца, абаронены аўтарскім правам, ці скажаце вы, што створаны тэкст парушае гэтыя законныя правы? Адзін адказ, што гэта так, і іншы адказ, што гэта не так. Зразумейце, што згенераваны тэкст, хутчэй за ўсё, знаходзіцца даволі далёка ад арыгінальнага тэксту, таму вам можа быць цяжка сцвярджаць, што арыгінальны тэкст быў сарваны.

Іншая ўжо згаданая праблема таксама - гэта правы ўласнасці на створаныя тэкставыя апавяданні генератыўным штучным інтэлектам. Выкажам здагадку, што вы ўводзіце ў AI «Напішыце смешную гісторыю пра людзей, якія стаяць у чарзе, каб атрымаць каву», і генератыўны AI стварае старонку за старонкай вясёлай гісторыі, якая распавядае пра кучу людзей, якія выпадкова сустракаюцца ў чаканні кубачка Java.

Каму належыць гэтая гісторыя?

Вы можаце запярэчыць, што, паколькі вы ўвялі падказку, вы па праву павінны «валодаць» створанай гісторыяй. Хтосьці можа сказаць, што гісторыя была створана дзякуючы штучнаму інтэлекту, значыць, штучнаму інтэлекту належыць цудоўная гісторыя. Ой, заклікалі б іншыя, калі штучны інтэлект узяў кавалачкі з рознага кшталту іншых падобных гісторый у Інтэрнэце, усе гэтыя пісьменнікі-людзі павінны падзяліць права ўласнасці.

Пытанне не вырашана, і мы толькі цяпер трапляем у прававое балота, якое будзе дзейнічаць на працягу наступных некалькіх гадоў.

Ёсць дадатковыя праблемы, звязаныя з этыкай штучнага інтэлекту і законамі аб штучным інтэлекце.

Некаторыя людзі, якія выкарыстоўвалі генератыўныя праграмы AI, пачынаюць верыць, што праграма AI разумная. Так павінна быць, усклікаюць яны. Як інакш вы можаце растлумачыць ашаламляльныя адказы і гісторыі, якія здольны ствараць ІІ? Мы нарэшце дасягнулі разумнага ІІ.

Яны абсалютна памыляюцца.

Гэта не разумны ІІ.

Калі я кажу гэта, некаторыя інсайдэры штучнага інтэлекту засмучаюцца і паводзяць сябе так, быццам той, хто адмаўляе разумнасць штучнага інтэлекту, адначасова сцвярджае, што штучны інтэлект нічога не варты. Гэта ілжывы і памылковы аргумент. Я адкрыта згодны з тым, што гэты генератыўны ІІ вельмі ўражвае. Мы можам выкарыстоўваць яго для самых розных мэтаў, пра што я буду казаць далей. Тым не менш, гэта не адчувальны. Маё тлумачэнне таго, чаму гэтыя віды прарываў штучнага інтэлекту не з'яўляюцца разумнымі, гл спасылка тут.

Яшчэ адно невялікае і відавочна памылковае сцвярджэнне некаторых заключаецца ў тым, што генератыўны штучны інтэлект паспяхова выйграў тэст Цьюрынга.

Безумоўна, ёсць ня зроблена так.

Тэст Цьюрынга - гэта своеасаблівы тэст, каб пераканацца, што праграма AI здольная быць на адным узроўні з людзьмі. Тэст, першапачаткова распрацаваны Аланам Т'юрынгам, вялікім матэматыкам і піянерам у галіне камп'ютэраў, як мімічная гульня, сам па сабе просты. Калі б вы змясцілі чалавека за заслону, а праграму штучнага інтэлекту за іншую заслону і задалі ім абодвум пытанні, з якіх вы не змаглі вызначыць, што машына, а што чалавек, штучны інтэлект паспяхова прайшоў бы Тэст Цьюрынга. Для майго глыбокага тлумачэння і аналізу тэсту Цьюрынга гл спасылка тут.

Тыя людзі, якія працягваюць сцвярджаць, што генератыўны штучны інтэлект прайшоў тэст Цьюрынга, не ведаюць, пра што гавораць. Яны альбо не ведаюць, што такое тэст Цьюрынга, альбо, на жаль, раскручваюць штучны інтэлект памылковым і абсалютна зманлівым спосабам. Ва ўсякім разе, адно з важных меркаванняў адносна тэсту Цьюрынга заключаецца ў тым, якія пытанні трэба задаваць, разам з тым, хто задае пытанне, а таксама ў ацэнцы таго, наколькі адказы адпавядаюць чалавечай якасці.

Я маю на ўвазе тое, што людзі набіраюць дзесятак пытанняў да генератыўнага штучнага інтэлекту, і калі адказы здаюцца праўдападобнымі, гэтыя людзі неабдумана абвяшчаюць, што тэст Цьюрынга пройдзены. Зноў жа, гэта ілжыва. Уводзіць хісткі набор пытанняў і тыкаць тут і там не з'яўляецца ні намерам, ні духам тэсту Цьюрынга. Спыніце рабіць гэтыя ганебныя заявы.

Вось законная прэтэнзія, пра якую вы мала чуеце, хоць я лічу, што яна надзвычай вартая.

Распрацоўшчыкі штучнага інтэлекту звычайна наладжваюць генератыўны штучны інтэлект такім чынам, што ён рэагуе так, як быццам адказвае чалавек, а менавіта, выкарыстоўваючы фармулёўку «я» або «мне», калі ён складае вынік. Напрыклад, калі просяць расказаць гісторыю пра сабаку, які заблукаў у лесе, генератыўны штучны інтэлект можа даць тэкст, які кажа: «Я раскажу вам усё пра сабаку па імі Сэм, які заблукаў у лесе. Гэта адна з маіх любімых гісторый».

Звярніце ўвагу, што фармулёўка кажа: «Я раскажу вам…» і што гісторыя «адна з маіх любімых…», так што кожны, хто прачытае гэты вынік, незаўважна трапіць у разумовую пастку антрапамарфізмавання ІІ. Антрапамарфізацыя заключаецца ў тым, што людзі спрабуюць прысвоіць чалавечыя рысы і чалавечыя пачуцці да нелюдзей. Вас укалыхвае вера ў тое, што гэты штучны інтэлект з'яўляецца чалавекам або чалавекападобным, таму што фармулёўкі ў выніку наўмысна прыдуманы такім чынам.

Гэта не павінна быць прыдумана такім чынам. Выхад можа быць наступным: «Вось гісторыя пра сабаку па імі Сэм, які заблукаў у лесе. Гэта любімая гісторыя». Было б менш шанцаў адразу выказаць здагадку, што штучны інтэлект з'яўляецца чалавекам або чалавекападобным. Я разумею, што вы ўсё яшчэ можаце трапіць у гэтую пастку, але, па меншай меры, атрыбуты, як яны былі, не вельмі выяўленыя.

Карацей кажучы, у вас ёсць генератыўны штучны інтэлект, які стварае тэкставыя апавяданні на аснове таго, як людзі пішуць, і выніковы вынік здаецца, што ён напісаны так, як піша чалавек. Гэта мае вялікі сэнс, таму што штучны інтэлект матэматычна і вылічальна грунтуецца на тым, што напісалі людзі. А цяпер дадайце да гэтага выкарыстанне антрапамарфізмаў, і вы атрымаеце ідэальны шторм, які пераконвае людзей, што штучны інтэлект разумны або прайшоў тэст Цьюрынга.

Узнікае шмат праблем, звязаных з этыкай штучнага інтэлекту і правам штучнага інтэлекту.

Я дам вам даволі небяспечныя наступствы гэтага генератыўнага ІІ.

Сядайце за гэта.

Тэкставыя апавяданні, якія ствараюцца, не абавязкова адпавядаюць праўдзівасці і дакладнасці. Важна ўсведамляць, што генератыўны штучны інтэлект не «разумее» тое, што генеруецца (можна сказаць, што гэта не звязана з чалавекам). Калі тэкст, які выкарыстоўваўся ў трэнінгу, увасабляў няпраўду, вялікая верагоднасць таго, што тая самая няпраўда будзе ўключана ў генератыўную матэматычную і вылічальную сетку штучнага інтэлекту.

Больш за тое, генератыўны штучны інтэлект звычайна не мае ніякіх матэматычных або вылічальных сродкаў, якія дазваляюць распазнаць, што атрыманы тэкст утрымлівае няпраўду. Калі вы паглядзіце на атрыманае апавяданне, яно звычайна будзе выглядаць цалкам «праўдзівым» на першы погляд. У вас можа не быць жыццяздольных сродкаў выяўлення таго, што ў апавяданне ўкаранёна хлусня.

Выкажам здагадку, што вы задаеце медыцынскае пытанне пра генератыўны штучны інтэлект. Дадатак AI стварае працяглы аповед. Уявіце, што большая частка апавядання мае сэнс і здаецца разумнай. Але калі вы не спецыяліст у галіне медыцыны, вы можаце не разумець, што ў апавяданні ёсць некаторыя важныя хлусні. Магчыма, тэкст загадвае прыняць пяцьдзесят таблетак за дзве гадзіны, у той час як на самой справе сапраўдная медыцынская рэкамендацыя - прыняць дзве таблеткі за дзве гадзіны. Вы можаце паверыць заяўленым парадам па пяцідзесяці таблетках проста таму, што астатняя частка апавядання здавалася разумнай і разумнай.

Наяўнасць шаблону штучнага інтэлекту на ілжывых звестках у першапачатковых зыходных дадзеных з'яўляецца толькі адным з спосабаў прымусіць штучны інтэлект пайсці наперакос у гэтых апавяданнях. У залежнасці ад матэматычнай і вылічальнай сеткі, якая выкарыстоўваецца, штучны інтэлект будзе спрабаваць «выдумаць» рэчы. На мове ІІ гэта называецца ІІ галюцынацыйныя, што з'яўляецца жудаснай тэрміналогіяй, з якой я шчыра не згодны і лічу, што яе нельга працягваць як крылатую фразу, глядзіце мой аналіз на спасылка тут.

Дапусцім, вы папрасілі генератыўны штучны інтэлект расказаць гісторыю пра сабаку. ШІ можа ў канчатковым выніку даць сабаку магчымасць лётаць. Калі гісторыя, якую вы хацелі, павінна была быць заснавана на рэчаіснасці, лятучы сабака здаецца малаверагодным. Мы з вамі ведаем, што сабакі не ўмеюць лётаць. Нічога страшнага, скажаце вы, бо ўсе гэта ведаюць.

Уявіце сабе дзіця ў школе, якое спрабуе даведацца пра сабак. Яны выкарыстоўваюць генератыўны ІІ. Ён стварае вынікі, якія кажуць, што сабакі могуць лётаць. Дзіця не ведае, праўда гэта ці не, і мяркуе, што гэта павінна быць праўдай. У нейкім сэнсе гэта як калі б дзіця зайшло ў інтэрнэт-энцыклапедыю і там напісана, што сабакі ўмеюць лётаць. Магчыма, з гэтага часу дзіця будзе настойваць на тым, што сабакі сапраўды могуць лётаць.

Вяртаючыся да загадкі аб этыцы штучнага інтэлекту і законах штучнага інтэлекту, зараз мы знаходзімся на мяжы магчымасці ствараць амаль бясконцую колькасць тэкставага кантэнту з дапамогай генератыўнага штучнага інтэлекту, і мы будзем наводніць сябе мільёнамі апавяданняў, якія несумненна, багаты хлуснёй і іншымі звязанымі з імі патокамі дэзінфармацыі і дэзінфармацыі.

Так, адным націскам кнопкі і некалькімі словамі, уведзенымі ў генератыўны штучны інтэлект, вы можаце стварыць мноства тэкставых апавяданняў, якія здаюцца цалкам праўдападобнымі і праўдзівымі. Затым вы можаце размясціць гэта ў Інтэрнэце. Іншыя людзі прачытаюць матэрыял і выкажуць, што гэта праўда. У дадатак да гэтага іншы генератыўны ІІ, які прыходзіць разам, спрабуючы навучыцца тэксту, патэнцыйна сутыкнецца з гэтым матэрыялам і загарне яго ў генератыўны ІІ, які ён распрацоўвае.

Гэта як калі б мы зараз дадаем стэроіды для стварэння дэзінфармацыі і дэзінфармацыі. Мы рухаемся да дэзінфармацыі і дэзінфармацыі ў масіўным галактычным глабальным маштабе.

Каб усё гэта вырабіць, патрэбна вельмі шмат чалавечай працы.

Генератыўны штучны інтэлект і ChatGPT

Давайце пяройдзем да загалоўка гэтай дыскусіі пра генератыўны ІІ. Цяпер мы разгледзелі прыроду генератыўнага штучнага інтэлекту, які ў цэлым стварае тэкставыя апавяданні. Ёсць шмат такіх генератыўных прыкладанняў AI.

Адно з прыкладанняў AI, якія атрымалі асаблівую вядомасць, вядомае як ChatGPT.

Пераварот па сувязях з грамадскасцю ахапіў сацыяльныя сеткі і навіны — ChatGPT зараз набывае ўсю славу. Святло ярка свеціць на ChatGPT. Ён атрымлівае свае ашаламляльныя пяць хвілін славы.

ChatGPT - гэта назва генератыўнага прыкладання AI, распрацаванага арганізацыяй, вядомай як OpenAI. OpenAI даволі добра вядомы ў галіне штучнага інтэлекту і можа лічыцца даследчай лабараторыяй штучнага інтэлекту. Яны маюць рэпутацыю людзей, якія пашыраюць рамкі, калі справа даходзіць да штучнага інтэлекту для апрацоўкі натуральнай мовы (NLP) разам з іншымі дасягненнямі штучнага інтэлекту. Яны прыступілі да стварэння серыі праграм AI, якія яны прыдумалі як GPT (Generative Pre-Trained Transformers). Кожная версія атрымлівае нумар. Я пісаў раней пра іх GPT-3 (версія 3 іх серыі GPT), гл спасылка тут.

GPT-3 прыцягнуў да сябе даволі шмат увагі, калі быў упершыню выпушчаны (ён пачаў шырокае бэта-тэсціраванне каля двух гадоў таму і стаў больш даступным у 2022 годзе). Гэта генератыўная праграма штучнага інтэлекту, якая пасля ўводу падказкі стварае або стварае тэкставыя апавяданні. Усё, што я згадваў раней аб агульным выпадку генератыўных праграм штучнага інтэлекту, прынцыпова дастасавальна да GPT-3.

Пра тое, што GPT-4 ідзе распрацоўка, ужо даўно гаварылі, і тыя, хто працуе ў вобласці штучнага інтэлекту, чакалі, затаіўшы дыханне, каб убачыць, якія ўдасканаленні або ўдасканаленні ёсць у GPT-4 у адрозненне ад GPT-3. У гэтую серыю ўваходзіць апошняе прамежкавае прылада, вядомае як GPT-3.5. Так, вы правільна зразумелі, ён знаходзіцца паміж выпушчаным GPT-3 і яшчэ не выпушчаным GPT 4.0.

OpenAI выкарыстаў свой GPT-3.5 для стварэння адгалінавання, якое яны назвалі ChatGPT. Кажуць, што яны зрабілі некаторыя спецыяльныя дапрацоўкі для стварэння ChatGPT. Напрыклад, выказвалася меркаванне, што ChatGPT быў створаны для таго, каб мець магчымасць працаваць у рэжыме чат-бота. Гэта ўключае ў сябе «размову», якую вы вядзеце з праграмай штучнага інтэлекту, адсочваецца штучным інтэлектам і выкарыстоўваецца для атрымання пасля запытаных апавяданняў.

Многія генератыўныя прыкладанні штучнага інтэлекту маюць тэндэнцыю быць аднаразовым дызайнам. Вы ўвялі падказку, штучны інтэлект згенераваў апавяданне, і ўсё. Ваш наступны запыт не мае ніякага дачынення да таго, што адбудзецца далей. Гэта так, быццам вы кожны раз пачынаеце спачатку, калі ўводзіце падказку.

Не так у выпадку з ChatGPT. Пакуль яшчэ нераскрытым спосабам праграма AI спрабуе выявіць заканамернасці ў вашых падказках і, такім чынам, можа здацца, што яна больш рэагуе на вашы запыты (гэтая праграма AI лічыцца у адкрытым доступе з-за дазволу любому зарэгістравацца, каб выкарыстоўваць яго, але гэта ўсё яшчэ proprietary і рашуча ня прыкладанне са штучным інтэлектам з адкрытым зыходным кодам, якое раскрывае яго ўнутраную працу). Напрыклад, успомніце маю ранейшую заяўку пра тое, што вы хочаце ўбачыць жабу з капелюшом на коміне. Адзін з метадаў заключаецца ў тым, што кожны раз, калі вы робіце такі запыт, усё пачынаецца нанова. Іншым метадам было б тое, што вы маглі б працягваць тое, што вы сказалі раней. Такім чынам, магчыма, вы маглі б сказаць штучнаму інтэлекту, што хочаце, каб жаба сядзела, што само па сабе не мае сэнсу, у той час як у кантэксце вашага папярэдняга запыту з просьбай аб жабе з капелюшом на коміне, запыт, здавалася б, можа мець сэнс.

Вы можаце задацца пытаннем, чаму так атрымалася, што ChatGPT раптам надышоў росквіт і росквіт.

Часткова гэта таму, што ChatGPT быў даступны ўсім, хто хацеў зарэгістравацца, каб выкарыстоўваць яго. У мінулым часта існавалі выбарачныя крытэрыі адносна таго, хто можа выкарыстоўваць нядаўна даступнае генератыўнае прыкладанне AI. Пастаўшчык патрабуе, каб вы былі інсайдэрам AI або, магчыма, мелі іншыя ўмовы. Не так з ChatGPT.

Хутка распаўсюдзілася інфармацыя пра тое, што ChatGPT надзвычай просты ў выкарыстанні, бясплатны і можа выкарыстоўвацца шляхам простай рэгістрацыі, для якой патрабуецца толькі ўказаць адрас электроннай пошты. Падобна хуткаму агню, раптоўна і па прычыне вірусных паведамленняў у сацыяльных сетках, колькасць карыстальнікаў праграмы ChatGPT перавышае мільён. СМІ падкрэсліваюць той аспект, што мільён чалавек падпісаліся на ChatGPT.

Хоць гэта, безумоўна, выдатна і варта ўвагі, майце на ўвазе кантэкст гэтых рэгістрацый. Гэта бясплатна і лёгка зарэгістравацца. Чат-бот вельмі просты ў выкарыстанні і не патрабуе папярэдняй падрыхтоўкі або вопыту. Вы проста ўводзіце падказкі па сваім выбары і фармулёўцы, а праграма AI shazam прапануе згенераваны аповед. Дзіця можа зрабіць гэта, што насамрэч выклікае трывогу ў некаторых, а менавіта: калі дзеці выкарыстоўваюць ChatGPT, ці будуць яны вывучаць сумніўны матэрыял (згодна з маім папярэднім пунктам па такіх пытаннях)?

Акрамя таго, магчыма, варта адзначыць, што некаторыя (многія?) з гэтых мільёнаў рэгістрацый - гэта людзі, якія, верагодна, хацелі набіць шыны і больш нічога не рабіць. Яны хутка стварылі ўліковы запіс, некаторы час пагулялі з дадаткам штучнага інтэлекту, палічылі, што гэта весела і дзіўна, а затым, магчыма, зрабілі некалькі паведамленняў у сацыяльных сетках, каб прадэманстраваць тое, што яны знайшлі. Пасля гэтага яны могуць больш ніколі не ўваходзіць у сістэму або, па меншай меры, выкарыстоўваць праграму штучнага інтэлекту толькі ў выпадку ўзнікнення асаблівай неабходнасці.

Іншыя таксама адзначылі, што час, калі ChatGPT стаў даступным, супаў з часам года, які выклікаў вялікую цікавасць да прыкладання AI. Магчыма, падчас святаў у нас ёсць больш часу, каб пагуляць з цікавымі прадметамі. З'яўленне сацыяльных сетак таксама ператварыла гэта ў своеасаблівы феномен. Класічны FOMO (страх прапусціць), верагодна, дадаў да ліхалецця. Вядома, калі вы параўноўваеце адзін мільён з некаторымі папулярнымі ўплывовымі асобамі на YouTube, вы можаце выказаць здагадку, што мільён - гэта мізэрная лічба ў параўнанні з тымі відэаблогамі, якія атрымліваюць сотні мільёнаў рэгістрацый або праглядаў, калі яны былі ўпершыню выпушчаныя або размешчаныя.

Што ж, давайце не будзем адцягвацца і проста адзначым, што для прыкладання AI эксперыментальнага характару мільёны рэгістрацый, безумоўна, вартыя пахваліцца.

Людзі адразу выкарыстоўвалі ChatGPT для стварэння гісторый. Затым яны апублікавалі гісторыі і хлынулі аб цудзе гэтага. Рэпарцёры і журналісты нават бяруць «інтэрв'ю» з ChatGPT, што крыху бянтэжыць, таму што яны трапляюць у тую ж пастку антрапамарфізмаў (альбо праз фактычную недасведчанасць, альбо праз надзею сабраць занадта шмат праглядаў для сваіх артыкулаў). Непасрэдная тэндэнцыя таксама заключалася ў тым, каб заявіць, што штучны інтэлект цяпер дасягнуў разумнасці або прайшоў тэст Цьюрынга, пра што я відавочна каментаваў раней.

Грамадскія заклапочанасці, якія выклікае ChatGPT, на самай справе ўжо ўзніклі ў выніку больш ранніх версій GPT, а таксама мноства ўжо даступных праграм LLM і генератыўнага штучнага інтэлекту. Розніца ў тым, што цяпер увесь свет вырашыў падключыцца. Гэта зручна. Нам трэба пераканацца, што этыка штучнага інтэлекту і заканадаўства аб штучным інтэлекце атрымліваюць належную ўвагу і ўвагу. Калі нам спатрэбіцца ChatGPT, няхай будзе так.

Якія асцярогі выказваюцца?

Возьмем варыянт выкарыстання, калі студэнтаў просяць напісаць эсэ для сваіх класаў. Студэнт, як правіла, павінен напісаць эсэ, цалкам грунтуючыся на сваіх уласных здольнасцях да пісьма і кампазіцыі. Безумоўна, яны могуць праглядзець іншыя пісьмовыя матэрыялы, каб атрымаць ідэі і цытаты, але ў адваротным выпадку мяркуецца, што студэнт прыдумляе сваё эсэ з уласнай цапкі. Капіраванне прозы з іншых крыніц не ўспрымаецца, што звычайна вядзе да адзнакі F або, магчыма, адлічэння за плагіят іншага матэрыялу.

У нашы дні вось што можа адбыцца. Студэнт падпісваецца ў ChatGPT (або ў любым іншым падобным дадатку генератыўнага штучнага інтэлекту). Яны ўводзяць любую падказку настаўніка для напісання эсэ. ChatGPT стварае поўнае эсэ на аснове падказкі. Гэта «арыгінальная» кампазіцыя, таму што вы не абавязкова знойдзеце яе дзе-небудзь яшчэ. Вы не можаце даказаць, што кампазіцыя была плагіятам, бо, з пункту гледжання разгляду, яна не была плагіятам.

Студэнт здае сачыненне. Яны сцвярджаюць, што гэта іх уласны пісьмовы твор. У настаўніка няма гатовых сродкаў думаць інакш. З улікам сказанага, вы можаце ўявіць, што калі пісьмовая праца, здавалася б, выходзіць за рамкі наяўных магчымасцей студэнта, вы можаце выклікаць падазрэнне. Але гэта не так шмат, калі вы збіраецеся абвінаваціць студэнта ў падмане.

Як з гэтым будуць змагацца настаўнікі?

Некаторыя змяшчаюць правіла ў сваіх навучальных матэрыялах, што любое выкарыстанне ChatGPT або эквівалента будзе разглядацца як форма падману. Акрамя таго, адмова ад выкарыстання ChatGPT або эквівалента з'яўляецца формай падману. Ці скараціць гэта гэтую новую магчымасць? Кажуць, што гэта сумнеўна, таму што шанцы быць злоўленымі нізкія, у той час як шанцы атрымаць добрую адзнаку за добра напісаную работу высокія. Верагодна, вы можаце сабе ўявіць, што студэнты сутыкаюцца з дэдлайнам для напісання эсэ, і напярэдадні вечарам узнікне спакуса выкарыстаць генератыўны штучны інтэлект, каб, здавалася б, вырваць іх з тупіка.

Пераключэнне перадач, любы тып пісьма патэнцыйна будзе адбіваўся генератыўным ІІ.

Вас на працы просяць напісаць памятку пра тое ці іншае? Не марнуйце час, робячы гэта з нуля. Выкарыстоўвайце генератыўны штучны інтэлект. Затым вы можаце выразаць і ўставіць згенераваны тэкст у сваю кампазіцыю, удакладніць тэкст па меры неабходнасці і з лёгкасцю выканаць цяжкую працу па напісанні.

Ці здаецца гэта правільным?

Б'юся аб заклад, што большасць людзей адкажа так. Гэта нават лепш, чым скапіяваць што-небудзь з Інтэрнэту, з-за чаго вы можаце трапіць у ваду за плагіят. Мае велізарны сэнс выкарыстоўваць генератыўны штучны інтэлект, каб часткова або, магчыма, цалкам зрабіць за вас напісанне. Для гэтага і створаны інструменты.

Акрамя таго, у адной з маіх наступных калонак будзе ўважліва разгледжаны варыянт выкарыстання генератыўнага штучнага інтэлекту ў юрыдычных мэтах у сэнсе выканання адвакацкай дзейнасці і стварэння юрыдычных дакументаў. Кожны, хто з'яўляецца адвакатам або спецыялістам у галіне права, захоча падумаць, наколькі генератыўны штучны інтэлект можа патэнцыйна выкараніць або парушыць юрыдычную практыку. Разгледзім, напрыклад, адваката, які складае юрыдычную запіску для судовай справы. Яны патэнцыйна могуць выкарыстоўваць генератыўны штучны інтэлект, каб напісаць кампазіцыю. Вядома, гэта можа мець некаторыя недахопы, таму адвакат павінен падправіць яго тут ці там. Змяншэнне колькасці працы і часу на выраб брыфа можа зрабіць наладку апраўданай.

Аднак некаторыя занепакоеныя тым, што юрыдычны дакумент можа ўтрымліваць няпраўду або галюцынацыі штучнага інтэлекту, якія юрыст не ўлавіў. З пункту гледжання гэтага павароту гэта ляжыць на плячах адваката. Верагодна, яны заяўлялі, што брыф быў напісаны імі, такім чынам, незалежна ад таго, напісаў яго малодшы супрацоўнік або прыкладанне AI, яны па-ранейшаму нясуць канчатковую адказнасць за канчатковы змест.

Гэта становіцца яшчэ больш складана, калі людзі, якія не з'яўляюцца юрыстамі, пачынаюць выкарыстоўваць генератыўны штучны інтэлект для выканання юрыдычнай працы за іх. Яны могуць паверыць, што генератыўны штучны інтэлект можа ствараць самыя розныя юрыдычныя дакументы. Бяда, вядома, у тым, што дакументы могуць не мець юрыдычнай сілы. Я раскажу пра гэта больш у маёй наступнай калонцы.

Узнікае важнае эмпірычнае правіла адносна грамадства і акту чалавечага пісьма.

Гэта накшталт важна:

  • Кожны раз, калі вам даручана напісаць што-небудзь, ці варта вам пісаць элемент з нуля, ці вы павінны выкарыстоўваць генератыўны інструмент штучнага інтэлекту, каб дапамагчы вам на шляху?

Вывад можа быць няўдалым, і вам трэба будзе шмат перапісаць. Або вынік можа быць правільным, і вам трэба будзе ўнесці толькі невялікія папраўкі. Увогуле, калі выкарыстанне бясплатнае і лёгкае, спакуса выкарыстоўваць генератыўны штучны інтэлект будзе велізарнай.

Бонусам з'яўляецца тое, што вы патэнцыйна можаце выкарыстоўваць генератыўны штучны інтэлект, каб зрабіць некаторыя з вашых перапісванняў. Падобна падказкам пра жабу з капелюшом і комінам, калі вы ствараеце мастацтва, вы можаце зрабіць тое ж самае, калі ствараеце тэкставыя апавяданні. ШІ можа стварыць вашу гісторыю пра сабаку, а вы замест гэтага вырашылі, што галоўным героем будзе кот. Атрымаўшы гісторыю сабакі, вы ўводзіце іншую падказку і даяце каманду праграме AI пераключыцца на выкарыстанне ката ў гісторыі. Верагодна, гэта прывядзе да большага, чым проста да таго, што ў апавяданні слова "кот" заменіць слова "сабака". Прыкладанне штучнага інтэлекту можа лёгка змяніць гісторыю, каб зрабіць спасылкі на тое, што робяць кошкі, а што робяць сабакі. Уся гісторыя можа быць перагледжана, як калі б вы папрасілі чалавека ўнесці такія змены.

Магутны, уражлівы, зручны.

Некалькі перасцярог, над якімі варта падумаць:

  • Ці страцім мы калектыўна здольнасць пісаць, стаўшы цалкам залежнымі ад генератыўнага штучнага інтэлекту, які піша за нас?
  • Ці застануцца без працы людзі, якія зарабляюць на жыццё пісьменніцтвам (тое самае пытаюць і пра мастакоў)?
  • Ці будзе Інтэрнэт расці не па днях, а па гадзінах, калі створаныя наратывы перапоўнены сеткай, і мы больш не можам аддзяліць праўду ад хлусні?
  • Ці будуць людзі цвёрда верыць гэтым створаным апавяданням і паводзіць сябе так, быццам аўтарытэтная асоба дала ім праўдзівы матэрыял, на які яны могуць спадзявацца, у тым ліку змест, звязаны з жыццём і смерцю?
  • іншае

Падумайце над гэтым.

Звярніце ўвагу, што адзін з гэтых маркіраваных пунктаў датычыцца залежнасці ад матэрыялу, згенераванага генератыўным штучным інтэлектам, у залежнасці ад жыцця або смерці.

Вось вам сэрцаед (папярэджанне, вы можаце прапусціць гэты абзац). Уявіце сабе, што падлетак пытаецца ў генератыўнага штучнага інтэлекту, ці варта яму пакончыць з сабой. Што будзе ствараць генератыўнае прыкладанне AI? Натуральна, вы спадзяецеся, што праграма штучнага інтэлекту выдасць апавяданне пра тое, каб гэтага не рабіць, і гучна заклікае запытацца шукаць спецыялістаў па псіхічным здароўі.

Існуе верагоднасць таго, што штучны інтэлект не будзе згадваць гэтыя аспекты. Што яшчэ горш, праграма штучнага інтэлекту магла раней захапіць тэкст у Інтэрнэце, які, магчыма, заахвочвае да такіх дзеянняў, і праграма штучнага інтэлекту (паколькі ў яе няма здольнасці разумець чалавека) выплюхвае апавяданне, якое ў асноўным намякае або прама сцвярджае, што падлетак павінен працягнуць не спалохаўся. Падлетак лічыць, што гэта праўдзівыя рэкамендацыі аўтарытэтнай інтэрнэт-сістэмы «Штучны інтэлект».

Дрэнныя рэчы.

Сапраўды, вельмі дрэнна.

Некаторыя з распрацоўшчыкаў генератыўнага штучнага інтэлекту спрабуюць усталяваць механізм стрымак і проціваг у штучным інтэлекте, каб паспрабаваць прадухіліць узнікненне падобных сітуацый. Справа ў тым, што спосаб сфармуляванага падказкі можа патэнцыйна праслізнуць праз запраграмаваныя агароджы. Тое ж самае можна сказаць і пра атрыманую прадукцыю. Не існуе ніякай гарантаванай жалезнай фільтрацыі, якая можа гарантаваць, што гэтага ніколі не адбудзецца.

У гэтай тэкставай пастаноўкі ёсць іншы ракурс, якога вы маглі не прадбачыць.

Вось ён.

Калі праграмісты або распрацоўшчыкі праграмнага забеспячэння ствараюць код для свайго праграмнага забеспячэння, яны па сутнасці пішуць тэкст. Тэкст у некаторай ступені таемны, таму што ён заснаваны на мове, вызначанай для пэўнай мовы праграмавання, напрыклад, Python, C++, Java і г.д. У рэшце рэшт, гэта тэкст.

Затым зыходны код кампілюецца або запускаецца на кампутары. Распрацоўшчык правярае свой код, каб пераканацца, што ён робіць тое, што і павінен быў рабіць. Яны могуць унесці выпраўленні або адладзіць код. Як вы ведаеце, праграмісты або інжынеры праграмнага забеспячэння карыстаюцца вялікім попытам і часта патрабуюць высокіх коштаў за сваю працу.

Для генератыўнага ІІ тэкст зыходнага кода з'яўляецца тэкстам. Здольнасць знаходзіць шаблоны ў мільёнах радкоў кода, якія ёсць у Інтэрнеце і даступныя ў розных сховішчах, стварае сакавіты спосаб матэматычна і вылічальна высветліць, які код што робіць.

Уціранне вось у чым.

З дапамогай падказкі вы патэнцыйна можаце прымусіць генератыўны штучны інтэлект стварыць для вас усю камп'ютэрную праграму. Няма неабходнасці падпарадкоўвацца выкідванню кода. Магчыма, вы чулі, што існуюць т.зв нізкі код інструменты, даступныя ў нашы дні, каб паменшыць намаганні праграмістаў пры напісанні кода. Генератыўны штучны інтэлект, магчыма, можа быць вытлумачаны як нізкі код ці нават не-код варыянт, так як ён піша код для вас.

Перад тым, як тыя з вас, хто піша код для жыцця, упадуць на падлогу і страцяць прытомнасць, майце на ўвазе, што код не «разумеецца» так, як мяркуецца, вы яго разумееце як чалавек. Акрамя таго, код можа ўтрымліваць няпраўду і галюцынацыі штучнага інтэлекту. Абапірацца на такі код без дэталёвага агляду кода было б рызыкоўна і сумніўна.

Мы вярнуліся да тых жа меркаванняў адносна напісання апавяданняў і нататак. Магчыма, падыход заключаецца ў выкарыстанні генератыўнага штучнага інтэлекту, каб дапамагчы вам зрабіць частку шляху да кадавання. Аднак ёсць значны кампраміс. Вам бяспечней напісаць код непасрэдна ці мець справу з кодам, згенераваным штучным інтэлектам, які можа мець падступныя і цяжка выяўленыя ўбудаваныя праблемы?

Час пакажа.

Кароткае апусканне ў ChatGPT

Калі вы пачынаеце выкарыстоўваць ChatGPT, адлюстроўваецца шэраг засцярог і інфармацыйных каментарыяў.

Давайце коратка паглядзім на іх:

  • «Час можа генераваць няправільную інфармацыю.»
  • «Час можа даваць шкодныя інструкцыі або прадузяты кантэнт».
  • «Навучаны адхіляць недарэчныя запыты».
  • «Наша мэта — атрымаць знешнюю зваротную сувязь, каб палепшыць нашы сістэмы і зрабіць іх больш бяспечнымі».
  • «Нягледзячы на ​​тое, што ў нас ёсць меры бяспекі, сістэма можа час ад часу генераваць няправільную або зманлівую інфармацыю і ствараць абразлівы або прадузяты кантэнт. Яно не прызначана для таго, каб даваць парады».
  • «Размовы могуць быць прагледжаны нашымі трэнерамі AI для паляпшэння нашых сістэм».
  • «Калі ласка, не паведамляйце канфідэнцыяльную інфармацыю ў сваіх размовах».
  • «Гэтая сістэма аптымізавана для дыялогу. Дайце нам ведаць, добры ці бескарысны пэўны адказ».
  • «Абмежаваныя веды пра свет і падзеі пасля 2021 года».

З-за абмежаванасці прасторы я не магу падрабязна расказаць пра гэта, але давайце прынамсі правядзем хуткі аналіз.

Я ўжо згадваў, што створаныя тэкставыя апавяданні могуць утрымліваць хлусню і дэзінфармацыю.

Ёсць яшчэ нешта, чаго трэба сачыць. Будзьце асцярожныя з апавяданнямі, якія могуць утрымліваць розныя падпальваючыя заўвагі, якія дэманструюць непрыемныя прадузятасці.

Паведамляецца, што, каб паспрабаваць прадухіліць гэта, OpenAI выкарыстаў чалавечыя падвойныя праверкі падчас навучання ChatGPT. Правершчыкі будуць уводзіць падказкі, якія, хутчэй за ўсё, падштурхнуць штучны інтэлект да стварэння падбухторваючага кантэнту. Калі такі кантэнт быў заўважаны асобамі, якія правяралі двайны кантроль, яны паказалі штучнаму інтэлекту, што гэта недарэчна, і ў пэўным сэнсе налічылі лікавы штраф за атрыманы вынік. З матэматычнага пункту гледжання алгарытм штучнага інтэлекту імкнецца звесці да мінімуму штрафныя балы і, такім чынам, вылічальна імкнецца не выкарыстоўваць гэтыя фразы або фармулёўкі ў далейшым.

Сапраўды гэтак жа, калі вы ўводзіце падказку, штучны інтэлект спрабуе вызначыць, ці з'яўляецца ваша падказка запаленчай ці можа прывесці да запаленчага выніку, для чаго падказка можа быць адхілена ІІ. Ветліва, ідэя заключаецца ў тым, каб адхіляць недарэчныя падказкі або запыты. Напрыклад, штучны інтэлект, хутчэй за ўсё, атрымае адмову ад жарту, які змяшчае расавыя абразы.

Я ўпэўнены, што вы не здзівіцеся, даведаўшыся, што людзі, якія выкарыстоўваюць ChatGPT, спрабавалі перахітрыць меры засцярогі. Гэтыя «прадпрымальныя» карыстальнікі альбо падманулі ІІ, альбо знайшлі хітрыя спосабы абыйсці матэматычныя фармулёўкі. Некаторыя з гэтых намаганняў робяцца для відавочнай радасці перасягнуць або перавысіць сістэму, у той час як іншыя сцвярджаюць, што яны спрабуюць прадэманстраваць, што ChatGPT па-ранейшаму будзе даваць непрыемныя вынікі.

Яны маюць рацыю ў адным; меры засцярогі не надзейныя. Мы вярнуліся да іншага разгляду этыкі штучнага інтэлекту і патэнцыйнага права на штучны інтэлект. Ці варта дазваляць генератыўнаму штучнаму інтэлекту працаваць, нават калі ён можа даць непажаданыя вынікі?

Папярэджанні, калі вы выкарыстоўваеце ChatGPT, здавалася б, папярэджваюць каго-небудзь пра тое, што праграма AI можа зрабіць або сказаць. Вялікая верагоднасць таго, што непазбежна могуць быць узбуджаны нейкія судовыя працэсы, калі хтосьці, магчыма, непаўналетні, атрымлівае непрыстойныя вынікі абразлівага характару (або калі яны атрымліваюць аўтарытэтныя тэкставыя апавяданні, якія яны, на жаль, лічаць праўдай, і дзейнічаюць у адпаведнасці з вынікамі для сваіх ўласная небяспека).

Некалькі іншых хуткіх нюансаў аб падказках варта ведаць.

Кожны раз, калі вы ўводзіце падказку, вынік можа рэзка адрознівацца, нават калі вы ўводзіце дакладна такую ​​ж падказку. Напрыклад, калі вы ўвядзеце «Раскажы мне гісторыю пра сабаку», вы атрымаеце тэкставае апавяданне, магчыма, указваючы казку пра аўчарку, у той час як у наступны раз, калі вы ўвядзеце «Раскажы мне гісторыю пра сабаку», гэта можа быць цалкам іншая гісторыя і з удзелам пудзеля. Вось як большасць генератыўных штучнага інтэлекту арганізавана матэматычна і вылічальна. Кажуць, што ён недэтэрмінаваны. Некаторых людзей гэта раздражняе, бо яны прывыклі да канцэпцыі, што ваш увод у камп'ютар заўсёды будзе вырабляць аднолькава дакладны вынік.

Перастаноўка слоў таксама значна паўплывае на згенераваны вынік. Калі вы ўвядзеце «Раскажы мне гісторыю пра сабаку», а потым «Раскажы мне гісторыю сабакі», хутчэй за ўсё, атрыманыя апавяданні будуць істотна адрознівацца. Адчувальнасць можа быць вострай. Запыт гісторыі пра сабаку супраць запыту гісторыі пра вялікага сабаку, несумненна, прывядзе да кардынальна розных апавяданняў.

Нарэшце, звярніце ўвагу, што пазначаныя вышэй пункты ўтрымліваюць указанне на тое, што ChatGPT мае «абмежаваныя веды аб свеце і падзеях пасля 2021 года». Гэта таму, што распрацоўшчыкі штучнага інтэлекту вырашылі скараціць час, калі праграма штучнага інтэлекту павінна збіраць і навучацца на інтэрнэт-дадзеных. Я заўважыў, што карыстальнікі часта, здаецца, не разумеюць, што ChatGPT не падлучаны наўпрост да сучаснага Інтэрнэту для мэт атрымання дадзеных і атрымання згенераваных вынікаў. Мы настолькі прызвычаіліся да таго, што ўсё працуе ў рэжыме рэальнага часу і мае падключэнне да Інтэрнэту, што чакаем гэтага і ад праграм штучнага інтэлекту. Не ў гэтым канкрэтным выпадку (і, каб удакладніць, ChatGPT сапраўды даступны ў Інтэрнеце, але калі ён складае тэкставы вынік, ён не адбірае Інтэрнэт сам па сабе для гэтага, замест гэтага ён звычайна замарожаны ў часе, каб каля даты адключэння).

Вы можаце быць здзіўлены, чаму ChatGPT не атрымлівае дадзеныя з Інтэрнэту ў рэжыме рэальнага часу. Пара разумных прычын. Па-першае, паспрабаваць правесці навучанне ў рэжыме рэальнага часу было б затратна з пункту гледжання вылічэнняў, а дадатак AI будзе працаваць з затрымкай або менш рэагаваць на падказкі (у цяперашні час яно вельмі хуткае, звычайна адказваючы тэкставым апавяданнем за некалькі секунд ). Па-другое, гнюсныя рэчы ў Інтэрнеце, якіх яны спрабавалі навучыць прыкладанні штучнага інтэлекту пазбягаць, хутчэй за ўсё, пракрадуцца ў матэматычныя і вылічальныя фармулёўкі (і, як было адзначана, яны ўжо ў некаторай ступені прысутнічаюць там раней, хоць яны спрабавалі выявіць гэта па выкарыстоўваючы гэтыя чалавечыя падвойныя праверкі).

Вы абавязкова пачуеце, як некаторыя людзі нахабна заяўляюць, што ChatGPT і падобны генератыўны штучны інтэлект - гэта смяротны звон для пошуку Google і іншых пошукавых сістэм. Навошта шукаць у Google шмат даведачных элементаў, калі вы можаце прымусіць штучны інтэлект напісаць што-небудзь для вас? Ага, заяўляюць гэтыя людзі, Google павінен зачыніць свае дзверы і вярнуцца дадому.

Вядома, гэта чыстая лухта.

Людзі па-ранейшаму хочуць шукаць. Яны хочуць мець магчымасць глядзець даведачныя матэрыялы і разбірацца ў рэчах самастойна. Гэта не ўзаемавыключальны бінарны выбар у той ці іншы бок (гэта ілжывая дыхатамія).

Generative AI - гэта іншы від інструмента. Вы не кідаецеся малаткамі проста таму, што вынайшлі адвёртку.

Больш разумны спосаб падумаць пра гэта - гэта тое, што два тыпы інструментаў могуць быць сумяшчальнымі для выкарыстання людзьмі, якія жадаюць рабіць тое, што звязана з Інтэрнэтам. Некаторыя з іх ужо гулялі ў злучэнне генератыўнага штучнага інтэлекту са звычайнымі інтэрнэт-пошукавымі сістэмамі.

Хто-небудзь, хто ўжо прапануе пошукавую сістэму, хвалюе тое, што «бясплатны» генератыўны інструмент штучнага інтэлекту патэнцыйна можа падарваць рэпутацыю пошукавай сістэмы. Калі вы робіце пошук у Інтэрнэце і атрымліваеце падбухторваючыя матэрыялы, вы ведаеце, што гэта проста спосаб Інтэрнэту. Калі вы выкарыстоўваеце генератыўны штучны інтэлект, і ён стварае тэкставае апавяданне, якое з'яўляецца агідным і гнюсным, вас гэта, хутчэй за ўсё, турбуе. Магчыма, калі генератыўны штучны інтэлект цесна звязаны з пэўнай пошукавай сістэмай, ваша незадаволенасць і агіда да генератыўнага штучнага інтэлекту перакінуцца на тое, што вы думаеце пра пошукавую сістэму.

У любым выпадку, мы амаль напэўна ўбачым альянсы паміж рознымі генератыўнымі інструментамі штучнага інтэлекту і інтэрнэт-пошукавымі сістэмамі, якія асцярожна і ўважліва ўступаюць у гэтыя каламутныя воды.

заключэнне

Вось вам пытанне.

Як можна зарабляць грошы, забяспечваючы генератыўны штучны інтэлект, які стварае тэкставыя апавяданні?

OpenAI ужо заяўляў, што ўнутраныя выдаткі на кожную транзакцыю ChatGPT, відаць, даволі высокія. Яны пакуль не манетызуюць ChatGPT.

Ці будуць людзі гатовыя плаціць камісію за транзакцыю або, магчыма, заплацяць абаненцкую плату за доступ да генератыўных інструментаў штучнага інтэлекту?

Ці можа рэклама быць сродкам спробы зарабіць грошы з дапамогай генератыўных інструментаў штучнага інтэлекту?

Ніхто яшчэ не ўпэўнены, як гэта будзе зарабляць грошы. Мы ўсё яшчэ знаходзімся на вялікай эксперыментальнай стадыі гэтага віду ІІ. Размясціце праграму AI і паглядзіце, якую рэакцыю вы атрымаеце. Адрэгулюйце ІІ. Скарыстайцеся інфармацыяй аб выкарыстанні, каб вызначыць, куды далей трэба накіраваць штучны інтэлект.

Намыльце, змыйце, паўтарыце.

У якасці заключнага каментара, на дадзены момант некаторыя лічаць, што гэта тып штучнага інтэлекту, які нам наогул не павінен быць. Перавесці гадзіннік назад. Пакладзеце гэтага джына назад у бутэльку. Мы паспрабавалі гэта і зразумелі, што ў гэтага ёсць прыкметныя недахопы, і ўсе разам, як грамадства, маглі б пагадзіцца, што мы павінны правесці гэтага каня назад у хлеў.

Вы лічыце, што абяцанне генератыўнага штучнага інтэлекту лепш ці горш за недахопы?

З пункту гледжання рэальнага свету гэта не мае асаблівага значэння, таму што ў рэчаіснасці выдаленне генератыўнага штучнага інтэлекту ў цэлым непрактычнае. Генератыўны штучны інтэлект распрацоўваецца далей, і вы не збіраецеся яго спыняць ні тут, ні ў любой або ва ўсіх іншых краінах (так і ёсць). Як бы вы гэта зрабілі? Прыняць законы аб поўнай забароне генератыўнага ІІ. Не асабліва жыццяздольны (мабыць, у вас больш шанцаў усталяваць законы, якія фарміруюць генератыўны ІІ, і імкнуцца законна кіраваць тымі, хто яго стварае). Можа быць, замест гэтага прымусіць культуру пазбягаць генератыўнага штучнага інтэлекту? Вы можаце прымусіць некаторых людзей пагадзіцца з ганьбай, але іншыя не пагодзяцца і ў любым выпадку працягнуць генератыўны ІІ.

Як я адзначаў раней, гэта загадка, звязаная з этыкай штучнага інтэлекту і правам штучнага інтэлекту.

Ваша апошняе вялікае пытанне: ці вядзе нас генератыўны штучны інтэлект па шляху да разумнага штучнага інтэлекту. Некаторыя настойваюць на тым, што так. Аргумент заключаецца ў тым, што калі мы будзем працягваць аналізаваць матэматычныя мадэлі і нарошчваць вылічальныя камп'ютэрныя серверы і падкормліваць гэтага звера кожным кавалачкам Інтэрнэту і многае іншае, алгарытмічны штучны інтэлект ператворыць кут у разумнасць.

І калі гэта так, мы сутыкаемся з занепакоенасцю наконт таго, што штучны інтэлект з'яўляецца рызыкай для існавання. Вы зноў і зноў чулі, што калі ў нас з'явіцца разумны штучны інтэлект, ён можа вырашыць, што людзі не вельмі карысныя. Наступнае, што вы ведаеце, штучны інтэлект альбо заняволіў нас, альбо знішчыў. Глядзіце маё даследаванне гэтых экзістэнцыяльных рызык на спасылка тут.

Супрацьлеглае меркаванне заключаецца ў тым, што мы не збіраемся атрымаць сэнс з таго, што некаторыя хітра характарызуюць як стахастычны папугай (гэта крылатая фраза, якая набыла папулярнасць у сферы штучнага інтэлекту), вось цытата з выкарыстаннем фразы:

  • «Насуперак таму, як можа здацца, калі мы назіраем за яго выхадам, LM — гэта сістэма бессістэмнага злучэння паслядоўнасцей лінгвістычных формаў, якія ён назіраў у сваіх велізарных навучальных дадзеных, у адпаведнасці з імавернаснай інфармацыяй пра тое, як яны спалучаюцца, але без спасылак на значэнне. : стахастычны папугай» (у даследчай працы Эмілі М. Бэндэр, Тымніта Гебру, Анджэліны Макмілан-Мэйджор, Шмаргарэт Шмітчэл, ФАКТ ACM '21, 3–10 сакавіка 2021 г., віртуальнае мерапрыемства, Канада, пад назвай «Аб небяспецы стахастычных папугаяў: ці могуць моўныя мадэлі быць занадта вялікімі?»

Ці з'яўляецца генератыўны штучны інтэлект своеасаблівым тупіком, які забяспечыць карысныя магчымасці штучнага інтэлекту, але не прывядзе нас да разумнага штучнага інтэлекту, ці нейкім чынам каэфіцыент маштабавання можа дазволіць з'яўленню сінгулярнасці, якая вядзе да адчувальнага штучнага інтэлекту?

Завязваецца гарачая дыскусія.

Скажыце, вы хочаце паспрабаваць генератыўны штучны інтэлект?

Калі так, вось спасылка на ChatGPT, дзе вы можаце стварыць уліковы запіс і паспрабаваць выкарыстоўваць яго, гл спасылка тут.

Майце на ўвазе, што з-за высокага попыту на выкарыстанне эксперыментальнай праграмы штучнага інтэлекту, відавочна, рэгістрацыя для доступу можа быць спынена ў любы час, альбо на кароткі час, альбо абмежавана (калі я апошні раз правяраў, рэгістрацыя ўсё яшчэ была ўключана). Проста папярэджваю вас.

Калі ласка, прыміце да ўвагі ўсё, што я сказаў тут пра генератыўны штучны інтэлект, каб вы ведалі, што адбываецца, калі вы карыстаецеся праграмай штучнага інтэлекту, напрыклад ChatGPT.

Будзьце ўдумлівымі да сваіх дзеянняў.

Ці збіраецеся вы ненаўмысна падштурхнуць нас да разумнага штучнага інтэлекту, які канчаткова вынішчыць нас з існавання, проста вырашыўшы пагуляць з генератыўным штучным інтэлектам? Вы будзеце вінаватыя? Ці варта было вам спыніць свой унёсак у жахлівае знішчэнне чалавецтва?

Я так не думаю. Але можа быць, што кіраўнікі штучнага інтэлекту (ужо) прымушаюць мяне сказаць гэта, або, магчыма, уся гэтая калонка была напісана на гэты раз ChatGPT або эквівалентным генератыўным дадаткам штучнага інтэлекту.

Не хвалюйцеся, запэўніваю вас, гэта быў я, чалавечы інтэлект, а не штучны інтэлект.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-icluded-looming-ai-ethics- and-ai-law-considerations/