Школы, якія забараняюць доступ да Generative AI ChatGPT, не збіраюцца рухаць іголку і прапускаюць лодку, сцвярджае этыка AI і закон аб AI

Забараняць ці не забараняць — вось у чым пытанне.

Я мяркую, што калі б Шэкспір ​​быў побач сёння, ён мог бы сказаць нешта падобнае пра нядаўнія спробы забараніць выкарыстанне тыпу штучнага інтэлекту, вядомага як Генератыўны ІІ, які асабліва ілюструецца і папулярызуецца дзякуючы праграме AI пад назвай ChatGPT.

Вось здзелка.

Некаторыя вядомыя арганізацыі спрабавалі забараніць выкарыстанне ChatGPT.

Напрыклад, Дэпартамент адукацыі Нью-Ёрка (Нью-Ёрк) нядаўна абвясціў, што яны працягваюць блакаваць доступ да ChatGPT у розных сетках і падлучаных прыладах. Паведамленае абгрунтаванне забароны складалася з указанняў на тое, што гэтая праграма штучнага інтэлекту і агульнае выкарыстанне генератыўнага штучнага інтэлекту, відаць, прадказваюць негатыўныя наступствы для навучання студэнтаў. Кажуць, што студэнты, якія вырашылі выкарыстоўваць ChatGPT, зніжаюць развіццё сваіх важных навыкаў крытычнага мыслення і падрываюць рост іх здольнасцей вырашаць праблемы.

У дадатак да гэтых даволі трывожных сумневаў, ёсць бясспрэчны факт, што такі штучны інтэлект можа вырабляць недакладныя вынікі, якія змяшчаюць памылкі і іншыя фактычныя хваробы. Гэта дрэнна. Небяспечнай глазурай на торце з'яўляецца ўяўная магчымасць таго, што вынікі патэнцыйна могуць быць выкарыстаны небяспечным чынам студэнтамі, якія несвядома абапіраюцца на згаданую ілжывасць. Ніякіх дакументальна пацверджаных прычын шкоды, якія я бачыў, пакуль не выяўлена, таму нам трэба прыняць за намінальную вартасць, што гэта патэнцыйна можа адбыцца (я абмяркоўваў дыяпазон магчымасцей у сваіх паведамленнях; напрыклад, некаторыя сцвярджалі, што генератыўны ІІ эсэ можа сказаць камусьці прымаць лекі, якія яны не павінны прымаць, або даць парады па псіхічным здароўі, якія павінны быць прапанаваны спецыялістамі ў галіне псіхічнага здароўя і г.д.).

У сённяшняй калонцы я разгледжу прыроду нядаўна ўведзеных забарон і вызначу, ці маюць яны сэнс ці не. Ёсць шмат пытанняў для разгляду. Ці прыносяць карысць такія забароны? Ці падлягаюць выкананню гэтыя забароны? Калі з'явяцца новыя забароны, ці будзем мы дапамагаць чалавецтву, ці ненаўмысна прастрэлім сабе нагу?

Як вы можаце здагадацца, усё гэта не так нарэзана і высушана, як можа здацца на першы погляд.

Ва ўсё гэта ўваходзіць мноства меркаванняў этыкі штучнага інтэлекту і права штучнага інтэлекту. Майце на ўвазе, што працягваюцца намаганні па ўкараненні этычных прынцыпаў штучнага інтэлекту ў распрацоўку і выкарыстанне праграм штучнага інтэлекту. Расце кантынгент заклапочаных і былых этыкаў штучнага інтэлекту, якія спрабуюць пераканацца, што намаганні па распрацоўцы і прыняцці штучнага інтэлекту прымаюць пад увагу пункт гледжання рабіць ІІ Назаўсёды і прадухіленне AI для дрэннага. Сапраўды гэтак жа прапануюцца новыя законы аб штучным інтэлекце, якія разглядаюцца ў якасці патэнцыйных рашэнняў для таго, каб намаганні штучнага інтэлекту не парушалі правы чалавека і таму падобнае. Аб маім пастаянным і шырокім асвятленні этыкі штучнага інтэлекту і права штучнага інтэлекту гл спасылка тут і спасылка тут, Проста назваць некалькі.

Ідэя забароны некаторых відаў ІІ не новая.

У адной са сваіх калонак я ўважліва прааналізаваў прапанаваныя забароны, звязаныя з выкарыстаннем ІІ для аўтаномных сістэм узбраення, гл. спасылка тут. Розныя краіны займаюцца распрацоўкай зброі, якая ўключае ў сябе ўбудаваны штучны інтэлект. Гэта праславутая зброя, якую трэба страляць і забываць. Усё, што вам трэба зрабіць, гэта выпусціць зброю, і з гэтага моманту ІІ бярэ на сябе кіраванне. Будзем спадзявацца, што штучны інтэлект накіроўвае ўзбраенне да патрэбнага месца і падрывае або дастаўляе яго адпаведным чынам. Часта перавызначэння "чалавек у цыкле" вельмі мала, таму што працэс можа адбывацца хутчэй, чым людзі могуць адрэагаваць у любым выпадку, або верагоднасць таго, што праціўнік узломвае сістэму і перашкаджае зброі выконваць свае задачы, памяншаецца або змяншаецца шляхам прадухілення чаго-небудзь іншага чым ІІ ад кіравання боепрыпасам.

Відавочна, што гэта выпадак, калі штучны інтэлект цягне за сабой наступствы для жыцця або смерці. Вы можаце пераканаўча сцвярджаць, што мы павінны паразважаць над наступствамі такога жудаснага ІІ. Знешне разумна пераварочваць кожны камень, перш чым дазволіць штучнаму інтэлекту заліць бетон для стварэння аўтаномнай зброі. На карту пастаўлена шмат жыццяў.

Ці прымяняюцца тыя ж прадчуванні і ўрачыстасць да выкарыстання генератыўнага штучнага інтэлекту, уключаючы ChatGPT?

Вам было б цяжка сказаць, што гэты тып штучнага інтэлекту знаходзіцца ў той жа лізе, што і іншы тып штучнага інтэлекту, які накіроўвае смяротныя ракеты і іншыя боепрыпасы. З улікам сказанага, нават калі пытанне аб жыцці або смерці не стаіць, гэта не азначае, што мы не можам праявіць належную абачлівасць да таго, якія негатыўныя наступствы генератыўны штучны інтэлект можа вылучыць на першы план. Стаўкі могуць быць рознымі, тым не менш, сапраўдная занепакоенасць генератыўным штучным інтэлектам мае свае вартасці.

Я схільны падзяляць розныя забароны, звязаныя з штучным інтэлектам, на наступны спектр:

  • Абсалютная забарона
  • Частковая забарона
  • Слабы бан
  • Няма забароны

Ёсць і другі бок медаля, а менавіта імкненне ўключыць або падтрымаць штучны інтэлект, напрыклад, прадстаўлены ў гэтым спектры:

  • квитирование
  • Мяккае прыняцце
  • Поўнае прыняцце
  • Абавязковае патрабаванне

Розныя дыяпазоны забаронаў разам з дыяпазонам прыняцця будзе зручна разгледзець, калі мы паглядзім на нядаўнія спробы забараніць выкарыстанне ChatGPT.

Па-першае, давайце пераканаемся, што мы ўсе ведаем, з чаго складаецца Generative AI, а таксама што такое ChatGPT. Пасля таго, як мы разгледзім гэты фундаментальны аспект, мы зможам зрабіць пераканаўчую ацэнку таго, ці будуць забароны на ChatGPT плённымі.

Кароткае навучанне пра Generative AI і ChatGPT

ChatGPT - гэта інтэрактыўная сістэма штучнага інтэлекту агульнага прызначэння, арыентаваная на размову, па сутнасці, здавалася б, бяскрыўдны агульны чат-бот, тым не менш, ён актыўна і прагна выкарыстоўваецца людзьмі спосабамі, якія застаюць многіх знянацку, як я раскажу ў бліжэйшы час. Гэта дадатак AI выкарыстоўвае тэхніку і тэхналогію ў сферы AI, якую часта называюць Генератыўны ІІ. ШІ стварае такія вынікі, як тэкст, што і робіць ChatGPT. Іншыя генератыўныя прыкладанні штучнага інтэлекту ствараюць такія выявы, як малюнкі або творы мастацтва, у той час як іншыя ствараюць аўдыяфайлы або відэа.

У гэтай дыскусіі я спынюся на тэкставых генератыўных праграмах штучнага інтэлекту, бо ChatGPT робіць менавіта гэта.

Праграмы Generative AI надзвычай простыя ў выкарыстанні.

Усё, што вам трэба зрабіць, гэта ўвесці падказку, і праграма AI створыць для вас эсэ, якое паспрабуе адказаць на ваша падказку. Складзены тэкст будзе здавацца, што сачыненне напісана чалавечай рукой і розумам. Калі вы ўвядзеце падказку з надпісам «Раскажы мне пра Абрагама Лінкальна», генератыўны штучны інтэлект прадаставіць вам эсэ пра Лінкальна. Гэта звычайна класіфікуецца як генератыўны штучны інтэлект, які працуе тэкст у тэкст ці некаторыя аддаюць перавагу называць гэта тэкст у эсэ выхад. Як ужо згадвалася, існуюць і іншыя рэжымы генератыўнага штучнага інтэлекту, такія як тэкст у мастацтва і тэкст у відэа.

Вашай першай думкай магло быць тое, што гэтая генератыўная здольнасць не здаецца такой вялікай праблемай з пункту гледжання стварэння эсэ. Вы можаце лёгка правесці онлайн-пошук у Інтэрнэце і лёгка знайсці тоны і тоны эсэ пра прэзідэнта Лінкальна. Галоўнае ў выпадку генератыўнага штучнага інтэлекту заключаецца ў тым, што створанае эсэ з'яўляецца адносна унікальным і забяспечвае арыгінальную кампазіцыю, а не копію. Калі б вы паспрабавалі знайсці дзе-небудзь у інтэрнэце падрыхтаванае штучным інтэлектам эсэ, вы б наўрад ці яго знайшлі.

Generative AI праходзіць папярэднюю падрыхтоўку і выкарыстоўвае складаную матэматычную і вылічальную фармулёўку, якая была створана шляхам вывучэння шаблонаў у напісаных словах і гісторыях у сетцы. У выніку вывучэння тысяч і мільёнаў пісьмовых урыўкаў штучны інтэлект можа выплюхнуць новыя эсэ і апавяданні, якія ўяўляюць сабой мяшанку з таго, што было знойдзена. Дзякуючы даданню розных імавернасных функцыянальных магчымасцей, атрыманы тэкст у значнай ступені ўнікальны ў параўнанні з тым, што выкарыстоўваўся ў навучальным наборы.

Вось чаму падняўся шум наконт таго, што студэнты могуць падманваць, калі пішуць эсэ па-за аўдыторыяй. Настаўнік не можа проста ўзяць сачыненне, якое хлусныя студэнты сцвярджаюць, што гэта іх уласны тэкст, і паспрабаваць высветліць, ці не было яно скапіявана з іншай інтэрнэт-крыніцы. Увогуле, у інтэрнэце не будзе канчатковага эсэ, якое адпавядала б эсэ, створанаму штучным інтэлектам. Увогуле, настаўніку давядзецца неахвотна прыняць, што вучань напісаў сачыненне як арыгінальны твор.

Ёсць дадатковыя праблемы з нагоды генератыўнага штучнага інтэлекту.

Адным з істотных недахопаў з'яўляецца тое, што эсэ, створаныя праграмай генератыўнага штучнага інтэлекту, могуць утрымліваць розныя непраўдзівыя факты, у тым ліку відавочна непраўдзівыя факты, факты, якія ўводзяць у зман, і відавочныя факты, якія цалкам сфабрыкаваны. Гэтыя сфабрыкаваныя аспекты часта называюць формай ІІ галюцынацыі, крылатая фраза, якую я не люблю, але, на жаль, здаецца, усё роўна набірае папулярнасць (падрабязнае тлумачэнне таго, чаму гэта кепская і непрыдатная тэрміналогія, глядзіце ў маім асвятленні на спасылка тут).

Я хацеў бы растлумачыць адзін важны аспект, перш чым мы паглыбімся ў гушчу рэчаў па гэтай тэме.

У сацыяльных сетках з'явіліся дзіўныя прэтэнзіі наконт гэтага Генератыўны ІІ сцвярджаючы, што гэтая апошняя версія AI на самай справе разумны ІІ (не, яны памыляюцца!). Асобы, якія займаюцца этыкай штучнага інтэлекту і правам штучнага інтэлекту, асабліва занепакоеныя гэтай растучай тэндэнцыяй адкрытых прэтэнзій. Вы можаце ветліва сказаць, што некаторыя людзі перабольшваюць тое, што насамрэч можа зрабіць сучасны ІІ. Яны мяркуюць, што штучны інтэлект мае магчымасці, якіх мы яшчэ не змаглі дасягнуць. Гэта шкада. Што яшчэ горш, яны могуць дазволіць сабе і іншым трапіць у жудасныя сітуацыі з-за здагадкі, што штучны інтэлект будзе разумным або падобным на чалавека, каб прыняць меры.

Не антрапамарфізуйце ІІ.

Гэта прывядзе да таго, што вы патрапіце ў ліпкую і суровую пастку чакання, што штучны інтэлект будзе рабіць тое, што ён не ў стане выканаць. З улікам сказанага, апошняя генератыўная AI адносна ўражвае тым, што яна можа зрабіць. Майце на ўвазе, што існуюць значныя абмежаванні, якія вы павінны пастаянна мець на ўвазе пры выкарыстанні любой генератыўнай праграмы штучнага інтэлекту.

Калі вы зацікаўлены ў тым, што хутка расце мітусня пра ChatGPT і Generative AI, у маёй калонцы я раблю сфакусаваныя серыі, якія могуць вам падацца інфарматыўнымі. Вось кароткі агляд на выпадак, калі якая-небудзь з гэтых тэм спадабаецца вам:

  • 1) Прагнозы наступлення генератыўнага AI. Калі вы хочаце ведаць, што, верагодна, будзе адбывацца наконт штучнага інтэлекту на працягу 2023 года і далей, у тым ліку будучыя дасягненні ў галіне генератыўнага штучнага інтэлекту і ChatGPT, вам варта прачытаць мой поўны спіс прагнозаў на 2023 год на спасылка тут.
  • 2) Генератыўны штучны інтэлект і парады па псіхічным здароўі. Я вырашыў праглядзець, як генератыўны штучны інтэлект і ChatGPT выкарыстоўваюцца для кансультацый па псіхічным здароўі, што выклікае непрыемнасці, паводле майго мэтанакіраванага аналізу на спасылка тут.
  • 3) Выкарыстанне кантэксту і генератыўнага штучнага інтэлекту. Я таксама правёў насмешку з сезонным густам пра кантэкст, звязаны з Дзедам Марозам, з удзелам ChatGPT і генератыўнага штучнага інтэлекту на спасылка тут.
  • 4) Ашуканцы з выкарыстаннем Generative AI. Злавесная нота: некаторыя ашуканцы прыдумалі, як выкарыстоўваць генератыўны штучны інтэлект і ChatGPT, каб рабіць неправамерныя дзеянні, у тым ліку генераваць ашуканскія электронныя лісты і нават ствараць праграмны код для шкоднасных праграм. Глядзіце мой аналіз на спасылка тут.
  • 5) Памылкі пачаткоўцаў пры выкарыстанні Generative AI. Многія людзі як перавышаюць, так і дзіўна недаацэньваюць тое, што могуць зрабіць генератыўны штучны інтэлект і ChatGPT, таму я асабліва паглядзеў на недаатрыманне, якое звычайна робяць пачаткоўцы штучнага інтэлекту, глядзіце абмеркаванне на спасылка тут.
  • 6) Справіцца з генератыўнымі падказкамі AI і галюцынацыямі AI. Я апісваю перадавы падыход да выкарыстання дапаўненняў штучнага інтэлекту для вырашэння розных праблем, звязаных са спробай увесці адпаведныя падказкі ў генератыўны штучны інтэлект, а таксама ёсць дадатковыя дадаткі штучнага інтэлекту для выяўлення так званых галюцынацыйных вынікаў штучнага інтэлекту і хлусні, як накрыты ст спасылка тут.
  • 7) Развянчанне сцвярджэнняў Bonehead аб выяўленні генератыўных эсэ, створаных штучным інтэлектам. Існуе памылковая залатая ліхаманка праграм штучнага інтэлекту, якія абвяшчаюць, што могуць вызначыць, ці было любое эсэ створана чалавекам, а не штучным інтэлектам. Увогуле, гэта ўводзіць у зман, а ў некаторых выпадках - бязглуздае і неабгрунтаванае сцвярджэнне, глядзіце мой матэрыял на спасылка тут.
  • 8) Ролевая гульня праз Generative AI можа прадвесціць недахопы псіхічнага здароўя. Некаторыя з іх выкарыстоўваюць генератыўны штучны інтэлект, напрыклад ChatGPT, для ролевых гульняў, у выніку чаго праграма штучнага інтэлекту рэагуе на чалавека так, нібы ён знаходзіцца ў фантастычным свеце або іншай прыдуманай абстаноўцы. Глядзіце, гэта можа мець наступствы для псіхічнага здароўя спасылка тут.
  • 9) Выкрыццё шэрагу выдадзеных памылак і ілжывых выказванняў. Складаюцца розныя сабраныя спісы, каб паспрабаваць прадэманстраваць прыроду памылак і хлусні, створаных ChatGPT. Некаторыя лічаць, што гэта важна, у той час як іншыя кажуць, што гэта практыкаванне бескарысна, глядзіце мой аналіз на спасылка тут.

Вам можа быць цікава, што ChatGPT заснаваны на версіі папярэдняга прыкладання AI, вядомага як GPT-3. ChatGPT лічыцца крыху наступным крокам, які называецца GPT-3.5. Мяркуецца, што GPT-4 выйдзе вясной 2023 г. Верагодна, GPT-4 стане ўражваючым крокам наперад у плане магчымасці ствараць, здавалася б, яшчэ больш беглыя эсэ, паглыбляцца і выклікаць трапятанне - натхняльнае дзіва адносна кампазіцый, якія ён можа ствараць.

Вы можаце чакаць, што ўбачыце новы раунд выяўленага здзіўлення, калі прыйдзе вясна і выйдзе апошняя версія генератыўнага штучнага інтэлекту.

Я закранаю гэта, таму што ёсць яшчэ адзін ракурс, пра які трэба памятаць, які складаецца з патэнцыйнай ахілесавай пяты для гэтых лепшых і больш маштабных генератыўных праграм штучнага інтэлекту. Калі які-небудзь пастаўшчык штучнага інтэлекту робіць даступным генератыўнае прыкладанне штучнага інтэлекту, якое пеніста вывяргае бруд, гэта можа перакрэсліць надзеі гэтых вытворцаў штучнага інтэлекту. Грамадскі эфект можа прывесці да таго, што ўвесь стваральны штучны інтэлект можа атрымаць сур'ёзны сіняк на вачах. Людзі, несумненна, будуць вельмі засмучаны фальшывымі вынікамі, якія здараліся ўжо шмат разоў і прывялі да бурнага грамадскага асуджэння супраць штучнага інтэлекту.

Апошняе папярэджанне пакуль.

Усё, што вы бачыце або чытаеце ў генератыўным адказе штучнага інтэлекту Здаецца, быць перададзены як чыста фактычныя (даты, месцы, людзі і г.д.), не забудзьцеся заставацца скептычнымі і будзьце гатовыя пераправерыць тое, што вы бачыце.

Так, даты можна прыдумаць, месцы можна выдумаць, і элементы, якія, як мы звычайна чакаем, будуць недарэчнымі. усё падпадаюць пад падазрэнні. Не верце таму, што вы прачыталі, і скептычна глядзіце на любыя генератыўныя эсэ або вынікі AI. Калі генератыўная праграма штучнага інтэлекту скажа вам, што Абрагам Лінкальн абляцеў краіну на ўласным прыватным самалёце, вы, несумненна, ведаеце, што гэта маларгія. На жаль, некаторыя людзі могуць не разумець, што рэактыўных самалётаў не было ў яго часы, або яны могуць ведаць, але не заўважаць, што ў эсэ зроблена гэта нахабнае і абуральна ілжывае сцвярджэнне.

Моцная доза здаровага скептыцызму і ўстойлівае недавер'е стануць вашым лепшым актывам пры выкарыстанні генератыўнага штучнага інтэлекту.

Мы гатовыя перайсці да наступнага этапу гэтага высвятлення.

Калі забарона не становіцца забаронай

Цяпер, калі мы ўсталявалі асновы, мы можам паглыбіцца ў пытанне аб забароне на ChatGPT. Мы пачнем з практычных рэалій, якія прыходзяць у гульню.

У выпадку з Дэпартаментам адукацыі Нью-Ёрка яны, відаць, заблакіравалі доступ да ChatGPT у сваіх унутраных сетках і падключаных прыладах.

Відавочнай шчылінай з'яўляецца тое, што студэнт, як мяркуецца, можа выкарыстоўваць іншую сетку Wi-Fi праз свой смартфон або іншага інтэрнэт-правайдэра і лёгка абыйсці блакаванне, якое адбываецца ў электроннай сетцы кампуса. Уявіце сабе студэнта, які сядзіць у класе і па якой-небудзь прычыне вырашыў выкарыстоўваць ChatGPT. Яны могуць перайсці ў налады свайго смартфона і выбраць іншую сетку Wi-Fi, акрамя той, што прадастаўляецца кампусам. Вуаля, студэнт можа выкарыстоўваць ChatGPT, седзячы за сталом і, як мяркуецца, выконваючы школьную працу.

Забарона зацямніла.

Яшчэ адна праблема, пра якую некаторыя згадвалі, заключаецца ў тым, што студэнты, знаходзячыся дома, могуць карыстацца ChatGPT колькі заўгодна, таму што яны не выкарыстоўваюць сетку кампуса, знаходзячыся дома. Усё, што, здаецца, робіць гэтая забарона, гэта спроба скараціць выкарыстанне ў кампусе або іншым чынам пры непасрэдным выкарыстанні сеткі, прадастаўленай кампусам (магчымасць таксама праз аддалены доступ).

Што яшчэ горш, некаторыя наракаюць на тое, што тым студэнтам, якія не могуць дазволіць сабе доступ у Інтэрнэт дома, адмаўляюць (у пэўным сэнсе) у тым, чым могуць скарыстацца іншыя больш заможныя студэнты. У той час як пацярпелыя вучні маглі б выкарыстоўваць ChatGPT у школе, ім гэта не дазволена. Магчыма, гэта несправядлівае дзяленне студэнтаў на заможных і немаёмных.

Палітыка з ненаўмыснымі негатыўнымі наступствамі, можна меркаваць.

Мы можам назапасіць яшчэ больш на тонкую падтрымку гэтай спробы забароны.

ChatGPT - не адзіная гульня ў горадзе. Ёсць мноства іншых генератыўных праграм штучнага інтэлекту. Калі забарона заснавана выключна на пошуку прыкладання ChatGPT, усе гэтыя іншыя генератыўныя прыкладанні штучнага інтэлекту, відаць, могуць свабодна перамяшчацца. Студэнт можа выкарыстоўваць сетку кампуса і выбраць іншае генератыўнае прыкладанне AI. Па вялікім рахунку, іншыя падобныя прыкладанні штучнага інтэлекту параўнальныя і будуць практычна рабіць тое ж самае, што і ChatGPT.

Я дадам яшчэ некалькі саломінак, каб даведацца, ці не саступіць гэты вярблюд. Вытворца AI ChatGPT паведаміў, што неўзабаве API (інтэрфейс прыкладнога праграмавання) будзе даступны для прыкладання AI. Карацей кажучы, API - гэта сродак, які дазваляе іншым праграмам ісці наперад і выкарыстоўваць праграму, якая робіць даступным партал у дадзенае прыкладанне. Гэта азначае, што амаль любая іншая праграма на гэтай планеце можа патэнцыйна выкарыстоўваць ChatGPT (ну, калі яна мае ліцэнзію і пасля зацвярджэння вытворцам AI ChatGPT).

Выкажам здагадку, што кампанія стварае адукацыйнае прыкладанне, якое дапамагае студэнтам кіраваць часам. Выдатна, верагодна, абвешчана большасцю школьных акруг. Вытворца адукацыйнага дадатку вырашыў выкарыстаць API ChatGPT і, такім чынам, забяспечыць магчымасць генератыўнага эсэ ў сваім дадатку. Разумееце, іх адукацыйнае прыкладанне - гэта тое, што бачыць студэнт, а тым часам у фонавым рэжыме прыкладанне выклікае ChatGPT і перадае яму падказкі, збірае створаныя эсэ і паказвае іх студэнту.

Школьны акруга, якая проста шукае праграму ChatGPT, наўрад ці даведаецца або выявіць, што на сервернай частцы адукацыйнай праграмы выкарыстоўваецца ChatGPT. Можна сказаць, што ChatGPT схаваны ад вачэй. Студэнт, які ведае, што навучальная праграма звяртаецца да ChatGPT, лёгка запусціць адукацыйную праграму і знішчыць забарону. Лёгка-гарохава.

Я лічу, што гэтага, напэўна, зараз дастаткова, каб зразумець, чаму гэтая канкрэтная забарона некалькі хісткая.

Пачакайце секунду, гучыць у адказ, калі ChatGPT шкодны для студэнтаў, намаганні па забароне яго выкарыстання заслугоўваюць пахвалы, і мы павінны апладзіраваць гэтай палітыцы. Студэнты, якія вырашаюць парушыць забарону, як на кампусе, так і за яго межамі, толькі шкодзяць сабе, выкарыстоўваючы тое, што негатыўна ўплывае на навучанне студэнтаў. Яны збіраюцца падарваць уласную адукацыю.

Слабая забарона - гэта як мінімум спроба выправіць гэтую непрыемную сітуацыю, заклікаюць яны. Безумоўна, у забароне могуць быць прабелы, але вы павінны аддаць належнае адміністратарам за спробу. Можа, забарону ўзмацняць. Магчыма, яны прыдумаюць дадатковыя палажэнні, каб узмацніць забарону.

Акрамя таго, забарона мае жыццёва сімвалічнае значэнне. Арганізацыя кажа ўсім, што ChatGPT ненавідзіць адукацыю сучасных студэнтаў. Бацькі патэнцыйна будуць папярэджаны. Вытворцы штучнага інтэлекту, якія прадастаўляюць падобныя праграмы, будуць паведамлены. А менавіта, не спрабуйце прадаваць гэтую брыдоту нашым любімым вучням.

Магчыма, можна было б распрацаваць і ўкараніць строгую палітыку, у якой было б дэклараваць, што ніякі генератыўны штучны інтэлект не дазваляецца выкарыстоўваць у любы час студэнтам, незалежна ад таго, на кампусе ці за яго межамі. Любы навучэнец, якога зловяць за выкарыстаннем такой генератыўнай праграмы штучнага інтэлекту, будзе падвергнуты строгім пакаранням, у тым ліку выключэнню са школы. Будзьце жорсткія да парушальнікаў палітыкі. Пакажыце ім, што вы сур'ёзныя.

Справы могуць пайсці яшчэ далей. Калі студэнт выкарыстоўвае генератыўны штучны інтэлект і спрабуе таемна сысці з рук, над ім назаўсёды будзе навісаючы цень. Праз некаторы час, калі высветліцца, што студэнт сапраўды выкарыстоўваў генератыўны штучны інтэлект і не сказаў, што ён гэта зрабіў, яго, магчыма, анулююць дыплом або паставяць сур'ёзныя адзнакі ў акадэмічную дакументацыю. Зачыніце крышку тым, хто плануе выкарыстоўваць генератыўны штучны інтэлект. Яны павінны так баяцца і нервавацца з-за парушэння правілаў, што гэта не дазволіць ім прыкласці ні кроплі намаганняў для гэтага. Яны застынуць у бязмежным страху.

Галоўным аргументам гэтых рэплікаў з'яўляецца тое, што ўся справа здаецца непрапарцыйнай. Драконаўскія штрафы - гэта не шлях. Вы робіце з кротавай куркі гару. І вы ўпускаеце лодку на перавагі і перавагі выкарыстання генератыўнага штучнага інтэлекту.

Дазвольце мне растлумачыць, што такое розныя згаданыя перавагі.

Некаторыя лічаць, што генератыўны ІІ можа дапамагчы студэнтам у распрацоўцы лепшых эсэ. Студэнт можа выкарыстоўваць такое прыкладанне, як ChatGPT, каб падрыхтаваць эсэ, якое яны не збіраюцца здаваць. Замест гэтага яны імкнуцца вывучыць створанае эсэ. Паколькі эсэ звычайна добра напісаны, студэнт можа ўважліва вывучыць фармулёўку, структуру і іншыя важныя аспекты. Такім чынам, вы можаце сцвярджаць, што гэта карысны інструмент навучання.

Яшчэ адна перавага выкарыстання генератыўнага штучнага інтэлекту заключаецца ў тым, што студэнт можа адправіць сваё эсэ ў дадатак AI і папрасіць агляд эсэ. Такія прыкладанні, як ChatGPT, як правіла, выконваюць надзіва прыстойную працу, разбіраючы прадстаўленае эсэ. Гэта можа быць не такім праніклівым, як агляд настаўніка, але прастата выкарыстання і магчымасць неаднаразова карыстацца праграмай штучнага інтэлекту колькі заўгодна робіць гэта карысным падыходам (верагодна, не замест настаўніка, замест таго, каб павялічыць настаўнік і іх абмежаваная даступнасць).

Мы можам працягваць.

Часта студэнт можа быць няўпэўнены або нібыта збянтэжаны, спрабуючы прыдумаць, як працягнуць працу над прызначаным праектам эсэ. Яны глядзяць на чысты аркуш паперы. Што ім рабіць? Пачуццё адчаю і адчаю авалодвае іх духам. Можа быць, яны адмовяцца ад намаганняў і вырашаць, што яны будуць браць балы. Надыходзіць сум.

Студэнт можа папрасіць генератыўны штучны інтэлект, напрыклад ChatGPT, стварыць прапанаваны план або, па меншай меры, некаторыя прапановы для эсэ. На аснове выдадзеных ідэй студэнт перапрацоўвае структуру, а затым піша эсэ. Самастойна. Ці з'яўляецца такое выкарыстанне штучнага інтэлекту ў якасці стартара або ўдзельніка "падманам", залежыць ад вашага пункту гледжання. Трэба прызнаць, што праграма штучнага інтэлекту падштурхнула студэнта да працы, хоць вы можаце сцвярджаць, што пакуль студэнт піша эсэ, гэта невялікая цана, якую трэба заплаціць, таму што штучны інтэлект даў толькі падказкі, як дзейнічаць далей.

Злёгку пераключыўшы перадачы, наконт таго, што генератыўны штучны інтэлект стварае вынікі, якія ўтрымліваюць ілжывасць або памылкі, тыповая рэпліка заключаецца ў тым, што студэнты ўжо павінны разумець, што ўсё, што яны чытаюць, незалежна ад таго, знойдзена ў Інтэрнэце ці дзе-небудзь яшчэ, можа ўтрымліваць дэзінфармацыю і дэзінфармацыю. Мы павінны пераканацца, што студэнты развіваюць адпаведныя навыкі, неабходныя для адрознення таго, што сапраўднае ад таго, што выклікае сумневы з пункту гледжання таго, што яны чытаюць.

Мы дадамо генератыўны штучны інтэлект у гэты спіс крыніц, якія трэба старанна вывучыць.

Сутнасць у тым, што студэнтам трэба паказаць, як разглядаць любыя генератыўныя вынікі штучнага інтэлекту з невялікай колькасцю асцярожнай інтэрпрэтацыі і адкрыта сумнявацца ў тым, што яны чытаюць. Вы можаце зрабіць гэта карысным крокам наперад. Дайце студэнтам заданні, звязаныя з выкарыстаннем генератыўнага штучнага інтэлекту, каб наўмысна падштурхнуць праграму штучнага інтэлекту да стварэння ілжывых выказванняў. Вы атрымліваеце двойку. Адзін з іх заключаецца ў тым, што вы паказваеце студэнтам, як гэты штучны інтэлект можа генераваць памылковыя вынікі, і вы паляпшаеце іх навыкі выяўлення дэзінфармацыі і дэзінфармацыі і барацьбы з імі. Вы можаце сцвярджаць, што мы можам ператварыць адваротны бок у свайго роду плюс, выкарыстоўваючы праблемы генератыўнага штучнага інтэлекту як інструмент навучання на больш шырокай аснове, каб справіцца з сучасным светам і патокам кепскай і змрочнай інфармацыі.

Я мог бы працягнуць з дадатковымі спосабамі выкарыстання генератыўнага ІІ для добрасумленных адукацыйных заняткаў. Для дадатковага пакрыцця гл спасылка тут.

У цэлым лагер, які сцвярджае, што мы павінны прыняць генератыўны штучны інтэлект, абавязаны адзначыць, што вы ўсё роўна не збіраецеся вяртаць гадзіннік назад. Такія праграмы, як ChatGPT, збіраюцца выйсці з дрэва. Вы наўрад ці зможаце знайсці спосабы спыніць падножку. Вы таксама можаце сесці на борт.

У гэтым выпадку вы не павінны дазваляць панаваць хаосу. Гэты лагер настойвае на тым, што школы павінны высветліць палітыку, якая імкнецца ўраўнаважыць шкоднасць стварэння эсэ з дабром, якое могуць забяспечыць гэтыя прыкладанні AI. Пакажыце студэнтам, як выкарыстоўваць гэтыя генератыўныя прыкладанні штучнага інтэлекту правільнымі спосабамі і як пазбегнуць няправільных спосабаў.

Што б вы ні рабілі, не варта слепа развязваць выкарыстанне генератыўнага штучнага інтэлекту. Працуйце з настаўнікамі па распрацоўцы палітык. Пераканайцеся, што настаўнікам зручна карыстацца гэтымі праграмамі штучнага інтэлекту. Прадстаўце вучням генератыўныя прыкладанні штучнага інтэлекту і растлумачце, што дазволена, а што забаронена.

Карабель генератыўнага штучнага інтэлекту ўжо адплыў.

Джын выйшаў з бутэлькі.

Рэакцыя на забарону гэтых праграм штучнага інтэлекту ў канчатковым выніку будзе марнай. Іншая праблема заключаецца ў тым, што вы некалькі падбухторваеце студэнтаў. Сказаўшы ім, што яны не могуць выкарыстоўваць гэтую тэхналогію, патэнцыйна ўзнікне прыліўная хваля цікавасці да яе выкарыстання. Вы рызыкуеце ператварыць сумленных і справядлівых вучняў у бандытаў, галоўным чынам таму, што школы зрабілі вялікую задачу спасылацца на забароны.

Усе мы ведаем, што часам забаронены плод становіцца яшчэ больш прывабным. Цалкам магчыма, што гэтыя слабыя забароны будуць стымуляваць выкарыстанне студэнтамі значна больш, чым тое, што магло б мець месца ў іншым выпадку.

Вяртаючыся да майго ранейшага ўказання наконт стратыфікацыі забаронаў, вось дзе ўсё, здаецца, прызямлілася ў выпадку з гэтымі нядаўнімі намаганнямі забараніць ChatGPT (які я буду шырока называць Generative AI):

  • Абсалютная забарона Generative AI: Невыканальна само па сабе і яшчэ не асабліва спрабавана
  • Частковая забарона Generative AI: Амаль тое, што спрабавалі, але мае шмат дзірак
  • Слабая забарона Generative AI: Тое, што, здавалася б, спрабуюць, надзвычай слабае і, верагодна, неэфектыўнае
  • Без забароны на Generative AI: Усе астатнія чакаюць, што адбудзецца і што рабіць

Ёсць і іншы бок медаля, а менавіта імкненне ўключыць або падтрымаць Generative AI, напрыклад, прадстаўлены ў гэтым спектры:

  • Прызнанне Generative AI: Настойвае на тым, што школы павінны прынамсі прызнаць існаванне генератыўнага ІІ
  • Мяккае прыняцце Generative AI: Школы павінны дазваляць выкарыстанне генератыўнага штучнага інтэлекту абмежавана
  • Поўнае прыняцце Generative AI: Школы павінны прыняць генератыўны штучны інтэлект усебакова
  • Абавязковае патрабаванне Generative AI: Школы павінны адкрыта патрабаваць выкарыстання генератыўнага штучнага інтэлекту і зрабіць яго часткай сваіх навучальных праграм і педагагічных метадаў

заключэнне

Вядомы рэдактар ​​ст Каталог ўсёй Зямлі, Сцюарт Брэнд, сказаў наступны прыкметны радок: «Як толькі новая тэхналогія ахоплівае вас, калі вы не частка паравога катка, вы частка дарогі».

Некаторыя горача лічаць, што школы, якія спрабуюць забараніць генератыўны штучны інтэлект, памылковыя. Яны збянтэжаныя тым, што можа зрабіць гэты штучны інтэлект і як выкарыстаць добрае і дрэннае. Яны павінны прачнуцца і стаць часткай паравога катка, інакш яны акажуцца страшэнна састарэлымі і стануць пакінутымі ў дзірачках, якія катаюцца па частцы дарогі (як і іх вучні).

Іншыя сцвярджаюць, што яшчэ занадта рана пераходзіць да захаплення генератыўным штучным інтэлектам.

Або не прымайце ніякіх дзеянняў зараз, або прыміце нейкія мяккія меры. Пачакайце і паглядзіце, што атрымаецца. Калі ёсць мэтазгоднае выкарыстанне і патрэба ў гэтых праграмах штучнага інтэлекту, добра, давайце вывучым гэта і сістэматычна і асцярожна вызначым найлепшы курс дзеянняў, які прыцягне іх да адукацыйнага асяроддзя.

Прыхільнікі адказваюць, што такое чаканне, якое можа заняць гады, пакіне ўсю справу ў стане мітусні. Разнастайныя непрыемныя праблемы, несумненна, узнікнуць, калі няма дакладных указанняў. Студэнты будуць заспеты знянацку, калі раптам да свайго здзіўлення даведаюцца, што не павінны былі выкарыстоўваць гэтыя прыкладанні штучнага інтэлекту. Некаторых абвінавацяць у выкарыстанні праграм генератыўнага штучнага інтэлекту, калі яны гэтага не рабілі, цалкам магчымае ілжывададатнае абвінавачванне, якое абавязкова будзе высунута. Усё далей і далей балота будзе пашырацца і паглыбляцца.

Як вы лічыце, што трэба зрабіць?

Падумайце пра гэта крыху цвяроза і ўважліва. Так, будзьце ўважлівымі. Мы гаворым пра сучасных студэнтаў і іх будучыню, а таксама пра нашу будучыню. Адпаведная заўвага Абрагама Лінкальна можа быць павучальнай: «Лепшы спосаб прадбачыць сваю будучыню — стварыць яе».

Давайце зробім так.

Крыніца: https://www.forbes.com/sites/lanceeliot/2023/01/20/those-schools-banning-access-to-generative-ai-chatgpt-are-not-going-to-move-the- іголка-і-не хапае-лодкі-кажа-ай-этыка-і-ай-закон/