Вось як OpenAI плануе ачысціць ChatGPT ад ілжывай інфармацыі

31 мая OpenAI абвясціла аб сваіх намаганнях па пашырэнні магчымасцей ChatGPT вырашаць матэматычныя задачы з мэтай скарачэння выпадкаў галюцынацый штучнага інтэлекту (AI). OpenAI падкрэслівае змякчэнне галюцынацый як важны крок да развіцця ўзгодненага AGI.

У сакавіку з'яўленне апошняй версіі ChatGPT, GPT-4, яшчэ больш прасунула штучны інтэлект у мэйнстрым. Тым не менш, генератыўныя чат-боты штучнага інтэлекту доўгі час змагаліся з дакладнасцю фактаў, час ад часу ствараючы ілжывую інфармацыю, якую звычайна называюць «галюцынацыямі». Намаганні паменшыць галюцынацыі штучнага інтэлекту былі абвешчаны ў паведамленні на іх сайце.

Галюцынацыі штучнага інтэлекту адносяцца да выпадкаў, калі сістэмы штучнага інтэлекту генеруюць вынікі, якія з'яўляюцца фактычнымі няправільнымі, якія ўводзяць у зман або не пацвярджаюцца рэальнымі дадзенымі. Гэтыя галюцынацыі могуць выяўляцца ў розных формах, такіх як стварэнне ілжывай інфармацыі, выдумка неіснуючых падзей або людзей або прадастаўленне недакладных звестак на пэўныя тэмы.

OpenAI правёў даследаванне, каб вывучыць эфектыўнасць двух тыпаў зваротнай сувязі - «кантроль вынікаў» і «кантроль працэсу». Кантроль за вынікамі прадугледжвае зваротную сувязь, заснаваную на канчатковым выніку, у той час як кантроль за працэсам дае ўваходныя дадзеныя для кожнага кроку ў ланцужку думак. OpenAI ацаніў гэтыя мадэлі з дапамогай матэматычных задач, генеруючы некалькі рашэнняў і выбіраючы рашэнне з самым высокім рэйтынгам у адпаведнасці з кожнай мадэллю зваротнай сувязі.

Пасля дбайнага аналізу даследчая група выявіла, што кантроль за працэсам дае высокую прадукцыйнасць, паколькі заахвочвае мадэль прытрымлівацца працэсу, ухваленага чалавекам. Наадварот, назіранне за вынікамі аказалася больш складаным для пастаяннага кантролю.

OpenAI прызнаў, што наступствы нагляду за працэсамі выходзяць за межы матэматыкі, і неабходна далейшае даследаванне, каб зразумець яго ўплыў у розных галінах. Было выказана верагоднасць таго, што калі назіраныя вынікі спраўджваюцца ў больш шырокім кантэксце, нагляд за працэсам можа прапанаваць спрыяльнае спалучэнне прадукцыйнасці і ўзгаднення ў параўнанні з наглядам за вынікамі. Каб палегчыць даследаванні, кампанія публічна апублікавала поўны набор даных кантролю за працэсамі, запрашаючы да разведкі і вывучэння ў гэтай галіне.

Па тэме: Попыт штучнага інтэлекту ненадоўга катапультуе Nvidia у клуб $1T

Нягледзячы на ​​​​тое, што OpenAI не прадставіў відавочных выпадкаў, якія падштурхнулі іх да расследавання галюцынацый, два нядаўнія выпадкі паказалі праблему ў рэальных сцэнарыях.

У нядаўнім інцыдэнце адвакат Стывен А. Шварц у справе Mata v. Avianca Airlines прызнаў, што разлічваў на чат-бот як на даследчы рэсурс. Аднак інфармацыя, прадстаўленая ChatGPT, аказалася цалкам сфабрыкаванай, падкрэсліваючы праблему.

ChatGPT OpenAI - не адзіны прыклад таго, што сістэмы штучнага інтэлекту сутыкаюцца з галюцынацыямі. ШІ Microsoft падчас дэманстрацыі сваёй тэхналогіі чат-бота ў сакавіку вывучыў справаздачы аб прыбытках і атрымаў недакладныя лічбы такіх кампаній, як Gap і Lululemon.

Magazine: 25 тыс. трэйдараў робяць стаўкі на выбары акцый ChatGPT, штучны інтэлект адстойвае пры кіданні кубікаў і многае іншае

Крыніца: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information