Урад Аўстраліі пачынае кансультацыі па ацэнцы забароны на штучны інтэлект «высокай рызыкі» - Cryptopolitan

Урад Аўстраліі ініцыяваў нечаканы васьмітыднёвы перыяд кансультацый, накіраваных на вызначэнне таго, ці трэба забараняць пэўныя інструменты штучнага інтэлекту (ШІ) з высокай рызыкай. Гэты крок стаў следам за аналагічнымі мерамі, прынятымі ў іншых рэгіёнах, у тым ліку ў ЗША, Еўрапейскім саюзе і Кітаі, у барацьбе з рызыкамі, звязанымі з хуткім развіццём ІІ.

1 чэрвеня міністр прамысловасці і навукі Эд Хусік прадставіў для грамадскага разгляду два дакументы: адзін пра «Бяспечны і адказны штучны інтэлект у Аўстраліі» і другі пра генератыўны штучны інтэлект ад Нацыянальнага савета па навуцы і тэхналогіях. Гэтыя дакументы былі апублікаваны разам з перыядам кансультацый, які будзе заставацца адкрытым да 26 ліпеня.

Урад Аўстраліі шукае водгукі аб стратэгіях прасоўвання «бяспечнага і адказнага выкарыстання штучнага інтэлекту», вывучаючы такія варыянты, як добраахвотныя этычныя рамкі, спецыяльныя правілы або спалучэнне абодвух падыходаў. Характэрна, што ў кансультацыі наўпрост задаецца пытанне аб тым, ці варта цалкам забараніць пэўныя прыкладанні або тэхналогіі штучнага інтэлекту з высокай рызыкай, і запытваецца інфармацыя аб крытэрыях ідэнтыфікацыі такіх інструментаў.

Усеабдымны дакумент для абмеркавання ўключае праект матрыцы рызык для мадэляў штучнага інтэлекту, у якім беспілотныя аўтамабілі аднесены да катэгорыі «высокай рызыкі», а генератыўныя інструменты штучнага інтэлекту для стварэння медыцынскіх запісаў пацыентаў — як «сярэдняй рызыкі». У дакуменце падкрэсліваецца як пазітыўнае прымяненне штучнага інтэлекту ў такіх сектарах, як медыцына, машынабудаванне і права, а таксама патэнцыйная шкода, звязаная з інструментамі deepfake, стварэннем падробленых навін і выпадкамі, калі боты штучнага інтэлекту заахвочваюць да самапашкоджання.

Урад Аўстраліі супраць штучнага інтэлекту

Занепакоенасць адносна прадузятасці ў мадэлях штучнага інтэлекту, а таксама генерацыі бессэнсоўнай або ілжывай інфармацыі, вядомай як «галюцынацыі» сістэмамі штучнага інтэлекту, таксама разглядаецца ў дакуменце для абмеркавання. Ён прызнае, што прыняцце штучнага інтэлекту ў Аўстраліі ў цяперашні час абмежавана з-за нізкага ўзроўню грамадскага даверу. У дакуменце ў якасці прыкладаў прыводзяцца правілы штучнага інтэлекту, якія дзейнічаюць у іншых юрысдыкцыях, і часовая забарона Італіі на ChatGPT.

Акрамя таго, у справаздачы Нацыянальнага савета па навуцы і тэхналогіях падкрэсліваюцца перавагі Аўстраліі ў галіне робататэхнікі і камп'ютэрнага зроку, але адзначаюцца адносныя недахопы ў асноўных галінах, такіх як вялікія моўныя мадэлі. Гэта выклікае заклапочанасць з нагоды канцэнтрацыі генератыўных рэсурсаў штучнага інтэлекту ў невялікай колькасці пераважна амерыканскіх тэхналагічных кампаній, што стварае патэнцыйную небяспеку для Аўстраліі.

Справаздача далей даследуе глабальнае рэгуляванне штучнага інтэлекту, дае прыклады генератыўных мадэляў штучнага інтэлекту і мяркуе, што такія мадэлі, верагодна, акажуць далёка ідучы ўплыў на розныя сектары, пачынаючы ад банкаў і фінансаў і заканчваючы дзяржаўнымі паслугамі, адукацыяй і творчымі індустрыямі.

Адмова ад адказнасці. Прадстаўленая інфармацыя не з'яўляецца гандлёвымі парадамі. Cryptopolitan.com не нясе адказнасці за любыя інвестыцыі, зробленыя на аснове інфармацыі, прадстаўленай на гэтай старонцы. Мы настойліва рэкамендуем правесці незалежнае даследаванне і/або кансультацыю з кваліфікаваным спецыялістам перад прыняццем любых інвестыцыйных рашэнняў.

Крыніца: https://www.cryptopolitan.com/australian-government-on-ai-consultation/