Урад Аўстраліі ініцыяваў нечаканы васьмітыднёвы перыяд кансультацый, накіраваных на вызначэнне таго, ці трэба забараняць пэўныя інструменты штучнага інтэлекту (ШІ) з высокай рызыкай. Гэты крок стаў следам за аналагічнымі мерамі, прынятымі ў іншых рэгіёнах, у тым ліку ў ЗША, Еўрапейскім саюзе і Кітаі, у барацьбе з рызыкамі, звязанымі з хуткім развіццём ІІ.
1 чэрвеня міністр прамысловасці і навукі Эд Хусік прадставіў для грамадскага разгляду два дакументы: адзін пра «Бяспечны і адказны штучны інтэлект у Аўстраліі» і другі пра генератыўны штучны інтэлект ад Нацыянальнага савета па навуцы і тэхналогіях. Гэтыя дакументы былі апублікаваны разам з перыядам кансультацый, які будзе заставацца адкрытым да 26 ліпеня.
Урад Аўстраліі шукае водгукі аб стратэгіях прасоўвання «бяспечнага і адказнага выкарыстання штучнага інтэлекту», вывучаючы такія варыянты, як добраахвотныя этычныя рамкі, спецыяльныя правілы або спалучэнне абодвух падыходаў. Характэрна, што ў кансультацыі наўпрост задаецца пытанне аб тым, ці варта цалкам забараніць пэўныя прыкладанні або тэхналогіі штучнага інтэлекту з высокай рызыкай, і запытваецца інфармацыя аб крытэрыях ідэнтыфікацыі такіх інструментаў.
Усеабдымны дакумент для абмеркавання ўключае праект матрыцы рызык для мадэляў штучнага інтэлекту, у якім беспілотныя аўтамабілі аднесены да катэгорыі «высокай рызыкі», а генератыўныя інструменты штучнага інтэлекту для стварэння медыцынскіх запісаў пацыентаў — як «сярэдняй рызыкі». У дакуменце падкрэсліваецца як пазітыўнае прымяненне штучнага інтэлекту ў такіх сектарах, як медыцына, машынабудаванне і права, а таксама патэнцыйная шкода, звязаная з інструментамі deepfake, стварэннем падробленых навін і выпадкамі, калі боты штучнага інтэлекту заахвочваюць да самапашкоджання.
Урад Аўстраліі супраць штучнага інтэлекту
Занепакоенасць адносна прадузятасці ў мадэлях штучнага інтэлекту, а таксама генерацыі бессэнсоўнай або ілжывай інфармацыі, вядомай як «галюцынацыі» сістэмамі штучнага інтэлекту, таксама разглядаецца ў дакуменце для абмеркавання. Ён прызнае, што прыняцце штучнага інтэлекту ў Аўстраліі ў цяперашні час абмежавана з-за нізкага ўзроўню грамадскага даверу. У дакуменце ў якасці прыкладаў прыводзяцца правілы штучнага інтэлекту, якія дзейнічаюць у іншых юрысдыкцыях, і часовая забарона Італіі на ChatGPT.
Акрамя таго, у справаздачы Нацыянальнага савета па навуцы і тэхналогіях падкрэсліваюцца перавагі Аўстраліі ў галіне робататэхнікі і камп'ютэрнага зроку, але адзначаюцца адносныя недахопы ў асноўных галінах, такіх як вялікія моўныя мадэлі. Гэта выклікае заклапочанасць з нагоды канцэнтрацыі генератыўных рэсурсаў штучнага інтэлекту ў невялікай колькасці пераважна амерыканскіх тэхналагічных кампаній, што стварае патэнцыйную небяспеку для Аўстраліі.
Справаздача далей даследуе глабальнае рэгуляванне штучнага інтэлекту, дае прыклады генератыўных мадэляў штучнага інтэлекту і мяркуе, што такія мадэлі, верагодна, акажуць далёка ідучы ўплыў на розныя сектары, пачынаючы ад банкаў і фінансаў і заканчваючы дзяржаўнымі паслугамі, адукацыяй і творчымі індустрыямі.
Крыніца: https://www.cryptopolitan.com/australian-government-on-ai-consultation/