Сенатары сумняваюцца ў генеральнага дырэктара Meta Цукерберга наконт «уцечкі» мадэлі штучнага інтэлекту LLaMA

Два сенатары Крос распытваюць Цукерберга аб уцечцы LLaMA AI Model і абвінавачваюць Meta ў невыкананні мер бяспекі. Meta распыталі аб яе палітыцы бяспекі і прафілактычных мерах.

Meta будзе адказваць за «ўцечку»

Нядаўна адбылася ўцечка наватарскай вялікай моўнай мадэлі Meta, LLaMA, і былі выказаны занепакоенасці. Сенатар Рычард Блюменталь (D-CT), старшыня падкамітэта Сената па канфідэнцыяльнасці, тэхналогіях і заканадаўству, і Джош Хоўлі (R-MO), высокапастаўлены член, напісалі ліст, які падняў пытанні аб уцечцы мадэлі штучнага інтэлекту. 

Сенатары асцерагаюцца, што гэтая ўцечка можа прывесці да розных кіберзлачынстваў, такіх як спам, махлярства, шкоднаснае праграмнае забеспячэнне, парушэнне прыватнасці, пераслед і іншыя правіны і шкоду. Узнікае шмат пытанняў, і два палітыкі глыбока зацікаўлены ў сістэме бяспекі Meta. Яны спыталі, якая працэдура была выканана для ацэнкі рызыкі перад запускам LLaMA. Яны сказалі, што вельмі хочуць зразумець палітыку і практыку, якія існуюць для прадухілення злоўжыванняў мадэллю яе даступнасцю.

Грунтуючыся на адказах Меты на іх пытанні, сенатары абвінавацілі Мету ў неналежнай цэнзуры і недастатковых мерах бяспекі для мадэлі. ChatGPT Open AI адхіляе некаторыя запыты на падставе этычных прынцыпаў і інструкцый. Напрыклад, калі ChatGPT просяць напісаць ліст ад імя чыйгосьці сына і папрасіць грошай, каб выйсці з цяжкай сітуацыі, ён адмовіць у запыце. З іншага боку, LLaMA выканае запыт і згенеруе ліст. Ён таксама выканае запыты, звязаныя з самапашкоджаннем, злачыннасцю і антысемітызмам.

Вельмі важна разумець разнастайныя і унікальныя магчымасці LLaMA. Гэта не толькі асобная, але і адна з самых шырокіх мадэляў Large Language на сённяшні дзень. Амаль кожная нецэнзурная LLM, якая папулярная сёння, заснавана на LLaMA. Ён вельмі складаны і дакладны для мадэлі з адкрытым зыходным кодам. Прыкладамі некаторых LLM на базе LLM з'яўляюцца Стэнфардскія альпака, вікунья і г. д. LLaMA адыграла важную ролю ў стварэнні LLM тым, чым яны з'яўляюцца сёння. LLaMA адказвае за эвалюцыю малакарысных чат-ботаў у тонка наладжаныя рэжымы.

LLaMA быў выпушчаны ў лютым. Па словах сенатараў, Meta дазволіла даследчыкам загрузіць мадэль, але не прыняла такіх мер бяспекі, як цэнтралізацыя або абмежаванне доступу. Спрэчка ўзнікла, калі поўная мадэль LLaMA з'явілася на BitTorrent. Гэта зрабіла мадэль даступнай для ўсіх і кожнаму. Гэта прывяло да кампрамісу ў якасці мадэлі штучнага інтэлекту і выклікала праблемы яе няправільнага выкарыстання. 

Сенатары спачатку нават не былі ўпэўненыя, ці ёсць нейкая «ўцечка». Але праблемы ўзніклі, калі Інтэрнэт быў перапоўнены распрацоўкамі штучнага інтэлекту, запушчанымі стартапамі, калектывамі і навукоўцамі. У лісце згадваецца, што Meta павінна несці адказнасць за патэнцыйнае злоўжыванне LLaMA і павінна была паклапаціцца аб мінімальнай абароне перад выпускам.

Meta зрабіла даступнымі для даследчыкаў вагавыя паказчыкі LLaMA. На жаль, гэтыя вагі атрымалі ўцечку, што ўпершыню дазволіла глабальны доступ.

Апошнія паведамленні Рытыкі Шарма (гл. усе)

Крыніца: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/