Microsoft павышае бяспеку AI Chatbot, каб перашкодзіць падманшчыкам

Microsoft Corp дадала шэраг функцый бяспекі ў Azure AI Studio, якія з цягам часу павінны працягваць зніжаць верагоднасць таго, што яе карыстальнікі канфігуруюць мадэлі штучнага інтэлекту ў рэжым, які прымусіць іх дзейнічаць ненармальна або неадэкватна. Шматнацыянальная тэхналагічная кампанія, якая базуецца ў Рэдмандзе, Вашынгтон апісаў паляпшэнні ў паведамленні ў блогу, падкрэсліваючы гарантыю цэласнасці ўзаемадзеяння штучнага інтэлекту і ўмацаванне даверу да базы карыстальнікаў.

Падказныя шчыты і многае іншае 

Сярод асноўных распрацовак - стварэнне «аператыўных шчытоў», тэхналогіі, прызначанай для пошуку і знішчэння імгненных ін'екцый падчас размовы з чат-ботамі AI. Гэта так званыя ўцёкі з турмы і ў асноўным з'яўляюцца ўваходнымі дадзенымі карыстальнікаў, якія наўмысна ствараюцца такім чынам, каб выклікаць непажаданую рэакцыю мадэляў штучнага інтэлекту.

Напрыклад, Microsoft гуляе сваю ролю ўскосна з хуткімі ін'екцыямі, дзе магчыма выкананне злых загадаў, і такі сцэнар можа прывесці да сур'ёзных наступстваў для бяспекі, такіх як крадзеж даных і захоп сістэмы. Гэтыя механізмы з'яўляюцца ключавымі для выяўлення і рэагавання на гэтыя адзіныя ў сваім родзе пагрозы ў рэжыме рэальнага часу, па словах Сары Берд, галоўнага дырэктара па прадуктах аддзела адказнага штучнага інтэлекту Microsoft.

Microsoft дадае, што неўзабаве на экране карыстальніка з'явяцца абвесткі, якія будуць паказваць, калі мадэль, верагодна, выказвае ілжывую або зманлівую інфармацыю, забяспечваючы большае зручнасць і давер.

Умацаванне даверу да інструментаў штучнага інтэлекту 

Намаганні Microsoft з'яўляюцца часткай больш шырокай ініцыятывы, закліканай даць людзям упэўненасць ва ўсё больш папулярным генератыўным штучным інтэлекту, які шырока ўжываецца ў сэрвісах, арыентаваных на індывідуальных спажыўцоў і карпаратыўную кліентуру. Пасля таго, як узніклі выпадкі, у якіх карыстальнікі мелі магчымасць падштурхоўваць чат-бота Copilot да дзіўных або шкодных вынікаў, Microsoft прайшла праз дробныя зубы. Гэта будзе пацвярджаць вынік, які паказвае неабходнасць моцнай абароны ад згаданых маніпулятыўных тактык, якія, верагодна, узмацняцца з тэхналогіямі штучнага інтэлекту і папулярнымі ведамі. Прагназаванне і наступнае змякчэнне заключаецца ў распазнаванні мадэляў нападу, напрыклад, калі зламыснік паўтарае пытанні ці падказкі падчас ролевай гульні.

З'яўляючыся найбуйнейшым інвестарам і стратэгічным партнёрам OpenAI, Microsoft пашырае межы ўкаранення і стварэння адказных, бяспечных генератыўных тэхналогій штучнага інтэлекту. Абодва прыхільныя адказнаму разгортванню і базавым мадэлям Generative AI для мер бяспекі. Але Бёрд прызнаў, што гэтыя вялікія моўныя мадэлі, нават калі яны пачынаюць разглядацца як аснова для большай часткі будучых інавацый штучнага інтэлекту, не ўстойлівыя да маніпуляцый.

Абапіраючыся на гэтыя асновы, спатрэбіцца значна больш, чым проста спадзявацца на самі мадэлі; спатрэбіцца комплексны падыход да бяспекі і бяспекі штучнага інтэлекту.

Microsoft нядаўна абвясціла аб узмацненні мер бяспекі для сваёй студыі Azure AI Studio, каб паказаць і гарантаваць актыўныя крокі, якія прымаюцца для абароны ландшафту пагроз AI, які змяняецца.

Ён імкнецца пазбегнуць няправільнага выкарыстання штучнага інтэлекту і захаваць цэласнасць і надзейнасць узаемадзеяння штучнага інтэлекту шляхам уключэння своечасовых экранаў і абвестак.

У сувязі з пастаянным развіццём тэхналогіі штучнага інтэлекту і яе прымяненнем у многіх сферах паўсядзённага жыцця Microsoft і астатняй супольнасці штучнага інтэлекту прыйдзе час захоўваць вельмі пільную пазіцыю бяспекі.

Крыніца: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/