ФБР папярэджвае аб вымагальніцтве AI Deepfake

Здольнасці генератыўнага штучнага інтэлекту ствараць выявы, падобныя на жыццё, уражваюць, але Федэральнае бюро расследаванняў ЗША сцвярджае, што злачынцы выкарыстоўваюць глыбокія падробкі, каб вымагаць ахвяр.

«ФБР працягвае атрымліваць паведамленні ад ахвяр, у тым ліку непаўналетніх дзяцей і дарослых, чые фатаграфіі і відэа былі зменены ў нецэнзурны кантэнт», — гаворыцца ў паведамленні агенцтва ў панядзелак.

ФБР сцвярджае, што ў мінулым годзе праваахоўныя органы атрымалі больш за 7,000 паведамленняў аб вымагальніцтве ў інтэрнэце, накіраваным супраць непаўналетніх, з ростам колькасці ахвяр так званага «сэксуальнага вымагальніцтва» з выкарыстаннем дыпфэйкаў з красавіка.

Deepfake - гэта ўсё больш распаўсюджаны тып відэа- ці аўдыякантэнту, створаны з дапамогай штучнага інтэлекту, які адлюстроўвае ілжывыя падзеі, якія ўсё цяжэй распазнаць як ілжывыя, дзякуючы генератыўным платформам AI, такім як Midjourney 5.1 і DALL-E 2 ад OpenAI.

У траўні дыпфэйк генеральнага дырэктара Tesla і Twitter Ілона Маска, зроблены для падману крыптаінвестараў, стаў вірусным. Відэа, распаўсюджанае ў сацыяльных сетках, утрымлівала кадры з папярэдніх інтэрв'ю Маска, адрэдагаваныя ў адпаведнасці з афёрай.

Не ўсе дыпфейкі з'яўляюцца шкоднаснымі, дыпфейк папы Францішка ў белым пінжаку Balenciaga стаў вірусным у пачатку гэтага года, а зусім нядаўна створаныя штучным інтэлектам дыпфейкі таксама выкарыстоўваліся, каб вярнуць ахвярам забойства да жыцця.

У сваіх рэкамендацыях ФБР перасцерагала ад выплаты выкупу, паколькі гэта не гарантуе, што злачынцы ўсё роўна не апублікуюць дыпфейк.

ФБР таксама рэкамендуе быць асцярожнымі пры абмене асабістай інфармацыяй і змесцівам у інтэрнэце, у тым ліку з выкарыстаннем такіх функцый прыватнасці, як прыватнасць уліковых запісаў, маніторынг актыўнасці дзяцей у Інтэрнэце і назіранне за незвычайнымі паводзінамі людзей, з якімі вы мелі зносіны ў мінулым. Агенцтва таксама рэкамендуе часта шукаць асабістую інфармацыю і інфармацыю аб членах сям'і ў Інтэрнэце.

Іншыя агенцтвы, якія б'юць трывогу, уключаюць Федэральную гандлёвую камісію ЗША, якая папярэдзіла, што злачынцы выкарыстоўваюць дыпфейкі, каб прымусіць нічога не падазравалых ахвяр адправіць грошы пасля стварэння гукавога дыпфейка сябра або члена сям'і, які паведамляе, што іх выкралі.

«Штучны інтэлект больш не з'яўляецца надуманай ідэяй з навукова-фантастычнага фільма. Мы жывем з гэтым тут і цяпер. Ашуканец можа выкарыстаць штучны інтэлект, каб кланаваць голас вашага каханага», — заявіла FTC у папярэджанні для спажыўцоў у сакавіку, дадаўшы, што ўсе злачынцы маюць патрэбу ў кароткім аўдыязапісе з голасам члена сям'і, каб зрабіць запіс сапраўдным.

ФБР пакуль не адказала Расшыфраваць просьба аб каментарыі.

Будзьце ў курсе крыпта-навін, атрымлівайце штодзённыя абнаўленні ў паштовай скрыні.

Крыніца: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams