3 прычыны, па якіх вашай арганізацыі спатрэбяцца знешнія ацэншчыкі алгарытмаў

Сатта Сарма-Хайтаўэр

Бізнес-лідэры выціскаюць усё магчымае са штучнага інтэлекту (AI). Вынікі даследавання KPMG 2021 г большасць кіраўнікоў прадпрыемстваў урада, прамысловай вытворчасці, фінансавых паслуг, рознічнага гандлю, навукі аб жыцця і аховы здароўя кажуць, што штучны інтэлект у іх арганізацыях працуе як мінімум умерана. Даследаванне таксама паказвае, што палова рэспандэнтаў сцвярджае, што іх арганізацыя паскорыла ўкараненне ІІ у адказ на пандэмію Covid-19. У арганізацыях, дзе быў прыняты штучны інтэлект, па меншай меры палова кажа, што тэхналогія перасягнула чаканні.

Алгарытмы штучнага інтэлекту ўсё больш адказваюць за розныя сучасныя ўзаемадзеянні і інавацыі - ад персаналізаваных рэкамендацыі па прадукце і абслугоўванне кліентаў вопыт для банкаў рашэнні аб крэдытаванні і нават адказ міліцыі.

Але пры ўсіх перавагах, якія яны прапануюць, алгарытмы штучнага інтэлекту нясуць вялікую рызыку, калі яны не будуць эфектыўна кантралявацца і ацэньвацца на прадмет устойлівасці, справядлівасці, вытлумачальнасці і цэласнасці. Каб дапамагчы кіраўнікам прадпрыемстваў у маніторынгу і ацэнцы штучнага інтэлекту, даследаванне, згаданае вышэй, паказвае, што a Усё большая колькасць кіраўнікоў прадпрыемстваў жадаюць, каб урад рэгуляваў штучны інтэлект, каб дазволіць арганізацыям інвеставаць у правільныя тэхналогіі і бізнес-працэсы. Для неабходнай падтрымкі і нагляду было б разумна разгледзець знешнія ацэнкі, прапанаваныя пастаўшчыком паслуг з вопытам прадастаўлення такіх паслуг. Вось тры прычыны.

1. Алгарытмы - гэта «чорныя скрыні»

Алгарытмы штучнага інтэлекту, якія вучацца на дадзеных для вырашэння праблем і аптымізацыі задач, робяць сістэмы больш разумнымі, дазваляючы ім збіраць і генераваць інфармацыю значна хутчэй, чым калі-небудзь маглі б людзі.

Аднак некаторыя зацікаўленыя бакі лічаць гэтыя алгарытмы «чорнымі скрынямі», - тлумачыць Дру Розен, дырэктар па аўдыту ў KPMG, вядучай фірме прафесійных паслуг. У прыватнасці, некаторыя зацікаўленыя бакі могуць не разумець, як алгарытм прыняў пэўнае рашэнне, і таму могуць быць не ўпэўненыя ў справядлівасці або дакладнасці гэтага рашэння.

«Вынікі, атрыманыя з дапамогай алгарытму, могуць быць схільныя да прадузятасці і няправільнай інтэрпрэтацыі вынікаў», - кажа Розен. «Гэта таксама можа прывесці да некаторых рызык для арганізацыі, паколькі яны выкарыстоўваюць гэтыя вынікі і дзеляцца [імі] з грамадскасцю і сваімі зацікаўленымі бакамі».

Напрыклад, алгарытм, які выкарыстоўвае памылковыя даныя, у лепшым выпадку неэфектыўны, а ў горшым - шкодны. Як гэта можа выглядаць на практыцы? Разгледзім чат-бот на аснове штучнага інтэлекту, які прадастаўляе карыстальнікам няправільную інфармацыю аб уліковым запісе, або аўтаматызаваны інструмент перакладу, які недакладна перакладае тэкст. Абодва выпадкі могуць прывесці да сур'ёзных памылак або няправільных інтэрпрэтацый для дзяржаўных устаноў або кампаній, а таксама ўдзельнікаў і кліентаў, якія спадзяюцца на рашэнні, прынятыя гэтымі алгарытмамі.

Яшчэ адзін фактар, які спрыяе праблеме чорнай скрыні, - калі ў распрацоўку мадэляў штучнага інтэлекту прасочваецца прадузятасць, што можа выклікаць неаб'ектыўнае прыняцце рашэнняў. Крэдыторы, напрыклад, усё часцей выкарыстоўваюць штучны інтэлект для прагназавання крэдытаздольнасці патэнцыйных пазычальнікаў для прыняцця рашэнняў аб крэдытаванні. Аднак можа ўзнікнуць рызыка, калі ключавыя ўваходныя дадзеныя ў штучны інтэлект, такія як крэдытны рэйтынг патэнцыйнага пазычальніка, мае істотную памылку, што прыводзіць да таго, што гэтым асобам адмаўляюць у крэдытах.

Гэта падкрэслівае неабходнасць вонкавага ацэншчыка, які можа служыць бесстароннім ацэншчыкам і даць мэтанакіраваную ацэнку, заснаваную на прынятых крытэрыях, актуальнасці і надзейнасці гістарычных даных і здагадак, на якіх грунтуецца алгарытм.

2. Зацікаўленыя бакі і рэгулятары патрабуюць празрыстасці

У 2022 годзе не было бягучых патрабаванняў да справаздачнасці для адказнага штучнага інтэлекту. Аднак, кажа Розен, «гэтак жа, як кіруючыя органы ўвялі ESG [экалагічныя, сацыяльныя і кіруючыя] рэгуляванні ў справаздачу аб пэўных паказчыках ESG, гэта толькі пытанне часу, калі мы ўбачым дадатковыя патрабаванні да справаздачнасці па правілах для адказнага штучнага інтэлекту».

Фактычна з 1 студзеня 2023 года ў Нью-Ёрку Мясцовы закон 144 патрабуе, каб перад выкарыстаннем аўтаматызаванага інструмента прыняцця рашэння аб працаўладкаванні быў праведзены аўдыт прадузятасці.

А на федэральным узроўні ст Закон аб нацыянальнай ініцыятыве штучнага інтэлекту 2020 года— які абапіраецца на а Указ 2019г— факусуюць на тэхнічных стандартах і рэкамендацыях па ІІ. Акрамя таго, Закон аб алгарытмічнай адказнасці можа спатрэбіцца ацэнка ўздзеяння аўтаматызаваных сістэм прыняцця рашэнняў і дапоўненых крытычных працэсаў прыняцця рашэнняў. І за мяжой Закон аб штучным інтэлекту была прапанавана комплексная нарматыўная база з канкрэтнымі мэтамі па бяспецы, адпаведнасці, кіраванню і надзейнасці штучнага інтэлекту.

З такімі зрухамі арганізацыі знаходзяцца пад мікраскопам кіравання. Ацэншчык алгарытму можа прадастаўляць такія справаздачы, якія датычацца нарматыўных патрабаванняў і павышаюць празрыстасць зацікаўленых бакоў, пазбягаючы рызыкі таго, што зацікаўленыя бакі няправільна інтэрпрэтуюць або увялі ў зман па выніках ацэнкі.

3. Кампаніі атрымліваюць выгаду ад доўгатэрміновага кіравання рызыкамі

Стыў Камара, партнёр у практыцы забеспячэння тэхналогій KPMG, прагназуе, што інвестыцыі ў штучны інтэлект будуць працягваць расці па меры аўтаматызацыі працэсаў, распрацоўкі інавацый, якія паляпшаюць вопыт кліентаў, і размеркавання распрацовак штучнага інтэлекту па бізнес-функцыях. Каб заставацца канкурэнтаздольнымі і прыбытковымі, арганізацыям спатрэбяцца эфектыўныя сродкі кантролю, якія не толькі ліквідуюць непасрэдныя недахопы штучнага інтэлекту, але і зніжаюць любыя доўгатэрміновыя рызыкі, звязаныя з бізнес-аперацыямі на аснове штучнага інтэлекту.

Вось дзе знешнія ацэншчыкі ўступаюць у якасці надзейнага, кемлівага рэсурсу. Па меры таго як арганізацыі ўсё часцей выкарыстоўваюць сумленнасць штучнага інтэлекту як фактар, які спрыяе вядзенню бізнесу, партнёрства можа ператварыцца не ў спецыяльную паслугу, а ў больш паслядоўнае супрацоўніцтва, тлумачыць Камара.

«Мы бачым шлях наперад, дзе павінны быць пастаянныя адносіны паміж арганізацыямі, якія распрацоўваюць і ўводзяць у дзеянне ІІ на пастаяннай аснове, і аб'ектыўным знешнім ацэншчыкам», — кажа ён.

Погляд на тое, што будзе далей

У будучыні арганізацыі могуць выкарыстоўваць знешнія ацэнкі на больш цыклічнай аснове, напрыклад, па меры распрацоўкі новых мадэляў, выкарыстання новых крыніц даных, інтэграцыі рашэнняў іншых пастаўшчыкоў або пераходу да новых патрабаванняў адпаведнасці.

Калі прад'яўляюцца дадатковыя патрабаванні рэгулявання і адпаведнасці, знешнія ацэншчыкі могуць прадастаўляць паслугі для прамой ацэнкі таго, наколькі добра арганізацыя разгарнула або выкарыстала штучны інтэлект у адпаведнасці з гэтымі патрабаваннямі. У такім выпадку гэтыя ацэншчыкі будуць мець лепшыя магчымасці для абмену вынікамі ацэнкі ясным і паслядоўным чынам.

Каб скарыстацца тэхналогіяй і адначасова засцерагчыся ад яе абмежаванняў, арганізацыя павінна шукаць знешніх ацэншчыкаў для прадастаўлення справаздач, на якія яна потым можа спадзявацца, каб прадэманстраваць большую празрыстасць пры разгортванні алгарытмаў. Адтуль і арганізацыя, і зацікаўленыя бакі могуць лепш зразумець магутнасць ІІ і яе абмежаванні.

Крыніца: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/