Эксперты сцвярджаюць, што інструменты найму на працу на аснове штучнага інтэлекту не могуць палепшыць разнастайнасць найму

Topline

Інструменты найму на працу, якія сцвярджаюць, што выкарыстоўваюць штучны інтэлект, каб пазбегнуць гендэрных і расавых прадузятасцей, могуць не палепшыць разнастайнасць пры прыёме на працу, а на самой справе могуць увекавечыць гэтыя забабоны, сцвярджалі ў нядзелю даследчыкі з Кембрыджскага ўніверсітэта, ацэньваючы праграмы, якія ў мінулым выклікалі крытыку, як спосаб выкарыстання тэхналогіі, каб прапанаваць хуткае рашэнне больш глыбокай праблемы.

Key Facts

У артыкуле, апублікаванай в Філасофія і тэхналогія, даследчыкі прагледзелі заявы некалькіх кампаній, якія прапануюць інструменты найму на базе штучнага інтэлекту, многія з якіх сцвярджаюць, што ліквідуюць прадузятасці і спрыяюць разнастайнасці, хаваючы імёны, пол і іншыя ідэнтыфікатары кандыдатаў, і некаторыя з якіх ранжыраваць кандыдатаў на аснове сканавання рэзюмэ, онлайн-ацэнак і аналізу маўлення і мімікі прэтэндэнтаў.

Даследчыкі — два прафесара з Цэнтра гендэрных даследаванняў Кембрыджскага ўніверсітэта — сцвярджалі, што гэтыя інструменты сапраўды могуць спрыяць аднастайнасці пры прыёме на працу, таму што яны прайграваюць культурныя ўхілы «ідэальнага кандыдата», якім гістарычна былі белыя або еўрапейскія мужчыны.

Інструменты таксама не могуць палепшыць разнастайнасць, таму што яны заснаваны на мінулых дадзеных кампаніі і, такім чынам, могуць прасоўваць кандыдатаў, найбольш падобных да цяперашніх супрацоўнікаў.

Элеанора Драге, суаўтар даследавання і навуковы супрацоўнік Цэнтра гендэрных даследаванняў Кембрыджскага ўніверсітэта, сказала ў сваёй заяве, што "мала адказнасці за тое, як ствараюцца або тэстуюцца гэтыя прадукты", дадаючы, што тэхналогія можа быць "небяспечнай". крыніца «дэзінфармацыі аб тым, як набор можа быць «непрадузятым» і больш справядлівым».

Вызначальная цытата

«Сцвярджаючы, што расізм, сэксізм і іншыя формы дыскрымінацыі можна пазбавіць ад працэсу найму з дапамогай штучнага інтэлекту, гэтыя кампаніі зніжаюць расу і пол да нязначных кропак дадзеных, а не сістэмы ўлады, якія вызначаюць, як мы рухаемся па свеце, », - гаворыцца ў заяве Драге.

датычна

Amazon абвясціў аб гэтым у 2018 годзе спыніць выкарыстанне інструмента AI-рэкрутынгу для прагляду рэзюмэ суіскальнікаў пасля таго, як было выяўлена, што сістэма жорстка дыскрымінуе жанчын. Гэта таму, што кампутарныя мадэлі, на якія ён абапіраўся, былі распрацаваны на аснове рэзюмэ, прадстаўленых у кампанію за апошнія 10 гадоў, якія ў асноўным паступалі ад суіскальнікаў мужчынскага полу.

Асноўная інфармацыя

Арганізацыі ўсё часцей звяртаюцца да штучнага інтэлекту, каб дапамагчы кіраваць працэсамі найму на працу. У адным 2020 апытанне з больш чым 300 кіраўнікоў кадраў, якіх цытуюць аўтары нядзельнай газеты, кансалтынгавая фірма Gartner выявіла, што 86% працадаўцаў выкарыстоўваюць віртуальныя тэхналогіі ў сваёй практыцы найму, і гэтая тэндэнцыя паскорылася пасля таго, як пандэмія Covid-19 прымусіла многіх перавесці працу ў Інтэрнэт. У той час як некаторыя кампаніі сцвярджаюць, што штучны інтэлект можа прапанаваць больш эфектыўны з пункту гледжання выдаткаў і часу працэс найму, некаторыя эксперты мець знойдзены сістэмы маюць тэндэнцыю заахвочваць, а не ліквідаваць, расавую і гендэрную прадузятасць найму шляхам тыражавання існуючых забабонаў з рэальнага свету. Некалькі амерыканскіх заканадаўцаў зрабілі нацэлены для барацьбы з прадузятасцямі ў сістэмах штучнага інтэлекту, паколькі тэхналогія працягвае хутка развівацца і існуе мала законаў, якія б яе рэгулявалі. Белы дом апублікаваў на гэтым тыдні «Праект Біля аб правах на штучны інтэлект», у якім сцвярджаецца, што алгарытмы, якія выкарыстоўваюцца пры найме, «адлюстроўваюць і прайграваюць існуючыя непажаданыя няроўнасці» або ўбудоўваюць новыя «прадузятасці і дыскрымінацыю». План, які не з'яўляецца юрыдычна абавязковым і не з'яўляецца афіцыйнай палітыкай урада, заклікае кампаніі гарантаваць, што штучны інтэлект не дыскрымінуе і не парушае прыватнасць даных, а таксама інфармаваць карыстальнікаў аб тым, калі выкарыстоўваецца тэхналогія.

На што сачыць

У спісе рэкамендацый аўтары нядзельнага Філасофія і тэхналогія У артыкуле было прапанавана кампаніям, якія распрацоўваюць тэхналогіі штучнага інтэлекту, засяродзіцца на больш шырокіх, сістэматычных няроўнасцях, а не на «індывідуальных выпадках прадузятасці». Напрыклад, яны прапануюць распрацоўшчыкам праграмнага забеспячэння вывучыць катэгорыі, якія выкарыстоўваюцца для сартавання, апрацоўкі і класіфікацыі кандыдатаў, і тое, як гэтыя катэгорыі могуць спрыяць дыскрымінацыі, абапіраючыся на пэўныя здагадкі адносна полу і расы. Даследчыкі таксама сцвярджаюць, што спецыялісты па кадрах павінны паспрабаваць зразумець, як працуюць інструменты набору AI і якія іх патэнцыйныя абмежаванні.

Дзіўны факт

Еўрапейскі саюз класіфікаваў праграмнае забеспячэнне для найму і інструменты ацэнкі прадукцыйнасці на базе штучнага інтэлекту як "высокую рызыку" ў сваім новым праект заканадаўчая база па ІІ, што азначае, што інструменты будуць падвяргацца больш пільнай праверцы і павінны адпавядаць пэўным патрабаванням адпаведнасці.

Далейшае чытанне

DC хоча ўзначаліць барацьбу з прадузятасцю штучнага інтэлекту (Аксіёс)

Крыніца: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/