Этыка штучнага інтэлекту і права штучнага інтэлекту рухаюцца да стандартаў, якія выразна вызначаюць і кіруюць прадузятасцямі штучнага інтэлекту

Вы калі-небудзь гулялі ў збор пяцідзесяці дзвюх карт?

Гэта не тая гульня, у якую вы звычайна ахвотна ўзяліся б. Вось чаму. Хтосьці прапануе вам, што гэта нібыта вясёлы від спорту, і калі вы трапіце на салодкую прынаду, яны падкідваюць цэлую калоду ігральных карт у паветра і адразу на падлогу. Затым чалавек дзёрзка ўсміхаецца і кажа вам ісці наперад і забраць карты. Вось і ўся гульня.

Свавольнік!

У мяне сапраўды ёсць даволі прадуманае пытанне, каб задаць вам пра гэта.

Выкажам здагадку, што адна з карт праслізнула пад суседнюю канапу. Калі вы скончыце збіраць усе карты, вы зразумееце, што адной не хапае, таму што ў вас у руцэ будзе толькі пяцьдзесят адна.

Пытанне ў тым, ці маглі б вы вызначыць, якой карты не хапае?

Упэўнены, што вы адразу скажаце, што з лёгкасцю даведаецеся, якая карта не была ў вас на руках. Вам засталося толькі прывесці калоду ў парадак. Вы ведаеце, што стандартная калода складаецца з чатырох масцей і што ў кожнай масці карты пранумараваны ад адной да дзесяці, а потым валет, дама і кароль.

Вы ведаеце гэта, таму што стандартная калода ігральных карт заснавана на стандартным.

Ой, гэтая заява можа здацца адным з тых цалкам відавочных сцвярджэнняў. Ну, так, вядома, стандартная гульнявая калода заснавана на стандартным. Мы ўсе гэта ведаем. Я хачу сказаць, што, маючы стандарт, мы можам спадзявацца на стандарт, калі гэта неабходна. Акрамя таго, што вы можаце вызначыць, якой карты не хапае ў калодзе, вы таксама можаце лёгка гуляць у мільёны вядомых картачных гульняў з іншымі людзьмі. Калі камусьці паведамляюць правілы гульні, ён можа непасрэдна гуляць, таму што ўжо цалкам ведае, з чаго складаецца калода. Вам не трэба тлумачыць ім, што ў калодзе чатыры масці і карты з рознай нумарацыяй. Яны ўжо ведаюць, што так будзе.

Куды я іду з гэтым?

Я спрабую правесці вас па шляху, які з'яўляецца жыццёва важным сродкам для дасягнення прагрэсу ў галіне штучнага інтэлекту, асабліва ў сферы этыкі штучнага інтэлекту і этычнага штучнага інтэлекту. Разумееце, нам трэба паспрабаваць выпрацаваць шырока распаўсюджаныя і ўсеагульна ўзгодненыя стандарты этыкі штучнага інтэлекту. Калі мы зможам гэта зрабіць, гэта павысіць прастату прыняцця этычнага штучнага інтэлекту і відавочна нацэліць на паляпшэнне сістэм штучнага інтэлекту, якія пастаянна выкідваюцца на рынак (напрыклад, непранумараваная і неўпарадкаваная калода дзікіх карт). Аб маім пастаянным і шырокім асвятленні этыкі штучнага інтэлекту, этычнага штучнага інтэлекту і права штучнага інтэлекту гл. спасылка тут і спасылка тут, Проста назваць некалькі.

Адзін канкрэтны сегмент або частка этыкі ІІ, які прыцягвае вялікую ўвагу СМІ, складаецца з ІІ, які дэманструе непрыхільныя прадузятасці і няроўнасць. Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Праз хвіліну я падзялюся з вамі некаторымі агульнымі прынцыпамі, якія ляжаць у аснове этыкі ІІ. Тут і там шмат такіх спісаў. Можна сказаць, што пакуль не існуе адзінага спісу універсальнай прывабнасці і супадзення. Вось такая прыкрая навіна. Добрая навіна заключаецца ў тым, што, прынамсі, ёсць лёгка даступныя спісы этыкі AI, і яны, як правіла, вельмі падобныя. Увогуле, гэта сведчыць аб тым, што з дапамогай свайго роду аргументаванага збліжэння мы знаходзім шлях да агульнай агульнасці таго, з чаго складаецца этыка ІІ.

Я прыношу гэта, каб забяспечыць аснову для маёй дыскусіі, якая будзе сканцэнтравана на пэўным сегменце або частцы больш шырокай сферы этыкі штучнага інтэлекту, а менавіта, як ужо згадвалася раней, на канкрэтным элеменце прадузятасцей штучнага інтэлекту. Таксама прычына, па якой я падзяляюся з вамі гэтай тэмай, заключаецца ў тым, што дакумент, апублікаваны Нацыянальным інстытутам стандартаў і тэхналогій (NIST), спрабуе прымусіць нас прайсці наш шлях да стандарту, які характарызуе ўхілы штучнага інтэлекту. Дакумент мае назву На шляху да стандарту для вызначэння і кіравання прадузятасцю ў галіне штучнага інтэлекту аўтарамі Рэвай Шварц, Апосталам Васільевым, Крыстэн Грын, Лоры Перын, Эндру Бертам і Патрыкам Холам, апублікавана Міністэрствам гандлю ЗША, спецыяльная публікацыя NIST 1270, у сакавіку 2022 г.

Мы распакуем гэтую зручную і абнадзейлівую працу, каб высветліць, што мы маем на ўвазе пад ухілам штучнага інтэлекту. Старая прымаўка кажа, што вы не можаце кіраваць тым, што не можаце вымераць. Маючы стандарт, які апісвае разнастайныя зрушэнні штучнага інтэлекту, вы можаце пачаць вымяраць зрушэнні штучнага інтэлекту і кіраваць імі.

Спачатку давайце коратка азнаёмімся з некаторымі агульнымі запаветамі этычнага інтэлекту, каб праілюстраваць, што павінна быць важнай увагай для тых, хто стварае, вядзе або выкарыстоўвае ІІ.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента ў галіне штучнага інтэлекту будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў ІІ, у тым ліку з дапамогай празрыстых і падданых праверку метадалогій, крыніц дадзеных, а таксама працэдуры праектавання і дакументацыі.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важны момант, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падпарадкоўваюцца паняццям этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

У аснове многіх з гэтых ключавых правілаў этыкі штучнага інтэлекту ляжыць падступная прырода прадузятасцяў штучнага інтэлекту.

Гэтак жа, як калода карт, было б выдатна, калі б мы змаглі нейкім чынам згрупаваць прадузятасці штучнага інтэлекту ў набор «масцей» або катэгорый. Сапраўды, дакумент NIST прапануе прапанаваную групоўку.

Прапануюцца тры асноўныя катэгорыі:

1) Сістэмныя ўхілы

2) Статыстычныя і вылічальныя зрушэнні

3) Чалавечыя прадузятасці

Безумоўна, варта разгледзець пытанне аб тым, ці ўсе ўхілы штучнага інтэлекту падыходзяць да адной з гэтых трох катэгорый. Вы можаце з упэўненасцю сцвярджаць, што некаторыя ўхілы ІІ адносяцца да адной, дзвюх або ўсіх трох катэгорый адначасова. Акрамя таго, вы можаце сцвярджаць, што больш катэгорый заслугоўваюць згадкі, напрыклад, чацвёртая, пятая, шостая ці некалькі серый груповак.

Я спадзяюся, што вы так думаеце, таму што нам трэба прыцягнуць усіх да дапамогі ў фарміраванні гэтых стандартаў. Калі вас раздражняе тое, як гэтыя стандарты ўзніклі ў пачатку, я заклікаю вас накіраваць гэтую энергію на дапамогу астатнім з нас у стварэнні гэтых пачаткоўцаў стандартаў настолькі трывалымі і паўнавартаснымі, наколькі іх можна выразаць.

На дадзены момант мы можам больш уважліва разгледзець прапанаваныя тры катэгорыі і ўбачыць, з якой рукой мы мелі справу да гэтага часу (так, я буду працягваць выкарыстоўваць аналогію з калодай ігральных карт, робячы гэта на працягу ўсёй гэтай напісанай часткі, вы можаце зрабіць стаўку на самы нізкі долар на гэтую не вельмі схаваную тэму).

Што маецца на ўвазе пад назвай сістэмных ухілаў?

Вось што гаворыцца ў дакуменце NIST: «Сістэмныя зрушэнні ўзнікаюць у выніку працэдур і практык пэўных інстытутаў, якія працуюць такім чынам, што пэўныя сацыяльныя групы атрымліваюць перавагі або спрыянне, а іншыя аказваюцца ў нявыгадным становішчы або абясцэньваюцца. Гэта не павінна быць вынікам якіх-небудзь свядомых забабонаў або дыскрымінацыі, а хутчэй прытрымлівання большасці існуючых правілаў або нормаў. Інстытуцыянальны расізм і сэксізм з'яўляюцца найбольш распаўсюджанымі прыкладамі» (звярніце ўвагу, што гэта толькі кароткі ўрывак, і чытачам прапануецца ўбачыць больш поўнае тлумачэнне).

ШІ ўваходзіць у сумесь сістэмных ухілаў, забяспечваючы сродкі перадачы і прымянення гэтых ухілаў у праграмах на аснове штучнага інтэлекту. Кожны раз, калі вы выкарыстоўваеце праграмнае забеспячэнне, укаранёнае штучным інтэлектам, наколькі вы ведаеце, яно можа ўтрымліваць мноства прадузятасцей, якія ўжо ўкараніліся ў сістэму праз кампаніі і галіновыя практыкі, якія прывялі да стварэння штучнага інтэлекту. Згодна з даследаваннем NIST: «Гэтыя прадузятасці прысутнічаюць у наборах даных, якія выкарыстоўваюцца ў штучным інтэлекте, а таксама ў інстытуцыйных нормах, практыках і працэсах на працягу ўсяго жыццёвага цыкла штучнага інтэлекту і ў больш шырокай культуры і грамадстве».

Далей разгледзім набор зрушэнняў, пазначаных як статыстычныя і вылічальныя зрушэнні.

Дакумент NIST сцвярджае наступнае: «Статыстычныя і вылічальныя зрушэнні вынікаюць з памылак, якія ўзнікаюць, калі выбарка не з'яўляецца рэпрэзентатыўнай для насельніцтва. Гэтыя прадузятасці ўзнікаюць у выніку сістэматычных, а не выпадковых памылак, і могуць узнікаць пры адсутнасці прадузятасці, прыхільнасці або дыскрымінацыйнага намеру. У сістэмах штучнага інтэлекту гэтыя зрушэнні прысутнічаюць у наборах даных і алгарытмічных працэсах, якія выкарыстоўваюцца пры распрацоўцы прыкладанняў штучнага інтэлекту, і часта ўзнікаюць, калі алгарытмы навучаюцца на адным тыпе даных і не могуць экстрапаляваць за межы гэтых даных».

Гэты тып статыстычнай і вылічальнай зрушэння часта ўпісваецца ў сістэму штучнага інтэлекту, якая выкарыстоўвае машыннае навучанне (ML) і глыбокае навучанне (DL). Разгляд сур'ёзнай тэмы сучаснага ML/DL патрабуе адпаведнай бакавой датычнай аб тым, што такое AI і што такое ML/DL.

Давайце пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сучаснага ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы ІІ, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Разумны ІІ нібыта быў бы чалавечага якасці. Вам трэба будзе ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што мы можам мець звышінтэлектуальны ІІ, можна ўявіць, што такі ІІ можа апынуцца разумнейшым за людзей (для майго даследавання звышінтэлектуальнага ІІ як магчымасці гл. асвятленне тут).

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны штучны інтэлект не здольны «думаць» ні ў якім разе, як мысленне чалавека. Калі вы ўзаемадзейнічаеце з Alexa або Siri, магчымасці размовы могуць здацца падобнымі да чалавечых магчымасцей, але на самой справе гэта вылічальныя магчымасці і не маюць чалавечага пазнання. Апошняя эра штучнага інтэлекту шырока выкарыстоўвае машыннае навучанне і глыбокае навучанне, якія выкарыстоўваюць супастаўленне вылічальных шаблонаў. Гэта прывяло да стварэння сістэм штучнага інтэлекту, якія маюць выгляд чалавечых схільнасцей. Між тым, сёння няма ніводнага штучнага інтэлекту, які б меў падабенства здаровага сэнсу, а таксама кагнітыўнага цуду трывалага чалавечага мыслення.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Гэта падводзіць нас непасрэдна да трэцяй катэгорыі набору NIST з трох груповак, у прыватнасці, да ролі чалавечых прадузятасцяў у з'яўленні прадузятасцей штучнага інтэлекту. Вось што паказваецца ў дакуменце NIST: «Чалавечыя прадузятасці адлюстроўваюць сістэматычныя памылкі ў чалавечым мысленні, заснаваныя на абмежаванай колькасці эўрыстычных прынцыпаў і прагназаванні значэнняў для больш простых ацэнак. Гэтыя прадузятасці часта няяўныя і, як правіла, звязаны з тым, як чалавек ці група ўспрымаюць інфармацыю (напрыклад, аўтаматызаваны вывад штучнага інтэлекту), каб прыняць рашэнне або запоўніць адсутную або невядомую інфармацыю. Гэтыя прадузятасці паўсюдна прысутнічаюць у інстытуцыйных, групавых і індывідуальных працэсах прыняцця рашэнняў на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, а таксама ў выкарыстанні прыкладанняў штучнага інтэлекту пасля разгортвання».

Цяпер вы атрымалі хуткае ўвядзенне ў тры катэгорыі.

Я хацеў бы падзяліцца з вамі дадатковай ежай для разважанняў, выкладзенай у дакуменце NIST. Дыяграма ў іх апавяданні змяшчае карыснае рэзюмэ ключавых пытанняў і меркаванняў, якія ляжаць у аснове кожнага з трох набораў ухілаў ІІ. Я пералічваю іх тут для вашай зручнасці і павучання.

№ 1: Сістэмныя ўхілы

  • Хто лічыцца, а хто не лічыцца?

— Праблемы са схаванымі зменнымі

— Недастатковая прадстаўленасць маргіналізаваных груп

— Аўтаматызацыя няроўнасцей

— Недастатковая прадстаўленасць пры вызначэнні функцыі карыснасці

— Працэсы на карысць большасці/меншасці

— Культурная прадузятасць у мэтавай функцыі (лепшае для асобных людзей супраць лепшага для групы)

  • Адкуль мы ведаем, што правільна?

— Узмацненне няроўнасці (групы падвяргаюцца большаму ўздзеянню пры больш высокім выкарыстанні ІІ)

— Больш адмоўна паўплывала прагнастычная паліцыя

— Шырокае распаўсюджванне райдшеринга/самакіравання аўтамабіляў/і г.д. можа змяніць палітыку, якая ўплывае на насельніцтва на аснове выкарыстання

№ 2: Статыстычныя і вылічальныя зрушэнні

  • Хто лічыцца, а хто не лічыцца?

— Ухіл выбаркі і адбору

— Выкарыстанне проксі-зменных, таму што іх лягчэй вымераць

— Ухіл аўтаматызацыі

— Шкала Лайкерта (ад катэгарыяльнага да парадкавага да кардынальнага)

— Нелінейны супраць лінейнага

— Экалагічная памылка

— Мінімізацыя нормы L1 супраць L2

— Агульныя цяжкасці ў колькаснай ацэнцы кантэкстуальных з'яў

  • Адкуль мы ведаем, што правільна?

— Адсутнасць належнай крыжаванай праверкі

— Ухіл да выжывання

— Цяжкасці са справядлівасцю

№3: Чалавечыя прадузятасці

  • Хто лічыцца, а хто не лічыцца?

— Ухіл назірання (эфект вулічнага святла)

— Зрушэнне даступнасці (прывязка)

— Памылка Макнамары

— Групавое мысленне вядзе да вузкага выбару

— Эфект Рашамон вядзе да суб'ектыўнай прапаганды

— Цяжкасці ў колькаснай ацэнцы мэтаў могуць прывесці да памылкі Макнамары

  • Адкуль мы ведаем, што правільна?

— Ухіл пацверджання

— Ухіл аўтаматызацыі

На гэтым этапе гэтай важкай дыскусіі я магу паспрачацца, што вы жадаеце атрымаць некалькі ілюстрацыйных прыкладаў, якія маглі б прадэманстраваць тры катэгорыі прадузятасцей ІІ. Ёсць асаблівы і, несумненна, папулярны набор прыкладаў, якія мне блізкія. Разумееце, у маёй якасці эксперта па ІІ, уключаючы этычныя і юрыдычныя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему штучнага інтэлекту, - гэта з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту. Гэта паслужыць зручным варыянтам выкарыстання або ўзорам для шырокага абмеркавання тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту прасвятляе што-небудзь аб трох прапанаваных катэгорыях прадузятасцей штучнага інтэлекту, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і штучны інтэлект

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Цяпер мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і магчымасцей этычнага штучнага інтэлекту, якія прадугледжваюць тры катэгорыі ўхілаў штучнага інтэлекту.

Уявіце сабе, што аўтамабілем на аснове штучнага інтэлекту едзе па вуліцах вашага раёна і, здаецца, бяспечна ездзіць. Спачатку вы ўдзялялі асаблівую ўвагу кожнаму разу, калі ўдавалася зірнуць на самакіруючы аўтамабіль. Аўтаномны аўтамабіль вылучаўся стойкай з электроннымі датчыкамі, якія ўключалі відэакамеры, радары, прылады LIDAR і да т.п. Пасля многіх тыдняў беспілотнай машыны па вашай суполцы вы гэтага амаль не заўважаеце. Што тычыцца вас, то гэта проста яшчэ адзін аўтамабіль на і без таго ажыўленых дарогах агульнага карыстання.

Каб вы не падумалі, што азнаёміцца ​​з самакіраванымі аўтамабілямі немагчыма або неверагодна, я часта пісаў пра тое, як мясцовасці, якія ўваходзяць у сферу выпрабаванняў самакіраваных аўтамабіляў, паступова прывыклі бачыць дагледжаныя аўтамабілі, глядзіце мой аналіз на гэтая спасылка тут. Многія мясцовыя жыхары ў рэшце рэшт перайшлі ад захапленага пазірання з разяўленымі ротамі да шырокага нуды, каб стаць сведкамі гэтых вандроўных самакіраваных аўтамабіляў.

Верагодна, галоўная прычына, па якой яны могуць заўважыць аўтаномныя аўтамабілі, з-за фактару раздражнення і раздражнення. Сістэмы кіравання аўтамабілем па тэхніцы штучнага інтэлекту гарантуюць, што аўтамабілі выконваюць усе абмежаванні хуткасці і правілы дарожнага руху. Для мітуслівых кіроўцаў у іх традыцыйных аўтамабілях, якія кіруюцца людзьмі, вы часам раздражняецеся, калі затрымаецеся за строга законапаслухмянымі аўтамабілямі на аснове штучнага інтэлекту.

Гэта тое, да чаго нам усім, магчыма, трэба прывыкнуць, справядліва ці няправільна.

Вяртаемся да нашай казкі.

Далей мы разгледзім, як сістэмныя ўхілы могуць узнікнуць у гэтым кантэксце беспілотных аўтамабіляў.

Некаторыя эксперты вельмі занепакоеныя тым, што беспілотныя аўтамабілі будуць прыналежнасцю толькі багатых і эліты. Цалкам магчыма, што кошт выкарыстання беспілотных аўтамабіляў будзе занадта высокай. Калі ў вас няма вялікіх грошай, вы можаце ніколі не ўбачыць унутраную частку беспілотнага аўтамабіля. Мяркуецца, што тыя, хто будзе выкарыстоўваць беспілотныя аўтамабілі, павінны быць багатымі.

Такім чынам, некаторыя з бянтэжанасцю заклікаюць, што з'яўленне беспілотных аўтамабіляў на аснове штучнага інтэлекту пранікне формай сістэмнай прадузятасці. Агульная прамысловая сістэма аўтаномных транспартных сродкаў у цэлым не дазволіць беспілотным аўтамабілям трапіць у рукі бедных і менш заможных людзей. Гэта можа быць неабавязкова адкрытым намерам, і проста атрымліваецца, што адзіным верным спосабам кампенсаваць цяжкія выдаткі на вынаходніцтва беспілотных аўтамабіляў будзе спаганяць абуральна высокія цэны.

Калі вы адкажаце, што сёння ёсць выпрабаванні беспілотных аўтамабіляў, якія дазваляюць карыстацца звычайнаму чалавеку, такім чынам, здаецца відавочным, што вам не трэба быць багатым самім па сабе, контраргументам з'яўляецца тое, што гэта свайго роду гульня ў абалонку, як гэта было. Аўтавытворцы і тэхналагічныя фірмы, якія займаюцца самакіраваннем, нібыта жадаюць зрабіць так, каб выглядала, што кошт не будзе істотнай перашкодай. Зараз яны робяць гэта ў мэтах сувязяў з грамадскасцю і падымуць цэны, як толькі разбяруцца з маршчынамі. Канспіролаг можа нават сцвярджаць, што «паддоследныя свінкі» як звычайныя людзі згубна выкарыстоўваюцца, каб даць магчымасць багатым у канчатковым выніку стаць яшчэ багацейшымі.

Такім чынам, улічваючы гэтае даволі спрэчнае пытанне і ўкладваючы свае два цэнты ў гэту паскудную тэму, я не веру, што беспілотныя аўтамабілі будуць даражэй для штодзённага выкарыстання. Я не буду ўдавацца ў падрабязнасці, якія датычацца маёй асновы такой прэтэнзіі, і запрашаю вас паглядзець мае ўважлівыя абмеркаванні на спасылка тут а таксама на спасылка тут.

Ідучы далей, мы можам разгледзець пытанне статыстычных і вылічальных зрушэнняў, звязаных з штучным інтэлектам.

Паразважайце над, здавалася б, неістотным пытаннем аб тым, дзе беспілотныя аўтамабілі будуць хадзіць, каб падбіраць пасажыраў. Гэта здаецца вельмі бяскрыўднай тэмай. Мы будзем выкарыстоўваць казку пра горад, у якім ёсць беспілотныя аўтамабілі, каб вылучыць, магчыма, дзіўна патэнцыйны прывід статыстычных і вылічальных зрушэнняў, звязаных са штучным інтэлектам.

Спачатку выкажам здагадку, што штучны інтэлект блукаў па беспілотных аўтамабілях па ўсім горадзе. Любы, хто хацеў запытаць праезд на беспілотным аўтамабілі, меў, па сутнасці, роўныя шанцы атрымаць яго. Паступова штучны інтэлект пачаў у асноўным трымаць беспілотныя аўтамабілі толькі ў адным раёне горада. Гэты раздзел прыносіў большы прыбытак, а сістэма штучнага інтэлекту была запраграмавана так, каб спрабаваць максымізаваць даходы ў рамках выкарыстання ў супольнасці.

Члены суполкі ў бедных раёнах горада радзей маглі сесці на самакіраваным аўтамабілі. Гэта адбылося таму, што аўтамабілі з аўтамабілем знаходзіліся далей і вандравалі ў мясцовасці з больш высокімі даходамі. Калі запыт паступаў з аддаленай часткі горада, любы запыт з бліжэйшага месца, якое, верагодна, было ў «паважанай» частцы горада, атрымліваў бы больш высокі прыярытэт. У рэшце рэшт, магчымасць атрымаць аўтамабілі ў любым іншым месцы, акрамя багатай часткі горада, стала амаль немагчымай, што вельмі раздражняла для тых, хто жыў у тых раёнах, дзе цяпер не хапае рэсурсаў.

Вы можаце сцвярджаць, што штучны інтэлект у значнай ступені прызямліўся на форме статыстычных і вылічальных зрушэнняў, падобных да формы проксі-дыскрымінацыі (яе таксама часта называюць ускоснай дыскрымінацыяй). ШІ не быў запраграмаваны пазбягаць гэтых бедных раёнаў. Замест гэтага ён «навучыўся» рабіць гэта з дапамогай ML/DL.

Меркавалася, што штучны інтэлект ніколі не трапіць у такі ганебны зыбучы пясок. Спецыялізаванага маніторынгу, каб адсочваць, куды накіроўваюцца беспілотныя аўтамабілі на аснове штучнага інтэлекту, не было створана. Толькі пасля таго, як суполкі пачалі скардзіцца, кіраўніцтва горада зразумела, што адбываецца. Каб даведацца больш аб такіх агульнагарадскіх праблемах, якія збіраюцца прадставіць аўтаномныя транспартныя сродкі і беспілотныя аўтамабілі, глядзіце мой матэрыял на гэтая спасылка тут і дзе апісваецца даследаванне пад кіраўніцтвам Гарварда, якое я быў сааўтарам па гэтай тэме.

Што датычыцца трэцяй катэгорыі чалавечых прадузятасцяў, звязаных з прадузятасцямі штучнага інтэлекту, мы звернемся да прыкладу, які прадугледжвае, што штучны інтэлект вызначае, ці варта спыняцца, каб чакаць пешаходаў, якія не маюць перавагі для пераходу вуліцы.

Вы, несумненна, ехалі і сустракалі пешаходаў, якія чакалі пераходу дарогі, але не мелі права праезду. Гэта азначала, што вы мелі магчымасць спыніцца і дазволіць ім перасекчы. Вы можаце працягваць рух, не дазваляючы ім перасякацца, і пры гэтым цалкам адпавядаць законным правілам ваджэння.

Даследаванні таго, як вадзіцелі-людзі вырашаюць спыніцца або не спыняцца для такіх пешаходаў, сведчаць аб тым, што часам вадзіцелі-людзі робяць выбар на аснове непрыхільных ухілаў. Чалавек-кіроўца можа паглядзець на пешахода і вырашыць не спыняцца, нават калі б ён спыніўся, калі б пешаход меў іншы выгляд, напрыклад, у залежнасці ад расы або полу. Я разгледзеў гэта на спасылка тут.

Уявіце сабе, што аўтамабілі на аснове штучнага інтэлекту запраграмаваны на тое, каб спыняцца ці не спыняцца для пешаходаў, якія не маюць права адводу. Вось як распрацоўшчыкі ІІ вырашылі запраграмаваць гэтую задачу. Яны сабралі дадзеныя з гарадскіх відэакамер, якія размешчаны па ўсім горадзе. Дадзеныя дэманструюць вадзіцелі-людзі, якія спыняюцца для пешаходаў, якія не маюць права праезду, і кіроўцы-людзі, якія не спыняюцца. Усё гэта сабрана ў вялікі набор дадзеных.

З дапамогай машыннага навучання і глыбокага навучання дадзеныя мадэлююцца вылічальна. Затым сістэма кіравання AI выкарыстоўвае гэтую мадэль, каб вырашыць, калі спыніцца або не спыняцца. Як правіла, ідэя заключаецца ў тым, што з чаго б ні складаўся мясцовы звычай, менавіта так ІІ будзе кіраваць самакіруючымся аўтамабілем.

На здзіўленне кіраўніцтва горада і жыхароў, ІІ, відавочна, вырашаў спыняцца ці не спыняцца па ўзросту пешахода. Як такое магло здарыцца?

Пры больш уважлівым разглядзе відэазапісу разважлівасці кіроўцы высвятляецца, што многія з выпадкаў неспынення датычыліся пешаходаў, якія мелі пры сабе кій пенсіянера. Вадзіцелі-людзі, відаць, не жадалі спыняцца і дазваляць пажылому чалавеку пераходзіць вуліцу, як мяркуецца, з-за меркаванай працягласці часу, які камусьці можа спатрэбіцца на паездку. Калі пешаход выглядаў так, быццам ён можа хутка перабегчы вуліцу і мінімізаваць час чакання кіроўцы, кіроўцы больш пагадліва дазвалялі чалавеку перайсці.

Гэта было глыбока пахавана ў сістэме кіравання AI. Датчыкі беспілотнага аўтамабіля будуць сканаваць пешахода, які чакае яго, перадаваць гэтыя даныя ў мадэль ML/DL, і мадэль перадасьць штучнаму інтэлекту, спыніцца ці працягнуць. Любы візуальны прыкмета таго, што пешаход можа павольна пераходзіць, напрыклад, выкарыстанне кіёчка, матэматычна выкарыстоўваўся для вызначэння таго, ці павінна сістэма кіравання AI прапусціць пешахода, які чакае пераход, ці не.

Вы можаце сцвярджаць, што гэта была залежнасць ад раней існуючай чалавечай прадузятасці.

заключэнне

Некаторыя заключныя думкі на дадзены момант.

Існуе папулярная прымаўка, што вы не можаце змяніць карты, якія вам раздаюць, і замест гэтага трэба навучыцца адэкватна гуляць з той рукой, якую вам далі.

У выпадку з прадузятасцямі штучнага інтэлекту, калі мы не прыступім да ўстанаўлення ўсебаковай этыкі штучнага інтэлекту і асабліва не ўмацуем характарыстыку прадузятасцей штучнага інтэлекту, рукі, з якімі мы будзем сутыкацца, будуць перапоўнены паскуднымі неэтычнымі, і, магчыма, нелегальны пласт. Для пачатку мы павінны спыніць раздачу гэтых карт. Адважная мэта стварэння і распаўсюджвання этычных стандартаў штучнага інтэлекту з'яўляецца найважнейшым інструментам для барацьбы з нарастаючым цунамі AI для дрэннага.

Вы можаце рашуча паверыць у банк, што нястрымная прадузятасць штучнага інтэлекту і неэтычны штучны інтэлект будуць падобныя на хісткі картачны домік, які разваліцца сам па сабе і, верагодна, стане катастрафічным для ўсіх нас.

Давайце гуляць, каб выйграць, робячы гэта з адпаведным этычным штучным інтэлектам.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/