Этыка штучнага інтэлекту сцвярджае, што штучны інтэлект павінен быць асабліва разгорнуты, калі чалавечыя прадузятасці шмат

Людзі спазналі свае абмежаванні.

Вы можаце ўспомніць падобны знакаміты радок пра веданне нашых абмежаванняў, жорстка вымаўлены персанажам Брудным Гары ў фільме 1973 года пад назвай Сілы Magnum (са словаў акцёра Клінта Іствуда ў яго запамінальнай ролі інспектара Гары Калахана). Агульнае ўяўленне такое, што часам мы схільныя не заўважаць уласных межаў і, адпаведна, трапляем у гарачую ваду. З-за ганарыстасці, эгацэнтрычнасці або проста недасведчанасці да нашых уласных магчымасцей, правіла ўсведамляць і прымаць да ўвагі нашы схільнасці і недахопы вельмі разумнае і карыснае.

Давайце дадамо новы паварот да мудрай парады.

Штучны інтэлект (AI) спазнаў свае абмежаванні.

Што я маю на ўвазе пад гэтым варыянтам ушанаванай крылатай фразы?

Аказваецца, што першапачатковая спешка выкарыстоўваць сучасны штучны інтэлект у якасці надзеі на вырашэнне сусветных праблем стала заплямленай і зусім заплямленай усведамленнем таго, што сучасны штучны інтэлект сапраўды мае некаторыя даволі сур'ёзныя абмежаванні. Мы сышлі ад прыўзнятых загалоўкаў ІІ Назаўсёды і ўсё больш апыняліся ўцягнутымі ў AI для дрэннага. Разумееце, шмат сістэм штучнага інтэлекту было распрацавана і абсталявана рознымі непрыемнымі расавымі і гендэрнымі прадузятасцямі, а таксама мноствам іншых падобных жахлівых несправядлівасцей.

Аб маім шырокім і пастаянным асвятленні этыкі штучнага інтэлекту і этычнага штучнага інтэлекту гл спасылка тут і спасылка тут, Проста назваць некалькі.

Прадузятасці, выяўленыя ў гэтых сістэмах штучнага інтэлекту, не адносяцца да, скажам так, «наўмыснага» тыпу, які мы прыпісалі б паводзінам чалавека. Я згадваю гэта, каб падкрэсліць, што сучасны ІІ не разумны. Нягледзячы на ​​гэтыя гучныя загалоўкі, якія сведчаць пра адваротнае, нідзе няма штучнага інтэлекту, нават блізкага да разумовага. У дадатак да ўсяго, мы не ведаем, як уключыць штучны інтэлект у катэгорыю адчуванняў, і ніхто не можа з упэўненасцю сказаць, ці дасягнем мы калі-небудзь разумення штучнага інтэлекту. Можа, гэта некалі адбудзецца, а можа, і не.

Такім чынам, я хачу сказаць, што мы не можам канкрэтна прызначыць намеры таму тыпу ІІ, якім мы зараз валодаем. З улікам сказанага, мы можам у вялікай колькасці прызначыць намер тым, хто стварае сістэмы штучнага інтэлекту. Некаторыя распрацоўшчыкі штучнага інтэлекту не ведаюць пра тое, што яны распрацавалі сістэму штучнага інтэлекту, якая змяшчае сумныя і, магчыма, незаконныя ўхілы. У той жа час іншыя распрацоўшчыкі штучнага інтэлекту разумеюць, што яны ўкараняюць прадузятасці ў свае сістэмы штучнага інтэлекту, патэнцыйна робячы гэта наўмысна супрацьпраўным чынам.

У любым выпадку, вынік, тым не менш, усё яшчэ непрыстойны і, верагодна, незаконны.

Вядуцца рашучыя намаганні па абнародаванні прынцыпаў этыкі штучнага інтэлекту, якія прасвятляць распрацоўшчыкаў штучнага інтэлекту і дадуць адпаведныя рэкамендацыі па пазбяганні ўбудавання прадузятасцей у іх сістэмы штучнага інтэлекту. Гэта дапаможа ў два разы. Па-першае, у тых, хто стварае штучны інтэлект, больш не будзе гатовага апраўдання, што яны проста не ўсведамляюць, якіх правілаў трэба прытрымлівацца. Па-другое, тых, хто адхіляецца ад умоў этычнага штучнага інтэлекту, будзе лягчэй злавіць і паказаць, што яны прадухіляюць тое, пра што іх папярэджвалі як рабіць, так і не рабіць.

Давайце коратка разгледзім некаторыя з ключавых правілаў этыкі штучнага інтэлекту, каб праілюстраваць, пра што павінны думаць распрацоўшчыкі штучнага інтэлекту і строга выконваць іх з пункту гледжання этыкі штучнага інтэлекту.

Як гаворыцца ў паведамленні Ватыкана Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента ў галіне штучнага інтэлекту будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў ІІ, у тым ліку з дапамогай празрыстых і падданых праверку метадалогій, крыніц дадзеных, а таксама працэдуры праектавання і дакументацыі.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як можна непасрэдна здагадацца, спроба вызначыць спецыфіку, якая ляжыць у аснове гэтых прынцыпаў, можа быць надзвычай складанай. Больш за тое, спроба ператварыць гэтыя агульныя прынцыпы ў нешта цалкам матэрыяльнае і дастаткова падрабязнае, каб выкарыстоўваць яго пры распрацоўцы сістэм штучнага інтэлекту, таксама з'яўляецца цвёрдым арэшкам. Увогуле, лёгка паразмахваць рукой наконт таго, што ўяўляюць сабой правілы этыкі штучнага інтэлекту і як іх звычайна трэба выконваць, у той час як сітуацыя значна больш складаная, калі кадзіраванне штучнага інтэлекту павінна быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і падтрымлівае сістэмы штучнага інтэлекту. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграміруе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Майце на ўвазе, што для распрацоўкі і выкарыстання штучнага інтэлекту патрэбна вёска. Дзеля гэтага ўся вёска павінна сачыць за этыкай штучнага інтэлекту.

У любым выпадку, цяпер, калі я даведаўся, што штучны інтэлект можа ўтрымліваць прадузятасці, магчыма, мы ўсе можам пагадзіцца з гэтымі двума відавочнымі фактамі:

1. Людзі могуць мець мноства непрыемных ухілаў і могуць дзейнічаць у адпаведнасці з імі

2. ШІ можа мець мноства непажаданых ухілаў і можа дзейнічаць на падставе гэтых ухілаў

У гэтым кантэксце я ненавіджу супрацьпастаўляць людзей і штучны інтэлект, бо гэта можа нейкім чынам азначаць, што штучны інтэлект валодае такімі ж разумовымі здольнасцямі, як і людзі. Гэта, безумоўна, не так. Я вярнуся на імгненне да нарастаючай занепакоенасці антрапамарфізмам ІІ крыху пазней у гэтай дыскусіі.

Што горш: людзі, якія дэманструюць непажаданыя прадузятасці, ці ІІ, які робіць гэта?

Адважуся сказаць, што гэтае пытанне ставіць адзін з такіх суровых выбараў. Можна сказаць, што гэта меншае з двух ліхаў. Мы хацелі б, каб людзі не ўвасаблялі непрыемных прадузятасцяў. Акрамя таго, мы хацелі б, каб нават калі ў людзей ёсць непрыемныя прадузятасці, яны не будуць дзейнічаць на падставе гэтых прадузятасцяў. Тое ж самае можна сказаць пра штучны інтэлект. Нам хацелася б, каб штучны інтэлект не ўбудоўваў непажаданых прадузятасцяў і каб нават калі ёсць такія ўнутрана закадзіраваныя прадузятасці, штучны інтэлект хаця б не дзейнічаў на іх.

Хаця жаданні неабавязкова кіруюць светам (для майго аналізу ўзрастаючага і трывожнага падабенства г.зв. AI Выкананне жаданняў грамадствам у цэлым, гл спасылка тут).

Добра, мы, відавочна, хочам, каб людзі ведалі свае абмежаванні. Вельмі важна распазнаваць, калі ў вас ёсць непажаданыя прадузятасці. Не менш важныя спробы прадухіліць гэтыя непрыемныя прадузятасці ад уключэння ў вашы дзеянні і рашэнні. Сёння прадпрыемствы выпрабоўваюць самыя розныя спосабы, каб утрымаць сваіх супрацоўнікаў ад жудасных падводных камянёў. Супрацоўнікі праходзяць спецыялізаванае навучанне таму, як выконваць сваю працу з пункту гледжання этыкі. Працэсы фарміруюцца вакол супрацоўнікаў, каб папярэдзіць іх, калі яны, здаецца, дэманструюць неэтычныя норавы. І гэтак далей.

Іншым спосабам барацьбы з людзьмі і іх непрыемнымі прыхільнасцямі была б аўтаматызацыя працы чалавека. Так, проста прыбярыце чалавека з цыкла. Не дазваляйце чалавеку выконваць заданні па прыняцці рашэнняў, і, як мяркуецца, у вас больш не будзе клопатаў аб стаўленні чалавека да любых непажаданых прадузятасцяў. Чалавек не ўдзельнічае, і, такім чынам, праблема патэнцыйных чалавечых прадузятасцей, здаецца, вырашана.

Я ўспамінаю гэта, таму што мы назіраем паступовы і масавы пераход да выкарыстання ІІ у алгарытме прыняцця рашэнняў (ADM). Калі вы зможаце замяніць чалавека-працаўніка штучным інтэлектам, вялікая верагоднасць таго, што атрымаецца шмат пераваг. Як ужо згадвалася, вы больш не будзеце перажываць з-за чалавечых ухілаў гэтага чалавека-работніка (таго, які больш не выконвае гэтую працу). Вялікая верагоднасць таго, што штучны інтэлект будзе менш дарагім у параўнанні з доўгатэрміновым гарызонтам. Вы абыходзіцеся з усімі рознымі цяжкасцямі, якія ўзнікаюць разам з працоўнымі людзьмі. І г.д.

Прапанова, якая набывае ўсё большае распаўсюджванне, выглядае наступным чынам: Спрабуючы вырашыць, дзе лепш за ўсё размясціць штучны інтэлект, спачатку звярніце ўвагу на налады, якія ўжо цягнуць за сабой непажаданыя чалавечыя прадузятасці з боку вашых супрацоўнікаў і для якіх гэтыя прадузятасці зніжаюць або іншым чынам празмерна ўскладняюць канкрэтныя задачы прыняцця рашэнняў.

Вынік заключаецца ў тым, што, здавалася б, было б разумней атрымаць максімальную аддачу ад інвестыцый у штучны інтэлект, нацэліўшыся непасрэдна на задачы прыняцця рашэнняў чалавекам, якія цяжка кантраляваць з пункту гледжання непрыемных ухілаў. Выдаліце ​​​​чалавечых работнікаў у гэтай ролі. Заменіце іх штучным інтэлектам. Мяркуецца, што ІІ не будзе мець такіх непрыемных ухілаў. Такім чынам, вы можаце з'есці свой торт і таксама яго з'есці, а менавіта выканаць задачы па рашэнні і зрабіць гэта без этычных і прававых прывідаў непажаданых прадузятасцей.

Калі вы гэта акрэсліце, ROI (рэнтабельнасць інвестыцый), хутчэй за ўсё, зробіць прыняцце штучнага інтэлекту простым выбарам.

Вось як гэта звычайна адбываецца.

Паглядзіце на вашу фірму і паспрабуйце вызначыць задачы прыняцця рашэнняў, якія ўплываюць на кліентаў. Якія з гэтых задач, хутчэй за ўсё, будуць неадэкватна хістацца, калі работнікі ўвасабляюць непажаданыя прадузятасці? Калі вы ўжо спрабавалі ўтаймаваць гэтыя прадузятасці, магчыма, вы пакінеце ўсё як ёсць. З іншага боку, калі прадузятасці працягваюць з'яўляцца зноў і намаганні па іх ліквідацыі складаныя, падумайце пра тое, каб на гэтую ролю прымяніць адпаведны штучны інтэлект. Не трымайце работнікаў у сумесі, бо яны могуць перавызначыць ІІ або адштурхнуць ІІ назад у бездань непрыемных ухілаў. Таксама пераканайцеся, што штучны інтэлект можа ўмела выконваць задачу, і вы ў дастатковай ступені захапілі аспекты прыняцця рашэнняў, неабходныя для выканання гэтай працы.

Прамыйце і паўтарыце.

Я разумею, што гэта здаецца простым меркаваннем, але разумею, што ёсць шмат спосабаў, з дапамогай якіх замена чалавечых работнікаў штучным інтэлектам можа лёгка пайсці не так. Шматлікія кампаніі былі ахвотнымі прыняць такія меры і не задумваліся над тым, як гэта зрабіць. У выніку яны часта рабілі значна большы беспарадак, чым у іх на руках напачатку.

Хачу ўдакладніць і падкрэсліць, што ІІ не з'яўляецца панацэяй.

Калі казаць пра гэта, ёсць адна велізарная загваздка наконт чысціні, здавалася б, выкідвання асоб, якія прымаюць рашэнні з прадузятымі адносінамі да чалавека, з дапамогай нібыта непрадузятага ІІ. Загвоздка ў тым, што вы можаце проста замяніць адзін набор непажаданых ухілаў іншым. Згодна з папярэднім указаннем, штучны інтэлект можа ўтрымліваць непажаданыя ўхілы і можа дзейнічаць на падставе гэтых ухілаў. Зрабіць нахабную здагадку, што замена прадузятых людзей на бесстаронні штучны інтэлект - гэта яшчэ не ўсё, што можа быць.

Карацей кажучы, вось справа, калі разглядаць пытанне строга з пункту гледжання прадузятасці:

  • AI не мае непрыемных ухілаў, і, такім чынам, ADM на аснове AI зручны для разгортвання
  • AI мае тыя ж непрыемныя ўхілы, што і людзі, якія замяняюцца, і таму ADM на аснове AI выклікае непакой
  • ШІ стварае новыя непажаданыя ўхілы, акрамя людзей, якіх замяняюць, і, верагодна, адпаведна пагоршыць сітуацыю
  • Спачатку штучны інтэлект здаецца добрым, а потым паступова становіцца непрыемным
  • іншае

Мы можам коратка распакаваць гэтыя магчымасці.

Першы - ідэалізаваная версія таго, што можа адбыцца. ШІ не мае непрыемных ухілаў. Вы ставіце штучны інтэлект на месца, і ён робіць сваю працу цудоўна. Малайчына! Вядома, можна спадзявацца, што вы таксама нейкім спрытным спосабам справіліся з перамяшчэннем працоўных з-за ўключэння штучнага інтэлекту.

У другім выпадку вы ўсталёўваеце штучны інтэлект і выяўляеце, што штучны інтэлект дэманструе тыя ж непрыемныя ўхілы, што і працоўныя людзі. Як гэта можа быць? Распаўсюджаным спосабам траплення ў гэтую пастку з'яўляецца выкарыстанне машыннага навучання (ML) і глыбокага навучання (DL), заснаваных на сабраных дадзеных аб тым, як людзі, якія займалі гэтую ролю, раней прымалі рашэнні.

Дазвольце мне растлумачыць.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта ідзе. Калі людзі, якія выконвалі гэтую працу на працягу многіх гадоў, уключалі непажаданыя прадузятасці, вялікая верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Супастаўленне вылічальных шаблонаў машыннага або глыбокага навучання будзе проста спрабаваць адпаведна матэматычна імітаваць дадзеныя. Няма ніякага падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання само па сабе.

Акрамя таго, распрацоўшчыкі штучнага інтэлекту таксама могуць не разумець, што адбываецца. Таемная матэматыка можа ўскладніць выяўленне схаваных цяпер прадузятасцей. Вы справядліва спадзяецеся і чакаеце, што распрацоўшчыкі штучнага інтэлекту правераць патэнцыйна схаваныя прадузятасці, хоць гэта складаней, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL будуць убудаваныя зрушэнні.

Увогуле, вы можаце вярнуцца да пачатку. Тыя ж непрыемныя ўхілы людзей цяпер вылічальна адлюстроўваюцца ў сістэме штучнага інтэлекту. Вы не выкаранілі прадузятасці.

Што яшчэ горш, верагоднасць таго, што вы зразумееце, што штучны інтэлект мае прадузятасці, меншая. У выпадку з людзьмі вы звычайна можаце быць напагатове, каб людзі не мелі непрыемных ухілаў. Гэта базавае чаканне. Выкарыстанне штучнага інтэлекту можа прымусіць лідэраў паверыць, што аўтаматызацыя цалкам ліквідавала любыя чалавечыя прадузятасці. Такім чынам яны сябе настройваюць на тое, што стрэліў сабе ў нагу. Яны пазбавіліся людзей з, здавалася б, вядомымі непажаданымі прадузятасцямі, замяніўшы іх штучным інтэлектам, які, як лічылася, не мае такіх прадузятасцей, і тым не менш увёў у дзеянне штучны інтэлект, напоўнены тымі ж прадузятасцямі, якія ўжо існавалі.

Гэта можа паставіць усё насустрач. Магчыма, вы знялі іншыя агароджы, якія выкарыстоўваліся з людзьмі, якія былі створаны для выяўлення і прадухілення з'яўлення тых ужо чаканых чалавечых прадузятасцей. ШІ цяпер мае волю. Няма нічога, каб злавіць гэта, перш чым дзейнічаць. Тады штучны інтэлект можа пачаць весці вас па цяжкім шляху вялізнага назапашвання неаб'ектыўных дзеянняў.

І вы знаходзіцеся ў нязручным і, магчыма, адказным становішчы, калі калісьці ведалі пра прадузятасці, а цяпер дазволілі гэтым прадузятасцям сеяць хаос. Напэўна, адна справа - ніколі не сутыкацца з такімі непрыемнымі прадузятасцямі, а потым раптам знянацку штучны інтэлект іх выклікае. Вы можаце паспрабаваць апраўдаць гэта з дапамогай "хто б мог здагадацца" тыпу адцягвання (магчыма, не вельмі пераканаўча). Але калі вы зараз наладзілі штучны інтэлект, які выконвае тыя ж непрыемныя прадузятыя дзеянні, што і раней, значыць, вашы апраўданні становяцца ўсё танчэйшымі і слабейшымі.

Паварот у гэтым цягне за сабой непрыемныя ўхілы ІІ, якія раней не сустракаліся падчас выканання гэтай задачы людзьмі. Можна сказаць, што гэта, мабыць, цяжэй прадухіліць, паколькі яно складаецца з «новых» ухілаў, якіх фірма раней не шукала. Аднак у рэшце рэшт апраўданні могуць не прынесці вам асаблівага палягчэння. Калі сістэма штучнага інтэлекту адважылася на неэтычную і незаконную тэрыторыю, ваш гусь можа быць прыгатаваным.

Яшчэ адзін аспект, пра які трэба памятаць, заключаецца ў тым, што штучны інтэлект можа пачаць працаваць проста добра, а потым паглыбіцца ў непрыемныя ўхілы. Гэта асабліва верагодна, калі машыннае навучанне або глыбокае навучанне выкарыстоўваюцца на пастаяннай аснове для падтрымання ІІ у актуальным стане. Незалежна ад таго, працуе ML/DL у рэжыме рэальнага часу або перыядычна абнаўляе, варта звярнуць увагу на тое, ці магчыма штучны інтэлект паглынае даныя, якія цяпер утрымліваюць прадузятасці, а раней іх не было.

Лідэраў, якія думаюць, што яны атрымліваюць бясплатны абед, узмахнуўшы чароўнай палачкай і замяніўшы прадузятых людзей на штучны інтэлект, іх чакае вельмі грубае абуджэнне. Глядзіце маё абмеркаванне важнасці пашырэння правоў і магчымасцей лідэраў з правіламі этыкі AI на спасылка тут.

На гэтым этапе гэтай дыскусіі я магу паспрачацца, што вам патрэбны некалькі прыкладаў з рэальнага свету, якія маглі б прадэманстраваць галаваломку замены (ці не) чалавечых непрыемных ухілаў непрыемнымі ўхіламі, заснаванымі на ІІ.

Я рады, што вы спыталі.

Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці паказвае з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту што-небудзь аб непрыемных прадузятасцях у галіне штучнага інтэлекту, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

Як удакладненне: сапраўдныя самакіравальныя машыны - гэта тое, што ШІ кіруе аўтамабілем цалкам самастойна, і падчас кіравання аўтамабілем няма дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Яшчэ няма сапраўднага самакіравання аўтамабіля ўзроўню 5, пра які мы нават не ведаем, ці ўдасца гэтага дасягнуць і колькі часу спатрэбіцца, каб дабрацца.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і штучны інтэлект з непрыемнымі ўхіламі

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Цяпер мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і магчымасцей этычнага штучнага інтэлекту, што прадугледжвае вывучэнне штучнага інтэлекту і непрыемных ухілаў.

Давайце скарыстаемся простым прыкладам. Самакіруючы аўтамабіль на аснове штучнага інтэлекту рухаецца па вуліцах вашага раёна і, здаецца, едзе бяспечна. Спачатку вы ўдзялялі асаблівую ўвагу кожнаму разу, калі ўдавалася зірнуць на самакіруючы аўтамабіль. Аўтаномны аўтамабіль вылучаўся стойкай з электроннымі датчыкамі, якія ўключалі відэакамеры, радары, прылады LIDAR і да т.п. Пасля многіх тыдняў беспілотнай машыны па вашай суполцы вы гэтага амаль не заўважаеце. Што тычыцца вас, то гэта проста яшчэ адзін аўтамабіль на і без таго ажыўленых дарогах агульнага карыстання.

Каб вы не падумалі, што азнаёміцца ​​з самакіраванымі аўтамабілямі немагчыма або неверагодна, я часта пісаў пра тое, як мясцовасці, якія ўваходзяць у сферу выпрабаванняў самакіраваных аўтамабіляў, паступова прывыклі бачыць дагледжаныя аўтамабілі, глядзіце мой аналіз на гэтая спасылка тут. Многія мясцовыя жыхары ў рэшце рэшт перайшлі ад захапленага пазірання з разяўленымі ротамі да шырокага нуды, каб стаць сведкамі гэтых вандроўных самакіраваных аўтамабіляў.

Верагодна, галоўная прычына, па якой яны могуць заўважыць аўтаномныя аўтамабілі, з-за фактару раздражнення і раздражнення. Сістэмы кіравання аўтамабілем па тэхніцы штучнага інтэлекту гарантуюць, што аўтамабілі выконваюць усе абмежаванні хуткасці і правілы дарожнага руху. Для мітуслівых кіроўцаў у іх традыцыйных аўтамабілях, якія кіруюцца людзьмі, вы часам раздражняецеся, калі затрымаецеся за строга законапаслухмянымі аўтамабілямі на аснове штучнага інтэлекту.

Гэта тое, да чаго нам усім, магчыма, трэба прывыкнуць, справядліва ці няправільна.

Вяртаемся да нашай казкі.

Аказваецца, пачынаюць узнікаць дзве непрыстойныя заклапочанасці адносна бяскрыўдных і, як правіла, вітаных аўтамабіляў на аснове штучнага інтэлекту, а менавіта:

а. Тое, што штучны інтэлект блукае па беспілотных аўтамабілях, каб забраць паездкі, выклікае трывогу ў супольнасці ў цэлым

б. Як штучны інтэлект абыходзіцца з чакаючымі пешаходамі, якія не маюць права перавагі, таксама з'яўляецца нарастаючай праблемай

Спачатку ІІ разбіраўся ў самакіраваных аўтамабілях па ўсім горадзе. Любы, хто хацеў запытаць паездку на самакіраваным аўтамабілі, меў па сутнасці роўныя шанцы атрымаць яго. Паступова ІІ пачаў у першую чаргу трымаць аўтамабілі ў роўмінгу толькі ў адной частцы горада. Гэты раздзел быў больш заробленым, і сістэма ІІ была запраграмавана, каб паспрабаваць максымізаваць даход у рамках выкарыстання ў супольнасці.

Члены суполкі ў бедных раёнах горада радзей маглі сесці на самакіраваным аўтамабілі. Гэта адбылося таму, што аўтамабілі з аўтамабілем знаходзіліся далей і вандравалі ў мясцовасці з больш высокімі даходамі. Калі запыт паступаў з аддаленай часткі горада, любы запыт з бліжэйшага месца, якое, верагодна, было ў «паважанай» частцы горада, атрымліваў бы больш высокі прыярытэт. У рэшце рэшт, магчымасць атрымаць аўтамабілі ў любым іншым месцы, акрамя багатай часткі горада, стала амаль немагчымай, што вельмі раздражняла для тых, хто жыў у тых раёнах, дзе цяпер не хапае рэсурсаў.

Вы можаце сцвярджаць, што ІІ у значнай ступені прызямліўся да адной з формаў дыскрымінацыі праз проксі (таксама яе часта называюць ускоснай дыскрымінацыяй). ІІ не быў запраграмаваны, каб пазбягаць гэтых бедных кварталаў. Замест гэтага ён «навучыўся» рабіць гэта з дапамогай ML/DL.

Справа ў тым, што вадзіцелі-людзі былі вядомыя тым, што рабілі тое ж самае, хоць і не абавязкова з-за таго, што зарабляюць грошы. Былі некаторыя вадзіцелі-людзі, якія ездзілі на аўтамабілі, якія мелі непрыемную прадузятасць падбіраць гоншчыкаў у пэўных частках горада. Гэта была даволі вядомая з'ява, і горад увёў падыход да маніторынгу, каб злавіць кіроўцаў-людзей, якія робяць гэта. Вадзіцелі-людзі могуць патрапіць у праблемы з-за непрывабнай практыкі адбору.

Меркавалася, што ІІ ніколі не трапіць у такія ж зыбучыя пяскі. Не было створана ніякага спецыялізаванага маніторынгу, каб адсочваць, куды едуць аўтамабілі на аснове штучнага інтэлекту. Толькі пасля таго, як суполкі пачалі скардзіцца, кіраўніцтва горада зразумелі, што адбываецца. Больш падрабязную інфармацыю аб гэтых тыпах агульнагарадскіх праблем, якія будуць прадстаўляць аўтаномныя транспартныя сродкі і аўтамабілі, глядзіце мой матэрыял на гэтая спасылка тут і дзе апісваецца даследаванне пад кіраўніцтвам Гарварда, якое я быў сааўтарам па гэтай тэме.

Гэты прыклад аспектаў роўмінгу аўтамабіляў на аснове штучнага інтэлекту ілюструе ранейшыя прыкметы таго, што могуць узнікнуць сітуацыі, якія цягнуць за сабой непрыхільныя прадузятасці людзей, для якіх усталёўваецца кантроль, і што ІІ, які замяняе гэтых кіроўцаў-людзей, застаецца на месцы. бясплатна. На жаль, ІІ можа паступова загразнуць у роднасных ухілах і рабіць гэта без дастатковай агароджы.

Другі прыклад уключае ў сябе ІІ, які вызначае, ці варта спыняцца для чакання пешаходаў, якія не маюць права праезду пераходзіць вуліцу.

Вы, несумненна, ехалі і сустракалі пешаходаў, якія чакалі пераходу дарогі, але не мелі права праезду. Гэта азначала, што вы мелі магчымасць спыніцца і дазволіць ім перасекчы. Вы можаце працягваць рух, не дазваляючы ім перасякацца, і пры гэтым цалкам адпавядаць законным правілам ваджэння.

Даследаванні таго, як вадзіцелі-людзі вырашаюць спыніцца або не спыняцца для такіх пешаходаў, сведчаць аб тым, што часам вадзіцелі-людзі робяць выбар на аснове непрыхільных ухілаў. Чалавек-кіроўца можа паглядзець на пешахода і вырашыць не спыняцца, нават калі б ён спыніўся, калі б пешаход меў іншы выгляд, напрыклад, у залежнасці ад расы або полу. Я разгледзеў гэта на спасылка тут.

Уявіце сабе, што аўтамабілі на аснове штучнага інтэлекту запраграмаваны на тое, каб спыняцца ці не спыняцца для пешаходаў, якія не маюць права адводу. Вось як распрацоўшчыкі ІІ вырашылі запраграмаваць гэтую задачу. Яны сабралі дадзеныя з гарадскіх відэакамер, якія размешчаны па ўсім горадзе. Дадзеныя дэманструюць вадзіцелі-людзі, якія спыняюцца для пешаходаў, якія не маюць права праезду, і кіроўцы-людзі, якія не спыняюцца. Усё гэта сабрана ў вялікі набор дадзеных.

З дапамогай машыннага навучання і глыбокага навучання дадзеныя мадэлююцца вылічальна. Затым сістэма кіравання AI выкарыстоўвае гэтую мадэль, каб вырашыць, калі спыніцца або не спыняцца. Як правіла, ідэя заключаецца ў тым, што з чаго б ні складаўся мясцовы звычай, менавіта так ІІ будзе кіраваць самакіруючымся аўтамабілем.

Да здзіўлення кіраўнікоў горада і жыхароў, штучны інтэлект, відавочна, вырашаў спыняцца ці не спыняцца ў залежнасці ад знешняга выгляду пешахода, у тым ліку іх расы і полу. Датчыкі беспілотнага аўтамабіля будуць сканаваць пешахода, які чакае яго, перададуць гэтыя даныя ў мадэль ML/DL, і мадэль перадасць штучнаму інтэлекту інфармацыю аб тым, спыніцца ці працягнуць. На жаль, у горадзе ўжо было шмат прадузятасцяў кіроўцаў-людзей у гэтым плане, і штучны інтэлект зараз імітаваў тое ж самае.

Добрая навіна заключаецца ў тым, што гэта падымае праблему, пра існаванне якой амаль ніхто раней не ведаў. Дрэнная навіна заключалася ў тым, што пасля таго, як штучны інтэлект быў злоўлены на гэтым, ён атрымаў большую частку віны. Гэты прыклад паказвае, што сістэма штучнага інтэлекту можа проста дубляваць ужо існуючыя непрыемныя ўхілы людзей.

заключэнне

Існуе мноства спосабаў паспрабаваць пазбегнуць распрацоўкі штучнага інтэлекту, які або з самага пачатку мае непрыемныя ўхілы, або з цягам часу стварае ўхілы. Адзін з падыходаў заключаецца ў тым, каб пераканацца, што распрацоўшчыкі штучнага інтэлекту ведаюць пра гэта і, такім чынам, трымаць іх у курсе, каб запраграмаваць штучны інтэлект, каб прадухіліць гэтую праблему. Іншы шлях складаецца ў тым, каб штучны інтэлект самастойна кантраляваў сябе на прадмет неэтычных паводзін (гл. маё абмеркаванне на спасылка тут) і/або мець іншую частку штучнага інтэлекту, якая кантралюе іншыя сістэмы штучнага інтэлекту на патэнцыйна неэтычныя паводзіны (я разглядаў гэта на спасылка тут).

Падводзячы вынік, мы павінны ўсведамляць, што людзі могуць мець непрыемныя прадузятасці і што ім так ці інакш трэба ведаць свае абмежаванні. Сапраўды гэтак жа штучны інтэлект можа мець непрыемныя ўхілы, і мы так ці інакш павінны ведаць іх абмежаванні.

Для тых з вас, хто з ахвотай успрымае этыку штучнага інтэлекту, я хацеў бы скончыць прама зараз яшчэ адным вядомым радком, які ўсе ўжо павінны ведаць. А менавіта, калі ласка, працягвайце выкарыстоўваць і падзяляць важнасць Ethical AI. І, робячы гэта, я б нахабна сказаў: «Давай, палепшы мой дзень».

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/