Вось чаму этыка AI рэкламуе, што арыентаваны на чалавека AI мае вырашальнае значэнне для нашага сімбіятычнага існавання, напрыклад, з'яўленне аўтаномных самакіраваных аўтамабіляў

Магчыма, вы чулі ці бачылі, што свет павінен засяродзіцца на арыентаваным на чалавека AI (HCAI).

Што гэта? Навошта нам гэта? Гэта надоўга ці проста мода? Як менавіта гэта працуе? Мноства іншых падобных пытанняў звычайна ўзнікае ў тых, хто не знаёмы з прыродай і сутнасцю чалавекацэнтрычнага ІІ.

Давайце распакуем справу і растлумачым гісторыю.

Акрамя таго, я прывяду некалькі карысных прыкладаў таго, наколькі важны HCAI. Гэтыя прыклады будуць заснаваныя на з'яўленні аўтаномных транспартных сродкаў на аснове штучнага інтэлекту, такіх як найноўшыя і лепшыя беспілотныя аўтамабілі, якія пачынаюць з'яўляцца на нашых грамадскіх дарогах.

Рыхтуйцеся да захапляльнай і пазнавальнай паездцы.

Лагічны спосаб пачаць гэтую дыскусію - пагаварыць пра тое, што падштурхнула рух, арыентаваны на чалавека. Веданне інь вельмі важна для разумення ян. Зразумейце, што я пакуль не збіраюся згадваць штучны інтэлект, пакуль мы не даведаемся, што значыць быць арыентаваным на чалавека. Адкіньце на кароткі момант тэму штучнага інтэлекту, і мы вернемся да штучнага інтэлекту, калі прыйдзе час.

Меркаваная каралеўская бітва адбывалася паміж тым, што некаторыя апісваюць як a тэхн перспектыва супраць кантраснага чалавекацэнтрычны пункту гледжання, калі справа даходзіць да распрацоўкі новых тэхналогій.

Магчыма, без вашага ведама, горача верыць у тое, што мы занадта доўга былі ў асноўным занятыя прынцыпамі, арыентаванымі на тэхналогіі. Кожны раз, калі прыдумляліся новыя тэхналагічныя інавацыі, увага звярталася на тэхнічныя аспекты. Хтосьці можа сцвярджаць, што мы часта трапляем у цяжкую тэхналагічную гонку за тое, каб прасунуць найноўшыя тэхналогіі, незалежна ад таго, як яны працуюць і як на іх рэагуюць людзі.

Ёсць шмат тропаў Сіліконавай даліны, якія ўпісваюцца ў гэта мысленне. Хутка церпяць няўдачы, часта церпяць няўдачы - адна з тыповых крылатых фраз. Іншы - падробка, пакуль не атрымаецца. Грандыёзная ідэя заключаецца ў тым, што вы проста падбіраеце любое прыстасаванне, якое толькі можаце, а потым пачынаеце прадаваць яго ці прымушаць людзей выкарыстоўваць яго. Безумоўна, вар'яцкая мітусня можа мець грубыя бакі. І, так, людзі могуць збянтэжыцца прыладай ці нават пацярпець, але ў любым выпадку быць першым лічыцца высокай ацэнкай тэхнароў, так што, чорт вазьмі, тарпеды і наперад.

Асноўная небяспека такога тэхналагічнага падыходу заключаецца ў тым, што чалавечы бок ураўнення недаразвіваецца або цалкам ігнаруецца. Замест таго, каб дзіка кідаць новыя тэхналогіі ў рукі грамадства, усё часцей гучаць заклікі зрабіць глыбокі ўдых і спачатку пераканацца, што прыстасаванне сумяшчальна з людзьмі. Ці могуць людзі адэкватна выкарыстоўваць прыладу і рабіць гэта без шкоды? Ці просты ў выкарыстанні навамодны прадмет, ці практычна немагчыма разабрацца? І гэтак далей.

Калі мы сапраўды былі нібыта арыентаваныя на тэхналогію, то прыйшоў час перайсці да новага ладу мыслення, а менавіта стаць арыентаваным на чалавека. Тэхніка не можа быць адзіным фактарам захаплення. Замест таго, каб тэхналогія з'яўлялася канцом усяго, пытанне аб тым, ці могуць людзі выкарыстоўваць тэхналогію і атрымаць ад яе значную карысць, з'яўляецца сапраўдным прыкметай пахвальных вынаходак і мадэрнізацыі. Была надзея на тое, што, перанясучы ўвагу на арыентаваныя на чалавека меркаванні, дамінуючая адсутнасць самааналізу ў тэхналагічным цэнтры выйдзе на свет. Я больш падрабязна абмяркоўваў гэтую змену ў мысленні ў адпаведнасці з маім аналізам ІІ і т.зв забароненыя ведыГл. спасылка тут.

Вядома, у сучасным свеце ёсць некаторыя тэхнары, якія ўсведамляюць і прымаюць перспектыву, арыентаваную на чалавека, у той час як іншыя альбо не ведаюць пра гэта, альбо лічаць, што гэта да іх не адносіцца. Такім чынам, ёсць шмат і шмат намаганняў, арыентаваных на тэхналогію, якія ўсё яшчэ кідаюцца наперад, як бык у далікатным буціку шклянога посуду. Без сумневу.

Непрыемная праблема заключаецца ў тым, што некаторыя намаганні, арыентаваныя на тэхналогію, тым не менш будуць паспяховымі, таму цяжка нейкім чынам цалкам сцерці або зганьбіць тэхналагічны шлях. У выніку некаторыя сядзяць у лагеры, арыентаваным на чалавека, а іншыя застаюцца ў лагеры, арыентаваным на тэхналогіі. Нязменна сцвярджаюць, што ёсць больш чым адзін спосаб зняць скуру з кошкі (на жаль, састарэлая прымаўка, якую трэба пакінуць на пенсіі).

Яшчэ адзін паварот заключаецца ў тым, што лагер, арыентаваны на чалавека, цвёрда сцвярджае, што вы не ахвяруеце ніякімі тэхнічнымі баламі, прымаючы падыход, арыентаваны на чалавека. Для тэхнароў, якія сумна ўяўляюць сабе, што спускаюцца ў дурную трусіную нару, стаўшы чалавекацэнтрычным, адказ такі, што гэта насамрэч павялічыць іх шанцы на стварэнне дзіўнай тэхналогіі. Падумайце пра гэта простымі словамі. Тэхналогія, у якой адсутнічаюць меркаванні, арыентаваныя на чалавека, верагодна, будзе цяжка прыняцца людзьмі. Тэхналогія, якая ахоплівае і фарміруецца праз арыентаваную на чалавека ідэю, хутчэй за ўсё, будзе ахвотна і ахвотна прынята людзьмі.

Вы можаце атрымаць свой торт і з'есці яго таксама.

Гэта падкрэслівае, што, магчыма, няма сур'ёзнага разрыву паміж арыентацыяй на тэхналогію і чалавекам, у тым сэнсе, што ёсць месца для суіснавання. Рабіце абодва адначасова, сцвярджаюць некаторыя. Змяшайце абодва так, каб яны былі роўнымі і сумяшчальнымі адзін з адным. Скептыкі настойваюць на тым, што вы павінны выбраць тое ці іншае. Альбо вы арыентуецеся на тэхналогію і адкідаеце арыентацыю на чалавека ў бок, альбо вы арыентуецеся на чалавека і кідаеце арыентацыю на тэхніку ў сабачую будку.

У любым выпадку, давайце паглядзім на тое, што мы павінны сур'ёзна разглядаць аспекты, звязаныя з чалавекам, калі распрацоўваюцца новыя тэхналогіі. І мы павінны быць асцярожнымі, каб не прымяншаць важнасць характарыстык, звязаных з чалавекам, прыдумляючы новыя тэхналогіі. Зручны спосаб зразумець гэта - сказаць, што мы павінны быць арыентаваны на чалавека. Ідэя цэнтравання адной рэчы супраць іншай часам будзе карысна прывабнай, а часам можа адцягваць увагу.

Затым мы можам даследаваць, як філасофія, арыентаваная на чалавека, можа быць рэалізавана ў рэальным практычным плане.

Давайце выкажам здагадку, што вы прыступаеце да праектавання і распрацоўкі новай сістэмы, якая будзе ўключаць у сябе апошнюю і лепшую тэхналогію. Тыя, хто займаецца стварэннем сістэм, у наш час звычайна ведаюць, што неабходна ўлічваць увесь жыццёвы цыкл працэсу праектавання і распрацоўкі. Бывала, што вялікая ўвага надавалася толькі дызайну, або ішла толькі пабудове сістэмы. У выніку ў нас было шмат сістэм, якія ў канчатковым выніку выйшлі з ладу з-за разрозненых і неадэкватных перадач на шматлікіх узаемазвязаных этапах распрацоўкі сістэмы. Вы вельмі павінны сачыць за мячом на працягу ўсяго жыццёвага цыкла сістэмы.

Розныя метадалогіі жыццёвага цыкла сістэм былі створаны для кіраўніцтва ўсёй сістэмай. Метадалогіі падобныя на шаблонныя кулінарныя кнігі, якія дэманструюць, якія агульныя аспекты неабходна выканаць на кожным этапе працы. Вы можаце паўторна прымяніць іх да вашай канкрэтнай сістэмы, як і належыць таму, што вы збіраеце разам.

Цяпер мы гатовыя злучыць кропкі. Было зроблена шмат намаганняў для стварэння метадалогій жыццёвага цыкла сістэмы, у якіх асаблівая ўвага надаецца важнасці арыентаваных на чалавека меркаванняў. Гэта стала вядома ў цэлым як арыентаваны на чалавека дызайн (HCD).

У нядаўнім дакуменце Нацыянальнага інстытута стандартаў і тэхналогій (NIST) даволі зручнае вызначэнне або тлумачэнне арыентаванага на чалавека дызайну складалася з наступнага фрагмента: «HCD - гэта пастаянны ітэрацыйны працэс, у якім праектныя каманды распрацоўваюць, тэстуюць і пастаянна ўдасканальваюць сістэмы, размяшчаючы карыстальнікаў у цэнтры працэсу. Людзі і іх патрэбы кіруюць працэсам, а не тэхнацэнтрычны фокус. HCD працуе як частка іншых жыццёвых цыклаў распрацоўкі, у тым ліку вадаспадных, спіральных і гнуткіх мадэляў. Дызайн, арыентаваны на карыстальніка, HCD, дызайн з удзелам, сумеснае праектаванне і дызайн, які ўлічвае каштоўнасці, маюць ключавыя падабенствы; на самым высокім узроўні яны імкнуцца даць людзям канструкцыі, якія ў канчатковым выніку прыносяць карысць іх жыццям. Больш за тое, ставячы чалавека ў цэнтр такіх падыходаў, яны, натуральна, спрыяюць больш глыбокай засяроджанасці на больш шырокіх грамадскіх меркаваннях, такіх як справядлівасць, прадузятасць, каштоўнасці і этыка. HCD працуе над стварэннем больш карысных прадуктаў, якія адпавядаюць патрэбам карыстальнікаў. Гэта, у сваю чаргу, зніжае рызыку таго, што выніковая сістэма будзе недазабяспечвацца, ствараць рызыку для карыстальнікаў, наносіць шкоду карыстальнікам або выйсці з ладу» (паводле Міністэрства гандлю ЗША, спецыяльная публікацыя NIST 1270, сакавік 2022 г. На шляху да стандарту для вызначэння і кіравання прадузятасцю ў галіне штучнага інтэлекту аўтары Рэва Шварц, Апостал Васільеў, Крыстэн Грын, Лоры Пэрын, Эндру Берт і Патрык Хол).

Справаздача NIST таксама належным чынам згадвае стандарт Міжнароднай арганізацыі па стандартызацыі (ISO), які ахоплівае арыентаваны на чалавека дызайн (у адпаведнасці з ISO 9241-210:2019), для якога гэтыя характэрныя характарыстыкі лічацца асноватворнымі:

  • Дакладнае разуменне карыстальнікаў, задач і асяроддзя (кантэкст выкарыстання)
  • Удзел карыстальнікаў на працягу ўсяго праектавання і распрацоўкі
  • Кіраваны дызайнам і ўдасканалены ацэнкай, арыентаванай на чалавека
  • Ітэрацыйны працэс, пры якім прататып распрацоўваецца, тэстуецца і мадыфікуецца
  • Звяртаючыся да ўсяго карыстальніцкага досведу
  • Дызайн-групы, якія ўключаюць міждысцыплінарныя навыкі і перспектывы

Давайце коратка падвядзем вынікі таго, што мы разглядалі дагэтуль.

Я спадзяюся, што цяпер вы ведаеце аб гэтым бесперапынным руху да арыентаваных на чалавека тэхналогій і што гэтаму руху можна дапамагчы праз выкарыстанне метадалогій, наўмысна створаных для тых, хто хоча стварыць сістэмы, арыентаваныя на чалавека.

Як ІІ упісваецца ва ўсё гэта?

Лёгка-проста.

Тыя, хто праектуе і распрацоўвае штучны інтэлект, часта трапляюць у даўнюю пастку празмернай заклапочанасці тэхналогіямі як такімі. Вы можаце лёгка паказаць на многія сістэмы штучнага інтэлекту, якія, відавочна, былі арыентаваны на тэхналогію, а не на чалавека (я зараз падзялюся некаторымі прыкладамі беспілотных аўтамабіляў).

Натуральна выказаць здагадку, што знаходжанне ў сферы штучнага інтэлекту аксіяматычна выклікае спакусу засяродзіцца на тэхналогіях. Усе кідаюцца галавой наперад да таго, каб зрабіць штучны інтэлект ва ўсё больш прасунутых магчымасцях. Некаторыя мяркуюць, што, магчыма, мы можам перавесці сучасны штучны інтэлект у рэжым, у якім ён нейкім чынам ператворыцца ў нейкую вылічальную кагнітыўную звышновую і ператворыцца ў пачуццё (гл. маё асвятленне на гэтая спасылка тут).

Каб удакладніць, у нас пакуль няма разумнага штучнага інтэлекту. Мы не ведаем, ці магчыма стварыць разумны ІІ, і ці ўзнікне разумны ІІ цудоўным чынам. Увесь сучасны ІІ неразумны і блізкі да таго, каб быць разумным. Хачу паставіць рэкорд, бо ёсць мноства гучных загалоўкаў, якія сведчаць аб тым, што ў нас ёсць разумны штучны інтэлект, або мы на парозе яго атрымання. Не так.

Вяртаючыся да арыентаванага на чалавека дызайну, сутнасць заключаецца ў тым, што мае вялікі сэнс паспрабаваць прымусіць тых, хто стварае штучны інтэлект, перайсці да перспектывы, арыентаванай на чалавека. Замест блізарукага штучнага інтэлекту, арыентаванага на тэхналогію, было б разумна і ў цэлым выгадна імкнуцца да распрацоўкі штучнага інтэлекту, арыентаванага на чалавека. Гэта тая самая рэзкая ідэя, якую, як кажуць, прымяняюць да любой тэхнікі.

Мы маглі б таксама прымяніць гэтыя хваленыя прынцыпы, арыентаваныя на чалавека, да сістэм штучнага інтэлекту.

Гэта спарадзіла сферу, вядомую як AI, арыентаваны на чалавека, часта скарочаны як HCAI або часам скарочаны да HAI. Вось кароткі спосаб апісаць HCAI: «Арыентаваны на чалавека AI (HCAI) - гэта новая вобласць навукі, якая пераасэнсоўвае HCD у кантэксце AI, забяспечваючы арыентаваныя на чалавека метафары дызайну AI і прапанаваныя структуры кіравання для распрацоўкі надзейных, бяспечных і вартых даверу Сістэмы штучнага інтэлекту» (згодна з цытаваным раней дакладам NIST).

HCAI - гэта камбінацыя AI і HCD.

Гэта можа здацца некалькі загадкавым і празмерна напоўненым абрэвіятурамі. У пашыранай версіі можна было б сказаць, што чалавекаарыентаваны штучны інтэлект - гэта сумесь штучнага інтэлекту і прынцыпаў чалавекаарыентаванага дызайну. Мы хочам адмовіцца ад тэндэнцыі ствараць штучны інтэлект, заснаваны выключна на прынцыпах, арыентаваных на тэхналогіі, і замест гэтага заахвочваць перавагу, арыентаваную на чалавека.

Цяпер вы ведаеце, што такое HCAI. Нам трэба перайсці да ранейшага пытання.

Ці можам мы прымусіць распрацоўшчыкаў штучнага інтэлекту і кіраўнікоў іх кампаній прыняць метады штучнага інтэлекту, арыентаваныя на чалавека?

Можа, так, можа, не.

Нагадаем, што я раней адзначаў, што не ўсе абавязкова згаджаюцца з арыентацыяй на чалавека ў цэлым. Тое ж самае можна сказаць і пра ўключэнне чалавека ў сферу штучнага інтэлекту. Некаторыя не выконваюць, таму што не ведаюць, што такое HCAI. Іншыя павярхоўна зірнуць на HCAI і вырашаюць, што лепш працягваюць рабіць тое, што яны ўжо робяць. У вас таксама ёсць цынікі, якія спрабуюць ачарніць арыентаваны на чалавека штучны інтэлект як адзін з тых адчувальных падыходаў да добрага самаадчування. Гэта часта падабаецца тым няўхільным тыпам біт-і-байтаў, якія аддаюць перавагу ўсім тэхналогіям і не займаюцца тым, што яны лічаць лішнімі.

Дазвольце мне на хвілінку вызначыць, чаму арыентаваны на чалавека штучны інтэлект (HCAI) набірае сілу і становіцца важнай часткай любых дэманстратыўных намаганняў па штучным інтэлекту.

Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Маё шырокае асвятленне этыкі ІІ і этычнага штучнага інтэлекту можна знайсці па адрасе гэтая спасылка тут і гэтая спасылка тут, Проста назваць некалькі.

Калі б вы, магчыма, уважліва сачылі за тым, як я даў вызначэнне або тлумачэнне чалавекаарыентаванага дызайну (HCD), вы, магчыма, уважліва заўважылі гэты сказ ва ўрыўку NIST: «Больш за тое, ставячы людзей у цэнтр такіх падыходаў, яны, натуральна, паддаюцца больш глыбокаму засяроджванню на больш шырокіх грамадскіх меркаваннях, такіх як справядлівасць, прадузятасць, каштоўнасці і этыка». Такім чынам, у выпадку арыентаванага на чалавека штучнага інтэлекту мы можам дапамагчы ўключыць этыку штучнага інтэлекту і этычны штучны інтэлект у працэс праектавання і распрацоўкі штучнага інтэлекту, сур'ёзна прыняўшы HCAI як метадалогію, якую варта выкарыстоўваць для сістэм штучнага інтэлекту.

Вы можаце даволі пераканаўча сцвярджаць, што значная частка AI для дрэннага гэта было ненаўмысна, магло адбыцца з-за таго, што распрацоўшчыкі штучнага інтэлекту і кіраўнікі іх кампаній не выкарыстоўвалі падыход HCAI. Калі б яны гэта зрабілі, верагоднасць таго, што яны ўважліва разгледзелі б этычныя элементы штучнага інтэлекту і распрацавалі штучны інтэлект, каб быць этычна адпаведным, узрастае. Я мог бы дадаць, што гэта разумна дае каштоўную перавагу ў тым, што калі створаны такім чынам штучны інтэлект выглядае этычна абгрунтаваным, вялікая верагоднасць таго, што фірма і яе распрацоўшчыкі штучнага інтэлекту пазбегнуць таго, каб іх штучны інтэлект дзейнічаў незаконна. Гэта даволі прыкметная перавага, паколькі штучны інтэлект, які пойдзе не так, хутчэй за ўсё, прывядзе да судовых пазоваў супраць стваральнікаў і, магчыма, нават прывядзе да судовага пераследу за злачынныя дзеянні (гл. мой аналіз на спасылка тут крымінальнай адказнасці за кепскага выканаўцу ІІ).

Давайце каротка разгледзім некаторыя ключавыя этычныя прынцыпы штучнага інтэлекту, каб праілюстраваць, што павінна быць жыццёва важным чалавекам або HCAI для тых, хто займаецца стварэннем, увядзеннем або выкарыстаннем штучнага інтэлекту.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента ў галіне штучнага інтэлекту будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў ІІ, у тым ліку з дапамогай празрыстых і падданых праверку метадалогій, крыніц дадзеных, а таксама працэдуры праектавання і дакументацыі.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і падтрымлівае сістэмы штучнага інтэлекту. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграміруе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Майце на ўвазе, што для распрацоўкі і выкарыстання штучнага інтэлекту патрэбна вёска. Дзеля гэтага ўся вёска павінна сачыць за этыкай штучнага інтэлекту.

Каб даць вам зразумець, што можа ўключаць у сябе сучасная метадалогія штучнага інтэлекту, арыентаванага на чалавека, вось некаторыя пункты, зробленыя ў справаздачы NIST:

  • Вызначце ключавыя тэрміны і паняцці, звязаныя з сістэмамі штучнага інтэлекту, і аб'ём іх меркаванага ўздзеяння
  • Звярніце ўвагу на выкарыстанне канфідэнцыяльных або патэнцыйна небяспечных даных
  • Падрабязныя стандарты для планавання эксперыментаў, якасці даных і навучання мадэлі
  • Акрэсліце, як трэба адлюстроўваць і вымяраць рызыкі прадузятасці і ў адпаведнасці з якімі стандартамі
  • Падрабязныя працэсы тэсціравання і праверкі мадэлі
  • Дэталізуйце працэс разгляду па юрыдычных функцыях або функцыях рызыкі
  • Вызначце перыядычнасць і глыбіню бягучых аўдытаў і аглядаў
  • Акрэсліце патрабаванні да кіравання зменамі
  • Падрабязна раскажыце любыя планы, звязаныя з рэагаваннем на такія інцыдэнты
  • І г.д.

Даступны шырокі спектр метадалогій, арыентаваных на HCAI.

Некаторыя з іх бясплатныя і прадастаўляюцца з адкрытым зыходным кодам, у той час як іншыя такія метадалогіі ліцэнзуюцца або прадаюцца тым, хто хоча выкарыстоўваць гэты канкрэтны варыянт. Як каробка шакаладных цукерак, вам трэба памятаць, якую метадалогію HCAI вы вырашылі выкарыстоўваць і што менавіта яна ўтрымлівае. Некаторыя з іх, напрыклад, накіраваны на пэўныя тыпы сістэм штучнага інтэлекту, напрыклад, толькі для асобнікаў машыннага або глыбокага навучання. Акрамя таго, ёсць метадалогіі HCAI, якія падыходзяць для сістэм штучнага інтэлекту ў рэжыме рэальнага часу, а іншыя ў гэтым плане слабыя. Глядзіце маё абмеркаванне на гэтая спасылка тут.

Я хацеў бы заклікаць вас разумна выбраць, спадзяюся, прыдатную метадалогію HCAI і пераканацца, што вы пранікліва яе прымаеце. Не проста звальвайце метадалогію HCAI на нічога не падазравалых распрацоўшчыкаў штучнага інтэлекту. Не атрымлівайце адзін толькі для таго, каб вы маглі проста адзначыць, што ў вас ёсць. Ёсць шмат спосабаў падарваць і атруціць практычна любую метадалогію HACI, калі вы памыляецеся ў яе прыняцці. Рабіце правільныя рэчы, правільным чынам.

Таксама будзьце асцярожныя пры аналізе паралічу выбару метадалогіі HCAI. Некаторыя групы штучнага інтэлекту ўступаюць у спрэчкі наконт таго, якая метадалогія HACI з'яўляецца «лепшай», і ў канчатковым выніку затрачваюць велізарныя намаганні на барацьбу за працэс адбору. Тым часам ІІ каня выпускаюць з хлява. Дрэнны ход.

На дадзены момант гэтай дыскусіі я магу паспрачацца, што вы хочаце атрымаць некалькі прыкладаў, якія маглі б прадэманстраваць каштоўнасць прыняцця арыентаванага на чалавека штучнага інтэлекту (HCAI).

Я рады, што вы спыталі.

Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту асвятляе што-небудзь пра чалавекаарыентаваны штучны інтэлект (HCAI), і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Аўтамабілі і арыентаваны на чалавека штучны інтэлект (HCAI)

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць засцярог, каб пакласці ў аснову таго, што я збіраюся расказаць.

Зараз мы падрыхтаваны да глыбокага вывучэння беспілотных аўтамабіляў і значнага значэння штучнага інтэлекту ў цэнтры чалавека (HCAI).

Давайце скарыстаемся простым прыкладам. Самакіруючы аўтамабіль на аснове штучнага інтэлекту рухаецца па вуліцах вашага раёна і, здаецца, едзе бяспечна. Спачатку вы ўдзялялі асаблівую ўвагу кожнаму разу, калі ўдавалася зірнуць на самакіруючы аўтамабіль. Аўтаномны аўтамабіль вылучаўся стойкай з электроннымі датчыкамі, якія ўключалі відэакамеры, радары, прылады LIDAR і да т.п. Пасля многіх тыдняў беспілотнай машыны па вашай суполцы вы гэтага амаль не заўважаеце. Што тычыцца вас, то гэта проста яшчэ адзін аўтамабіль на і без таго ажыўленых дарогах агульнага карыстання.

Каб вы не падумалі, што звыклыя беспілотныя машыны немагчымыя або непраўдападобныя, я часта пісаў пра тое, як краіны, якія ўваходзяць у сферу выпрабаванняў беспілотных аўтамабіляў, паступова прызвычаіліся бачыць прыбраныя аўтамабілі. Многія мясцовыя жыхары ў рэшце рэшт перайшлі з разяўленага рота ў захопленыя вочы на ​​тое, каб цяпер выдаваць шырокі пазяханне ад нуды, назіраючы за тымі звілістымі беспілотнымі аўтамабілямі.

Верагодна, галоўная прычына, па якой яны могуць заўважыць аўтаномныя аўтамабілі, з-за фактару раздражнення і раздражнення. Сістэмы кіравання аўтамабілем па тэхніцы штучнага інтэлекту гарантуюць, што аўтамабілі выконваюць усе абмежаванні хуткасці і правілы дарожнага руху. Для мітуслівых кіроўцаў у іх традыцыйных аўтамабілях, якія кіруюцца людзьмі, вы часам раздражняецеся, калі затрымаецеся за строга законапаслухмянымі аўтамабілямі на аснове штучнага інтэлекту.

Гэта тое, да чаго нам усім, магчыма, трэба прывыкнуць, справядліва ці няправільна.

Вяртаемся да нашай казкі.

Аказваецца, некалькі непрыстойных праблем пачынаюць узнікаць з нагоды бяскрыўдных і звычайна вітаемых беспілотных аўтамабіляў на аснове штучнага інтэлекту, у прыватнасці:

1) Складанасці з пасадкай і высадкай (PUDO).

2) Недастатковы статус самакіравальнага аўтамабіля для пасажыраў

3) Небяспечная блытаніна для пешаходаў адносна намераў сістэмы ваджэння AI

4) Асцярогі з-за парушэння прыватнасці з-за беспілотных аўтамабіляў

5) Этычныя сумненні наконт кіравання аўтамабілем у адпаведнасці з сумна вядомай праблемай з тралейбусамі

Мы ўважліва разгледзім кожны з гэтых фактараў. Кожны з іх уяўляе сабой адны з самых складаных змаганняў за пастаяннае пашырэнне выпрабаванняў беспілотных аўтамабіляў. Каб удакладніць, самая вялікая праблема заключаецца ў забеспячэнні таго, каб беспілотны аўтамабіль бяспечна перамяшчаўся з пункта А ў пункт Б. Гэтыя вышэйзгаданыя дадатковыя праблемы ўваходзяць у дадатак да асноўнага або фундаментальнага набору праблем.

Як стане відавочным, пяць заяўленых пытанняў неад'емна звязаны з ключавым паняццем чалавека-арыентаванага дызайну. У гэтым сэнсе яны дэманструюць важнасць увагі да AI (HCAI).

№ 1: Цяжкасці з пасадкай і высадкай (PUDO).

Калі вы карыстаецеся паслугай сумесных паездак, якая кіруецца чалавекам, адна рэч, якая, на вашу думку, адбудзецца правільна, заключаецца ў тым, што вас забяруць для паездкі ў зручным месцы і, такім жа чынам, высадзяць у патрэбным месцы, калі паездка будзе завершана (гэта вядома па зручная абрэвіятура PUDO). Гэта можа быць нашмат складаней, чым здаецца. Калі вы стаіце ля чырвонага бардзюра, ці павінен кіроўца-чалавек ісці наперадзе і спыняцца, каб забраць вас? Майце на ўвазе, што ў законе звычайна забараняецца спыняцца на чырвоным абочыне.

Часам «зручнае» месца, каб вас забралі, неабавязкова зручна для кіроўцы транспартнага сродку. Я ўпэўнены, што вы час ад часу пераходзілі вуліцу, каб паспрабаваць палегчыць сустрэчу кіроўцу з сумесным аўтатранспартам. Можа ўзнікнуць тып танца, пры якім вы спрабуеце наблізіцца да машыны, а кіроўца спрабуе наблізіцца да таго месца, дзе вы знаходзіцеся.

Для многіх фірмаў, якія распрацоўваюць сістэмы ваджэння штучнага інтэлекту, уся справа аб падыходных пасадках і высадках была аднесена да адносна нізкага прыярытэту ў спісе спраў.

Распрацоўшчыкі штучнага інтэлекту звычайна палічылі, што чалавек-пасажыр заўсёды павінен прабірацца да беспілотнага аўтамабіля. Зрабіць гэта ляжыць на пасажырах. Сістэма ваджэння AI не павінна быць звязана з PUDO. Проста падыдзіце дастаткова блізка, і ўсё. У такім ключы мыслення месцы пасадкі і высадкі не маюць нічога агульнага з такімі пытаннямі, як кепскае надвор'е (калі ідзе дождж, PUDO часта рэгулюецца адпаведным чынам) або дарожная сітуацыя (магчыма, міма праносяцца іншыя машыны і патэнцыял пасажыр павінен кінуцца ў небяспеку) і гэтак далей.

Людзі-кіроўцы звычайна не так думаюць. Яны разумеюць, што не атрымаюць грашовых чаявых або могуць атрымаць дрэнны рэйтынг, калі не зробяць нічога сур'ёзна, каб пасажыр меў адносна зручны PUDO. Спроба дабрацца да патрэбнага месца можа быць важным навыкам ваджэння. Гэта таксама спрыяе бяспецы ў тым сэнсе, што калі пасажыра адчайна падштурхоўваюць да беспілотнага аўтамабіля, некаторыя людзі робяць неразумны выбар і могуць пацярпець ад рознага роду дарожнага руху.

У выпадку беспілотных аўтамабіляў са штучным інтэлектам і сістэм кіравання штучным інтэлектам, якія не выконваюць надзейную працу PUDO, можна сказаць, што гэта дэманструе адсутнасць у распрацоўшчыкаў штучнага інтэлекту арыентаванага чалавека. Здаецца, яны адмахнуліся ад граняў пад'ёму і высадкі. Традыцыйная перспектыва, арыентаваная на тэхналогію, можа прынесці менавіта такі настрой. Зрабіце так, каб людзі ішлі да машыны, а не машына да людзей.

Праблема вырашана, тэхнар можа радасна паказаць, а потым умыць рукі ад усёй гэтай справы.

Па праўдзе кажучы, гэта не адзіная прычына адсутнасці гарачай увагі да PUDO. Энергія распрацоўшчыкаў штучнага інтэлекту, якія ствараюць сістэмы ваджэння штучнага інтэлекту, была накіравана на забеспячэнне таго, каб беспілотны аўтамабіль мог бяспечна рухацца з пункта А ў пункт Б. Без гэтай магчымасці больш нічога не мае значэння. З улікам сказанага, любы чалавек, які атрымаў траўму або відавочна патурбаваны з-за кепскага PUDO у пачаткоўцаў беспілотных аўтамабілях, хутчэй за ўсё, будзе выдаваць шумы, якія шырока рэкламуюцца, і грамадская рэакцыя можа быць вельмі негатыўнай. Несумненна, знойдуцца тэхнары штучнага інтэлекту, якія скардзяцца на тое, што любая такая рэакцыя не хапае важнага дасягнення штучнага інтэлекту бяспечнага перамяшчэння з пункта А ў пункт Б. Было б шумна, што грамадскасць дазваляе віляць сабакам хвастом. Магчыма, і так, але рэакцыя грамадства можа азначаць поспех або поўную гібель беспілотных аўтамабіляў, якія развіваюцца.

Глядзіце маё абмеркаванне па адрасе: спасылка тут які змяшчае асноўныя моманты даследавання, якое я напісаў разам з выкладчыкам Гарварда.

№ 2: Недастатковы статус самакіравальнага аўтамабіля для пасажыраў

Чалавек-кіроўца можа быць балбатлівым катом. Я хачу сказаць, што некаторыя вадзіцелі сумесных паслуг бесперапынна балбочуць на працягу ўсёй паездкі. Не ўсім пасажырам гэта падабаецца. Некаторыя хочуць цішыні і спакою. Іншыя любяць прыемна пажартаваць.

Адным з аспектаў кіроўцы-чалавека з'яўляецца тое, што вы амаль напэўна можаце задаваць кіроўцу пытанні аб дзеяннях, якія ён выконвае. Чаму кіроўца так хутка павярнуў направа? Чаму кіроўца не едзе хутчэй? Вы зразумелі.

Некаторыя распрацоўшчыкі штучнага інтэлекту меркавалі, што пасажыр беспілотнага аўтамабіля проста сядае ў аўтаномны аўтамабіль, а потым будзе ціхі, як мыш. Няма неабходнасці, каб штучны інтэлект ўзаемадзейнічаў з пасажырам. Пасажыры - не што іншае, як камяк гліны. Яны садзяцца ў машыну і іх вязуць да месца прызначэння. Канец гісторыі.

Да здзіўлення некаторых аўтавытворцаў і тэхналагічных кампаній, якія займаюцца самакіраваннем, яны выявілі, што пасажыры хочуць ведаць, што адбываецца. Мінімальны падыход прадугледжвае наяўнасць святлодыёднага экрана, які адлюстроўвае маршрут беспілотнага аўтамабіля. Аднак гэта асабліва не дапамагае ў вырашэнні такіх аспектаў, як тое, чаму быў зроблены хуткі паварот або чаму машына запавольваецца. Вядома, электронныя паведамленні могуць адлюстроўвацца, але ўзаемадзеянне паміж штучным інтэлектам і пасажырамі практычна не дазваляецца.

Зноў жа, вы можаце разглядаць гэта як праблему распрацоўкі штучнага інтэлекту, арыентаваную на чалавека. Здагадка, што пасажыры падобныя на чамадан або скрыню для дастаўкі, з'яўляецца пунктам гледжання, арыентаваным на тэхналогіі. Людзі ёсць людзі. Калі вы збіраецеся перавозіць людзей, вы павінны зрабіць так, каб яны адчувалі сябе камфортна і чуйна рэагавалі на іх запыты. Хуткае рашэнне для некаторых аперацый з беспілотным аўтамабілем - гэта мець убудаванае галасавое злучэнне з чалавекам-агентам у аддаленым рэгіёне, які сочыць за аўтамабілямі аўтапарка. Гэта мае мноства недахопаў, як я ўжо падрабязна аналізаваў спасылка тут.

№ 3: небяспечная блытаніна для пешаходаў наконт намераў сістэмы кіравання AI

Уявіце, што вы спакойна ідзяце па тратуары і жадаеце перайсці вуліцу. Вы заўважылі, што па вуліцы насустрач едзе машына. Звычайна вы б глядзелі на чалавека-кіроўцы. Кіроўца мяне бачыць? Кіроўца глядзіць у бок? Яны глядзяць кацінае відэа і не звяртаюць увагі на праезную частку?

Праблема беспілотных аўтамабіляў у тым, што няма чалавека-кіроўцы. Што ж, я думаю, вы можаце сказаць, што гэта плюс, што дазваляе нам пазбавіцца ад ваджэння ў нецвярозым стане і іншых памылковых паводзін людзей за рулём. Але калі справа даходзіць да высвятлення таго, што будзе рабіць аўтамабіль, вы звычайна спрабуеце ўбачыць, што робіць кіроўца (праз іх галаву, вочы, агульную позу і г.д.).

Калі на сядзенні кіроўцы няма кіроўцы, як вы даведаецеся, што будзе рабіць аўтамабіль? У вас адсутнічаюць звычайныя падказкі. Некаторыя аўтавытворцы і тэхналагічныя фірмы, якія займаюцца самакіраваннем, асабліва не разлічвалі гэтую праблему ў сваіх праектных намаганнях. На іх думку, сістэма кіравання AI заўсёды будзе кіраваць аўтамабілем бяспечна і законна. Што яшчэ трэба зрабіць?

Вы можаце запярэчыць, што гэта яшчэ адзін прыклад погляду на свет, арыентаванага на тэхналогіі, у параўнанні з перспектывай, арыентаванай на чалавека. Калі вы лічыце, што людзі будуць проста даваць беспілотным аўтамабілям перавага праезду ў любы час, магчыма, не мае значэння, што патрэбныя накіраваныя дзеянні кіроўцы-чалавека. З іншага боку, у рэальным свеце нешта павінна быць прадастаўлена.

Як я правяраў спасылка тут, выпрабоўваюцца шматлікія прапановы, такія як размяшчэнне спецыяльных лямпачак на капоце беспілотных аўтамабіляў, якія загараюцца і паказваюць напрамак, куды рухаецца аўтаномны транспартны сродак. Іншае меркаванне заключаецца ў тым, што спецыялізаваныя прылады будуць пацвярджаць пешаходам, што іх бачыць сістэма кіравання AI. Даследуюцца разнастайныя разумныя варыянты, у тым ліку часам мудрагелістыя.

№ 4: Неспакой з нагоды парушэння прыватнасці з-за беспілотных аўтамабіляў

Я неаднаразова папярэджваў пра велізарны патэнцыял уварвання ў прыватную жыццё з-за з'яўлення беспілотных аўтамабіляў. Зараз ніхто не надае асаблівай увагі гэтаму пытанню, таму што гэта яшчэ не стала ўсвядомленай праблемай. Запэўніваю вас, што ў канчатковым рахунку гэта будзе вялізная праблема, якую я назваў сапраўдным "вандроўным вокам" беспілотных аўтамабіляў (гл. спасылка тут).

Вашай першай думкай можа быць тое, што гэта, несумненна, выключна аб прыватнасці пасажыраў. ШІ можа сачыць за тым, што робяць гоншчыкі, знаходзячыся ўнутры беспілотнага аўтамабіля. Вядома, гэта выклікае пэўны клопат. Але я б сцвярджаў, што гэта бляднее ў параўнанні з менш відавочным засмучэннем, якое мае яшчэ большыя наступствы.

Прасцей кажучы, датчыкі беспілотнага аўтамабіля збіраюць разнастайныя даныя, пакуль аўтаномныя транспартныя сродкі блукаюць па нашых грамадскіх дарогах. Ён фіксуе тое, што адбываецца на газонах перад нашымі дамамі. Ён фіксуе тое, што людзі робяць, пераходзячы з месца на месца. Ён паказвае, калі вы ўваходзілі ва ўстанову і калі выходзілі з яе. Гэтыя даныя можна лёгка загрузіць у воблака аператара аўтапарка. Затым аператар аўтапарка можа злучыць гэтыя даныя і, па сутнасці, атрымаць падрабязную інфармацыю аб нашым паўсядзённым жыцці, якое адбываецца на вуліцы і ў нашай суполцы.

Здаецца, зараз мы не клапоцімся аб такім патэнцыяле ўварвання ў прыватнасць, таму што толькі некалькі беспілотных аўтамабіляў выпрабоўваюцца ў адносна некалькіх рэгіёнах. Калі-небудзь у нас будуць сотні тысяч ці мільёны беспілотных аўтамабіляў, якія перасякаюць усе буйныя гарады і пасёлкі. Наша штодзённае жыццё на свежым паветры будзе запісвацца ў рэжыме нон-стоп, 24×7, і за намі можна будзе адпаведна адсочваць.

Распрацоўшчык штучнага інтэлекту, арыентаваны на тэхніку, хутчэй за ўсё, прыменшыў бы гэта. Яны маглі б выказаць здагадку, што ўсё, што яны робяць, гэта ўкараненне тэхналогіі штучнага інтэлекту. Нехта іншы павінен клапаціцца пра тое, як будзе выкарыстоўвацца тэхналогія.

У адрозненне ад гэтага, перспектыва, арыентаваная на чалавека, ужо будзе расказваць пра тое, як будуць змагацца з гэтай гіганцкай бомбай запаволенага дзеяння, якая парушае прыватнасць. Лепш раней, чым пазней. Гэта яшчэ адна важкая нагода для таго, каб у спалучэнні рэчаў быў арыентаваны на чалавека AI (HCAI).

№ 5: Этычныя сумненні наконт кіравання аўтамабілем са штучным інтэлектам паводле сумна вядомай праблемы з тралейбусамі

Апошні пункт трохі складаны. Я скарочу яго і заахвочваю вас разгледзець мой працяглы аналіз на спасылка тут. Карацей кажучы, калі вы едзеце за рулём аўтамабіля або проста едзеце ў якасці пасажыра ў аўтамабілі, вы заўсёды ў небяспецы адносна таго, што адбываецца з аўтамабілем. Машыну можа збіць іншая машына. Машына можа ўрэзацца ў ліхтарны слуп. Могуць адбыцца ўсялякія дрэнныя рэчы.

Як чалавек-кіроўца вырашае, якія дзеянні за рулём рабіць?

Напрыклад, маім любімым прыкладам быў выпадак, аб якім паведамлялася ў навінах. Кіроўца-чалавек правільна выязджаў на скрыжаванне, калі іншая машына праехала на чырвонае святло і небяспечна набліжалася да дазволенай машыне. Кіроўца сказаў журналістам, што яму прыйшлося прыняць жорсткае рашэнне. Ён мог працягваць ісці і, верагодна, патрапіць на таран машыны, якая ўварвалася, і, магчыма, загінуць у працэсе або, вядома, атрымаць цяжкія траўмы. Або ён мог адвесці машыну ад меркаванага сутыкнення, але побач былі пешаходы. Была высокая верагоднасць таго, што ён можа збіць або забіць каго-небудзь з пешаходаў. Зрабіўшы гэта, хутчэй за ўсё, выратаваў бы яму жыццё.

Што б вы зрабілі?

Справа ў тым, што мы ўвесь час сутыкаемся з такімі дылемамі ваджэння. Мы асабліва не задумваемся пра іх, пакуль справы не пойдуць дрэнна. Я запэўніваю вас, што кожны кіроўца заўсёды псіхічна ўцягнуты ў неабходнасць вырашыць, якія дзеянні за рулём зрабіць. Ад гэтага залежыць іх жыццё. Ад гэтага залежыць жыццё пасажыраў у іх аўтамабілі. Ад гэтага залежаць жыцці іншых кіроўцаў і пасажыраў бліжэйшых машын. Пешаходы, веласіпедысты і іншыя таксама залежаць ад гэтага.

Я ўзгадваю гэта з-за простага, але вельмі складанага пытання, на якое адказаць.

Што рабіць штучнаму інтэлекту, калі трэба прымаць рашэнні, якія залежаць ад ваджэння?

Калі б вы былі пасажырам беспілотнага аўтамабіля, які знаходзіўся пасярод скрыжавання, а аўтамабіль, якім кіраваў чалавек, праехаў на чырвонае святло, што б вы хацелі, каб зрабіла сістэма кіравання аўтамабілем? Ці варта штучнаму інтэлекту спрабаваць пазбегнуць удару і пры гэтым, магчыма, урэзацца ў групу пешаходаў? Ці штучнаму інтэлекту не варта прадпрымаць ніякіх спецыяльных дзеянняў і проста дазволіць аўтаномнаму транспартнаму сродку пратараніцца? Такія этычныя дылемы часта апісваюцца ў кантэксце вядомага разумовага эксперыменту, вядомага як "Праблема тралейбуса" (гл. спасылка тут).

У цяперашні час мала хто ўспрымае праблему тралейбусаў з якой-небудзь цвярозай сур'ёзнасцю. Увогуле, большасць сістэм ваджэння штучнага інтэлекту яшчэ не спрабуюць ацэньваць дзеянні ўхілення ад ваджэння. Нават калі ІІ робіць гэта, застаецца адкрытае і пакутлівае пытанне аб тым, як ІІ павінен быць запраграмаваны на прыняцце гэтых складаных этычных рашэнняў.

Тэхнацэнтрычная перспектыва схілялася б да таго, што не трэба пра гэта турбавацца, пакуль гэта не стане грамадскай праблемай. Проста працягвайце вырабляць масу кода штучнага інтэлекту і паглядзіце, што адбудзецца далей.

Чалавекацэнтрычны пункт гледжання, хутчэй за ўсё, сцвярджае, што нам трэба разабрацца ў гэтай справе. Аднак гэта пытанне не можа вырашаць кожны аўтавытворца і тэхналагічная фірма, якая займаецца самакіраваннем. Патрэбна больш шырокая грамадская ўвага для таго, каб высвятліць гэта ва ўсім свеце.

заключэнне

Распрацоўшчыкі Diehard AI часта скептычна ставяцца да таго, што яны лічаць модай або пустым глупствам. У мяне было шмат тэхнароў штучнага інтэлекту, якія задавалі мне вельмі рэзкія і рэзкія пытанні ў напышлівым і сумніўным тоне наконт росту цікавасці да чалавека-арыентаванага штучнага інтэлекту (HCAI).

Пытаюцца так: Дзе ялавічына ў HCAI?

Мой адказ: мяса, бульба і дэсерт - усё гэта звязана з усведамленнем таго, што арыентаваны на чалавека падыход да штучнага інтэлекту дасць нам больш шанцаў дасягнуць поспеху штучнага інтэлекту і паўсюднага ўкладу ў грамадства ў цэлым. Тыя, хто замест гэтага хочуць абаперціся на падыход, арыентаваны толькі на тэхналогію, хутчэй за ўсё выявяць, што штучны інтэлект, які яны ствараюць, цалкам праблематычны, і грамадства будзе вельмі раздражняцца з гэтай нагоды. Галовы пакоцяцца. AI можа быць адхілены як тэхналагічны цуд і можа стаць ліхадзейным ізгоем.

Я рашуча галасую за нейкую арыентаваную на чалавека думку, калі гаворка ідзе пра штучны інтэлект.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/04/01/heres-why-ai-ethics-is-touting-that-human-centered-ai-is-crucial-to-our- ai-symbiotic-existence-such-as-the-advent-of-autonomous-self-driving-cars/