Урокі этыкі штучнага інтэлекту і аўтаномных сістэм, атрыманыя з нядаўняга рэйса авіякампаніі Alaska Airlines, калі пілот і другі пілот не пагадзіліся перад узлётам і раптоўна вырашылі на таксі вярнуцца да тэрмінала і паехаць рознымі шляхамі

Апошнім часам авіякампаніі даволі часта фігуруюць у навінах.

Мы знаходзімся ў летнім перыядзе пералётаў. Стомленыя і расчараваныя пасажыры сутыкаюцца з разнастайнымі збоямі ў рэйсах і збоямі ў раскладзе авіякампаній. Рэйсы нечакана адмяняюцца. Рэйсы затрымліваюцца. Пасажыры дымяцца. На жаль, было шмат выпадкаў, калі пасажыры дазвалялі гэтым раздражненням успыхнуць, і мы бачылі, нажаль, занадта шмат вірусных відэа сутычак тварам да твару, а часам і кулачных баёў.

Радзей мы даведваемся пра спрэчкі паміж пілотам і другім пілотам, якія могуць адбыцца ў кабіне.

Гэта даволі нечакана.

Сапраўды, мы, натуральна, збянтэжаныя, калі думаем, што пілот і другі пілот могуць мець нейкае падабенства сур'ёзных рознагалоссяў на любым этапе палёту. Калі рознагалоссі тычацца таго, якая марка кавы лепшая, мы мяркуем, што гэта не будзе ўмешвацца ў працоўныя намаганні, звязаныя з кіраваннем самалётам. Абодва проста адмахнуліся б ад таго, што не казалі з вока на вока на, здавалася б, неістотную для палёту тэму. Іх прафесійныя паводзіны і шматгадовая падрыхтоўка пілотаў узніклі, і яны зноў засяродзіліся на дэталях палёту.

Аднак падумайце, калі а прафесійныя рознагалоссі ўмешваецца.

Я збіраюся коратка падзяліцца з вамі шырока апублікаванай навіной пра нядаўні выпадак, які здарыўся падчас палёту ў ЗША, звязаны з заяўленымі прафесійнымі рознагалоссямі ў кабіне.

У асноўным гэта цытуецца тут, каб мы маглі даследаваць адпаведную тэму, якая мае вялікае значэнне для з'яўлення штучнага інтэлекту (AI). Разумееце, можа быць форма, скажам так, прафесійных рознагалоссяў не толькі паміж людзьмі ў рознагалоссі паміж людзьмі, але мы таксама можа мець нешта падобнае на фоне прыняцця штучнага інтэлекту і, такім чынам, у выніку прафесійных рознагалоссяў чалавека супраць штучнага інтэлекту. . Узнікаюць разнастайныя меркаванні этыкі штучнага інтэлекту. Аб маім шырокім і пастаянным асвятленні этыкі штучнага інтэлекту і этычных пытанняў штучнага інтэлекту гл спасылка тут і спасылка тут, проста назваць некалькі.

Рыхтуйцеся да займальнай гісторыі.

Як нядаўна паведамлялася ў навінах, падчас рэйса авіякампаніі Alaska Airline, які ляцеў з Вашынгтона ў Сан-Францыска, узніклі «прафесійныя рознагалоссі». Паводле паведамленняў навін, рэйс адышоў ад варот і чакаў на ўзлётнай пляцоўцы дазволу выруліць і ўзляцець. Ішоў шторм, які прывёў да затрымкі рэйса больш чым на паўтары гадзіны. Аказалася, што ў рэшце рэшт самалёт развярнуўся і накіраваўся назад да варот, што некаторыя з пасажыраў звычайна маглі палічыць проста мерай бяспекі, звязанай са штормам.

Згодна з рознымі твітамі, здаецца, што пілот і другі пілот мелі нейкую варожасць па-за полем зроку падчас знаходжання ў кабіне і чамусьці прыйшлі да высновы, што самым разумным падыходам было б вычысціць рэйс і вярнуцца ў тэрмінал . Твіты выказалі здагадку, што капітан і першы афіцэр, відаць, не маглі ладзіць адзін з адным. Пазней авіякампанія выпусціла заяву аб тым, што сітуацыя была няшчаснай (сітуацыя не была прама заяўлена і не растлумачана сама па сабе), два бортныя афіцэры былі ацэнены кіраўніцтвам і прызнаны прыдатнымі да палёту, экіпажы памяняліся, і палёт у выніку адбыўся а пазней дабраўся да Сан-Францыска.

У пэўным сэнсе, калі насамрэч паміж пілотам і другім пілотам узніклі прафесійныя рознагалоссі, напрыклад, ці быў самалёт адпаведным чынам гатовы да палёту або ці быў рызыка палёту праз шторм у межах адпаведнага дыяпазону бяспекі, гэтыя пасажыры павінны атрымаць палёгку і дзякуй, што самалёт вярнулі да варот. Лепш перастрахавацца, чым шкадаваць. Дадатковая затрымка каштуе меркаванага зніжэння рызык, звязаных з палётам, які лічыцца складаным або неспрыяльным.

Некаторых можа здзівіць, што могуць узнікнуць такія прафесійныя рознагалоссі.

Магчыма, у нас склалася памылковае ўражанне, што ўсё, што адбываецца ў кабіне пілота, цалкам дакладнае і прадуманае. Усялякая чалавечая свабода, здавалася б, была выціснута з працэсу. Грунтуючыся на дакладных і старанна разлічаных картах, палёт альбо можна працягваць, альбо не. Не можа быць ніякіх рознагалоссяў, калі лічыцца, што ўвесь набор і кабудл заснаваны на неабвержным падліку фактаў і лічбаў.

Гэта не поўная праўда. Безумоўна, існуе мноства пратаколаў і разнастайных стрымак і проціваг, але гэта не выцясняе ні кроплі чалавечага меркавання. Пілоты і другія пілоты ўсё яшчэ выконваюць чалавечае меркаванне. На шчасце, гэтае чалавечае меркаванне адточана гадамі палёту. Хутчэй за ўсё, пілот і другі пілот камерцыйнага пасажырскага самалёта маюць багаты вопыт палётаў і з лёгкасцю выкарыстоўваюць свае шматгадовыя глыбокія развагі і меркаванні, звязаныя з знаходжаннем за штурвалам кіравання.

Улічваючы важную ролю чалавечага меркавання, мы маглі б лагічна прадбачыць, што пілот і другі пілот часам будуць мець прафесійныя рознагалоссі. Часцей за ўсё такіх рознагалоссяў вельмі мала. Пілот і другі пілот для штодзённых палётаў, верагодна, будуць добра ўзгоднены з перавагай часу. Толькі тады, калі сцэнар палёту можа выйсці за межы звычайных межаў, мы чакаем узнікнення больш напружанага трэння.

Калі паміж імі існуе сур'ёзная розніца ў меркаваннях, я б адважыўся сказаць, што мы хочам, каб яны гэта знялі.

Уявіце сабе сітуацыю, калі пілот рэзка хоча працягваць, але другі пілот лічыць, што рызыка занадта высокая. Здавалася б, непажадана, каб другі пілот кланіўся пілоту. Другі пілот - гэта сродак стрымлівання і раўнавагі таму, што пілот можа думаць зрабіць. Для тых, хто хоча, каб другі пілот заткнуўся і бяздумна дзейнічаў згодна з пастановамі пілота, гэта не вельмі супакойвае. Другі пілот - гэта не проста запасны «пілот», які ўваходзіць у поле толькі тады, калі пілот цалкам недзеяздольны. Гэта памылковае разуменне каштоўнасці наяўнасці пілота і другога пілота ў кабіне.

У гэтага ёсць іншы ракурс.

Разгледзім выпадак з пілотам, які не верыць, што палёт павінен працягвацца, а другі пілот у гэты час захоплена падымаецца ў паветра. Што тады? Па меркаванай іерархіі, пілот павінен умоўна пераважаць над другім пілотам. Прызначаная роля асноўнага адказнага робіць пілота большым з таго, што ў іншым выпадку было б роўна. Звычайна пілот мае большы агульны запас часу, чым другі пілот, і, такім чынам, другі пілот іерархічна павінен падпарадкоўвацца жаданням пілота (калі ў межах разумнага).

У любым выпадку, я думаю, што мы ўсе можам пагадзіцца з тым, што адмова ад палёту, безумоўна, менш рызыкоўны выбар, чым рашэнне паляцець. Калі самалёт падымаецца ў паветра, узровень рызыкі становіцца велізарным у параўнанні з знаходжаннем на звычайнай стабільнай зямлі. Звычайны камерцыйны рэйс, які проста рухаецца назад да тэрмінала, не падымаючыся ў паветра, быў бы даволі дружным рашэннем любой гарачай з'едлівай дыскусіі аб палёце.

Давайце пераключым перадачы і выкарыстаем гэтую яркую навіну для зусім іншых, але блізкіх мэт.

Паступова сярод нас пераважаюць аўтаномныя сістэмы на аснове штучнага інтэлекту. Часам ШІ як бы кіруе шоў. ШІ робіць усё, ад А да Я, і мы можам разглядаць гэта як цалкам аўтаномны або амаль што ІІ. У іншых выпадках мы можам мець штучны інтэлект, які ўзаемадзейнічае з чалавекам у цыкле і ў пэўнай ступені запраграмаваны на залежнасць ад яго.

Я хацеў бы засяродзіцца на аўтаномнай або паўаўтаномнай сістэме на аснове штучнага інтэлекту, у якой з самага пачатку ўдзельнічае чалавек. ШІ і чалавек наўмысна змешчаны разам і павінны працаваць у тандэме адзін з адным. Яны з'яўляюцца кагортамі ў выкананні пэўнай задачы. Адзін штучны інтэлект не павінен выконваць гэтую задачу. ШІ павінен узаемадзейнічаць з прызначаным чалавекам у цыкле.

Я прыводжу гэтую характарыстыку, каб адрозніць ад сітуацый, калі чалавек у цыкле лічыцца неабавязковым аспектам. Па сутнасці, ІІ даецца воля. Калі штучны інтэлект вырашыў выкарыстоўваць чалавека, няхай так і будзе. Няма патрабаванняў, каб ІІ датыкаўся з базай або працаваў рука аб руку з прызначаным чалавекам. Аналізы, якія я збіраюся распавесці, безумоўна, датычныя да гэтага роду неабавязковы механізм узаемадзеяння, але гэта не тое, на што я спецыяльна звяртаюся ў гэтай канкрэтнай дыскусіі.

Добра, у нас ёсць нейкая задача, над якой чалавек і ІІ будуць працаваць разам, неаддзельна адзін ад аднаго. У абстрактным сэнсе ў нас ёсць чалавек, які сядзіць на адным сядзенні, а сістэма штучнага інтэлекту сядзіць на другім спадарожным сядзенні. Я кажу гэта нахабна, таму што мы не абмяжоўваем гэтую дыскусію, напрыклад, робатам, які сапраўды можа сядзець на сядзенні. Я метафарычна спасылаюся на тое, што штучны інтэлект дзесьці ўдзельнічае ў выкананні задачы, як і чалавек. Фізічна іх месцазнаходжанне не мае асаблівага значэння для абмеркавання.

Магчыма, вы не ведаеце, калі такая акалічнасць можа паўстаць.

Лёгка-проста.

Пазней я буду абмяркоўваць з'яўленне аўтаномных транспартных сродкаў і беспілотных аўтамабіляў. На пэўных узроўнях аўтаноміі ІІ і чалавек павінны працаваць разам. ШІ можа кіраваць аўтамабілем і патрабаваць, каб чалавек узяў на сябе кіраванне. Чалавек можа кіраваць аўтамабілем і актываваць штучны інтэлект, каб узяць на сябе кіраванне. Яны па чарзе сядзяць за рулём.

Акрамя таго, у некаторых праектах штучны інтэлект заўсёды актыўны (або, калі ён не адключаны), так што штучны інтэлект заўсёды гатовы. Акрамя таго, штучны інтэлект можа непасрэдна ўмешвацца, нават без пытання чалавека, у залежнасці ад сітуацыі, якая разгортваецца. Дапусцім, напрыклад, што чалавек, здаецца, заснуў за рулём. Паколькі чалавек, здавалася б, не можа актываваць штучны інтэлект (таму што чалавек спіць), штучны інтэлект можа быць запраграмаваны на тое, каб пераняць кіраванне ад чалавека.

Некаторыя праекты аб'ядноўваюць штучны інтэлект і людзей у двайны падыход. ШІ кіруе аўтамабілем, а чалавек кіруе. Ці, калі хочаце, чалавек кіруе аўтамабілем, і штучны інтэлект таксама кіруе аўтамабілем. Кожны з іх кіруе транспартным сродкам. Я параўноўваю гэта з тымі спецыяльна абсталяванымі аўтамабілямі, якія, магчыма, вы выкарыстоўвалі падчас навучання кіроўцам, і ў аўтамабілі было два наборы элементаў кіравання: адзін для навучэнца-кіроўцы, а другі для інструктара.

Гэта толькі адзін з прыкладаў сітуацыі, у якой штучны інтэлект і людзі могуць сумесна працаваць над задачай. Існуюць самыя розныя магчымасці. Іншыя віды аўтаномных транспартных сродкаў могуць быць створаны аналагічным чынам, такія як самалёты, беспілотнікі, падводныя апараты, надводныя караблі, цягнікі і гэтак далей. Нам не трэба ўлічваць толькі налады аўтамабіля і транспарту. Уявіце сабе медыцынскую вобласць і аперацыі, якія выконваюцца сумесна лекарам і сістэмай штучнага інтэлекту. Спіс бясконцы.

Мне амаль хочацца ўзгадаць класічны шумны жарт пра чалавека і ІІ, якія разам заходзяць у бар. Гэта даволі смех для тых, хто ў ІІ.

Калі сур'ёзна, давайце вернемся да ўвагі чалавека і сістэмы штучнага інтэлекту, якія разам працуюць над пастаўленай задачай. Па-першае, я хачу пазбягаць антрапамарфізацыі штучнага інтэлекту, на чым я буду падкрэсліваць ва ўсім. ШІ не разумны. Майце гэта на ўвазе.

Вось над чым паразважаць: Ці заўсёды прызначаны чалавек у цыкле будзе цалкам згодны з сумеснай камандай ІІ?

Для любой складанай задачы здаецца малаверагодным, што чалавек і штучны інтэлект будуць цалкам і заўсёды цалкам і ў нагу. У некаторых выпадках чалавек, магчыма, не пагодзіцца з ІІ. Мы можам прыняць гэтую здагадку аж да банка.

Я хацеў бы, каб вы таксама разгледзелі гэтую, магчыма, дзіўную магчымасць: Ці заўсёды ІІ будзе цалкам згодны з прызначаным чалавекам у цыкле?

Зноў жа, для любой складанай задачы, здаецца, цалкам магчыма, што штучны інтэлект у некаторых выпадках не будзе пагаджацца з людзьмі. Калі вы ўжо схіляецеся да думкі, што штучны інтэлект заўсёды памыляецца, а людзі заўсёды маюць рацыю, было б разумна перагледзець гэтую паспешлівую выснову. Уявіце сабе аўтамабіль, у якім чалавек і штучны інтэлект сумесна кіруюць паўаўтаномным аўтамабілем. Чалавек накіроўваецца да цаглянай сцяны. чаму? Мы не ведаем, магчыма, чалавек знаходзіцца ў стане алкагольнага ап'янення або заснуў, але мы ведаем, што ўрэзацца ў цагляную сцяну - гэта не вельмі добрая ідэя пры іншых роўных умовах. ШІ можа выявіць маючую адбыцца катастрофу і паспрабаваць адысці ад надыходзячых бар'ераў.

Увогуле, мы будзем мець відавочную верагоднасць таго, што ІІ і чалавек не пагаджаюцца адзін з адным. Іншы спосаб сказаць тое ж самае - гэта людзі і ІІ не згодныя адзін з адным. Звярніце ўвагу, што я не хачу, каб паслядоўнасць ІІ і чалавека ў параўнанні з чалавекам і ІІ давала што-небудзь пра кірунак або праўдападобнасць рознагалоссяў.

Два работнікі, адзін чалавек, а другі - штучны інтэлект, не згодныя адзін з адным.

Мы маглі б загадзя заявіць, што кожны раз, калі ўзнікаюць рознагалоссі паміж дадзеным ШІ і дадзеным чалавекам, мы загадзя абвяшчаем, што чалавек пераважае над ШІ. З улікам сказанага, мой ілюстрацыйны прыклад пра аўтамабіль, які ўразаецца ў цагляную сцяну, здаецца, адгаворвае нас, што чалавек заўсёды будзе мець рацыю.

Наадварот, мы маглі б загадзя аб'явіць, што кожны раз, калі ўзнікаюць рознагалоссі, мы загадзя ўсталявалі, што ІІ мае рацыю, а чалавек памыляецца. Гэта таксама не з'яўляецца разумным абагульненнем. Уявіце сабе аўтамабіль, у якім штучны інтэлект мае ўкаранёную памылку ў праграмным забеспячэнні або памылку, і штучны інтэлект спрабуе накіраваць транспартны сродак з дарогі ў кювет. Калі выказаць здагадку, што ўсё астатняе роўна, чалавек павінен быць у стане пераадолець гэта кіраванне ІІ і прадухіліць прызямленне аўтамабіля ў яр.

Давайце зробім кароткае рэзюмэ гэтага:

  • Ці заўсёды чалавек у цыкле будзе цалкам згодны з ІІ? адказ: Не.
  • Ці заўсёды ІІ будзе цалкам згодны з чалавекам у цыкле? адказ: няма.
  • Ці заўсёды чалавек у цыкле будзе мець рацыю ў параўнанні з ІІ? адказ: Не абавязкова.
  • Ці заўсёды ІІ будзе мець рацыю ў параўнанні з чалавекам у цыкле? Адказ: неабавязкова.

Безумоўна, вы можаце наладзіць штучны інтэлект так, каб ён па змаўчанні лічыўся «няправільным» або больш слабым бокам і, такім чынам, заўсёды падпарадкоўваўся чалавеку, калі ўзнікаюць рознагалоссі. Сапраўды гэтак жа вы можаце наладзіць штучны інтэлект, каб меркаваць, што штучны інтэлект лічыцца «правільным», калі чалавек не згодны з ім. Я хачу ўдакладніць, што мы можам зрабіць гэта праграмна, калі захочам. Аднак я сцвярджаю, што ў цэлым гэта не заўсёды будзе так. Безумоўна, ёсць налады, у якіх мы не ведаем загадзя, «правільны» ІІ ці «правільны» чалавек з пункту гледжання выбару на карысць таго ці іншага ў рознагалоссях, звязаных з дадзенай задачай.

Я падвёў вас да вельмі важнага і вельмі складанага пытання.

Што мы павінны рабіць, калі ўзнікаюць прафесійныя рознагалоссі паміж чалавекам у цыкле і штучным інтэлектам (ці, што эквівалентна, мы можам назваць гэта паміж ІІ і чалавекам у цыкле)?

Не спрабуйце ўхіліцца ад пытання.

Хтосьці можа сцвярджаць, што гэтага ніколі не адбудзецца, але, як я пазначыў у сваім прыкладзе пра машыну, гэта напэўна магло здарыцца. Некаторыя могуць сцвярджаць, што чалавек відавочна вышэйшы і павінен быць пераможцам у любых рознагалоссях. Мой прыклад з машынай і цаглянай сцяной разбівае гэта. Ёсць прыхільнікі штучнага інтэлекту, якія могуць настойваць на тым, што штучны інтэлект павінен быць пераможцам з-за нібыта пераадолення чалавечых эмоцый і бессэнсоўнага мыслення гэтымі бязладнымі людзьмі з невыразным мысленнем. Зноў жа, мой іншы прыклад, які цягне за сабой аўтамабіль, які накіроўваецца ў кювет, падрывае гэтае сцвярджэнне.

У рэальным свеце штучны інтэлект і людзі будуць разыходзіцца ў меркаваннях, нават калі яны наўмысна аб'ядноўваюцца ў каманду для выканання сумесна пастаўленай задачы. Гэта адбудзецца. Мы не можам хаваць галаву ў пясок і рабіць выгляд, што гэтага не адбудзецца.

Мы бачылі, што людзі, якія кіравалі самалётам, відавочна, спрачаліся. На шчасце, яны пагадзіліся не пагадзіцца, так здаецца. Яны вярнулі самалёт на тэрмінал. Яны знайшлі спосаб справіцца з нязгодай. Вырашэнне іх рознагалоссяў атрымалася ўдалым, у параўнанні з тым, калі б яны, магчыма, пабіліся ў кабіне або, магчыма, узляцелі ў паветра і працягвалі змагацца адзін з адным. Гэта сумны сцэнар, які невыканальны, і мы можам быць удзячныя, што не адбылося.

Дазвольце мне прадставіць свой спіс розных спосабаў вырашэння рознагалоссяў паміж ІІ і чалавекам у цыкле (або чалавекам у цыкле і ІІ):

  • ШІ і аб'яднаныя людзі вырашаюць рэчы (палюбоўна ці не)
  • Па змаўчанні чалавек пераважае над штучным інтэлектам
  • ШІ па змаўчанні пераважае над чалавекам
  • Па змаўчанні пераважае нейкае іншае загадзя вызначанае фіксаванае раздзяленне
  • Чалавек трэцяга боку замыкаецца, і іх указанне пераважае над бакамі
  • Старонні штучны інтэлект зацыклены, і яго індыкацыя пераважае над бакамі
  • Старонні чалавек замяняе існуючага чалавека, усё адбываецца нанова
  • AI трэцяга боку замяняе існуючы AI, усё адбываецца нанова
  • Чалавек трэцяга боку замяняе існуючы штучны інтэлект, усё адбываецца па-новаму (цяпер чалавек чалавеку)
  • Штучны інтэлект трэцяга боку замяняе існуючага чалавека, усё адбываецца нанова (цяпер штучны інтэлект да штучнага інтэлекту)
  • іншае

Яны цалкам вартыя таго, каб іх распакаваць.

Перш чым прыступаць да больш падрабязнай інфармацыі аб дзікіх і ваўняных меркаваннях, якія ляжаць у аснове таго, як змагацца з ІІ і чалавечымі рознагалоссямі, давайце выкладзем некаторыя дадатковыя асновы па вельмі важных тэмах. Нам трэба ненадоўга акунуцца ў этыку штучнага інтэлекту і асабліва ў з'яўленне машыннага навучання (ML) і глыбокага навучання (DL).

Магчыма, вы цьмяна ведаеце, што адзін з самых гучных галасоў у нашы дні ў вобласці ІІ і нават па-за межамі ІІ складаецца ў тым, каб дамагацца большага падабенства этычнага ІІ. Давайце паглядзім, што азначае спасылка на этыку ІІ і этычны ІІ. Акрамя таго, мы вывучым, што я маю на ўвазе, калі кажу пра машыннае навучанне і глыбокае навучанне.

Адзін канкрэтны сегмент або частка этыкі ІІ, які прыцягвае вялікую ўвагу СМІ, складаецца з ІІ, які дэманструе непрыхільныя прадузятасці і няроўнасць. Вы, магчыма, ведаеце, што, калі пачалася апошняя эра ІІ, быў вялікі ўсплёск энтузіязму адносна таго, што некаторыя цяпер называюць ІІ Назаўсёды. На жаль, пасля таго, як хлынула хваляванне, мы сталі сведкамі AI для дрэннага. Напрыклад, было выяўлена, што розныя сістэмы распазнавання асоб на аснове штучнага інтэлекту змяшчаюць расавыя і гендэрныя прадузятасці, якія я абмяркоўваў на спасылка тут.

Намаганні супрацьстаяць AI для дрэннага актыўна вядуцца. Да таго ж крыклівы прававой імкненне стрымаць правапарушэнні, ёсць таксама істотны штуршок да прыняцця этыкі ІІ, каб выправіць подласць ІІ. Паняцце заключаецца ў тым, што мы павінны прыняць і ўхваліць ключавыя этычныя прынцыпы ІІ для распрацоўкі і выкарыстання ІІ, робячы гэта, каб падарваць AI для дрэннага і адначасова абвяшчаючы і прасоўваючы пераважнае ІІ Назаўсёды.

Што тычыцца сумежных паняццяў, то я прыхільнік спробы выкарыстоўваць ІІ як частку вырашэння праблем з ІІ, змагаючыся з агнём агнём такім чынам. Напрыклад, мы можам убудаваць этычныя кампаненты ІІ у сістэму ІІ, якая будзе кантраляваць, як робіць усё астатні ІІ, і, такім чынам, патэнцыйна фіксаваць у рэжыме рэальнага часу любыя дыскрымінацыйныя намаганні, глядзіце маё абмеркаванне на спасылка тут. Мы таксама маглі б мець асобную сістэму штучнага інтэлекту, якая дзейнічае як тып манітора этыкі ІІ. Сістэма ІІ служыць у якасці наглядчыка, каб адсочваць і выяўляць, калі іншы ІІ сыходзіць у неэтычную бездань (гл. мой аналіз такіх магчымасцяў на спасылка тут).

Праз хвіліну я падзялюся з вамі некаторымі агульнымі прынцыпамі, якія ляжаць у аснове этыкі ІІ. Тут і там шмат такіх спісаў. Можна сказаць, што пакуль не існуе адзінага спісу універсальнай прывабнасці і супадзення. Вось такая прыкрая навіна. Добрая навіна заключаецца ў тым, што, прынамсі, ёсць лёгка даступныя спісы этыкі AI, і яны, як правіла, вельмі падобныя. Увогуле, гэта сведчыць аб тым, што з дапамогай свайго роду аргументаванага збліжэння мы знаходзім шлях да агульнай агульнасці таго, з чаго складаецца этыка ІІ.

Спачатку давайце коратка азнаёмімся з некаторымі агульнымі запаветамі этычнага інтэлекту, каб праілюстраваць, што павінна быць важнай увагай для тых, хто стварае, вядзе або выкарыстоўвае ІІ.

Напрыклад, як сцвярджае Ватыкан у ст Рым заклікае да этыкі ІІ і, як я падрабязна разгледзеў спасылка тут, яны вызначылі шэсць асноўных прынцыпаў этыкі ІІ:

  • празрыстасць: У прынцыпе, сістэмы ІІ павінны быць вытлумачальнымі
  • ўключэнне: Неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць выгаду, а ўсім можна было прапанаваць найлепшыя ўмовы для выяўлення сябе і развіцця
  • адказнасць: Тыя, хто распрацоўвае і разгортвае выкарыстанне ІІ, павінны дзейнічаць з адказнасцю і празрыстасцю
  • Бесстароннасць: Не стварайце і не дзейнічайце ў адпаведнасці з прадузятасць, тым самым абараняючы справядлівасць і чалавечую годнасць
  • надзейнасць: Сістэмы AI павінны быць у стане надзейна працаваць
  • Бяспека і канфідэнцыяльнасць: Сістэмы AI павінны працаваць бяспечна і паважаць канфідэнцыяльнасць карыстальнікаў.

Як гаворыцца ў паведамленні міністэрства абароны зша Этычныя прынцыпы выкарыстання штучнага інтэлекту і, як я падрабязна разгледзеў спасылка тут, гэта іх шэсць асноўных прынцыпаў этыкі ІІ:

  • Адказны: Персанал Міністэрства абароны будзе праяўляць належны ўзровень меркавання і ўважлівасці, застаючыся адказным за распрацоўку, разгортванне і выкарыстанне магчымасцяў ІІ.
  • Справядлівы: Дэпартамент будзе прымаць наўмысныя крокі, каб звесці да мінімуму ненаўмыснае прадузятасць у магчымасцях ІІ.
  • Адсочваецца: Магчымасці Дэпартамента AI будуць развівацца і разгортвацца такім чынам, каб адпаведны персанал валодаў належным разуменнем тэхналогій, працэсаў распрацоўкі і аперацыйных метадаў, якія прымяняюцца да магчымасцяў AI, уключаючы празрыстыя і паддаюцца праверку метадалогіі, крыніцы даных, а таксама працэдуру праектавання і дакументацыю.
  • надзейнасць: Магчымасці ІІ Дэпартамента будуць мець дакладнае, дакладна вызначанае выкарыстанне, а бяспека, бяспека і эфектыўнасць такіх магчымасцяў будуць падлягаць тэсціраванню і запэўненню ў рамках гэтых вызначаных відаў выкарыстання на працягу ўсяго іх жыццёвага цыклу.
  • Кіруемы: Дэпартамент будзе распрацоўваць і распрацоўваць магчымасці штучнага інтэлекту для выканання іх прызначаных функцый, пры гэтым валодаючы здольнасцю выяўляць і пазбягаць непрадбачаных наступстваў, а таксама здольнасцю адключаць або дэактываваць разгорнутыя сістэмы, якія дэманструюць ненаўмыснае паводзіны.

Я таксама абмеркаваў розныя калектыўныя аналізы этычных прынцыпаў ІІ, у тым ліку ахарактарызаваў набор, распрацаваны даследчыкамі, якія даследавалі і сціснулі сутнасць шматлікіх нацыянальных і міжнародных этычных прынцыпаў ІІ у артыкуле пад назвай «Глабальны ландшафт этычных прынцыпаў ІІ» (апублікаваны у Прырода), і што маё асвятленне даследуе на спасылка тут, што прывяло да гэтага спісу ключавых каменяў:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Як вы маглі здагадацца, спрабаваць вызначыць асаблівасці, якія ляжаць у аснове гэтых прынцыпаў, можа быць вельмі цяжка зрабіць. Больш за тое, спробы ператварыць гэтыя шырокія прынцыпы ў нешта цалкам матэрыяльнае і дастаткова дэталёвае, каб іх можна было выкарыстоўваць пры стварэнні сістэм ІІ, таксама цяжкі арэх. У цэлым лёгка памахаць рукой аб тым, што такое запаведзі этыкі ІІ і як іх варта выконваць, у той час як значна больш складаная сітуацыя ў кадаванні ІІ, калі трэба быць сапраўднай гумай, якая сустракае дарогу.

Прынцыпы этыкі штучнага інтэлекту павінны выкарыстоўвацца распрацоўшчыкамі ІІ, а таксама тымі, хто кіруе намаганнямі па распрацоўцы ІІ, і нават тымі, якія ў канчатковым рахунку займаюцца і абслугоўваюць сістэмы ІІ. Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыклу распрацоўкі і выкарыстання ІІ разглядаюцца ў рамках выканання ўстаноўленых нормаў этычнага ІІ. Гэта важны момант, паколькі звычайная здагадка заключаецца ў тым, што «толькі кадэры» або тыя, хто праграмуе ІІ, падпарадкоўваюцца паняццям этыкі ІІ. Як гаварылася раней, для распрацоўкі і выкарыстання штучнага інтэлекту патрабуецца вёска, і для гэтага ўся вёска павінна быць дасведчанай і прытрымлівацца этычных правілаў ІІ.

Давайце таксама пераканаемся, што мы знаходзімся на адной старонцы адносна прыроды сённяшняга ІІ.

Сёння няма ніводнага ІІ, які быў бы разумным. У нас гэтага няма. Мы не ведаем, ці будзе магчымы разумны ІІ. Ніхто не можа дакладна прадказаць, ці дасягнем мы разумнага ІІ і ці неяк цудам спантанна паўстане разумны ІІ у форме вылічальнай кагнітыўнай звышновай (звычайна яе называюць сінгулярнасцю, глядзіце маё асвятленне на спасылка тут).

Тып ІІ, на які я засяроджваюся, складаецца з неразумнага ІІ, які мы маем сёння. Калі б мы хацелі дзіка разважаць пра пачуццёвы ІІ, гэтая дыскусія можа пайсці ў кардынальна іншым кірунку. Разумны ІІ нібыта быў бы чалавечага якасці. Вам трэба будзе ўлічваць, што разумны ІІ з'яўляецца кагнітыўным эквівалентам чалавека. Больш за тое, паколькі некаторыя мяркуюць, што мы можам мець звышінтэлектуальны ІІ, можна ўявіць, што такі ІІ можа апынуцца разумнейшым за людзей (для майго даследавання звышінтэлектуальнага ІІ як магчымасці гл. асвятленне тут).

Давайце больш прыземлены і разгледзім сучасны вылічальны неразумны ІІ.

Зразумейце, што сучасны ІІ не здольны «думаць» ні ў якім разе нароўні з чалавечым мысленнем. Калі вы ўзаемадзейнічаеце з Alexa або Siri, размоўныя здольнасці могуць здацца падобнымі да чалавечых, але рэальнасць такая, што гэта вылічальнае і недастатковае чалавечае пазнанне. Апошняя эра штучнага інтэлекту шырока выкарыстоўвала машыннае навучанне (ML) і глыбокае навучанне (DL), якія выкарыстоўваюць вылічальнае ўзгадненне шаблонаў. Гэта прывяло да сістэм ІІ, якія маюць выгляд чалавекападобных схільнасцей. Між тым, сёння няма ніводнага ІІ, які меў бы падабенства здаровага сэнсу і не меў бы ніводнага кагнітыўнага здзіўлення надзейнага чалавечага мыслення.

ML/DL з'яўляецца адной з формаў вылічэння шаблону адпаведнасці. Звычайны падыход заключаецца ў тым, што вы збіраеце дадзеныя аб задачы прыняцця рашэння. Вы падаеце дадзеныя ў камп'ютэрныя мадэлі ML/DL. Гэтыя мадэлі імкнуцца знайсці матэматычныя заканамернасці. Калі такія шаблоны знойдзены, сістэма ІІ будзе выкарыстоўваць гэтыя шаблоны пры сустрэчы з новымі дадзенымі. Пры прадстаўленні новых дадзеных шаблоны, заснаваныя на «старых» або гістарычных дадзеных, прымяняюцца для прыняцця бягучага рашэння.

Я думаю, вы можаце здагадацца, куды гэта вядзе. Калі людзі, якія прымалі рашэнні па ўзорах, уключалі ў сябе непрыхільныя прадузятасці, верагоднасць таго, што дадзеныя адлюстроўваюць гэта тонкім, але істотным чынам. Машынае навучанне або Deep Learning вылічальнае ўзгадненне шаблонаў проста паспрабуе матэматычна імітаваць дадзеныя адпаведна. Там няма падабенства здаровага сэнсу або іншых разумных аспектаў мадэлявання, створанага AI, як такога.

Акрамя таго, распрацоўшчыкі ІІ могуць таксама не разумець, што адбываецца. Таямнічая матэматыка ў ML/DL можа абцяжарыць выяўленне схаваных цяпер ухілаў. Вы па праве спадзявацца і чакаць, што распрацоўшчыкі ІІ правядуць праверку на патэнцыйна схаваныя прадузятасці, хоць гэта больш складана, чым можа здацца. Існуе вялікая верагоднасць таго, што нават пры адносна шырокім тэсціраванні ў мадэлях супастаўлення шаблонаў ML/DL ўсё яшчэ будуць уключаны прадузятасці.

Вы можаце выкарыстоўваць вядомае ці сумнавядомую прымаўку: смецце - у смецце - выходзіць. Справа ў тым, што гэта больш падобна на прадузятасці, якія падступна ўліваюцца, калі прадузятасці пагружаюцца ў ШІ. Алгарытм прыняцця рашэнняў (ADM) ІІ аксіяматычна нагружаецца няроўнасцямі.

Не добра.

Давайце вернемся да нашай увагі да рознагалоссяў паміж ІІ і чалавекам.

Раней я паказваў, што гэта некаторыя з стратэгій вырашэння рознагалоссяў:

  • ШІ і аб'яднаныя людзі вырашаюць рэчы (палюбоўна ці не)
  • Па змаўчанні чалавек пераважае над штучным інтэлектам
  • ШІ па змаўчанні пераважае над чалавекам
  • Па змаўчанні пераважае нейкае іншае загадзя вызначанае фіксаванае раздзяленне
  • Чалавек трэцяга боку замыкаецца, і іх указанне пераважае над бакамі
  • Старонні штучны інтэлект зацыклены, і яго індыкацыя пераважае над бакамі
  • Старонні чалавек замяняе існуючага чалавека, усё адбываецца нанова
  • AI трэцяга боку замяняе існуючы AI, усё адбываецца нанова
  • Чалавек трэцяга боку замяняе існуючы штучны інтэлект, усё адбываецца па-новаму (цяпер чалавек чалавеку)
  • Штучны інтэлект трэцяга боку замяняе існуючага чалавека, усё адбываецца нанова (цяпер штучны інтэлект да штучнага інтэлекту)
  • іншае

Час распакаваць іх.

Па-першае, лічыце, што гэта ўсё прафесійны рознагалоссі.

Прафесійныя рознагалоссі ўвогуле вызначаюцца як рознагалоссі, звязаныя з выкананнем задачы, звязанай з працай.

Напрыклад, рознагалоссі, якія ўзнікаюць паміж пілотам і другім пілотам наконт таго, ці варта працягваць палёт, які чакае шторм, можна разумна пазначыць як прафесійныя рознагалоссі. У адрозненне ад гэтага, жорсткія рознагалоссі наконт таго, якую марку кавы адстойвае пілот, а не марку, якую аддае перавагу другі пілот, лёгка аднесці да катэгорыі непрафесійных рознагалоссяў у гэтым канкрэтным кантэксце.

Вядома, калі непрафесійныя рознагалоссі пранікаюць у прафесійныя рознагалоссі, у канчатковым выніку мы можам быць зацікаўлены ў непрафесійных рознагалоссях як меркаванай крыніцы або іскры для прафесійных. Уявіце сабе, што пілот і другі пілот жорстка спрачаюцца наконт таго, якая марка кавы лепшая, што потым, на жаль, выліваецца ў праблемы, звязаныя з палётам (каламбур!), напрыклад, узлятаць ці не.

Па-другое, мы павінны мець на ўвазе маштабы прафесійных рознагалоссяў.

Магчыма, пілот і другі пілот або маюць невялікія рознагалоссі наконт таго, каб працягваць палёт. Яны не спрачаюцца, а проста разважаюць пра плюсы і мінусы таго, ці варта ўзлятаць. Гэта не той калібр або маштаб прафесійных рознагалоссяў, якія мы звычайна разглядаем тут. Справа ў тым, што прафесійныя рознагалоссі могуць быць часовымі, і абодва бакі выпрацоўваюць рашэнне сардэчна ці, па меншай меры, своечасова. Як правіла, у цэнтры ўвагі прафесійных рознагалоссяў знаходзяцца тыя, якія, здавалася б, невырашальныя, і абодва бакі застаюцца ўстойлівымі ў рознагалоссях.

Па-трэцяе, звычайна павінна быць нешта сур'ёзнае, каб гэтыя рэкамендацыі ўвайшлі ў дзеянне.

Рашэнне ляцець ці не ляцець - гэта, безумоўна, рашэнне, якое залежыць ад жыцця або смерці, калі палёт знаходзіцца пад пагрозай з-за шторму або самалёт лічыцца не цалкам падрыхтаваным да такой паездкі. Гэта сур'ёзны бізнэс. Мы па-ранейшаму можам прымяніць рэкамендацыі да менш рэзкіх прафесійных рознагалоссяў, хоць гэта можа быць больш клопатам, чым варта.

Добра, нашы меркаванні такія:

  • Рознагалоссі носяць прынцыпова прафесійны характар, а не з-за чагосьці непрафесійнага
  • Рознагалоссі носяць працяглы характар, а не толькі часовыя або лёгка вырашаюцца іншым чынам
  • Рознагалоссі прадказваюць сур'ёзныя наступствы і звычайна маюць сур'ёзны вынік
  • Бакі сварацца, і яны выглядаюць невырашальнымі

Давайце зараз больш падрабязна разгледзім кожны з прапанаваных мною рэкамендацый або падыходаў адносна таго, як справіцца з такімі прафесійнымі рознагалоссямі.

ШІ і аб'яднаныя людзі вырашаюць рэчы (палюбоўна ці не)

Я пачынаю спіс з простай магчымасці таго, што штучны інтэлект і чалавек у цыкле здольныя вырашыць прафесійныя рознагалоссі паміж сабой. Здаецца, што, магчыма, прыклад двух людзей, пілота і другога пілота, ілюструе такую ​​акалічнасць. Яны неяк вырашылі вярнуцца да тэрмінала і разысціся. Можа быць, што сістэма штучнага інтэлекту і чалавек здольныя знайсці падыход да вырашэння, які ў цэлым задавальняе абодва бакі, і, такім чынам, справа завершана здавальняюча.

Па змаўчанні чалавек пераважае над штучным інтэлектам

Пры наладжванні штучнага інтэлекту мы можам запраграмаваць правіла, якое абвяшчае, што пры ўзнікненні прафесійных рознагалоссяў заўсёды пераважае чалавек у цыкле. Гэта было б відавочна закадаваным па змаўчанні. На ўсялякі выпадак мы можам таксама дазволіць нейкую форму перавызначэння, хаця пазітыўнае правіла будзе заключацца ў тым, што чалавек пераважае.

ШІ па змаўчанні пераважае над чалавекам

Пры наладжванні штучнага інтэлекту мы маглі б запраграмаваць правіла, якое абвяшчае, што штучны інтэлект заўсёды павінен пераважаць над чалавекам у цыкле, калі ўзнікаюць прафесійныя рознагалоссі. Гэта відавочна закадаванае па змаўчанні. На ўсялякі выпадак мы таксама можам дазволіць нейкую форму перавызначэння, хоць па пастаянным правіле будзе перавага ІІ.

Па змаўчанні пераважае нейкае іншае загадзя вызначанае фіксаванае раздзяленне

Пры наладжванні штучнага інтэлекту мы можам запраграмаваць правіла, якое абвяшчае, што нейкае іншае загадзя вызначанае фіксаванае рашэнне будзе пераважаць кожны раз, калі ўзнікаюць прафесійныя рознагалоссі з чалавекам у цыкле. Чалавек у цыкле па змаўчанні не пераважае. Па змаўчанні AI не пераважае. Ёсць нейкая іншая прадугледжаная рэзалюцыя. Напрыклад, магчыма, ёсць кіданне манеты, якое будзе выкарыстоўвацца для вырашэння таго, які з двух бакоў лічыцца правільным шляхам. Гэта, відавочна, здавалася б даволі адвольным; такім чынам, іншым прыкладам падыходу было б увядзенне спецыялізаванага правіла, якое вылічвае значэнне на аснове ўваходных дадзеных з двух бакоў і даходзіць да выніку ў якасці тай-брэйка.

Чалавек трэцяга боку замыкаецца, і іх указанне пераважае над бакамі

У выпадку прафесійных рознагалоссяў правіла можа заключацца ў тым, што трэці бок, які з'яўляецца чалавекам, выклікаецца і падключаецца да налады для прыняцця рашэння аб вырашэнні рознагалоссяў. ШІ запраграмаваны на тое, што вырашыць старонні чалавек. Чалавек, які ўжо знаходзіцца ў цыкле, быў загадзя праінструктаваны аб тым, што ў выпадку ўзнікнення такой сітуацыі ён таксама павінен падпарадкавацца старонняму чалавеку. Акрамя таго, вы, хутчэй за ўсё, можаце прадбачыць, што чалавек, які знаходзіцца ў цыкле, можа занепакоіцца прыняццем таго, што вырашыць старонні чалавек, калі гэтае рашэнне не адпавядае пазіцыі чалавека ў цыкле.

Старонні штучны інтэлект зацыклены, і яго індыкацыя пераважае над бакамі

У выпадку прафесійных рознагалоссяў правіла можа заключацца ў тым, што трэці бок, які з'яўляецца іншай сістэмай штучнага інтэлекту, выклікаецца і ўваходзіць у наладу для прыняцця рашэння аб вырашэнні рознагалоссяў. Арыгінальны штучны інтэлект запраграмаваны на тое, што вырашыць старонні штучны інтэлект. Чалавек, які ўжо знаходзіцца ў цыкле, быў загадзя праінструктаваны аб тым, што ў выпадку ўзнікнення такой сітуацыі ён таксама павінен падпарадкоўвацца старонняму штучнаму інтэлекту. Акрамя таго, вы, хутчэй за ўсё, можаце прадбачыць, што чалавек у цыкле можа перажываць за тое, каб прыняць рашэнне старонняга штучнага інтэлекту, калі гэтае рашэнне не адпавядае пазіцыі чалавека ў цыкле.

Старонні чалавек замяняе існуючага чалавека, усё адбываецца нанова

У выпадку прафесійных рознагалоссяў чалавек у цыкле замяняецца трэцім бокам, які з'яўляецца чалавекам і з гэтага часу становіцца чалавекам у цыкле. Чалавек, які быў першапачатковым чалавекам у цыкле для гэтай задачы, больш не лічыцца часткай бягучай задачы. Гэта адкрыты аспект адносна таго, што ў адваротным выпадку адбываецца з цяпер замененым чалавекам у цыкле, але мы гаворым, што яны напэўна больш не выконваюць ніякай пастаяннай ролі ў працоўным заданні.

AI трэцяга боку замяняе існуючы AI, усё адбываецца нанова

У выпадку прафесійных рознагалоссяў штучны інтэлект замяняецца штучным інтэлектам трэцяга боку, які ў далейшым становіцца штучным інтэлектам, які выкарыстоўваецца для выканання бягучай задачы. ШІ, які першапачаткова выкарыстоўваўся для задачы, больш не лічыцца часткай задачы. Гэта адкрыты аспект таго, што ў адваротным выпадку адбываецца з замененым штучным інтэлектам, але мы гаворым, што штучны інтэлект больш не выконвае ніякай ролі ў выкананні працоўнай задачы.

Чалавек трэцяга боку замяняе існуючы штучны інтэлект, усё адбываецца па-новаму (цяпер чалавек чалавеку)

У выпадку прафесійных рознагалоссяў штучны інтэлект замяняецца староннім чалавекам, для якога гэты чалавек цяпер становіцца ўдзельнікам сумеснай каманды, які будзе выкарыстоўвацца для выканання бягучага задання. ШІ, які першапачаткова выкарыстоўваўся для задачы, больш не лічыцца часткай задачы. Гэта адкрыты аспект таго, што ў адваротным выпадку адбываецца з замененым штучным інтэлектам, але мы гаворым, што штучны інтэлект больш не выконвае ніякай ролі ў выкананні працоўнай задачы. Карацей кажучы, цяпер гэта становіцца задачай, якую выконваюць два бакі чалавек-чалавек.

Штучны інтэлект трэцяга боку замяняе існуючага чалавека, усё адбываецца нанова (цяпер штучны інтэлект да штучнага інтэлекту)

У выпадку прафесійных рознагалоссяў чалавек у цыкле замяняецца штучным інтэлектам трэцяга боку, і гэты штучны інтэлект з гэтага часу становіцца запаўненнем для папярэдняга чалавека ў цыкле. Чалавек, які быў першапачатковым чалавекам у цыкле для гэтай задачы, больш не лічыцца часткай бягучай задачы. Гэта адкрыты аспект адносна таго, што ў адваротным выпадку адбываецца з цяпер замененым чалавекам у цыкле, але мы гаворым, што напэўна яны больш не выконваюць ніякай пастаяннай ролі ў працоўным заданні. Карацей кажучы, цяпер гэта становіцца двухбаковым штучным інтэлектам для выканання задачы.

іншае

Можна прыдумаць і іншыя варыянты, каб справіцца з прафесійнымі рознагалоссямі, але мы разгледзелі тут некаторыя ключавыя камяні.

Як мы можам вырашыць, які з гэтых падыходаў будзе правільным для дадзенай сітуацыі?

Прыняцце такога выбару выклікае мноства пытанняў. Ёсць тэхналагічныя меркаванні. Ёсць дзелавыя меркаванні. Ёсць юрыдычныя і этычныя меркаванні.

У пэўнай ступені менавіта таму этыка штучнага інтэлекту і этычны штучны інтэлект з'яўляюцца такой важнай тэмай. Правілы этыкі штучнага інтэлекту прымушаюць нас заставацца пільнымі. Тэхнолагі штучнага інтэлекту часам могуць быць заклапочаныя тэхналогіямі, асабліва аптымізацыяй высокіх тэхналогій. Яны не абавязкова ўлічваюць больш шырокія грамадскія наступствы. Наяўнасць мыслення ў галіне этыкі штучнага інтэлекту і ўключэнне яго ў распрацоўку і ўкараненне штучнага інтэлекту мае жыццёва важнае значэнне для стварэння адпаведнага штучнага інтэлекту, у тым ліку (магчыма, дзіўна або іранічна) для ацэнкі таго, як этыка штучнага інтэлекту прымаецца кампаніямі.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець законы, якія б рэгулявалі розныя віды выкарыстання штучнага інтэлекту. На федэральным, дзяржаўным і мясцовым узроўнях прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні распрацаваць і прыняць такія законы паступова. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Фактычна, яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гусака, заціснуўшы дасягненні ў галіне штучнага інтэлекту, якія прыносяць велізарныя перавагі для грамадства.

На гэтым этапе гэтай важкай дыскусіі, я б паспрачаўся, што вы жадаеце некаторых ілюстратыўных прыкладаў, якія маглі б прадэманстраваць гэтую тэму. Ёсць асаблівы і, безумоўна, папулярны набор прыкладаў, якія блізкія мне. Вы бачыце, у якасці эксперта па ІІ, уключаючы этычныя і прававыя наступствы, мяне часта просяць вызначыць рэалістычныя прыклады, якія дэманструюць дылемы этыкі ІІ, каб можна было лягчэй зразумець тэарэтычны характар ​​тэмы. Адна з самых цікавых абласцей, якая яскрава прадстаўляе гэтую этычную праблему ІІ, - гэта з'яўленне сапраўдных самакіраваных аўтамабіляў на аснове ІІ. Гэта паслужыць зручным варыянтам выкарыстання або прыкладам для шырокага абмеркавання гэтай тэмы.

Вось тады вартае ўвагі пытанне, якое варта паразважаць: Ці прасвятляе з'яўленне сапраўдных беспілотных аўтамабіляў на аснове штучнага інтэлекту нешта пра вырашэнне рознагалоссяў паміж штучным інтэлекту і чалавекам, і калі так, то што гэта дэманструе?

Дазвольце мне крыху разабрацца з пытаннем.

Па-першае, звярніце ўвагу, што ў сапраўдным самакіраваным аўтамабілі няма чалавека-кіроўцы. Майце на ўвазе, што сапраўдныя аўтамабілі кіруюцца праз сістэму кіравання AI. За рулём не патрэбны кіроўца-чалавек, а таксама не прадугледжана, каб чалавек кіраваў транспартным сродкам. Для майго шырокага і пастаяннага ахопу аўтаномных транспартных сродкаў (АВ) і асабліва аўтамабіляў гл. спасылка тут.

Я хацеў бы дадаткова ўдакладніць, што маецца на ўвазе, калі я маю на ўвазе сапраўдныя аўтамабілі.

Разуменне ўзроўню самакіравання аўтамабіляў

У якасці ўдакладнення, сапраўдныя аўтамабілі з самакіраваннем - гэта тыя, дзе ІІ кіруе аўтамабілем цалкам самастойна, і падчас задачы за рулём няма ніякай дапамогі чалавека.

Гэтыя аўтамабілі без кіроўцы лічацца ўзроўнямі 4 і 5 (гл. маё тлумачэнне на гэтая спасылка тут), у той час як аўтамабіль, які патрабуе, каб вадзіцель-чалавек сумесна падзяляў намаганні за рулём, звычайна разглядаецца на ўзроўні 2 або ўзроўню 3. Аўтамабілі, якія сумесна выконваюць задачы кіравання, апісваюцца як паўаўтаномныя і звычайна ўтрымліваюць розныя аўтаматызаваныя дапаўненні, якія называюць ADAS (Advanced Driver-Asistance Systems).

Сапраўднага самакіравання на 5-м узроўні пакуль няма, і мы яшчэ нават не ведаем, ці атрымаецца гэтага дасягнуць, і колькі часу спатрэбіцца, каб дабрацца да яго.

Між тым намаганні 4-га ўзроўню паступова спрабуюць атрымаць некаторую цягу, праходзячы вельмі вузкія і выбарачныя выпрабаванні на дарозе, хоць існуюць спрэчкі наконт таго, ці варта дапускаць гэтае тэставанне як такое (усе мы - марскія свінкі на жыццё або смерць у эксперыменце якія адбываюцца на нашых шашэйных і праезных дарогах, некаторыя сцвярджаюць, глядзіце мой рэпартаж на гэтая спасылка тут).

Паколькі паўаўтамабільныя машыны патрабуюць чалавека-вадзіцеля, прыняцце такіх тыпаў аўтамабіляў не будзе прыкметна адрознівацца ад кіравання звычайнымі транспартнымі сродкамі, таму няма нічога новага, каб асвятляць іх на гэтай тэме (праўда, як вы ўбачыце у адно імгненне, наступныя пункты, як правіла, дастасавальныя).

Для паўаўтамабільных машын вельмі важна, каб грамадскасць папярэджвала аб трывожным аспекце, які ўзнікае ў апошні час, а менавіта тым, што, нягледзячы на ​​тых людзей, якія кіроўцы размяшчаюць, засынаюць за рулём аўтамабіля 2-га або 3-га ўзроўню. Усім нам трэба пазбягаць увядзення ў зман веры ў тое, што вадзіцель можа адабраць іх увагу ад кіравання задачай падчас кіравання паўаўтамабільным аўтамабілем.

Вы нясеце адказнасць за кіраванне транспартным сродкам, незалежна ад таго, якая аўтаматызацыя можа быць перакінута на ўзровень 2 або 3.

Беспілотныя аўтамабілі і рознагалоссі ІІ супраць чалавека

Для сапраўднага самакіравання аўтамабіляў узроўню 4 і ўзроўню 5 не будзе ўдзельнічаць у кіраванні аўтамабілем чалавека.

Усе пасажыры будуць пасажырамі.

AI робіць кіраванне.

Адзін з аспектаў, які трэба неадкладна абмеркаваць, цягне за сабой той факт, што ШІ, які ўдзельнічае ў сучасных сістэмах кіравання ШІ, не з'яўляецца разумным. Іншымі словамі, ШІ ў цэлым з'яўляецца сукупнасцю камп'ютэрнага праграмавання і алгарытмаў, і, напэўна, не ў стане разважаць гэтак жа, як і людзі.

Чаму гэты дадатковы акцэнт на AI не з'яўляецца разумным?

Таму што я хачу падкрэсліць, што, абмяркоўваючы ролю сістэмы кіравання ІІ, я не прыпісваю чалавечым якасцям ІІ. Звярніце ўвагу, што ў нашы дні існуе пастаянная і небяспечная тэндэнцыя да антрапамарфізацыі ІІ. Па сутнасці, людзі прызначаюць чалавечаму разуменню сённяшні ШІ, нягледзячы на ​​бясспрэчны і бясспрэчны факт, што такога ШІ пакуль няма.

З гэтым удакладненнем вы можаце сабе ўявіць, што сістэма кіравання аўтамабілем AI ніяк не можа "ведаць" пра грані кіравання. Ваджэнне і ўсё, што з гэтым звязана, трэба будзе запраграмаваць як частка апаратнага і праграмнага забеспячэння самакіравальнага аўтамабіля.

Давайце акунемся ў мноства аспектаў, якія ўзнікаюць у гэтай тэме.

Па-першае, важна ўсведамляць, што не ўсе аўтамабілі з ІІ аднолькавыя. Кожны вытворца аўтамабіляў і тэхналагічная фірма, якая займаецца самакіраваннем, прытрымліваецца свайго падыходу да распрацоўкі самакіраваных аўтамабіляў. Такім чынам, цяжка рабіць разгорнутыя заявы аб тым, што будуць рабіць або не рабіць сістэмы кіравання AI.

Акрамя таго, кожны раз, калі заяўляецца, што сістэма кіравання штучным інтэлектам не робіць якой -небудзь канкрэтнай справы, пазней гэта могуць абагнаць распрацоўшчыкі, якія фактычна запраграмавалі кампутар на такую ​​ж працу. Крок за крокам сістэмы кіравання AI штучна паступова ўдасканальваюцца і пашыраюцца. Існуючае сёння абмежаванне можа больш не існаваць у будучай ітэрацыі або версіі сістэмы.

Я спадзяюся, што гэта дае дастатковую колькасць папярэджанняў, якія ляжаць у аснове таго, што я збіраюся расказаць.

Для цалкам аўтаномных транспартных сродкаў можа не быць шанцаў на прафесійныя рознагалоссі паміж чалавекам і штучным інтэлектам з-за верагоднасці адсутнасці чалавека ў цыкле. Імкненне многіх сучасных вытворцаў беспілотных аўтамабіляў - цалкам пазбавіць чалавека-кіроўцы ад задачы кіравання. У транспартным сродку нават не будзе даступных для чалавека элементаў кіравання. У такім выпадку кіроўца-чалавек, калі ён прысутнічае, не зможа ўдзельнічаць у кіраванні аўтамабілем, паколькі ў яго няма доступу да элементаў кіравання.

Для некаторых цалкам аўтаномных транспартных сродкаў некаторыя канструкцыі па-ранейшаму дазваляюць чалавеку быць у курсе, хоць чалавеку зусім не абавязкова быць даступным або ўдзельнічаць у працэсе кіравання. Такім чынам, чалавек можа ўдзельнічаць у кіраванні аўтамабілем, калі ён гэтага пажадае. Аднак ні ў якім разе штучны інтэлект не залежыць ад чалавека для выканання якой-небудзь задачы кіравання.

У выпадку паўаўтаномных транспартных сродкаў паміж чалавекам-кіроўцам і штучным інтэлектам існуе рука аб руку. Чалавек-кіроўца можа цалкам узяць на сябе кіраванне аўтамабілем і, па сутнасці, спыніць ІІ ад удзелу ў кіраванні. Калі кіроўца-чалавек жадае аднавіць ІІ у ролі кіроўцы, ён можа гэта зрабіць, хоць гэта часам прымушае чалавека адмовіцца ад кіравання.

Іншая форма паўаўтаномнай працы прадугледжвала б працу чалавека-кіроўцы і ІІ у камандзе. ШІ кіруе аўтамабілем, а чалавек кіруе. Едуць разам. ШІ можа падпарадкоўвацца чалавеку. Чалавек можа падпарадкоўвацца ІІ.

У нейкі момант сістэма кіравання AI і кіроўца-чалавек у цыкле могуць дасягнуць моманту «прафесійнага рознагалосся» адносна задачы кіравання.

Каб праілюстраваць, як некаторыя з вышэйзгаданых правілаў вырашэння прафесійных рознагалоссяў могуць быць складанымі для выканання, разгледзім прыклад прыцягнення старонняга чалавека для ўступлення ў справу і прапановы рашэння для вырашэння нявырашанай праблемы.

Выкажам здагадку, што вытворца аўтамабіляў або тэхналагічная фірма, якая займаецца самакіраваннем, арганізавала для аддаленых людзей-аператараў доступ да элементаў кіравання аўтамабілямі ў іх парку. Чалавек-аператар сядзіць у нейкім далёкім офісе або падобнай абстаноўцы. З дапамогай камп'ютэрнай сістэмы яны могуць праглядаць сцэну ваджэння праз доступ да камер і іншых датчыкаў, загружаных у беспілотны аўтамабіль. Для іх гэта амаль як гульня ў анлайн-відэагулю, хоць, вядома, абставіны ў рэальным жыцці могуць мець цяжкія наступствы.

Сістэма штучнага інтэлекту і кіроўца-чалавек у аўтамабілі едуць на паўаўтаномным аўтамабілі па доўгай шашы. Раптам ІІ хоча скіраваць у кювет. Кіроўца-чалавек не хоча гэтага рабіць. Абодва змагаюцца за кіраванне аўтамабілем.

Як гэта будзе вырашацца?

Магчыма, мы маглі загадзя ўсталяваць, што чалавек заўсёды перамагае. Выкажам здагадку, што мы вырашылі не рабіць гэтага.

Мы маглі загадзя ўсталяваць, што ІІ заўсёды перамагае. Выкажам здагадку, што мы вырашылі не рабіць гэтага. Увогуле, мы не прымалі ніякіх з гэтых правілаў, за выключэннем таго, што мы вырашылі дазволіць старонняму чалавеку ўмяшацца і вырашыць прафесійныя рознагалоссі любога істотнага характару.

У гэтым выпадку ІІ і кіроўца-чалавек за рулём змагаюцца за кіраванне аўтамабілем. Гэта, скажам, перадаецца аддаленаму чалавеку-аператару (нашаму старонняму чалавеку). Аддалены аператар-чалавек разглядае тое, што адбываецца, і вырашае адысці ад канавы, здавалася б, прадухіляючы тое, што ІІ спрабаваў зрабіць. У той жа час выкажам здагадку, што дыстанцыйны чалавек-аператар накіроўвае на сустрэчны рух, чаго, магчыма, не хацеў рабіць ні ІІ, ні кіроўца ў машыне.

Справа ў тым, што спосаб, якім гэтае правіла было рэалізавана, заключаецца ў тым, што старонні аператар-чалавек можа цалкам перавызначыць як ІІ, так і чалавека ў цыкле. Ці прывядзе гэта да добрага выніку, дакладна не гарантавана.

Я буду выкарыстоўваць гэты прыклад, каб вылучыць некаторыя дадатковыя ідэі па гэтых пытаннях.

Вы не можаце зрабіць нахабную здагадку, што толькі таму, што адно з гэтых правілаў уведзена ў дзеянне, вынік вырашанай рознагалоссі абавязкова будзе гарантавана добрым вынікам. Можа і не быць. Не існуе жалезнага заўсёды правільнага правіла, якое можна было б выбраць.

Далей, некаторыя з гэтых правілаў могуць быць невыканальнымі.

Разгледзім прыклад аддаленага аператара-чалавека, які ўмешваецца, калі ІІ і кіроўца-чалавек сварацца з-за элементаў кіравання. Аддаленаму аператару можа спатрэбіцца шмат секунд, каб зразумець, што адбываецца. Да таго часу аўтамабіль мог апынуцца ў кювеце або мець іншы неспрыяльны вынік. Акрамя таго, выкажам здагадку, што месцазнаходжанне транспартнага сродку выключае аддалены доступ, напрыклад, знаходжанне ў месцы, дзе няма электроннага злучэння з сеткай. Ці, магчыма, у гэты канкрэтны момант не працуюць сеткавыя функцыі аўтамабіля.

Як бачыце, гэтае правіла можа выглядаць модна на паперы, хоць прымяненне правіла ў рэальным выкарыстанні можа быць вельмі цяжкім або вельмі выпадковым падыходам. Глядзіце мой крытычны агляд на дыстанцыйным аператары аўтаномных транспартных сродкаў і беспілотных аўтамабіляў на спасылка тут.

Я хацеў бы коратка асвятліць іншую сумежную тэму, якую я буду разглядаць больш падрабязна ў наступным аналізе.

Адной з нарастаючых праблем з нагоды аўтаномных транспартных сродкаў і самакіравальных аўтамабіляў, якія з'яўляюцца паўаўтаномнымі, з'яўляецца т.зв. Сіндром гарачай бульбы.

Вось здзелка.

Сістэма кіравання AI і чалавек кіруюць разам. Узнікае цяжкое становішча. ШІ быў запраграмаваны на тое, каб адмовіцца ад задачы кіравання аўтамабілем і перадаць справу чалавеку, калі надыходзіць цяжкі момант. Гэта здаецца, магчыма, «разумным» у тым сэнсе, што мы, здаецца, спасылаемся на правіла аб тым, што чалавек «пераможца» па змаўчанні ў любых патэнцыйных прафесійных рознагалоссях.

Але адключэнне штучнага інтэлекту магло быць зроблена з больш гнюснымі мэтамі або лічыцца падступнымі. Магчыма, аўтавытворца або тэхналагічная фірма, якая займаецца самакіраваннем, не хочуць, каб іх штучны інтэлект лічыўся «вінаватым» у выпадку аварыі. Каб, здавалася б, не быць заціснутым такім чынам, ІІ раптоўна перадае кіраванне чалавеку. Вуаля, цяпер чалавек, як мяркуецца, нясе поўную адказнасць за транспартны сродак.

Галоўнае ў тым, што выкажам здагадку, што штучны інтэлект выконвае гэтую перадачу, скажам, за адну секунду да канца, перш чым адбудзецца збой.

Ці сапраўды ў чалавека будзе час, каб прадухіліць катастрофу?

Хутчэй за ўсё, не.

Выкажам здагадку, што штучны інтэлектуальны інтэлект выконвае перадачу, калі да канца засталося некалькі мілісекунд або нанасекунд. Я адважуся сказаць, што ў чалавека практычна няма шанцаў зрабіць што-небудзь, каб прадухіліць катастрофу.

З пункту гледжання аўтавытворцы або фірмы, якая займаецца самакіраваннем аўтамабіляў, яны могуць паспрабаваць паводзіць сябе так, быццам у іх чыстыя рукі, калі адбываецца такая аўтамабільная аварыя. Аўтамабілем кіраваў чалавек. ІІ не кіраваў аўтамабілем. Здавалася б, адзіная «лагічная» выснова заключаецца ў тым, што вінаваты чалавек, а штучны інтэлект павінен быць цалкам беззаганным.

Гэта чаранка.

Я буду абмяркоўваць гэта больш падрабязна ў наступнай калонцы.

заключэнне

Узнікнуць прафесійныя рознагалоссі.

Цяжка ўявіць сабе любую складаную задачу, у якой дзве бакі выконваюць задачу і для якой ніколі не ўзнікне прафесійных рознагалоссяў. Здаецца, гэта краіна фантазій ці, па меншай меры, вялікая рэдкасць.

Сёння ў нас шмат і шмат выпадкаў прафесійных рознагалоссяў паміж людзьмі, якія так ці інакш вырашаюцца штодня мірна і разумна. На самай справе, мы часта ствараем сітуацыі наўмысна, каб спрыяць і раскрываць прафесійныя рознагалоссі. Вы можаце запярэчыць, што гэта дэманструе знакамітую мудрасць, што часам дзве галавы лепш, чым адна.

Па меры таго, як штучны інтэлект становіцца ўсё больш распаўсюджаным, у нас будзе шмат двухбаковых выканаўцаў задач ІІ-чалавек або чалавек-ШІ, а таксама будуць прафесійныя рознагалоссі што адбудзецца. Лянівы падыход - заўсёды паважаць чалавека. Магчыма, гэта не самы прыдатны падыход. AI можа быць лепшым выбарам. Або адно з іншых вышэйзгаданых правілаў можа быць больш разумным падыходам.

Ёсць такая мудрая фраза, якая часта паўтараецца, што мы ўсе павінны ўмець пагаджацца і не пагаджацца, але калі справа даходзіць да дроту, часам рознагалоссі трэба вырашаць адназначна, інакш разгляданая справа прывядзе да незлічонай катастрофы. Мы не можам дапусціць, каб рознагалоссі ляжалі на лазе. Час можа мець важнае значэнне, а жыццё можа быць пад пагрозай.

Існуе дакладнае патрабаванне да некаторых разумных спосабаў вырашэння рознагалоссяў, нават калі гэта не абавязкова прыемна, у тым ліку, калі штучны інтэлект і чалавек, які знаходзіцца ў цыкле, не бачаць адзін аднаго або байт у байт.

Я спадзяюся, што вы не пагадзіцеся з гэтым цалкам прыемным сцвярджэннем.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- пілот-і-другі-пілот-не пагадзіліся-да-ўзлёту-і-раптоўна-выбралі-руліць-назад-да-тэрмінала-і-разыходзіліся/