Вось чаму бізнес мае бурныя адносіны кахання і нянавісці з саветамі па этыцы штучнага інтэлекту

Ці варта кампаніі ствараць кансультатыўны савет па этыцы штучнага інтэлекту?

Вы можаце быць здзіўлены, даведаўшыся, што гэта няпросты адказ "так-не".

Перш чым разабрацца са складанасцямі, якія ляжаць у аснове плюсаў і мінусаў стварэння кансультатыўнага савета па этыцы штучнага інтэлекту, давайце ўпэўнімся, што мы ўсе на адной старонцы адносна таго, з чаго складаецца кансультацыйны савет па этыцы штучнага інтэлекту і чаму ён падняўся да ўзроўню загалоўка вядомасць.

Як усім вядома, штучны інтэлект (AI) і практычнае выкарыстанне штучнага інтэлекту ў бізнес-дзейнасці перайшлі праз дах як абавязковыя для сучасных кампаній. Вам было б цяжка сцвярджаць адваротнае. У некаторай ступені ўліванне штучнага інтэлекту зрабіла прадукты і паслугі лепшымі, а таксама часам прывяло да зніжэння выдаткаў, звязаных з прадастаўленнем гэтых прадуктаў і паслуг. Выдатны спіс павышэння эфектыўнасці і эфектыўнасці патэнцыйна можна аднесці да разумнага і адпаведнага прымянення штучнага інтэлекту. Карацей кажучы, даданне або пашырэнне таго, што вы робіце, шляхам уключэння штучнага інтэлекту можа быць даволі выгаднай прапановай.

Ёсць таксама, скажам так вялікі ўсплёск што прыходзіць з даданнем штучнага інтэлекту ў вашу карпаратыўную працу.

Прадпрыемствы гучна і ганарацца сваім выкарыстаннем штучнага інтэлекту. Калі штучны інтэлект проста так здараецца таксама палепшыць вашыя тавары, гэта выдатна. У той жа час заявы аб выкарыстанні штучнага інтэлекту дастаткова прыцягваюць увагу, таму вы можаце рабіць тое ж самае, што рабілі раней, але пры гэтым зарабляць значна больш грошай, раскідваючы сцяг аб тым, што штучны інтэлект з'яўляецца часткай вашай бізнес-стратэгіі, а не - дзвярныя тавары.

Апошняе меркаванне аб тым, што часам фальсіфікуюцца наконт таго, ці сапраўды выкарыстоўваецца штучны інтэлект, прымушае нас пераходзіць на арэну этыкі штучнага інтэлекту. Прадпрыемствы выказваюць разнастайныя адкрытыя ілжывыя заявы пра ІІ. Што яшчэ горш, магчыма, заключаецца ў выкарыстанні AI, які аказваецца так званым AI для дрэннага.

Напрыклад, вы, несумненна, чыталі аб шматлікіх выпадках сістэм штучнага інтэлекту, якія выкарыстоўваюць машыннае навучанне (ML) або глыбокае навучанне (DL), у якіх укараніліся расавыя прадузятасці, гендэрныя прадузятасці і іншыя неапраўданыя неправамерныя практыкі дыскрымінацыі. Аб маім пастаянным і шырокім асвятленні гэтых пытанняў, звязаных з неспрыяльным штучным інтэлектам і з'яўленнем настойлівых заклікаў да этыкі штучнага інтэлекту і этычнага штучнага інтэлекту, гл. спасылка тут і спасылка тут, Проста назваць некалькі.

Такім чынам, у нас ёсць гэтыя кіслыя драйверы, схаваныя ў, здавалася б, зусім ружовым выкарыстанні AI прадпрыемствамі:

  • Пустыя заявы аб выкарыстанні штучнага інтэлекту, калі штучнага інтэлекту насамрэч няма або яго ўвядзенне нязначнае
  • Ілжывыя сцвярджэнні аб выкарыстанні штучнага інтэлекту, якія наўмысна створаны, каб увесці ў зман
  • Ненаўмыснае ўключэнне штучнага інтэлекту, якое, аказваецца, стварае неправамерныя прадузятасці і з'яўляецца дыскрымінацыйным
  • Мэтанакіравана створаны штучны інтэлект для распаўсюджвання дрэнных прадузятасцей і гнюсных дыскрымінацыйных дзеянняў
  • іншае

Як такія бяздумныя або ганебныя дзеянні ўзнікаюць у кампаніях?

Адной з прыкметных частак галаваломкі з'яўляецца адсутнасць дасведчанасці аб этыцы штучнага інтэлекту.

Вышэйшыя кіраўнікі могуць не ведаць аб самой ідэі распрацоўкі штучнага інтэлекту, які адпавядае набору этычных правілаў штучнага інтэлекту. Распрацоўшчыкі штучнага інтэлекту ў такой фірме могуць мець пэўную дасведчанасць аб гэтым пытанні, хаця, магчыма, яны знаёмыя толькі з тэорыямі этыкі штучнага інтэлекту і не ведаюць, як пераадолець разрыў у штодзённых намаганнях па распрацоўцы штучнага інтэлекту. Існуе таксама такая акалічнасць, што распрацоўшчыкі штучнага інтэлекту хочуць прыняць этыку штучнага інтэлекту, але потым атрымліваюць моцны адпор, калі менеджэры і кіраўнікі лічаць, што гэта запаволіць іх праекты штучнага інтэлекту і павялічыць выдаткі на распрацоўку штучнага інтэлекту.

Многія кіраўнікі вышэйшага звяна не разумеюць, што непрытрымліванне этыкі штучнага інтэлекту, хутчэй за ўсё, прывядзе да таго, што яны і кампанія пачнуць губляць галаву пасля выпуску штучнага інтэлекту, які багаты складанымі і зусім непрыгожымі праблемамі. Фірма можа быць злоўленая з дрэнным штучным інтэлектам, што потым моцна падарвае рэпутацыю фірмы, якая склалася за доўгі час (рэпутацыйны рызыка). Кліенты могуць больш не карыстацца прадуктамі і паслугамі кампаніі (рызыка страты кліента). Канкурэнты могуць скарыстацца гэтай няўдачай (канкурэнтная рызыка). І ёсць шмат адвакатаў, гатовых дапамагчы тым, хто быў парушаны, з мэтай падаць буйныя іскі супраць фірмаў, якія дапусцілі гнілы штучны інтэлект у прадукцыю сваёй кампаніі (юрыдычная рызыка).

Карацей кажучы, рэнтабельнасць інвестыцый (рэнтабельнасць інвестыцый) для належнага выкарыстання AI Ethics амаль напэўна больш выгадная, чым у параўнанні з далейшымі выдаткамі, звязанымі з сядзеннем на вяршыні смуроду дрэннага AI, які не варта было ні прыдумляць, ні выпускаць.

Аказваецца, не ўсе атрымалі гэтую памятку, так бы мовіць.

Этыка штучнага інтэлекту толькі паступова набірае абароты.

Некаторыя лічаць, што непазбежна можа спатрэбіцца доўгая рука закона, каб яшчэ больш натхніць на прыняцце этычных падыходаў штучнага інтэлекту.

Акрамя прымянення прынцыпаў этыкі штучнага інтэлекту ў цэлым, існуе адпаведнае пытанне аб тым, ці павінны мы мець адметныя законы, якія б кіравалі рознымі распрацоўкамі і выкарыстаннем штучнага інтэлекту. На міжнародным, федэральным, дзяржаўным і мясцовым узроўнях сапраўды прымаюцца новыя законы, якія тычацца дыяпазону і характару таго, як трэба распрацоўваць ІІ. Намаганні па распрацоўцы і прыняццю такіх законаў з'яўляюцца ўзважанымі. Этыка штучнага інтэлекту служыць, па меншай меры, у якасці прыпынку і амаль напэўна ў некаторай ступені будзе непасрэдна ўключана ў гэтыя новыя законы.

Майце на ўвазе, што некаторыя катэгарычна сцвярджаюць, што нам не патрэбныя новыя законы, якія ахопліваюць ІІ, і што існуючых законаў дастаткова. Фактычна, яны папярэджваюць, што калі мы прымем некаторыя з гэтых законаў аб штучным інтэлекце, мы заб'ем залатога гусака, заціснуўшы дасягненні ў галіне штучнага інтэлекту, якія прыносяць велізарныя перавагі для грамадства. Глядзіце, напрыклад, мой рэпартаж на спасылка тут і спасылка тут.

Давайце пераканаемся, што мы ўсе ведаем, што змяшчаюць асновы этыкі штучнага інтэлекту.

У сваёй калонцы я раней абмяркоўваў розныя калектыўныя аналізы прынцыпаў этыкі штучнага інтэлекту, такія як гэтая ацэнка на спасылка тут, які прапануе карысны ключавы спіс этычных крытэрыяў або характарыстык сістэм штучнага інтэлекту:

  • Празрыстасць
  • Справядлівасць і справядлівасць
  • Не-злачынства
  • адказнасць
  • недатыкальнасць прыватнага жыцця
  • Дабразычлівасць
  • Свабода і аўтаномія
  • давер
  • ўстойлівасць
  • пачуццё ўласнай годнасці
  • Салідарнасць

Мяркуецца, што гэтыя прынцыпы этыкі штучнага інтэлекту настойліва павінны выкарыстоўвацца распрацоўшчыкамі штучнага інтэлекту, а таксама тымі, хто кіруе намаганнямі па распрацоўцы штучнага інтэлекту, і нават тымі, хто ў канчатковым выніку размяшчае і абслугоўвае сістэмы штучнага інтэлекту.

Усе зацікаўленыя бакі на працягу ўсяго жыццёвага цыкла штучнага інтэлекту, распрацоўкі і выкарыстання, разглядаюцца ў межах захавання ўсталяваных нормаў этычнага штучнага інтэлекту. Гэта важная асаблівасць, паколькі звычайна мяркуецца, што «толькі кодэры» або тыя, хто праграмуе штучны інтэлект, павінны прытрымлівацца паняццяў этыкі штучнага інтэлекту. Для распрацоўкі і ўкаранення штучнага інтэлекту патрабуецца ўся вёска, і для гэтага ўся вёска павінна ведаць і прытрымлівацца правілаў этыкі штучнага інтэлекту.

Сродак спробы ўвесці і ўтрымліваць пастаянную ўвагу адносна выкарыстання правілаў этыкі штучнага інтэлекту часткова можа быць зроблена шляхам стварэння кансультатыўнага савета па этыцы штучнага інтэлекту.

Далей мы распакуем аспекты кансультатыўнага савета па этыцы штучнага інтэлекту.

Саветы па этыцы штучнага інтэлекту і як іх правільна рабіць

Кампаніі могуць знаходзіцца на розных этапах прыняцця штучнага інтэлекту, а таксама на розных этапах прыняцця этыкі штучнага інтэлекту.

Уявіце сабе кампанію, якая хоча пачаць прыняцце этыкі штучнага інтэлекту, але не ведае, як гэта зрабіць. Іншым сцэнаром можа быць фірма, якая ўжо займалася этыкай штучнага інтэлекту, але, здаецца, не ведае, што трэба зрабіць для далейшага прасоўвання намаганняў. Трэці сцэнар можа быць фірмай, якая актыўна распрацоўвае і выкарыстоўвае штучны інтэлект і ўнутрана шмат зрабіла для ўвасаблення этыкі штучнага інтэлекту, хоць яны разумеюць, што ёсць верагоднасць таго, што яны ўпусцяць іншыя ідэі, магчыма, з-за ўнутранага групавога мыслення.

Для любога з гэтых сцэнарыяў можа быць разумным стварэнне кансультатыўнага савета па этыцы штучнага інтэлекту.

Паняцце даволі простае (ну, каб удакладніць, агульнае паняцце - гэта, як вядома, вяршыня айсберга, і д'ябал, безумоўна, хаваецца ў дэталях, пра што мы зараз раскажам).

Кансультатыўны савет па этыцы штучнага інтэлекту звычайна складаецца ў асноўным са знешніх кансультантаў, якіх просяць працаваць у спецыяльным кансультатыўным савеце або камітэце фірмы. Таксама ў савет могуць быць некаторыя ўнутраныя ўдзельнікі, хаця звычайна ідэя складаецца ў тым, каб сабраць кансультантаў з-за межаў фірмы, і гэта можа прыўнесці паўнезалежны погляд на тое, што робіць кампанія.

Я кажу напаўнезалежны, таму што, несумненна, могуць узнікнуць некаторыя патэнцыяльныя канфлікты незалежнасці, якія могуць узнікнуць з выбранымі членамі кансультатыўнага савета па этыцы штучнага інтэлекту. Калі фірма плаціць кансультантам, узнікае відавочнае пытанне аб тым, ці адчуваюць члены, якія плацяць, залежныя ад фірмы ў атрыманні заробку, ці ім можа быць непрыемна крытыкаваць падарункавага каня, які яны трымаюць у руках. З іншага боку, прадпрыемствы прывыклі выкарыстоўваць старонніх платных кансультантаў для разнастайных незалежных меркаванняў, так што гэта збольшага звычайна і чакана ў любым выпадку.

Кансультатыўны савет па этыцы штучнага інтэлекту звычайна просяць перыядычна збірацца як асабіста, так і на віртуальнай дыстанцыйнай аснове. Іх фірма выкарыстоўвае ў якасці дэкі. Вялікая верагоднасць таго, што ўдзельнікам прадастаўляюцца розныя ўнутраныя дакументы, справаздачы і памяткі аб намаганнях, звязаных з ІІ у фірме. Асобных членаў кансультацыйнага савета па этыцы штучнага інтэлекту можа быць прапанавана прысутнічаць на ўнутраных сустрэчах у залежнасці ад іх спецыяльнага вопыту. І г.д.

Акрамя таго, што ён можа бачыць, што адбываецца з штучным інтэлектам у фірме, і даваць новы погляд, кансультатыўны савет па этыцы штучнага інтэлекту звычайна выконвае падвойную ролю: знешняга пастаўшчыка найноўшых тэхналогій штучнага інтэлекту і этычнага штучнага інтэлекту. Ва ўнутраных рэсурсаў можа не хапіць часу, каб разабрацца ў тым, што адбываецца па-за межамі фірмы, і, такім чынам, члены кансультатыўнага савета па этыцы штучнага інтэлекту могуць атрымаць дакладныя і адаптаваныя сучасныя пункты гледжання.

Кансультатыўны савет па этыцы штучнага інтэлекту таксама можа выкарыстоўваць знутры і звонку.

Гэта можа быць складана.

Канцэпцыя заключаецца ў тым, што кансультатыўны савет па этыцы штучнага інтэлекту выкарыстоўваецца для таго, каб даць зразумець іншаму свету, што робіць фірма, калі гаворка ідзе пра штучны інтэлект і этыку штучнага інтэлекту. Гэта можа быць зручна як сродак для ўмацавання рэпутацыі фірмы. Прадукты і паслугі з выкарыстаннем штучнага інтэлекту могуць успрымацца як больш надзейныя дзякуючы залатой пячатцы адабрэння ад кансультатыўнага савета па этыцы штучнага інтэлекту. Акрамя таго, заклікі да фірмы рабіць больш у галіне этычнага штучнага інтэлекту можна некалькі прытупіць, адзначыўшы, што кампанія ўжо выкарыстоўвае кансультатыўны савет па этыцы штучнага інтэлекту.

Пытанні, якія фірма, якая выкарыстоўвае такі механізм, звычайна ставяць у кансультатыўны савет па этыцы штучнага інтэлекту:

  • Ці павінна фірма выкарыстоўваць штучны інтэлект для пэўнага прадукту або паслугі, ці гэта здаецца занадта трывожным?
  • Ці прымае фірма да ўвагі ўвесь спектр меркаванняў этыкі штучнага інтэлекту ў сваіх намаганнях у галіне штучнага інтэлекту?
  • Ці фірма ўпала ў групавое мысленне і не захацела або не магла бачыць патэнцыйна трывожныя падзенні этыкі штучнага інтэлекту, якія чакаюць гэтых намаганняў?
  • Якія найноўшыя падыходы да этыкі штучнага інтэлекту фірма павінна імкнуцца прыняць?
  • Ці магчыма было б выказаць знешнюю ацэнку нашым намаганням па этыцы штучнага інтэлекту і прыхільнасці да іх?
  • іншае

Уваход у кансультатыўны савет па этыцы штучнага інтэлекту, безумоўна, мае сэнс, і фірмы ўсё часцей ідуць па гэтым шляху.

Майце на ўвазе, што ў гэтай медалі ёсць іншы бок.

З аднаго боку медаля, кансультатыўныя саветы па этыцы штучнага інтэлекту могуць стаць наступнай лепшай рэччу пасля нарэзанага хлеба. Не грэбуйце другім бокам медаля, а менавіта яны таксама могуць быць моцным галаўным болем, і вы можаце пашкадаваць, што зайшлі на гэтую рызыкоўную тэрыторыю (як вы ўбачыце ў гэтай дыскусіі, недахопамі можна кіраваць, калі вы ведаеце, што робяць).

Кампаніі пачынаюць разумець, што яны могуць апынуцца ў невялікай цяжкасці, калі выберуць кансультатыўны савет па этыцы штучнага інтэлекту. Можна сказаць, што гэтая махінацыя чымсьці падобная да гульні з агнём. Разумееце, агонь - гэта вельмі магутны элемент, які вы можаце выкарыстоўваць, каб прыгатаваць ежу, абараніць сябе ад драпежнікаў у пустыні, сагрэць вас, прынесці святло і даць мноства карысных і жыццёва важных пераваг.

Агонь таксама можа прывесці да апёкаў, калі вы не ўмееце з ім справіцца.

Нядаўна з'явіліся розныя загалоўкі навін, якія яскрава дэманструюць патэнцыйную небяспеку наяўнасці кансультатыўнага савета па этыцы штучнага інтэлекту. Калі член адразу ж вырашыць, што ён больш не верыць, што фірма вядзе правільную дзейнасць у галіне этычнага штучнага інтэлекту, незадаволены ўдзельнік можа выйсці з моцнага раздражнення. Калі выказаць здагадку, што гэты чалавек, хутчэй за ўсё, добра вядомы ў сферы штучнага інтэлекту або ў індустрыі, у цэлым яго скачучы карабель абавязкова прыцягне ўвагу СМІ.

Тады фірма павінна перайсці на абарону.

Чаму ўдзельнік сышоў?

Што гнюсна задумала кампанія?

Некаторыя фірмы патрабуюць, каб члены кансультатыўнага савета па этыцы штучнага інтэлекту падпісалі NDA (пагадненні аб неразгалошванні інфармацыі), якія, здавалася б, абароняць фірму, калі член вырашыць пайсці на "махлярства" і разбіць кампанію. Аднак праблема заключаецца ў тым, што нават калі чалавек захоўвае адноснае маўчанне, тым не менш, існуе верагоднасць прызнання таго, што ён больш не ўваходзіць у кансультатыўны савет па этыцы штучнага інтэлекту. Гэта само па сабе выкліча самыя розныя пытанні.

Больш за тое, нават калі NDA існуе, часам удзельнік будзе спрабаваць абыйсці яго палажэнні. Гэта можа ўключаць у сябе спасылкі на неназваныя агульныя «тэматычныя даследаванні», каб вылучыць анамаліі этыкі штучнага інтэлекту, якія, на іх думку, фірма падступна выконвала.

Удзельнік, які загінуў, можа быць цалкам нахабным і наўпрост выказаць сваю занепакоенасць кампаніяй. Ці з'яўляецца гэта відавочным парушэннем NDA, магчыма, менш важна, чым той факт, што інфармацыя распаўсюджваецца з-за сумненняў у галіне этычнага штучнага інтэлекту. Фірма, якая спрабуе падаць у суд на члена за парушэнне NDA, можа жорстка абліваць сябе, падаграваючы дадатковую ўвагу да спрэчкі і выглядаючы як класічны паядынак Давіда супраць Галіяфа (фірма з'яўляецца вялікім «монстрам»).

Некаторыя вышэйшыя кіраўнікі мяркуюць, што яны могуць проста дасягнуць фінансавага разліку з любым членам кансультатыўнага савета па этыцы штучнага інтэлекту, які лічыць, што фірма робіць няправільныя рэчы, у тым ліку ігнаруючы або прымяншаючы агучаныя праблемы.

Гэта можа быць не так проста, як можна меркаваць.

Часта члены дружалюбна ставяцца да этыкі і не будуць лёгка адступаць ад таго, што яны лічаць этычнай барацьбой "правільны супраць няправільных". Яны таксама могуць быць фінансава стабільнымі і не жадаць адмаўляцца ад сваіх этычных запаведзяў або могуць мець іншую працу, якая застаецца некранутай пасля выхаду з кансультатыўнага савета па этыцы штучнага інтэлекту.

Як можа быць відавочна, некаторыя пазней разумеюць, што кансультатыўны савет па этыцы штучнага інтэлекту - гэта палка з двума канцамі. Такая група можа перадаць велізарную каштоўнасць і важнае разуменне. Пры гэтым вы гуляеце з агнём. Можа быць, што член або члены вырашаюць, што яны больш не вераць, што фірма робіць надзейную працу па этычным штучным інтэлекту. У навінах з'яўляюцца прыкметы таго, што часам увесь кансультатыўны савет па этыцы штучнага інтэлекту сыходзіць разам, усе адначасова, або некаторыя члены, якія аб'яўляюць аб сыходзе, аб'яўляюць аб сыходзе.

Будзьце гатовыя да добрага і да праблем, якія могуць узнікнуць з кансультатыўнымі саветамі па этыцы штучнага інтэлекту.

Вядома, бываюць выпадкі, калі кампаніі насамрэч не робяць належных рэчаў, калі справа даходзіць да этыкі штучнага інтэлекту.

Такім чынам, мы спадзяемся і чакаем, што кансультатыўны савет па этыцы штучнага інтэлекту ў гэтай фірме актывізуецца, каб паведаміць пра гэта, як мяркуецца, спачатку ўнутры фірмы. Калі фірма будзе працягваць меркаваны дрэнны шлях, члены, безумоўна, будуць этычна абавязаны (магчыма, таксама юрыдычна) прыняць іншыя меры, якія яны лічаць патрэбнымі (члены павінны пракансультавацца са сваім асабістым адвакатам для любой такой юрыдычнай кансультацыі). Магчыма, гэта адзіны спосаб прымусіць кампанію змяніць свой шлях. Рэзкія дзеянні члена або групы ўдзельнікаў могуць здацца апошнім сродкам, які ўдзельнікі спадзяюцца пераламаць сітуацыю. Акрамя таго, гэтыя члены, хутчэй за ўсё, не хочуць быць часткай чагосьці, што, на іх гарачую думку, адышло ад Этыкі штучнага інтэлекту.

Карысны спосаб разгледзець гэтыя магчымасці:

  • Фірма адступае, удзельнік вырашае выйсці з-за меркаванага адсутнасці цвёрдай адпаведнасці патрабаванням
  • Фірма не збіваецца з ладу, але ўдзельнік лічыць, што фірма збіваецца з-за меркаванага неадпаведнасці

Знешні свет не абавязкова будзе ведаць, ці ёсць у члена, які сыходзіць, добрасумленныя падставы для заклапочанасці з нагоды фірмы, ці гэта можа быць нейкім ідыясінкразічным або памылковым уражаннем удзельніка. Існуе таксама даволі простая магчымасць выхаду члена групы з-за іншых абавязацельстваў або па асабістых прычынах, якія не маюць нічога агульнага з тым, што робіць фірма.

Сутнасць заключаецца ў тым, што для любой фірмы, якая прымае кансультатыўны савет па этыцы штучнага інтэлекту, важна ўважліва прадумаць увесь спектр этапаў жыццёвага цыкла, звязаных з групай.

З усімі гэтымі размовамі аб праблемных аспектах, я не хачу ствараць уражанне, што трымаюся далей ад наяўнасці кансультатыўнага савета па этыцы штучнага інтэлекту. Гэта не паведамленне. Сапраўдная сутнасць заключаецца ў тым, каб стварыць кансультатыўны савет па этыцы AI і пераканацца, што вы робіце гэта правільна. Ператварыце гэта ў сваю запаветную мантру.

Вось некаторыя з часта згадваных пераваг кансультатыўнага савета па этыцы штучнага інтэлекту:

  • Майце пад рукой сродкі для адбівання праектаў і ідэй штучнага інтэлекту ад паўнезалежнай прыватнай групы
  • Скарыстайцеся вопытам у галіне этыкі штучнага інтэлекту, атрыманым з-за межаў фірмы
  • Імкніцеся пазбягаць рогату ў галіне этыкі штучнага інтэлекту і прамых катастроф з боку фірмы
  • Станьце піярам для кампаніі і яе сістэм штучнага інтэлекту
  • Прарыў унутранага групавога мыслення аб ІІ і этыцы ІІ
  • Зрабіце новы погляд на інавацыі штучнага інтэлекту і іх практычнасць
  • Павысіць рэпутацыю і статус фірмы
  • Служыць нястрымным голасам, калі намаганні цвёрдага штучнага інтэлекту не дасягнуты
  • іншае

Вось агульныя спосабы, з дапамогай якіх фірмы псуюць і зніжаюць працу кансультатыўнага савета па этыцы штучнага інтэлекту (не рабіце гэтага!):

  • Дайце расплывістыя і заблытаныя ўказанні адносна місіі і мэты
  • Толькі ашчадна параіліся і часта не своечасова пасля таго, як конь ужо выйшаў з хлява
  • Трымалі ў цемры
  • Fed жорстка адфільтраваная інфармацыя, якая дае памылковае адлюстраванне рэчаў
  • Выкарыстоўваецца выключна ў якасці дэманстрацыі і не для іншых мэтаў стварэння каштоўнасці
  • Не дазваляецца рабіць якія-небудзь падабенствы даследаванняў па ўнутраных справах
  • Пазбаўленыя дастатковых рэсурсаў для належнага выканання сваёй працы
  • Адсутнасць відавочнага лідэрства ў групе
  • Адсутнасць увагі з боку кіраўніцтва фірмы да групы
  • Чакаецца сляпое ўхваленне ўсяго, што будзе прадстаўлена
  • Выпадковы выбар членаў
  • Ставіліся з невялікай павагай і, здавалася б, проста галачкай
  • іншае

Яшчэ адна праблема, якая часта бянтэжыць, звязана з характарам і паводзінамі розных членаў, якія ўваходзяць у склад кансультатыўнага савета па этыцы штучнага інтэлекту, што часам можа выклікаць наступныя праблемы:

  • Некаторыя члены могуць быць толькі канцэптуалізатарамі этыкі штучнага інтэлекту, а не разбірацца ў этыцы штучнага інтэлекту як практыцы і, такім чынам, даваць мінімалістычныя ідэі для бізнесу
  • Некаторыя з іх могуць быць напышчанымі, калі справа даходзіць да этыкі штучнага інтэлекту, і з імі надзвычай цяжка мець справу на працягу ўсяго ўдзелу
  • Унутраная бойка можа стаць істотным адцягваючым фактарам, часта гэта сутыкненне вялікага эга, і група ператвараецца ў дысфункцыянальную
  • Некаторыя з іх могуць быць занадта занятыя і празмерна адданыя сваёй справе, так што яны не ўдзельнічаюць у кансультацыйных намаганнях па этыцы штучнага інтэлекту
  • Некаторыя маюць глыбокае непахіснае меркаванне аб этыцы штучнага інтэлекту, якое з'яўляецца нягнуткім і нерэалістычным
  • Некаторыя схільныя да эмацыянальных, а не аналітычных і сістэмных меркаванняў, якія ляжаць у аснове этыкі штучнага інтэлекту
  • Можа быць падобны да вядомай прымаўкі быць падобным да статка катоў, якія не засяроджваюцца і блукаюць бязмэтна
  • іншае

Здаецца, некаторыя фірмы воляй-няволяй ствараюць кансультатыўны савет па этыцы штучнага інтэлекту. Ніякіх думак не ідзе пра членаў, якія будуць выбраны. Не варта думаць пра тое, што кожны з іх прыносіць да стала. Ніякіх думак не ідзе пра частату сустрэч і пра тое, як яны павінны праводзіцца. Увогуле, ніхто не думае аб тым, каб кіраваць кансультатыўным саветам па этыцы штучнага інтэлекту. І г.д.

У пэўным сэнсе, з-за недахопу вынаходлівасці вы, хутчэй за ўсё, прывядзеце ў рух цягнік.

Не рабі гэтага.

Магчыма, гэты спіс правільныя справы цяпер відавочна для вас, зыходзячы з дагэтуль дыскурсу, але вы, магчыма, былі б шакаваныя, даведаўшыся, што нешматлікія фірмы, здаецца, разумеюць гэта правільна:

  • Дакладна пазначце місію і мэту кансультатыўнага савета па этыцы штучнага інтэлекту
  • Пераканайцеся, што групе будзе нададзена належная ўвага на вышэйшым узроўні
  • Вызначце тып удзельнікаў, якія лепш за ўсё падыдуць для групы
  • Падыдзіце да жаданых членаў і вызначце, ці падыходзяць яны для групы
  • Заключыце адпаведныя дамоўленасці з выбранымі членамі
  • Усталюйце лагістыку сустрэч, частату і г.д.
  • Вызначце абавязкі членаў, аб'ём і глыбіню
  • Прадбачыце ўнутраныя рэсурсы, неабходныя для аказання дапамогі групе
  • Вылучыце дастаткова рэсурсаў для самой групы
  • Падтрымлівайце кансультатыўны савет па этыцы штучнага інтэлекту актыўным і падключаным
  • Загадзя заплануйце эскалацыю, калі ўзнікнуць праблемы
  • Пакажыце, як будуць разглядацца надзвычайныя сітуацыі або сітуацыі, звязаныя з крызісам
  • Каб падтрымліваць мікс прыдатным, мяняйце членаў унутр або на бок
  • Загадзя прадугледзелі шляхі выхаду для ўдзельнікаў
  • іншае

заключэнне

Некалькі гадоў таму многія аўтавытворцы і тэхналагічныя фірмы, якія займаюцца самакіраваннем, якія прыступаюць да распрацоўкі беспілотных аўтамабіляў на базе штучнага інтэлекту, нечакана былі заахвочаны прыняць меры для стварэння кансультатыўных саветаў па этыцы штучнага інтэлекту. Да гэтага моманту, здавалася, было мала ўсведамлення наяўнасці такой групы. Меркавалася, што ўнутранай увагі да Ethical AI будзе дастаткова.

Я падрабязна абмяркоўваў у сваёй калонцы розныя няшчасныя памылкі або недагляды ў этыцы штучнага інтэлекту, якія часам прыводзілі да праблем з самакіраваннем аўтамабіляў, такіх як нязначныя аўтамабільныя аварыі, відавочныя сутыкненні аўтамабіляў і іншыя бедствы. Глядзіце маё асвятленне на спасылка тут. Важнасць бяспекі штучнага інтэлекту і падобных сродкаў абароны павінна быць галоўным фактарам для тых, хто стварае аўтаномныя транспартныя сродкі. Кансультатыўныя саветы па этыцы AI ў гэтай нішы дапамагаюць трымаць бяспеку AI жыццёва важным прыярытэтам.

Мой любімы спосаб выказаць такое адкрыццё пра этыку штучнага інтэлекту - параўнаць гэта з землятрусамі.

Жыхары Каліфорніі час ад часу падвяргаюцца землятрусам, часам даволі моцным. Можна падумаць, што падрыхтоўка да землятрусу будзе заўсёды актуальнай. Не так. Цыкл працуе такім чынам. Адбываецца істотны землятрус, і людзям нагадваюць аб падрыхтоўцы да землятрусу. Ненадоўга, ёсць спешка распачаць такую ​​падрыхтоўку. Праз некаторы час увага да гэтага згасае. Падрыхтоўка адпадае на другі план або па-іншаму занядбана. Бум, чарговы землятрус, і ўсе тыя, хто павінен быў быць падрыхтаваны, застаюцца «знянацку», як быццам яны не здагадваліся, што землятрус калі-небудзь можа адбыцца.

Фірмы часта робяць тое ж самае адносна кансультатыўных саветаў па этыцы штучнага інтэлекту.

Яны не пачынаюць яго, а потым раптам, у выпадку нейкай катастрофы ў іх штучным інтэлекте, яны рэактыўна падштурхоўваюцца да дзеянняў. Яны хістка ствараюць кансультатыўны савет па этыцы штучнага інтэлекту. У ім шмат праблем, пра якія я згадваў раней. Кансультатыўны савет па этыцы AI распадаецца. На жаль, новая праблема са штучным інтэлектам у фірме абуджае патрэбу ў кансультатыўным савеце па этыцы штучнага інтэлекту.

Прамыйце, прамыйце і паўтарыце.

Прадпрыемствы, безумоўна, выяўляюць, што часам у іх узнікаюць адносіны любові і нянавісці з намаганнямі іх кансультатыўнага савета па этыцы штучнага інтэлекту. Калі справа даходзіць да таго, каб усё рабіць правільна, любоў лунае ў паветры. Калі справа даходзіць да таго, каб зрабіць рэчы не так, успыхвае лютая нянавісць. Пераканайцеся, што вы робіце ўсё неабходнае, каб захаваць любоў і прадухіліць нянавісць, калі справа даходзіць да стварэння і падтрымання кансультатыўнага савета па этыцы штучнага інтэлекту.

Давайце ператворым гэта ў любоўныя адносіны.

Крыніца: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/