Круіз «адклікае» Robotaxis пасля аварыі, але адкліканне - няправільны механізм

У чэрвені падраздзяленне "Круіз" кампаніі General Motor, якое кіруе беспілотнымі робатаксі ўначы ў Сан-Францыска і збіраецца пашырыць паслугі, патрапіла ў аварыю з лёгкімі траўмамі, калі спынілася падчас павароту налева і хуткасць сустрэчнай машыны ударыў яго па баку. Гэта цікава як з пункту гледжання таго, што пайшло не так у выніку аварыі, так і з пункту гледжання таго, як выпраўленне праграмнага забеспячэння было названа «Адкліканнем» па запыце Нацыянальнага агенцтва па бяспецы дарожнага транспарту.

На гэтым тыдні Круіз абвясціў, што яны будуць пашырэнне іх паслуг у Сан-Францыска, а таксама адкрыццё ў Феніксе і Осціне да канца 2022 года.

Верагодна, гэта першая аварыя, у якой не ўдзельнічае кіроўца, які не забяспечвае бяспеку, ёсць няспраўнасці ў сістэме кіравання і пашкоджанні трэціх асоб (як пасажыраў, так і тых, хто сядзеў у іншым аўтамабілі). Нядаўна з'явіліся новыя падрабязнасці падзеі.

Пра ДТЗ

Транспартны сродак Круза сапраўды дапусціў памылку, але іншы транспартны сродак, па словах Круза, быў прызнаны "больш за ўсё вінаватым", таму што ён ехаў на 40 у зоне 25 і таму, што набліжаўся па паласе правага павароту, але замест павароту справа пераключыўся на скразную паласу і на хуткасці праехаў скрыжаванне. Некаторыя падрабязнасці можна знайсці ў Справаздача DMV CA. Ніякіх спасылак не было выдадзена, але падзея, магчыма, усё яшчэ расследуецца.

Рэканструкцыі падзеі дазваляюць выказаць здагадку, што машына Cruise спадзявалася зрабіць паварот налева - знакаміты «неабаронены левы бок», які выклікалі многія каманды. Prius набліжаўся па паласе, якая патрабуе павароту налева, за выключэннем аўтобусаў і таксі, і аўтамабіль Cruise выказаў здагадку, што машына сапраўды збіралася павярнуць направа і магла павярнуць першай, перш чым Prius дасягнуў месца. Prius не быў таксі, але невядома, ці былі ў Cruise у гэтым упэўненыя або на гэтым грунтаваліся рашэнні. Верагодна, круіз прадказаў, што машына замарудзіцца, пакінуўшы ёй час на паварот, і пачаў свой паварот.

Prius не запаволіўся, таму механізм прагназавання Круза палічыў, што калі аўтамабіль Cruise працягне свой паварот і хуткі Prius таксама паверне, Prius натыкнецца на Cruise. Такім чынам, Cruise зрабіў тое, што лічыў кансерватыўным правільным, а менавіта жорстка спыніўся на скрыжаванні, што дазволіла б Prius зрабіць правы бок.

Prius гэтага не зрабіў. Фактычна ён вярнуўся на скразную паласу і працягнуў рух да скрыжавання. Можна выказаць здагадку, што ён заўсёды збіраўся ехаць прама, а цяпер, магчыма, спрабаваў пазбегнуць аўтамабіля, які спыніўся на скрыжаванні. Гэта не адбылося, і ён трапіў у заднюю частку аўтамабіля Cruise, прычыніўшы нязначныя траўмы абодвум аўтамабілям.

Cruise прызнаў, што іх праграмнае забеспячэнне дзейнічала няправільна ў а падача ў NHTSA, хаця вінаваціць у аварыі Prius за высокую хуткасць і знаходжанне ў няправільнай паласе. Cruise Bolt мог прадухіліць аварыю, альбо не спыніўшыся і завяршыўшы свой ход, альбо не спрабуючы зрабіць свой паварот у першую чаргу. Большасць рабатамабіляў кансерватыўныя і не зусім гатовыя пазбягаць аварый, паскараючыся, бо гэта можа прывесці да іншых праблем.

Круз адмовіўся адказваць на большасць пытанняў аб гэтай падзеі, акрамя таго, што ёсць у іх дакументах. Як гаворыцца ў дакументацыі, машына была ў «беспілотным аўтаномным рэжыме», і круіз пацвярджае, што гэта азначае, што на борце не было бяспечнага кіроўцы. У паведамленнях паліцыі гаворыцца, што ў задняй частцы Bolt знаходзіліся 3 пасажыры (якія ехалі бясплатна), і адзін з лёгкімі траўмамі трапіў у бальніцу. У Prius былі двое, якім была аказана дапамога на месцы здарэння. Паколькі гэты пасажыр не звяртаўся да прэсы, магчыма, Круз падштурхоўваў яго не рабіць гэтага. Круіз не патрабуе NDA ад гоншчыкаў.

Круз заявіў, што гэтая праблема была вельмі рэдкай і здаралася толькі адзін раз за больш чым 120,000 3 неабароненых левых паваротаў. (Але глядзіце ніжэй, каб зразумець, ці добра гэта.) Праз XNUMX дні яны выпусцілі абнаўленне праграмнага забеспячэння, якое, на іх думку, вырашае праблему. Яны прызнаюць, што іх абавязак - рабіць больш, каб пазбегнуць аварыі, нават калі іншыя ўдзельнікі дарожнага руху паводзяць сябе дрэнна, і гэта добрая філасофія. Большасць аўтаномных каманд спрабуюць ствараць сітуацыі з бязладнымі іншымі кіроўцамі ў сімулятары і спрабуюць знайсці ўсе іх варыянты, якія могуць. Такая сітуацыя напэўна ёсць у сімулятары Круза, а таксама ў сімулятарах любой іншай буйной каманды, якая чытае навіны, калі ў іх іх яшчэ няма.

Пра Адкліканне

Цікава, што Круз ахарактарызаваў гэтае канкрэтнае абнаўленне праграмнага забеспячэння як «адкліканне» і падаў фактычнае паведамленне аб адкліканні ў NHTSA. Круз і ўсе іншыя каманды, якія працуюць, пастаянна абнаўляюць праграмнае забеспячэнне, каб выправіць праблемы, хаця, вядома, праблема, якая стала прычынай аварыі, вельмі рэдка бывае - на шчасце. Яны не праводзяць гэта праз механізм адклікання. Здаецца, механізм адклікання не падыходзіць па многіх прычынах:

  1. Круз фактычна не адклікаў транспартныя сродкі, г.зн. папрасіце вярнуць іх у сэрвісны цэнтр для выпраўлення. Ён проста выкарыстаў звычайны працэс абнаўлення праграмнага забеспячэння па эфіры.
  2. GM/Cruise ніколі не прадаваў гэтыя аўтамабілі, ён валодае імі і кіруе імі, так што на самой справе нельга адклікаць іх у кліента.
  3. Працэс адклікання ўцягнуты і бюракратычны, і, безумоўна, не можа выкарыстоўвацца для кожнага абнаўлення праграмнага забеспячэння, нават для абнаўленняў, якія вырашаюць праблему бяспекі. Амаль усе абнаўленні праграмнага забеспячэння вырашаюць тыя ці іншыя праблемы бяспекі, але не тыя, якія сапраўды выклікалі (а не маглі выклікаць) збой.

Сапраўды мае сэнс паведамляць аб гэтых аварыях і іх выпраўленнях, і сапраўды аб гэтай аварыі было паведамлена ў DMV Каліфорніі, паліцыю і NHTSA задоўга да адклікання. NHTSA запытала або прыняла адкліканне для некаторых іншых змяненняў праграмнага забеспячэння, і яму неабходна перагледзець і ўпарадкаваць гэты працэс. У той час як NHTSA мае права рэгуляваць бяспеку аўтамабіляў, якія прадаюцца ў ЗША, менш ясна, якія паўнамоцтвы яны маюць у дачыненні да аўтамабіляў, якія не прадаюцца. Варта адзначыць, што літаральна за дзень да гэтай аварыі Cruise атрымаў дазвол — але яшчэ не пачаў — прадаваць паездкі ў сваіх аўтамабілях, і можа мець сэнс рэгуляваць аўтамабілі, у якіх прадаюцца паездкі (хаця гэта можа быць хутчэй дзяржава мае значэнне, калі яны не перасякаюць дзяржаўныя межы.)

Раней, калі Pony.AI трапіў у аварыю на адным са сваіх беспілотных аўтамабіляў, DMV пазбавіла іх дазволу на працу ў гэтым штаце. У выпадку з Поні гэта была адзіночная аўтамабільная аварыя, відавочна, па віне іх аўтамабіля. Розныя абставіны маглі прывесці да розных дзеянняў або бяздзейнасці DMV.

Аварыі з робакарамі бываюць розныя

Гэтая аварыя расказвае нам пра розную схему аварый у рабатакамах. Першапачатковыя рэакцыі паказваюць, што Круз можа быць менш сталым, чым хацелася б. У 2016 годзе, праз 7 гадоў пасля заканчэння праекта, у Waymo адбылася аварыя, але без траўмаў. З тых часоў у іх было вельмі мала, хаця яны толькі нядаўна займаліся інтэнсіўнай ваджэннем на такой тэрыторыі, як Сан-Францыска. Апошнім часам у Круіза было шмат няёмкіх памылак, у тым ліку незвычайны прыпынак паліцыі, групы аўтамабіляў, якія спыняліся з-за збояў у сувязі з серверам, інцыдэнт з пажарнай машынай, скаргі на пасадку/высадку пасярод вуліца, і замярзанне ў пачатку паездкі для рэпарцёра Today Show. Гэта больш, чым мы чулі пра Waymo і іншых, і таму мы спадзяемся, што гэта проста боль у зубах. У кожнай каманды будуць збоі, і фактычна ў кожнай каманды будуць збоі, і важна тое, з якой частатой яны адбываюцца.

12 верасня Круз заявіў, што яны праехалі каля 300,000 250,000 міль на робатаксі ў Сан-Францыска без вадзіцеля бяспекі, і ў чэрвені яны зрабілі б менш. Гэта не вельмі добра, таму што вадзіцелі-людзі, як правіла, трапляюць у ДТЗ з траўмамі на кожны мільён міль язды. Нягледзячы на ​​тое, што Круіз можа быць прызнаны менш вінаватым, чым кіроўца Prius, гэта не такі добры паказчык, як хацелася б. (Аварыя пасля, скажам, 4 4 міль не азначае, што яны не праедуць мільён міль да наступнай, але гэта не добрая прыкмета.) З іншага боку, яны праехалі XNUMX мільёны міль у цэлым (з вадзіцелямі бяспекі .. Паколькі вадзіцелі бяспекі ўмешваліся пры любых праблемах на працягу XNUMX мільёнаў міль, мы не ведаем, якой была рэальная частата аварыйнасці для гэтай сістэмы - якая таксама была больш старой і горшай сістэмай у параўнанні з апошняй. Для параўнання, бяспечнае кіраванне рабіць добра, што ТэслаTSLA
паведамляе, што яго кліенты бяспечна праехалі 30 мільёнаў міль з вельмі нізкай якасцю Tesla FSD, і ніякіх паведамленняў аб сур'ёзных аварыях, асабліва аб траўмах, не з'яўлялася.

Унікальны аспект робатаў, аднак, быў адзначаны вышэй. Круіз выправіў гэтую праблему за 3 дні, і яна больш не паўторыцца, прынамсі, такім чынам. Іншыя кампаніі, верагодна, змясцілі гэта ў сваіх сімулятарах, і з імі гэтага таксама не адбудзецца. Кампаніі ствараюць вялізныя бібліятэкі сцэнарыяў мадэлявання (і нават, у праекце, які я дапамагаў ініцыяваць, гандлююць імі). Калі яны робяць гэта, у іх ёсць алгарытмы, каб "размыць" сцэнар, што азначае наладжванне ўсіх параметраў рознымі спосабамі. Яны будуць спрабаваць гэта з іншым аўтамабілем на розных хуткасцях або змяняць паласу руху ў розны час. Яны паспрабуюць гэта з круізным аўтамабілем, які дзейнічае інакш. Яны паспрабуюць гэта з пешаходамі, якія робяць розныя рэчы на ​​скрыжаванні, каб праверыць, ці не ўзнікае праблем у тысячах варыянтаў.

Гэта не так, як у людзей. Калі з чалавекам здарыўся такі няшчасны выпадак — а яны здараюцца — урокі гэтага чалавека не навучаць іншых. У лепшым выпадку з цягам часу горад можа палепшыць правілы палос або хуткасці, але для гэтага спатрэбіцца шмат інцыдэнтаў. Якія б памылкі ні рабілі робаты, яны, як правіла, становяцца толькі лепшымі.

Людзям становіцца горш. У той час як большасць людзей чакае, што маладыя кіроўцы самыя дзікія і трапляюць у найбольшую колькасць аварый, насамрэч больш за ўсё сябе забіваюць 80-гадовыя кіроўцы — графік мае трагічную форму «U». Часткова гэта адбываецца таму, што пажылыя вадзіцелі больш кволыя, але было таксама выяўлена, што яны трапляюць у больш аварый, калі іх здольнасці змяншаюцца. У прыватнасці, што дзіўна, яны часцей трапляюць у аварыі, калі іх збівае машына, а не машына, якая збівае, хоць гэта ўсё роўна іх віна, з-за падобных сітуацый падчас неабароненых левых паваротаў. Робаты павінны выдатна ацэньваць фізіку такіх сітуацый, але сістэма Круза зрабіла занадта шмат здагадак.

Гэта таксама класічны прыклад праблемы прагназавання. У той час як мы ўвесь час гаворым пра датчыкі ў свеце робакараў, зандзіраванне - гэта не мэта, гэта сродак дасягнення сапраўднай мэты, якой з'яўляецца прагназаванне. Не важна, дзе што знаходзіцца цяпер, важна, дзе яно будзе ў бліжэйшай будучыні. Круз няправільна ацаніў, куды можа пайсці Prius, і што з гэтым рабіць, калі сітуацыя зменіцца. Я падазраю, што аўтамабіль Круза не запраграмаваны на такія дзеянні, як гонка наперад, каб пазбегнуць аварыі, або нават рух заднім ходам. У нас няма звестак аб тым, ці была машына ззаду Cruise Bolt, але адна рэч, якую робяць робаты, - гэта глядзець ва ўсе бакі адначасова, і калі б ззаду было ясна, машына магла б дзейнічаць значна хутчэй, чым чалавек, які б трэба праверыць люстэрка і дабрацца да пераключэння перадач. Электрамабіль, які разганяецца вельмі хутка і своечасова, робатызаваныя электрамабілі павінны быць вельмі спрытнымі ў пазбяганні аварый — калі яны адважваюцца.

Я кажу, калі яны адважацца, таму што большасць кампаній вельмі кансерватыўныя. Яны не жадаюць рабіць рэзкіх рухаў, якія могуць пагоршыць сітуацыю, нават з аглядам на 360 градусаў. У прыватнасці, многія раптоўныя крокі такога роду тэхнічна незаконныя, і яны не жадаюць наўмысна парушаць закон, асабліва калі гэта можа пайсці не так. Напрыклад, пешаходы могуць у любы момант знянацку выйсці з-за рэчаў. Калі яны скачуць перад вамі, гэта не ваша віна, але калі вы на тратуары, каб пазбегнуць аварыі, гэта іншая гісторыя. (Не, машыны ніколі не будуць спрабаваць выбраць, каго збіць, калі ім давядзецца выбіраць паміж двума людзьмі, гэта распаўсюджаны міф і раздражняльнае пытанне, не тое, што адбываецца на самой справе.)

З часам робаты павінны справіцца з гэтай сітуацыяй лепш, чым людзі. Яны стануць лепш прадказваць, што будуць рабіць іншыя аўтамабілі. Машына павінна была ўвесь час казаць: «што я буду рабіць, калі гэты хлопец не паверне так, як таго патрабуюць правілы» і пераканацца, што ёсць дзеянне, якое можна прыняць — у тым ліку паскарацца ў павароце або даць задні ход. Калі няма дзеяння, якое магло б спрацаваць, і рызыка мае досыць высокую верагоднасць, машына будзе чакаць, але ў ідэале будзе магчымае дзеянне. Неабходна цярпець некаторую рызыку аварыі, калі іншыя дзейнічаюць бязладна. Абарончае кіраванне - гэта добра, але цалкам абарончы кіроўца будзе асцярожна блакаваць дарогі, што не вырашае праблему.

Чытайце/пакідайце каментары тут

Крыніца: https://www.forbes.com/sites/bradtempleton/2022/09/14/cruise-recalls-robotaxis-after-crash-but-the-recall-is-the-wrong-mechanism/