<table id="ej5zp"></table>

  • 展會信息港展會大全

    自動駕駛也怕“被追尾”?
    來源:互聯網   發布日期:2022-08-20 07:52:12   瀏覽:4765次  

    導讀:圖片來源@視覺中國 文 | 科技新知,作者丨樟稻,編輯丨伊頁 第二季度的汽車供應鏈危機剛剛度過,盛夏之末自動駕駛相關的交通事故又此起彼伏,不免讓外界談之色變: 輔助駕駛狀態下的小鵬P7突發致命車禍、理想ONE在開啟NOA(導航輔助駕駛)時撞上高速公路工程...

    自動駕駛也怕“被追尾”?

    圖片來源@視覺中國

    文 | 科技新知,作者丨樟稻,編輯丨伊頁

    第二季度的汽車供應鏈危機剛剛度過,盛夏之末自動駕駛相關的交通事故又此起彼伏,不免讓外界談之色變:

    輔助駕駛狀態下的小鵬P7突發致命車禍、理想ONE在開啟NOA(導航輔助駕駛)時撞上高速公路工程車、零跑汽車高速上半自動駕駛追尾前車……

    上述這些事故嚴格意義上屬于“輔助駕駛”的范疇,但后者經常在面向用戶的車企廣告、車輛銷售時被混淆概念,可以說是披了一層“自動駕駛”的外殼來吸引關注。

    當“輔助駕駛”在輿論漩渦中分身乏術之時,看起來危險性更大的“自動駕駛”本尊,卻顯得“無辜”起來。

    同樣在8月,網上流傳一輛蘿卜快跑無人出租車的車禍照片。內容顯示,蘿卜快跑無人車的后部遭到撞擊,有車輪脫落,車損較為嚴重。

    事后蘿卜運力方面表示,“網上流傳的蘿卜運力測試車輛與社會車輛發生交通事故的照片,為8月10日蘿卜運力車輛在正常測試過程中,被后方車輛分心駕駛導致追尾事故,無人員傷亡。”

    公告最后,蘿卜運力還提醒外界稱,“近期相關部門也在不斷呼吁告誡廣大機動車駕駛員分心駕駛如盲行。”頗有幾分自矜的意味。

    回顧以往,自汽車開始普及,交通事故問題一直伴隨至今。隨著行業安全標準的不斷推動,安全技術能力的不斷提升,社會逐漸接納了適當的風險。

    如今,人工智能等新一代技術的推動下,自動駕駛汽車逐漸在物理世界中出現。新事物的誕生往往夾雜著質疑,自動駕駛是否足夠安全,一直是橫亙在用戶面前的一座大山。

    自動駕駛事故特征的橫截面來剖析,無疑是消解技術隔閡的一種有效方式。

    自動駕駛躺槍?

    蘿卜快跑不是第一次被追尾。

    就在6月初,網上流傳一輛蘿卜快跑無人駕駛測試車的車禍照片。從照片中可以看到,車尾被嚴重撞毀,疑似發生追尾。

    事后,百度方面回應聲稱,網上流傳的蘿卜快跑測試車輛被追尾照片,系發生在5月上旬,蘿卜運力測試車輛在北京經開區正常行駛狀態下,被后方貨車追尾導致的交通事故。

    上述負責人表示,經現場勘查、取證等工作,事故形成原因是貨車未與前車保持足以采取緊急制動措施的安全距離的違法行為所導致,事故認定貨車駕駛員負全部責任,和自動駕駛沒有關系。

    從現有披露的信息中看,平臺聲稱自身不負有責任,且在現有的法律框架中,追尾事故多半是后車的責任。但短短3個月時間內,蘿卜快跑就發生兩起被追尾事件,概率不可不謂之高。

    倘若拉長時間線來看,在數起典型的自動駕駛事故中,被追尾的次數其實屢見不鮮:

    去年8月,蘋果的兩輛自動駕駛汽車發生了輕微交通事故。根據美國加州機動車輛管理局(California Department of Motor Vehicles,簡稱DMV)公布的事故報告顯示,在這兩起事故中,蘋果公司的汽車均是被追尾。

    更為巧合的是,2018年9月1日,據路透社報道,蘋果自動駕駛車輛發生了首次“碰撞”事故,同樣是被別人追尾。

    根據蘋果公司上交給DMV的一份文件顯示,蘋果的一輛雷克薩斯RX450自動駕駛測試汽車在“自動模式”下,以低于1 Mph的速度駛入勞倫斯高速公路時,被一輛2016款日產聆風追尾。

    對于這起事故,蘋果發言人拒絕發表評論,同樣不愿回應此次事故測試車是否有責任。

    典型案例之外,自動駕駛車輛頻繁被追尾是偶然事件嗎?從數據來看,答案是否定的。

    DMV從2014年4月開始為自動駕駛汽車發放道路測試許可證,并要求所有自動駕駛汽車制造商每年提交駕駛測試中自動模式脫離和事故報告。

    截至2022年8月5日,DMV收到499份不同廠商自動駕駛汽車真實道路測試車輛碰撞報告。分析這些數據,可以從中發現一些規律。

    2014-2018年,報告中記錄了82起自動駕駛汽車在自動駕駛模式時發生的事故,其中:

    自動駕駛汽車交通事故主要發生在城市道路上,占總數的95%,城市道路上自動駕駛汽車事故中,發生在交叉口、變道和減速轉彎的事故率分別為57%、27%和7%。

    自動駕駛也怕“被追尾”?

    在交叉口事故中,64%是自動駕駛汽車停駐等候紅燈或行人時被普通車輛追尾,15%是在減速轉彎時被普通車輛追尾,其余的是在信號燈變紅自動駕駛汽車減速或信號燈變綠自動駕駛汽車起動時被普通車輛追尾。其余場景中,被追尾次數占比比例也頗高。

    從這份數據可以得出結論,自動駕駛車輛碰撞的原因,是經常由其他道路交通使用者所致被追尾。

    當然,這份數據是2018年之前,隨著自動駕駛技術的發展,車輛碰撞情形或許會發生變化。

    根據百度發布的《自動駕駛汽車交通安全白皮書》顯示,2014-2020年中,根據DMV公布的數據,在所記錄真實事故案例中,自動駕駛汽車事故主要由其他道路交通使用者所致,占比為84%,因自動駕駛汽車自身原因所致事故占比為16%。

    自動駕駛也怕“被追尾”?

    其中,在2019-2020年時間段內,自動駕駛汽車發生事故時,后部碰撞(其他道路交通參與者追尾正常行駛的自動駕駛汽車)點位個數為101個,占比67.8%。

    從以上數據來看,自動駕駛似乎才是那個“受害者”。

    技術未必無辜

    在上述報告中,主要將因其他道路交通參與者導致的追尾事故場景定性為,其他機動車輛試圖對自動駕駛汽車強行變道超車、自動駕駛汽車在交叉口附近進行減速禮讓。

    而造成車輛追尾的原因,被解釋為后車駕駛人注意力不集中、疲勞駕駛、跟車太緊而車速快、車輛尾燈或剎車故障、輪胎磨損、雨雪天路面打滑及霧天能見度降低、路面磨損等。

    從這些原因來看,似乎自動駕駛才是遵守交通規則的“好學生”,不遵守交通規則的人類駕駛員,才是追尾事故的始作俑者。

    但數據同樣是一把雙刃劍。

    美國統計專家Darrell Huff,早在其著作《統計數據會說謊》中,揭示了統計學領域慣常會出現的操縱伎倆,當時還引起了民眾、政府和媒體對于“社會統計數據信息”的關注和探討。

    這類事件中,一個容易被忽視的地方在于,上述的碰撞數據均由廠商將涉及自動駕駛汽車的交通事故報告 (OL 316) 提交給DMV,在涉及事故細節一欄上也由廠商填寫。因此,存在一定的“修飾”也是可能的。

    自動駕駛也怕“被追尾”?

    交通碰撞報告表

    除此之外,還需要考慮安全員的影響。當下,盡管部分地區新規允許服務商提供“主駕位無安全員、副駕有安全員”的自動駕駛出行服務,但多數自動駕駛場景中,主駕安全員是必備的。

    根據公開資料披露,2021年,百度一輛L4級自動駕駛測試車輛在某開放道路測試過程中,發生一起由于安全員接管不當導致的車輛碰撞。

    事發時,測試車輛左轉通過交叉路口,對向社會車輛直行闖紅燈,進入路口后社會車輛前部碰撞測試車輛右側前部。盡管不是被追尾,但該事故同樣是主要由其他道路交通使用者所致。

    測試車輛在自動駕駛模式下左轉進入路口,行駛至路口中間位置時,感知到對向車道內有社會車輛處于運動狀態,并根據預測出的行駛軌跡預判其有闖紅燈的安全風險,從安全角度考慮,自動駕駛系統采取制動措施提前避讓違規通行的社會車輛。

    但同時,測試車上的安全員也看到有車輛闖紅燈朝向測試車駛來,出于駕駛本能,通過踩踏加速踏板的方式進行人工接管,指揮測試車輛在人工駕駛模式下加速行駛,最終被社會車輛碰撞。

    還可以發現,人為的原因之外,自動駕駛自身的配置同樣也能影響到追尾事故。

    在今年2月,美國國家公路交通安全管理局(NHTSA)收到的關于特斯拉汽車意外和不必要的制動事件投訴越來越多,監管機構表示正在調查。

    這種現象被調侃稱為“幽靈剎車”。即用戶在開啟Autopilot或者使用FSD等L2自動駕駛系統時,車輛會在某種看似無需剎車的情況下突然無征兆地剎車。

    這個故障對于車后跟隨行駛的其他車輛來說,無疑是一種潛在危險。對此,不少車主向監管機構投訴稱,特斯拉車輛的幽靈制動讓其陷入被追尾的險境中。

    據《華盛頓郵報》報道,2021年11月-2022年1月的三個月里,關于特斯拉“幽靈剎車”問題報告已經上升到107起,而在之前的22個月里只有34起。

    今年5月,美國國家公路交通與安全管理局(NHTSA)已經給特斯拉公司發函,要求其在6月20日之前給大量特斯拉用戶,因車輛頻頻出現“幽靈剎車”給出解釋。

    據《車東西》統計,“幽靈剎車”投訴增加的時間點正是出現在,特斯拉宣布取消自動駕駛系統中的毫米波雷達之后說明純視覺路線與幽靈剎車的增多直接相關,即配置和算法問題。

    盡管L2級的輔助駕駛,與L4級的自動駕駛有所區別(傳感器、算法等),但技術路徑上本就存在一定共性。Frank就曾分析Apollo 6.0 中一個簡單的模塊Guardian,發現也存在緊急剎車的情況。

    因此,自動駕駛確實需要警惕最近發生的同類事故。

    寫在最后

    有親身體驗過自動駕駛的業內人士表示,“坐過自動駕駛出租車就可以發現,它太遵守交通規則了,以至于路上大多數車輛反而顯得不守規則。旁邊車輛稍一加速超車、或者前面有行人離車較近,自動駕駛車輛為了保證行駛安全就容易緊急制動,急剎車時頓挫感非常明顯。”

    這似乎成為了一道難解的數學題:如果通過預判與估算等綜合算法來靈活控制自動駕駛車輛的行車軌跡,以至于讓其“更像”真人駕駛,反而更會提升事故率。

    其實,在如今的技術水平下,假設自動駕駛車輛上路后,都能按照既定的規則行駛,相對而言是安全的。核心矛盾在于,人類駕駛員的行為是非常復雜的,除非上路車輛全部自動駕駛,否則難以預判人類駕駛,車禍的發生就避無可避。

    在上述案例中,對自動駕駛被追尾事故的苛責,似乎顯得有些吹毛求疵,因噎廢食本就是不可取的,任何一項技術從誕生走到完全成熟都需要過程。

    但如今自動駕駛正處于技術快速演進、產業加速布局的商業化前期階段,任何矛盾都容易被輿論無限放大。

    今年8月8日,百度表示稱已獲得重慶和武漢的批準,可以向乘客提供全無人駕駛網約車有償服務,這些網約車沒有司機或安全人員。

    目前自動駕駛車輛無需在駕駛座配備司機,但大多情況下仍然需要在副駕座位上配備一名安全人員。此次獲批,預示著自動駕駛商業化落地更進一步的同時,安全性也被外界更加關注。

    作為自動駕駛技術與產業應用發展最重要的前提條件,在行業進入“穩步爬升期”之前,對安全過分謹慎些一點也不為過。

    參考資料:

    公路與汽運《美國加州自動駕駛汽車路測數據分析》

    百度《自動駕駛汽車交通安全白皮書》

    車東西《拿掉毫米波雷達后,特斯拉3個月被投訴了107次》

    Frank《自動駕駛 Apollo 源碼分析系列,安全守護篇(一):為何緊急剎車?》

    贊助本站

    人工智能實驗室
    AiLab云推薦
    展開
    Copyright © 2010-2022 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港 | 站長號
    18禁无遮拦无码国产在线播放

    <table id="ej5zp"></table>