日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

首頁 > 汽車技術 > 正文

蔚來為什么會撞靜止車輛?

2021-08-25 00:10:36·  來源:佐思汽車研究  作者:周彥武  
 
蔚來事故是將輔助駕駛誤用為自動駕駛,撞上了靜止的公路養(yǎng)護車,責任不在蔚來,而在車主和銷售人員。銷售人員在介紹產(chǎn)品時必定會夸大宣傳,厚厚的車主手冊估計沒
蔚來事故是將輔助駕駛誤用為自動駕駛,撞上了靜止的公路養(yǎng)護車,責任不在蔚來,而在車主和銷售人員。銷售人員在介紹產(chǎn)品時必定會夸大宣傳,厚厚的車主手冊估計沒幾個人會仔細看。那么蔚來為什么會撞靜止車輛?普通人看起來很簡單的路況,為什么智能駕駛不行?

蔚來為什么會撞靜止車輛?
公認深度學習大牛吳恩達,圖像識別與探測一體無法分割。
圖片來源:互聯(lián)網(wǎng)

由于硬件廠家的誤導,讓普通大眾以為算力和安全性成正比,和技術先進度成正比。實際毫無任何直接關聯(lián),其原因在于通常說的算力都是AI算力,也就是深度學習算力,更準確地說是卷積部分乘積累加的運算?;趩文炕蛉康臋C器視覺,有著天然的無法改變的缺陷,這個缺陷表現(xiàn)為識別或者說分類與探測是一體的,無法分割,特別是基于深度學習的機器視覺。也就是說,如果無法將目標分類(classification,也可以通俗地說是識別recognition)就無法探測。換句話說,如果無法識別目標就認為目標不存在,就會變瞎子。車輛會認為前方無障礙物,會不減速直接撞上去。

什么狀況下無法識別?有兩種情況,第一種是訓練數(shù)據(jù)集無法完全覆蓋真實世界的全部目標,能覆蓋10%都已經(jīng)是很神奇的了,更何況真實世界每時每刻都在產(chǎn)生著新的不規(guī)則目標。特斯拉多次事故都是如此,比如在中國兩次在高速公路上追尾掃地車(第一次致人死亡),在美國多次追尾消防車。第二種是圖像缺乏紋理特征,就像攝像頭面前放一張白紙,自然識別不出來是什么物體。某些底盤高的大貨車的側面在某一時刻或者一堵白墻,就是白紙一樣,基于深度學習的機器視覺此時就是瞎子,不減速直接撞上去。此外,靜止目標對深度學習也是麻煩,為了提高識別效率,機器視覺尤其是基于深度學習的機器視覺需要先框選出運動目標,同時也為了防止誤判,也必須將運動目標和靜止目標分開,如有些道路兩側停滿汽車,運動目標的優(yōu)先級自然高于靜止目標,然后再去識別,通常是背景減除、三幀法或光流法,有時需要1-2秒時間,然而事故可能就發(fā)生了。

蔚來為什么會撞靜止車輛?1
圖片來源:互聯(lián)網(wǎng)

法雷奧激光雷達簡介,激光雷達專治這幾個難題,立體雙目也可以解決這些難題。

解決辦法就是傳統(tǒng)非深度學習算法,特別是立體雙目和激光雷達,二者均可做到不分類也能探測目標的信息,無法識別就變瞎子的問題可以完美解決,不過這些技術掌握在豐田、奔馳這些真正的頂級大廠手中。

蔚來為什么會撞靜止車輛?2
特斯拉在美國撞上翻倒的靜止的卡車。圖片來源:互聯(lián)網(wǎng)

從本質(zhì)上講,深度學習是一種高度通用且極為強大的曲線擬合技術,能夠識別出以往無法被發(fā)現(xiàn)的模式,推斷趨勢并針對各類問題給出預測性結果。當然,曲線擬合在表示給定數(shù)據(jù)集時也存在一定風險,這就是過度擬合。具體來講,算法可能無法識別數(shù)據(jù)的正常波動,最終為了擬合度而將噪音視為有效信息。并且深度學習是個黑盒子或灰盒子,調(diào)參更像是藝術而非科學。

蔚來為什么會撞靜止車輛?3
特斯拉在臺灣撞上靜止的側翻的大貨車。圖片來源:互聯(lián)網(wǎng)

蔚來撞上靜止車輛的原因可能有兩個,一是無法識別公路養(yǎng)護車,尤其是公路養(yǎng)護車后邊還放著角錐桶。就像特斯拉無法識別掃地車撞死過人一樣,無法識別就變瞎子了。在人眼看來公路養(yǎng)護車與普通車輛差別很小,但在機器看來,差別巨大,機器視覺有兩種,一種是手工模型,一種就是深度學習,它是分割再擬合的,特別是深度學習,它要遍歷每一個像素,數(shù)十億次的乘積累加訓練好的模型的權重值來做對比,它不像人類視覺是整體性的,機器視覺跟人類視覺是完全不同的路線,所以機器視覺識別永遠也無法與人眼比。此外,人類視覺的核心不僅有眼球,還有大腦。二是靜止目標需要機器視覺花費比較長的時間來處理,導致系統(tǒng)沒反映過來,這個處理能力不是靠AI加速器能解決的,AI加速器或者說AI處理器里面主要是MAC乘積累加計算模塊,只能加速卷積計算。也就是說特斯拉的FSD的AI算力再高也一樣要撞。

蔚來為什么會撞靜止車輛?4
圖片來源:互聯(lián)網(wǎng)

再有就是毫米波雷達,目前量產(chǎn)車的毫米波雷達角分辨率太低,對金屬物體又過于敏感,為避免誤動作,所有的毫米波雷達都會將靜態(tài)目標過濾掉。此外,毫米波雷達安裝的角度也很低,遇上底盤比較高的大貨車,可能會檢測不到。即將上市的寶馬ix安裝的大陸ARS540 4D毫米波雷達角分辨率高,且是目前唯一能真正測高度的毫米波雷達,不過濾靜態(tài)目標。即便毫米波雷達不過濾靜態(tài)目標,以輔助駕駛的設計原則,寧漏檢不誤檢,恐怕也不會啟動AEB。

蔚來為什么會撞靜止車輛?5
特斯拉撞靜止消防車。圖片來源:互聯(lián)網(wǎng)

蔚來用的是Mobileye的EyeQ4,這是一款2015年11月推出的芯片,設計時間估計在2013年底到2014年底,至今已經(jīng)8年了。

蔚來為什么會撞靜止車輛?6
圖片來源:互聯(lián)網(wǎng)

2013年深度學習還不流行,EyeQ4肯定是不會用的,EyeQ4用的是傳統(tǒng)手工模型算法,可能是反光強烈的角錐導致無法識別。

再有就是靜止目標的干擾,EyeQ4需要框選出運動目標再識別,這就是運動目標檢測,一般都縮寫為MOD。運動目標檢測的算法依照目標與攝像頭之間的關系可分為靜態(tài)背景下運動檢測和動態(tài)背景下運動檢測。

靜態(tài)背景下的目標檢測,就是從序列圖像中將實際的變化區(qū)域和背景區(qū)分開了。在背景靜止的大前提下進行運動目標檢測的方法有很多,這些方法比較側重于背景擾動小噪聲的消除,如:

•  背景差分法

•  幀間差分法

•  光流法

•  混合高斯模型(GMM)

•  碼本(codebook)

還有這些方法的變種,例如三幀差分,五幀差分,或者這些方法的結合。

運動背景下的目標檢測,相對于靜態(tài)背景而言,算法的思路就有所區(qū)別了,一般會更加側重于匹配,需要進行圖像的全局運動估計與補償。因為在目標和背景同時運動的情況下,是無法簡單地根據(jù)運動來判斷的。智能駕駛的運動目標檢測(MOD),顯然是運動背景下的目標檢測。最適合的是GMM和光流法。

GMM簡單講,將輸入圖像的像素與背景模型進行對比,和背景模型相似性比較高的點視為背景,和背景模型相似性比較低的點視為前景,再利用形態(tài)學的方法進行運動目標提取?;旌细咚鼓P褪怯蒏個(基本為3到5個)單高斯模型加權組成的。在獲取新的一幀圖像之后,如果當前圖像中的像素點與該像素的K個模型中的某一個匹配度比較高,則視為背景,并將當前幀的像素作為一個新模型,更新已存在的K個模型。如果匹配度比較低,則為前景點。整個混合高斯模型算法主要是有方差和均值兩個參數(shù),對于這兩個參數(shù)采取不同的學習機制,直接影響該算法的正確性、穩(wěn)定性和收斂性。opencv包含了GMM算法,可以直接調(diào)用,非常省事。大多數(shù)程序員根本不關心原理,直接復制代碼就行了。

不過依照2013年的運算資源,EyeQ4恐怕很難用GMM,光流法就更不用說了,那是需要GTX3060級顯卡的算法。

蔚來為什么會撞靜止車輛?7
特斯拉撞靜止警車。圖片來源:互聯(lián)網(wǎng)

EyeQ4可能選擇的閾值很低,無法抑制角錐這樣的噪音,框選時間多花了大約幾秒,然而車輛速度過快,幾秒就出事故了。即使沒有角錐,靜止目標比運動目標也要多花1-2秒時間來探測。此外這也跟車速變換有關,車速越高,自然變化量就大,車速越低,變化量就小,所以我們看到所有智能駕駛的車輛其AEB適用車速范圍都有下限,一般是時速10公里,有些甚至是30公里。

特斯拉也用過Mobileye的芯片,不過沒用過EyeQ4,特斯拉也是頻繁撞靜止車輛,那么上了FSD的特斯拉還會撞靜止車輛嗎?很有可能也會。

蔚來為什么會撞靜止車輛?8
特斯拉FSD框架圖。圖片來源:互聯(lián)網(wǎng)

NPU或者說AI加速器門檻極低,很好做,中國大大小小估計能有幾百家號稱能做。GPU門檻極高,全球也就英特爾、英偉達、AMD和高通能做。特斯拉也算不錯,第一次就有GPU,不過算力不高。

單目或三目要完美解決靜止車輛問題,就用光流法。OpenCV中實現(xiàn)了不少的光流算法。

1)calcOpticalFlowPyrLK

通過金字塔Lucas-Kanade 光流方法計算某些點集的光流(稀疏光流)。理解的話,可以參考這篇論文:”Pyramidal Implementation of the Lucas Kanade FeatureTrackerDescription of the algorithm”

2)calcOpticalFlowFarneback

用Gunnar Farneback 的算法計算稠密光流(即圖像上所有像素點的光流都計算出來)。它的相關論文是:"Two-frameMotion Estimation based on Polynomial Expansion"

3)CalcOpticalFlowBM

通過塊匹配的方法來計算光流。

4)CalcOpticalFlowHS

用Horn-Schunck 的算法計算稠密光流。

這些算法要么比較依賴CPU,如用開曼濾波器的,要么比較依賴GPU?;蛘卟糠忠蕾嘋PU如平滑運算,梯度處理,要么依賴GPU。還會用到除法,就是幾乎用不到FSD最擅長的卷積運算,用FPGA做光流是最合適的。

光流法缺點就是運算復雜且運算量大。所以FSD大概率還是會撞的。

順便說一句,雙目的光流法就簡單很多,因為雙目是能提供深度信息的。奔馳的6D視覺就包含光流,也是目前光流做得最好的廠家,沒有之一。

Mobileye軟硬一體,幾乎沒有給整車廠發(fā)揮空間,蔚來想改也改不了。雙目也不是說上就能上的。只能在毫米波雷達上下功夫了,ARS540是最佳解決方案,當然價格遠超一般的毫米波雷達,但總比激光雷達便宜多了。 
分享到:
 
反對 0 舉報 0 收藏 0 評論 0
滬ICP備11026917號-25