日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

自動駕駛系統(tǒng)中的不確定性感知場景

2022-08-01 09:56:31·  來源:車端  
 
ADS系統(tǒng)分層架構(gòu)ADS主要是由高速場景向城市道路場景演進來落地領(lǐng)航輔助NOA功能。隨著車輛傳感器等高性能硬件配置增加、大算力平臺的構(gòu)建、以及AI算法的泛化能力

ADS系統(tǒng)分層架構(gòu)


ADS主要是由高速場景向城市道路場景演進來落地領(lǐng)航輔助NOA功能。隨著車輛傳感器等高性能硬件配置增加、大算力平臺的構(gòu)建、以及AI算法的泛化能力提升,NOA全場景的落地節(jié)奏在明顯加快。AI與場景的深度融合,推動ADS逐步實現(xiàn)從低速到高速,從載物到載人,從商用到民用,從階段一提供L2高級輔助駕駛和L3擁堵高速公路副駕駛,發(fā)展到階段二可以提供L3擁堵公路自動駕駛和L4高速公路自動駕駛,最終實現(xiàn)階段三的L4城郊與市區(qū)自動駕駛和L5商用無人駕駛。然而大量的分析表明,目前在很大的程度上自動駕駛車或者無人駕駛AVs的安全性能估計比人類駕駛明顯要差一個數(shù)量級,雖然可以適應(yīng)仿真和簡單低遮擋的約束真實場景,但仍難以應(yīng)對城市的復(fù)雜道路交通場景,包括惡劣天氣環(huán)境,定位信號缺失,目標(biāo)高度遮擋,有限全局視野,人車交互,車車交互,以及小尺寸目標(biāo)或干擾目標(biāo)等。場景動態(tài)適應(yīng)能力問題,即所謂“Long-Tail Challenge” 長尾挑戰(zhàn),依舊是ADS當(dāng)前待解決的主要難題之一。AVs使用體驗數(shù)據(jù)顯示,在暴風(fēng)雨雪天氣,車輛的控制由于打滑和oversteering等原因,目前是遠(yuǎn)低于用戶期望的。
ADS算法的典型系統(tǒng)分層架構(gòu)如圖1所示,一般包括傳感層,感知層,定位層,決策層和控制層。每個層面采用傳統(tǒng)算法模型或者是與深度學(xué)習(xí)DNN模型相結(jié)合,從而實現(xiàn)ADS全程駕駛的人類可以接受的高可靠和高安全性,以及在這個基礎(chǔ)上提供最佳能耗比、最佳用車體驗、和用戶社交娛樂等基本功能。

圖片

圖 1. AI for AV: ADS技術(shù)棧案例 (Nageshrao, 2022)


ADS傳感層的不確定性挑戰(zhàn)


圖片


圖片

圖 2. ADS傳感層的不確定性與性能對比 (Khan, 2022)
如圖2所示,ADS部署的傳感器在極端惡劣場景(雨雪霧、低照度、高度遮擋、傳感器部分失效、主動或被動場景攻擊等)的影響程度是不一樣的。所以傳感器組合應(yīng)用可以來解決單傳感器的感知能力不足問題,常用的幾種組合是:Camera+LIDAR; Radar(3D, 4D)+Camera+LIDAR(LD, HD);Radar+Camera。統(tǒng)計數(shù)據(jù)表明Radar+Camera是最常見組合。ADS傳感層總結(jié)如下:
· Camera:可以提供360環(huán)視和遠(yuǎn)距前后視角的環(huán)境語義表征,但需要一個照明環(huán)境,單目和多目Camera可以提供一定程度的目標(biāo)深度信息;受惡劣場景影響嚴(yán)重;鏡頭臟污會嚴(yán)重影響圖像質(zhì)量。
· LIDAR:可以提供場景的空間信息;但難以檢測有反光效應(yīng)的或者透明的物體;當(dāng)雨速高于40 mm/hr 到95 mm/hr,信號反射密度嚴(yán)重?fù)p失并產(chǎn)生雨枕現(xiàn)象;大雪天氣下可視距離縮短并產(chǎn)生反射干擾波形;濃霧場景會產(chǎn)生鬼影現(xiàn)象;溫差會產(chǎn)生額外時間延遲。
· Radar:對周圍車輛檢測準(zhǔn)確率高,可以提供目標(biāo)的速度信息,4D Radar還可以提供目標(biāo)高度的可靠信息;不適合做小目標(biāo)檢測;大雨濃霧和暴風(fēng)雪會產(chǎn)生接收信號強衰減和斑點噪聲,總體對環(huán)境的適應(yīng)性高。

ADS感知層的不確定性挑戰(zhàn)


ADS感知層的主要應(yīng)用場景包括高速公路,城郊與市區(qū)道路;十字路口,交通環(huán)島,潮汐公路;隧道,停車場等,其主要任務(wù)是基于多模的2D/3D人車物目標(biāo)識別,動態(tài)目標(biāo)跟蹤與速度識別,交通標(biāo)志識別,車道線識別,紅綠燈識別,路面可行駛區(qū)域語義分割,路面障礙檢測,盲區(qū)檢測,交通事件檢測,司機打瞌睡檢測等。與此對應(yīng)的核心產(chǎn)品特性包括:碰撞預(yù)警,緊急剎車,車道偏離預(yù)警,傳感部分失效預(yù)警;車道變道,車道并道,路口通行,行為預(yù)測,軌跡預(yù)測,軌跡規(guī)劃;車速控制,轉(zhuǎn)向控制等等。
ADS感知層的第一個挑戰(zhàn)是可感知目標(biāo)距離的挑戰(zhàn)。遠(yuǎn)距離(250-300米)目標(biāo)感知任務(wù)對高速行駛AVs的安全響應(yīng)速度是至關(guān)重要的。對3D目標(biāo)識別等視覺任務(wù)可說,隨著感知距離增加,抽取高密度特征的AI主干網(wǎng)絡(luò)的計算復(fù)雜度會按照二次元速度增加,對算力需求也加速度增加。從圖3的對比還可以看出,采用長距LIDAR可以提升感知距離,特征點可以覆蓋更大的區(qū)域但更稀疏,同時也會產(chǎn)生”Centre Feature Missing(CFM)”即點云空心化或者叫黑洞的問題,極端場景包括近距離的超大車輛的中心特征缺失。解決CFM挑戰(zhàn)問題的一般方法是在BEV特征空間依賴卷積操作通過特征發(fā)散來提供中心區(qū)域的感知場,或者通過點云中非空的區(qū)域來預(yù)測中間空心區(qū)目標(biāo),代價是目標(biāo)預(yù)測誤差和不確定性的輸出結(jié)果,或者通過連通域打標(biāo)簽CCL進行Instance Point Group進行插值和濾波,以及整個點云的超分變率Super-Resolution來改善性能。

圖片

圖 3. 短距LIDAR點云(紅色,75米)與長距LIDAR點云(藍(lán)色,200米)對比案例 (Fan, 2022)
ADS感知層的第二個挑戰(zhàn)是目標(biāo)遮擋即感知盲區(qū)的挑戰(zhàn)。單純依賴AVs自身360全方位近距感知和遠(yuǎn)距感知,很難能夠讓ADS從理論上完全超越人類的駕駛水平,通過預(yù)測預(yù)警達到更低的交通事故率和提供更好的人身安全。如圖4所示的對比案例,可以看出車路協(xié)同可以有效解決盲區(qū)與上述所說的長距感知的挑戰(zhàn),但對應(yīng)的缺點也不言而喻,部署的成本與長期可靠運營費用以及如何防網(wǎng)絡(luò)攻擊問題,這決定了對鄉(xiāng)村和偏遠(yuǎn)地區(qū)的場景,需要尋求AVs自身的多模感知認(rèn)知決策能力提升。

圖片

圖 4. 獨立感知與車路協(xié)同感知對比案例 (Mao, 2022)

圖片

圖 5. 多視覺的目標(biāo)多模感知與融合識別案例 (Mao, 2022)
如圖5所示,V2X的可行解決方案包括交通要道部署的RSU Camera,LiDAR, 或者Radar,對算法設(shè)計來說,需要解決海量點云數(shù)據(jù)的壓縮與實時傳輸,以及針對接收數(shù)據(jù)的時間軸同步,多模感知與特征融合目標(biāo)識別等。目前這個領(lǐng)域基于Transformer在BEV空間進行多任務(wù)多模態(tài)的融合感知已經(jīng)有了一些長足進展,融合的方式也可以自由組合,包括多視覺的Camera視頻融合,以及 Camera與LiDAR或者Radar的組合融合模式,對點云數(shù)據(jù)的超分變率會改善融合效果,但融合對延遲非常敏感。
ADS感知層的第三個挑戰(zhàn)是惡劣場景的挑戰(zhàn)。如圖6所示,4D 高清Radar發(fā)送的毫米波,可以有效穿越雨滴和雪花,不受低照與雨雪霧天氣影響,但會受到多徑干擾問題影響,總體來說對環(huán)境的適應(yīng)性高,單獨或者組合應(yīng)用對2D/3D目標(biāo)檢測非常有優(yōu)勢,同時還可以提供高精度的目標(biāo)高度和速度信息,可以有助于ADS的預(yù)測規(guī)劃性能提升。

圖片

圖 6. 4D Radar,Camera, LiDAR點云的3D目標(biāo)檢測識別對比案例 (Paek, 2022)

分享到:
 
反對 0 舉報 0 收藏 0 評論 0
滬ICP備11026917號-25