日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車測(cè)試網(wǎng)

    • 在線課堂

    • 電車測(cè)試

深度學(xué)習(xí)技術(shù)在自動(dòng)駕駛中的應(yīng)用與挑戰(zhàn)

2020-02-14 00:18:22·  來源:DataFunTalk  作者:江頔 智加科技  
 
分享嘉賓:江頔 智加科技 技術(shù)專家文章整理:Hoh Xil內(nèi)容來源:DataFunTalk出品平臺(tái):智加科技、DataFun導(dǎo)讀:深度學(xué)習(xí)技術(shù)經(jīng)過近幾年井噴式的發(fā)展,在很多領(lǐng)域
分享嘉賓:江頔 智加科技 技術(shù)專家
文章整理:Hoh Xil
內(nèi)容來源:DataFunTalk
出品平臺(tái):智加科技、DataFun
 
導(dǎo)讀:深度學(xué)習(xí)技術(shù)經(jīng)過近幾年井噴式的發(fā)展,在很多領(lǐng)域都得到了廣泛的應(yīng)用。在自動(dòng)駕駛系統(tǒng)中,深度學(xué)習(xí)技術(shù)也起到了至關(guān)重要的作用,同時(shí)也面臨著非常多的挑戰(zhàn)。我們一直在探索,在一個(gè)安全、穩(wěn)定的自動(dòng)駕駛產(chǎn)品中,深度學(xué)習(xí)技術(shù)應(yīng)該有著怎樣的作用邊界,又如何能最好地發(fā)揮其優(yōu)勢(shì)。本次分享的主題為深度學(xué)習(xí)技術(shù)在自動(dòng)駕駛中的應(yīng)用與挑戰(zhàn),主要包括:
  • 深度學(xué)習(xí)技術(shù)
  • 端到端:從感知到控制
  • 深度學(xué)習(xí)的特點(diǎn)
  • 應(yīng)用策略
01、深度學(xué)習(xí)技術(shù)
深度學(xué)習(xí)技術(shù)在2012年開始爆發(fā),由AlexNet在ImageNet數(shù)據(jù)集上達(dá)到了一個(gè)很高的分類準(zhǔn)確率,橫掃各種CV、NLP任務(wù),在強(qiáng)化學(xué)習(xí)領(lǐng)域也大展身手,尤其擅長(zhǎng)玩游戲,比如deepmind最近在研究打星際爭(zhēng)霸。右邊是各種網(wǎng)絡(luò)圖,大家可以參考文末的鏈接。
02
端到端:從感知到控制
16年的時(shí)候,英偉達(dá)研究了end to end神經(jīng)網(wǎng)絡(luò),左側(cè)輸入左中右三個(gè)Camera的image,直接通過CNN輸出轉(zhuǎn)向的指令。如demo截圖中,測(cè)試人員把手伸出了天窗,表示他沒有操控車輛,然后車輛自動(dòng)實(shí)現(xiàn)轉(zhuǎn)向。不過這種方式存在2個(gè)隱患:
① 因?yàn)槭莈nd to end 如果出現(xiàn)問題,完全不知道是哪里出了問題,很難去校正模型。
② 對(duì)于轉(zhuǎn)向這個(gè)指令,需要考慮的因素非常多,一些微小的場(chǎng)景變化就會(huì)引發(fā)不同的轉(zhuǎn)向指令(如路上多了一個(gè)石塊),因此,必須覆蓋到所有的情況,才可以把這個(gè)模型訓(xùn)練的非常好,這需要海量的數(shù)據(jù)。
03
深度學(xué)習(xí)的特點(diǎn)
優(yōu)勢(shì):
  • 自主挖掘數(shù)據(jù)中存在的特征和模式,大幅降低人工特征工程的需求
  • 對(duì)于定義清晰的問題,有較強(qiáng)的可擴(kuò)展性(加數(shù)據(jù)或數(shù)據(jù)增強(qiáng))
局限性:
  • 可解釋性差,可能會(huì)“放飛自我”,不太可控
  • 算力要求較高
04
應(yīng)用策略
在要求很高穩(wěn)定性和安全性的自動(dòng)駕駛應(yīng)用中,如何發(fā)揮深度學(xué)習(xí)的優(yōu)勢(shì),以及規(guī)避深度學(xué)習(xí)的弱點(diǎn),我們總結(jié)了幾點(diǎn)應(yīng)用策略,這里和大家分享下:
1. 盡量應(yīng)用于定義清晰的基本任務(wù)
基本任務(wù),是指只需要回答“是什么”或者“在哪”的任務(wù)。定義清晰,是指有明確的目標(biāo)或者監(jiān)督信息,在強(qiáng)化學(xué)習(xí)語境中,就是有明確的reward function。如CV中的目標(biāo)檢測(cè)、圖像分割等。下面分享下應(yīng)用實(shí)例:
① 圖像中的車道檢測(cè)
 
 
Demo
Demo是我們用分割模型做的Ego lane drivable area segmentation;上圖右側(cè)是我們做的instance level lane marker segmentation,網(wǎng)絡(luò)結(jié)構(gòu)如圖所示,它是一個(gè)encoder decoder based,然后做一個(gè)segmentation branch和一個(gè)embedding branch,最后將2個(gè)結(jié)果合起來。
② 圖像中的障礙物檢測(cè)
上圖是一些比較有挑戰(zhàn)的場(chǎng)景:擁擠的路況、遠(yuǎn)處的障礙物、雨天、穿過高架橋等。障礙物檢測(cè)比較成熟,這里不再細(xì)講,常用的算法有:
  • Anchor based:YOLO v1,v2,v3/SSD/Faster RCNN
  • Anchor free:Centernet/FoveaBox
2. 多方法融合,彌補(bǔ)單一模型錯(cuò)誤,覆蓋長(zhǎng)尾場(chǎng)景
在實(shí)際應(yīng)用中,目標(biāo)檢測(cè)模型難免會(huì)產(chǎn)生誤檢和漏檢,如左圖中的皮卡和卡車很明顯就被漏掉了。另外,對(duì)于訓(xùn)練集少見或沒見過的特殊場(chǎng)景,深度神經(jīng)網(wǎng)絡(luò)往往無能為力,一旦出現(xiàn)這種情況,往往非常危險(xiǎn)。對(duì)應(yīng)的,我們的思路是:
① 結(jié)合其他任務(wù)模型,輔助降低漏檢率
比如,有另外的一個(gè)模型可以識(shí)別出可行駛區(qū)域(也就是路,除了路以外的都是障礙物),再加上我們的目標(biāo)檢測(cè),就可以對(duì)之前的案例進(jìn)行彌補(bǔ),如上圖所示。
② 結(jié)合其他傳感器,多傳感器融合
另一種更常用,更安全的方法就是激光雷達(dá),進(jìn)行多傳感器融合,如將激光雷達(dá)投影到image,可以很輕松的建模出可行駛的道路和障礙物。
3. 拆分任務(wù),增加模型的可解釋性和可控性
將end2end模型任務(wù)拆分成更加基本定義、更加清晰的多階段子任務(wù),增加整體任務(wù)的可解釋性,減輕模型的學(xué)習(xí)負(fù)擔(dān)。同時(shí)也更加方便地利用其他算法和規(guī)則對(duì)深度學(xué)習(xí)模型的輸出結(jié)果做限制,防止其“放飛自我”。
①  自車行駛路徑參考線:
我們?cè)谧鯬lanning時(shí),我們需要做一個(gè)自己車本身軌跡的參考線,以其為參考生成最終的軌跡,并且做一些速度的規(guī)劃。如果我們沒有高精地圖,我們可能會(huì)采用E2E approach的方法,感知到一張圖片之后利用deep CNN直接生成參考軌跡(如上圖最右側(cè)),這樣單獨(dú)的參考線通常是不能用的。所以我們需要把任務(wù)進(jìn)行拆解。
拆解:
  • 車道識(shí)別+車輛跟蹤:先識(shí)別車道再識(shí)別車
  • 利用車道與車輛信息擬合路徑:把車道和車放入場(chǎng)景中,再利用車的朝向、軌跡、速度分布以及車道線的幾何形狀擬合出最終的路徑參考線。
這是一個(gè)更可控的方案。
② 其他車輛軌跡預(yù)測(cè)
在學(xué)術(shù)界有一些E2E approach的方法,利用深度學(xué)習(xí)模型直接預(yù)測(cè)車輛軌跡,從過去的軌跡直接預(yù)測(cè)出未來的軌跡。
我們認(rèn)為更好的方式,還是進(jìn)行拆分:
  • 意圖預(yù)測(cè)(橫向、縱向),利用RNN、CNN先做一些意圖預(yù)測(cè)(左轉(zhuǎn)、右轉(zhuǎn)或者直行),縱向就是勻速、加速或者減速,做這種簡(jiǎn)單的意圖分類,將這個(gè)問題的維度縮小。
  • 然后,利用車輛(如動(dòng)力學(xué))模型、車道信息生成平滑預(yù)測(cè)軌跡。
最后,我們還在和機(jī)器一起學(xué)習(xí)成長(zhǎng)。今天的分享就到這里,謝謝大家。
 
05、參考資料
1. https://deepmind.com/blog/article/alphastar-mastering-real-time-strategy-game-starcraft-ii
2. https://en.wikipedia.org/wiki/Deep_learning
3. http://ml.world/2016/09/neural-network-zoo/
4. End to End Learning for Self-Driving Cars
5. Towards End-to-End Lane Detection: an Instance Segmentation Approach
6. An Empirical evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling
 
 
分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25