日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號(hào)
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

自動(dòng)駕駛論文推薦2020(二) 基于點(diǎn)云的3D物體檢測新框架

2020-04-27 21:41:44·  來源:AI科技評(píng)論  
 
本文介紹元戎啟行在CVPR2020中發(fā)表的文章『HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection』。該文介紹了一種新的基于點(diǎn)云的三維物體檢測的
本文介紹元戎啟行在CVPR2020中發(fā)表的文章『HVNet: Hybrid Voxel Network for LiDAR based 3D Object Detection』。該文介紹了一種新的基于點(diǎn)云的三維物體檢測的統(tǒng)一網(wǎng)絡(luò):混合體素網(wǎng)絡(luò)(HVNet)。原文鏈接:https://arxiv.org/abs/2003.00186。
  
作者 | 元戎啟行
編輯 | 叢 末
 
3D目標(biāo)檢測是當(dāng)前自動(dòng)駕駛感知模塊重要的一個(gè)環(huán)節(jié),如何平衡3D物體檢測的精度以及速度更是非常重要的一個(gè)研究話題。本文提出了一種新的基于點(diǎn)云的三維物體檢測的統(tǒng)一網(wǎng)絡(luò):混合體素網(wǎng)絡(luò)(HVNet),通過在點(diǎn)級(jí)別上混合尺度體素特征編碼器(VFE)得到更好的體素特征編碼方法,從而在速度和精度上得到提升。與多種方法相比,HVNet在檢測速度上有明顯的提高。在KITTI數(shù)據(jù)集自行車檢測的中等難度級(jí)別(moderate)中,HVNet 的準(zhǔn)確率比PointPillars方法高出了8.44%。
 
圖1 3D物體檢測
在KITTI數(shù)據(jù)集上,HVNet網(wǎng)絡(luò)在KITTI數(shù)據(jù)集上提交結(jié)果的所有已有方法中獲得了最好的mAP,并且實(shí)時(shí)推理速度可以達(dá)到31Hz。
 
圖2 KITTI測試集上的速度-精度對(duì)比圖,其中O為HVNet
ー  1 ー
研究背景
在當(dāng)前點(diǎn)云檢測模塊,格網(wǎng)化(voxelization)是一個(gè)重要的方式。許多已有的方式都是通過格網(wǎng)化,然后進(jìn)行離散的卷積操作。但是,在應(yīng)對(duì)大規(guī)模的場景下,一個(gè)關(guān)鍵參數(shù)是格網(wǎng)voxel的大?。狠^小的voxelscale捕獲更精細(xì)的幾何體特征,并更好地定位對(duì)象,但需要較長的推理時(shí)間。較大的voxel scale導(dǎo)致較小的特征圖和較快的推理速度,但性能較差,特別是對(duì)于較小的物體。
 
圖3 常見的體素特征提取網(wǎng)絡(luò)(VFE)
為了應(yīng)對(duì)上面問題帶來的挑戰(zhàn),我們通過多尺度的點(diǎn)云信息,利用注意力機(jī)制(attention),提取更加細(xì)粒度的點(diǎn)云特征,然后映射到更大格網(wǎng)粒度上,從而保證速度跟精度的平衡。傳統(tǒng)體素特征提取網(wǎng)絡(luò)(VFE)方法通常包含三個(gè)步驟:1.體素化:將點(diǎn)云指定給二維體素網(wǎng)格。2.體素特征提?。簽槊總€(gè)點(diǎn)計(jì)算依賴于網(wǎng)格的逐點(diǎn)特征,并將其送入PointNet風(fēng)格的特征編碼器。3.投影:將逐點(diǎn)特征聚合到體素級(jí)特征,并投影回其原始網(wǎng)格,形成偽圖像特征圖。HVNet中提出的HVFE方法則將混合比例尺度下的點(diǎn)級(jí)別的特征聚合到全局上下文中,然后投影到動(dòng)態(tài)目標(biāo)尺度中的特征圖上。
 
圖4 本文提出的HVFE方法
ー  2 ー
算法設(shè)計(jì)
整個(gè)HVNET包括:HVFE特征提取模塊;2D卷積模塊;以及檢測的head模塊,用來輸出最后的預(yù)測結(jié)果。下圖中第一行是HVNet的整個(gè)結(jié)構(gòu)。第二行是混合體素特征提取器的結(jié)構(gòu),由四部分組成:a) x-y平面多尺度預(yù)體素化;b)并行多流的注意力機(jī)制體素特征編碼層(AVFE)編碼多尺度點(diǎn)云特征;c) 編碼特征聚合;d)注意力機(jī)制體素特征編碼輸出層(AVFEO)層結(jié)合聚合特征和目標(biāo)尺度信息進(jìn)行動(dòng)態(tài)特征投影。
 
圖5 網(wǎng)絡(luò)框架圖
1.HVFE layer方面,我們提取了不同尺度的voxel下點(diǎn)云的特征,為了融合不同尺度下的點(diǎn)云的特征,我們提出了attentive layer,利用原始的geometry信息,對(duì)不同尺度的點(diǎn)云進(jìn)行特征映射以及融合,形成最終的2.5D上的特征圖。在整個(gè)過程,我們提出了index-based的高效操作,使得整個(gè)聚集(scatter),以及分散(gather)的操作能夠充分利用GPU并行,相比與之前方法的操作,我們的方式可以有效減少信息的損失以及GPU顯存的使用。
 
圖6 AVFE和AVFEO層。索引張量用于索引操作:聚集(Gather)和分散(Scatter)
2.2D 卷積部分,我們利用HVFE layer提出的多尺度的feature map,在特征圖上面也進(jìn)行多尺度的融合。由于點(diǎn)云的稀疏性和偽特征圖的低分辨率性,我們提出了尺度融合金字塔網(wǎng)絡(luò)(FFPN)來進(jìn)行進(jìn)一步的特征融合。多尺度特征首先在主干網(wǎng)絡(luò)中淺層融合,然后在提出的FFPN網(wǎng)絡(luò)中進(jìn)行深度融合。
 
圖7主干網(wǎng)絡(luò)
3.detection head部分,我們利用不同層的featuremap感受野不同的特性,對(duì)不同的層設(shè)計(jì)相應(yīng)的anchorbox進(jìn)行預(yù)測。具體來說,對(duì)于不同層的feature map,在detection head部分只會(huì)對(duì)相對(duì)應(yīng)的尺度的類別進(jìn)行預(yù)測,這樣的方式可以有效減少類別間的混淆。
ー  3 ー
結(jié)果
KITTI數(shù)據(jù)集是自動(dòng)駕駛是目前自動(dòng)駕駛領(lǐng)域最重要的測試集之一,我們在KITTI上進(jìn)行了實(shí)驗(yàn)驗(yàn)證。實(shí)驗(yàn)結(jié)果證明了我們方法的有效性,我們的算法在KITTI上做到了Cyclist當(dāng)時(shí)的最好成績,并且在當(dāng)時(shí)的leaderboard上超越了第二名2個(gè)點(diǎn),同時(shí)在Car上面我們做到了第六名。
 
圖8 HVNet 在KITTI 測試上的BEV成績(自行車,2019年11月)
 
圖9 HVNet 在KITTI 測試上的BEV成績(汽車,2019年11月)
值得注意的是,很多方法在處理多類別物體檢測中訓(xùn)練多個(gè)模型來檢測不同的類別,我們僅通過單一的網(wǎng)絡(luò)完成輸出。在KITTI的多類別檢測任務(wù)中,我們?nèi)〉昧水?dāng)時(shí)最好的mAP(平均精度),同時(shí)保證了實(shí)時(shí)的效率。相比于PointPillars、Second等算法,HVNet在效率也有很大的突破。
 
圖 10 KITTI test上的BEV成績
相比于PointPillars、Second等算法,我們調(diào)整了Voxel的尺度,對(duì)比了和這些方法在相似的Voxel尺度下的效率和準(zhǔn)確率。結(jié)果表明我們的方法在性能和效率方面都超過了現(xiàn)有方法。
 
圖 11 KITTI val數(shù)據(jù)集中BEV上的不同Voxel設(shè)置下結(jié)果對(duì)比
ー  4 ー
思考總結(jié)
在這項(xiàng)工作中,我們提出了一種新型的單級(jí)三維目標(biāo)探測網(wǎng)絡(luò)HVNet。HVNet將混合尺度體素聚合成統(tǒng)一的逐點(diǎn)特征,然后在注意力特征的引導(dǎo)下將其投影成不同尺度的偽圖像特征。HVNet的關(guān)鍵是對(duì)特征提取尺度和偽圖像投影尺度進(jìn)行解耦。此外,特征融合金字塔網(wǎng)絡(luò)的主干獲取偽圖像并融合特征,以生成不同類別的緊湊表達(dá)。實(shí)驗(yàn)研究表明,該方法取得了目前最先進(jìn)的效果,并且具有較高的實(shí)時(shí)性。
 
 
分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25