日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車測(cè)試網(wǎng)

    • 在線課堂

    • 電車測(cè)試

Uber ATG 近三年發(fā)表的自動(dòng)駕駛論文合集

2019-08-15 23:50:01·  來源:智車科技  
 
本文整理了Uber的技術(shù)團(tuán)隊(duì)先進(jìn)技術(shù)小組(Advanced Technologies Group,ATG)在頂級(jí)會(huì)議和期刊上發(fā)表的關(guān)于計(jì)算機(jī)視覺,機(jī)器學(xué)習(xí)和機(jī)器人技術(shù)的自動(dòng)駕駛車輛研究
本文整理了Uber的技術(shù)團(tuán)隊(duì)“先進(jìn)技術(shù)小組”(Advanced Technologies Group,ATG)在頂級(jí)會(huì)議和期刊上發(fā)表的關(guān)于計(jì)算機(jī)視覺,機(jī)器學(xué)習(xí)和機(jī)器人技術(shù)的自動(dòng)駕駛車輛研究論文。

1.DeepRoad Mapper: Extracting Road Topology From Aerial Images


本篇文章發(fā)表于2017年,被ICCV 2017 收錄。本文提出了一種直接從俯視圖像中估計(jì)道路拓?fù)浣Y(jié)構(gòu)的方法,這種方法不需要用昂貴的傳感器,提供了一個(gè)覆蓋范圍廣、價(jià)格合理的解決方案。為了實(shí)現(xiàn)這一目標(biāo),利用深度學(xué)習(xí)對(duì)俯視圖像進(jìn)行初步分割,通過算法將提取出的道路拓?fù)渲械娜笔Р糠诌B接起來,并作為一個(gè)可以有效解決的最短路徑問題?,F(xiàn)在看來,這種方法可以粗略的進(jìn)行路線規(guī)劃。

論文下載地址:
https://arxiv.org/pdf/1806.11534.pdf

2.End-to-end Learning of Multi-sensor 3D Tracking by Detection


2018年,Uber也嘗試了用端到端的方法,這篇論文提出了一種新的檢測(cè)跟蹤方法,可以同時(shí)利用攝像機(jī)和激光雷達(dá)的數(shù)據(jù)來產(chǎn)生非常精確的三維軌跡。針對(duì)這一目標(biāo),可以將問題表述為一個(gè)精確求解的線性規(guī)劃,端到端的檢測(cè)和匹配。在Kitti數(shù)據(jù)集中評(píng)估模型,并顯示出非常有競(jìng)爭(zhēng)力的結(jié)果。

論文下載地址:
https://arxiv.org/pdf/1806.11534.pdf

3.Learning to Reweight Examples for Robust Deep Learning


為了處理數(shù)據(jù)集的偏差和標(biāo)簽噪音問題,Uber團(tuán)隊(duì)也提出了一種新穎的元學(xué)習(xí)算法,該算法學(xué)習(xí)基于其梯度方向?yàn)橛?xùn)練樣本分配權(quán)重。該方法可以在任何類型的深度網(wǎng)絡(luò)上輕松實(shí)現(xiàn),不需要任何額外的超參數(shù)調(diào)整,并且在類別不平衡和損壞的標(biāo)簽問題上,實(shí)現(xiàn)了不錯(cuò)的性能。

論文下載地址:
https://arxiv.org/pdf/1803.09050.pdf

4.Matching Adversarial Networks


在CVPR 2018上,Uber團(tuán)隊(duì)也構(gòu)建了匹配對(duì)抗網(wǎng)絡(luò)來解決CGAN應(yīng)用于監(jiān)督任務(wù)上的弊端。

論文下載鏈接:
http://openaccess.thecvf.com/content_cvpr_2018/papers/Mattyus_Matching_Adversarial_Networks_CVPR_2018_paper.pdf

5.PIXOR: Real-time 3D Object Detection from Point Clouds

這篇同樣發(fā)表在CVPR2018上的論文,解決了在自動(dòng)駕駛環(huán)境中從點(diǎn)云中進(jìn)行實(shí)時(shí)3D物體檢測(cè)的問題。通過從鳥瞰圖(BEV)中表示場(chǎng)景,更有效地利用3D數(shù)據(jù),Uber團(tuán)隊(duì)提出了PIXOR,一種無提議的單級(jí)檢測(cè)器,輸出從像素方式神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)解碼的定向3D對(duì)象估計(jì)。輸入表示,網(wǎng)絡(luò)架構(gòu)和模型優(yōu)化專門用于平衡高精度和實(shí)時(shí)效率,并在兩個(gè)數(shù)據(jù)集上驗(yàn)證了PIXOR:KITTI BEV物體檢測(cè)基準(zhǔn)和大規(guī)模3D車輛檢測(cè)基準(zhǔn)。

論文下載鏈接:
http://openaccess.thecvf.com/content_cvpr_2018/papers/Yang_PIXOR_Real-Time_3D_CVPR_2018_paper.pdf

6.Hierarchical Recurrent Attention Networks for Structured online Maps


除此之外,Uber團(tuán)隊(duì)也解決了從稀疏3D點(diǎn)云提取在線道路網(wǎng)絡(luò)的問題。該方法受注釋器構(gòu)建車道圖的啟發(fā),首先確定有多少車道,然后依次繪制每個(gè)車道。他們開發(fā)了一個(gè)分級(jí)循環(huán)網(wǎng)絡(luò),它通過輸出結(jié)構(gòu)化折線來處理車道邊界的初始區(qū)域并完全跟蹤它們。在90公里長(zhǎng)的高速公路上,證明了該方法的有效性。

論文下載鏈接:
http://openaccess.thecvf.com/content_cvpr_2018/papers/Homayounfar_Hierarchical_Recurrent_Attention_CVPR_2018_paper.pdf

7.Deep Parametric Continuous Convolutional Neural Networks


一種對(duì)象實(shí)例的半自動(dòng)注釋方法,Uber打破了將對(duì)象分割視為像素標(biāo)注問題,而是將其轉(zhuǎn)換為多邊形預(yù)測(cè)任務(wù),模仿大多數(shù)當(dāng)前數(shù)據(jù)集的注釋方式。用該方法將圖像裁剪作為輸入,并順序生成對(duì)象的多邊形頂點(diǎn)。

論文下載鏈接:
http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_Deep_Parametric_Continuous_CVPR_2018_paper.pdf

8.SBNet: Sparse Blocks Network for Fast Inference


2018年,Uber團(tuán)隊(duì)通過改進(jìn)深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)得到稀疏卷積算法,驗(yàn)證了稀疏CNN對(duì)基于LiDAR的3D物體檢測(cè)的有效性。

論文下載鏈接:
https://arxiv.org/abs/1801.02108

9.Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion Forecasting with a Single Convolutional Net


Uber在一篇論文中提出了一種新的深度神經(jīng)網(wǎng)絡(luò),能夠在給定3D傳感器接受的數(shù)據(jù)下共同推理出3D檢測(cè),跟蹤和運(yùn)動(dòng)預(yù)測(cè)。通過共同推理這些任務(wù),對(duì)于遮擋以及范圍內(nèi)的稀疏數(shù)據(jù)更加穩(wěn)健。

論文下載鏈接:
http://openaccess.thecvf.com/content_cvpr_2018/papers/Luo_Fast_and_Furious_CVPR_2018_paper.pdf

10. End-to-End Deep Structured Models for Drawing Crosswalks


在一篇發(fā)表于ECCV2018的論文中,Uber解決了從LiDAR和攝像機(jī)圖像中檢測(cè)人行橫道的問題。為了實(shí)現(xiàn)這一目標(biāo),給定了多個(gè)LiDAR掃描和相應(yīng)的圖像,將兩個(gè)輸入投影到地面上以產(chǎn)生場(chǎng)景的俯視圖。然后,利用卷積神經(jīng)網(wǎng)絡(luò)提取關(guān)于人行橫道位置的語義線索。將這些與來自免費(fèi)可用地圖(例如,OpenStreetMaps)的道路中心線結(jié)合使用,以解決繪制最終人行橫道邊界的結(jié)構(gòu)化優(yōu)化問題。

論文下載鏈接:
http://openaccess.thecvf.com/content_ECCV_2018/papers/Justin_Liang_End-to-End_Deep_Structured_ECCV_2018_paper.pdf

11.Deep Continuous Fusion for Multi-Sensor 3D Object Detection


camera圖像和雷達(dá)俯視圖分別用ResNet提取不通尺度特征的,將camera圖像提取的多尺度特征進(jìn)行融合,經(jīng)過本文設(shè)計(jì)的“連續(xù)融合層”以融合到BEV的不通尺度的特征中,學(xué)到的特征經(jīng)個(gè)兩個(gè)固定尺度的anchor,每個(gè)尺度兩個(gè)方向(0,90°)NMS獲取最終的3D目標(biāo)檢測(cè)。

論文下載鏈接:
http://openaccess.thecvf.com/content_ECCV_2018/papers/Justin_Liang_End-to-End_Deep_Structured_ECCV_2018_paper.pdf

12.Efficient Convolutions for Real-Time Semantic Segmentation of 3D Point Clouds


Uber發(fā)明了一種新穎的方法,使用深度神經(jīng)網(wǎng)絡(luò)實(shí)時(shí)處理點(diǎn)云,采用簡(jiǎn)單占用網(wǎng)格的2D表示,并生成細(xì)粒度的3D分割。

論文下載鏈接:
http://www.cs.toronto.edu/~wenjie/papers/3dv18.pdf

13.Learning to Localize Using a LiDAR Intensity Map
在本文中,Uber團(tuán)隊(duì)為自動(dòng)駕駛汽車提出了一種實(shí)時(shí),與校準(zhǔn)無關(guān)且有效的定位系統(tǒng)。該方法學(xué)習(xí)將在線LiDAR掃描和強(qiáng)度圖嵌入到聯(lián)合深度嵌入空間中。然后通過嵌入之間的有效卷積匹配來進(jìn)行定位。該完整系統(tǒng)可以在15Hz下實(shí)時(shí)運(yùn)行,同時(shí)在不同的LiDAR傳感器和環(huán)境中實(shí)現(xiàn)厘米級(jí)精度。

論文下載鏈接:
http://proceedings.mlr.press/v87/barsan18a/barsan18a.pdf

14.IntentNet: Learning to Predict Intention from Raw Sensor Data

在本文中,Uber團(tuán)隊(duì)開發(fā)了一個(gè)單級(jí)探測(cè)器和預(yù)報(bào)器,它利用了LiDAR傳感器產(chǎn)生的3D點(diǎn)云以及環(huán)境的動(dòng)態(tài)圖。該多任務(wù)模型比單獨(dú)的模塊具有更高的精度,同時(shí)節(jié)省了計(jì)算,這對(duì)于減少自動(dòng)駕駛應(yīng)用中的反應(yīng)時(shí)間至關(guān)重要。

論文下載鏈接:
http://proceedings.mlr.press/v87/casas18a/casas18a.pdf

15.HDNET: Exploiting HD Maps for 3D Object Detection
論文下載鏈接:
http://proceedings.mlr.press/v87/yang18b/yang18b.pdf

16.Deep Multi-Sensor Lane Detection

論文下載鏈接:
https://arxiv.org/abs/1905.01555

17.Graph HyperNetworks for Neural Architecture Search
論文下載鏈接:
https://openreview.net/forum?id=rkgW0oA9FX

18.DeepSignals: Predicting Intent of Drivers Through Visual Signals
論文下載鏈接:
https://www.cs.toronto.edu/~urtasun/publications/frossard_etal_icra19.pdf

19.Deep Rigid Instance Scene Flow

20.Multi-Task Multi-Sensor Fusion for 3D Object Detection


21.Learning to Localize Through Compressed Binary Maps


22. Convolutional Recurrent Network for Road Boundary Extraction


23. UPSNet: A Unified Panoptic Segmentation Network


24.End-to-End Interpretable Neural Motion Planner


本文提出了一種神經(jīng)運(yùn)動(dòng)規(guī)劃器,用于學(xué)習(xí)在復(fù)雜的城市場(chǎng)景中自主駕駛,包括交通燈處理,屈服以及與多個(gè)道路使用者的交互。Uber利用該方法在北美幾個(gè)城市得到的實(shí)際駕駛數(shù)據(jù)中驗(yàn)證了其有效性。

論文下載鏈接:
http://www.cs.toronto.edu/~byang/papers/nmp.pdf

25.Exploiting Sparse Semantic HD Maps for Self-Driving Vehicle Localization

本文提出了一種新的語義定位算法,該算法利用多個(gè)傳感器,精度可達(dá)幾厘米。該方法不需要對(duì)世界的外觀有詳細(xì)的了解,而且地圖存儲(chǔ)量比傳統(tǒng)幾何和基于激光雷達(dá)強(qiáng)度的定位器使用的地圖少很多。
分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25