日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

自動駕駛知識資料全集(白皮書/報告/論文/綜述/代碼/數(shù)據(jù)/TUM課程講解PPT及視頻,附查看鏈接)

2022-01-27 10:41:08·  來源:專知  
 
自動駕駛-目錄白皮書中國信通院IMT-2020(5G)推進(jìn)組移動聯(lián)通百度華為未來網(wǎng)絡(luò)發(fā)展大會中國智能網(wǎng)聯(lián)汽車產(chǎn)業(yè)創(chuàng)新聯(lián)盟中國軟件評測中心報告綜述中文英文關(guān)鍵技術(shù)(

自動駕駛-目錄

  • 白皮書
  • 中國信通院
  • IMT-2020(5G)推進(jìn)組
  • 移動
  • 聯(lián)通
  • 百度
  • 華為
  • 未來網(wǎng)絡(luò)發(fā)展大會
  • 中國智能網(wǎng)聯(lián)汽車產(chǎn)業(yè)創(chuàng)新聯(lián)盟
  • 中國軟件評測中心
  • 報告
  • 綜述
  • 中文
  • 英文
  • 關(guān)鍵技術(shù)(原文、代碼、視頻、數(shù)據(jù)集鏈接)
  • 感知
  • 預(yù)測
  • 規(guī)則(人類先驗知識)
  • 規(guī)劃
  • 端到端
  • 安全
  • 倫理
  • 數(shù)據(jù)集
  • 教程
  • 慕尼黑工業(yè)大學(xué)TUM
  • 人工智能技術(shù)Artificial Intelligence in Automotive Technology
  • 01.引言
  • 02. 感知
  • 03.有監(jiān)督學(xué)習(xí)-線性回歸
  • 04. 有監(jiān)督學(xué)習(xí)-分類
  • 05. 無監(jiān)督學(xué)習(xí)-聚類
  • 06. 尋徑
  • 07. 神經(jīng)網(wǎng)絡(luò)導(dǎo)論
  • 08. 深度神經(jīng)網(wǎng)絡(luò)
  • 09. 卷積神經(jīng)網(wǎng)絡(luò)
  • 10. 遞歸神經(jīng)網(wǎng)絡(luò)
  • 11. 強(qiáng)化學(xué)習(xí)
  • 12. AI開發(fā)
  • 13. Rasmus Rothe教授講座
  • 自動駕駛軟件工程Autonomous Driving Software Engineering
  • 01. 介紹
  • 02. 感知一
  • 03. 感知二
  • 04. 感知三
  • 05. 預(yù)測
  • 06. 全局規(guī)劃
  • 07. 局部規(guī)劃
  • 08. 控制
  • 09. 安全評估
  • 10. 遙控駕駛
  • 11. 端到端
  • 12. 人為因素
  • 百度Apollo
  • 模塊學(xué)習(xí)
  • 課程學(xué)習(xí)
  • 入門課程
  • 進(jìn)階課程
  • 開發(fā)平臺文檔
  • 麻省理工MIT

自動駕駛-內(nèi)容

中國信通院

  1. 2021.12,《車聯(lián)網(wǎng)白皮書》,44頁,中國信息通信研究院,http://www.caict.ac.cn/kxyj/qwfb/bps/202112/P020211224634954242855.pdf
  2. 2020.12,《車聯(lián)網(wǎng)白皮書(網(wǎng)聯(lián)自動駕駛分冊)》,44頁,中國信息通信研究院,http://pg.jrj.com.cn/acc/Res/CN_RES/INDUS/2020/12/17/1019396a-208c-434e-b8b2-1a97e1648526.pdf
  3. 2019.12,《車聯(lián)網(wǎng)白皮書(C-V2X白皮書)》,47頁,中國信息通信研究院、國泰君安證券股份有限公司,http://www.caict.ac.cn/kxyj/qwfb/bps/201912/P020191226516585677051.pdf
  4. 2019.12,《車聯(lián)網(wǎng)白皮書(2018年)》,35頁,中國信息通信研究院、http://www.caict.ac.cn/kxyj/qwfb/bps/201812/P020181218510826089278.pdf
  5. 2017.9,《車聯(lián)網(wǎng)白皮書(2017年)》,37頁,中國信息通信研究院、華為技術(shù)有限公司、電信科學(xué)技術(shù)研究院,http://www.caict.ac.cn/kxyj/qwfb/bps/201804/P020170928592209280350.pdf
  6. 2017.9,《車聯(lián)網(wǎng)網(wǎng)絡(luò)安全白皮書(2017年)》,41頁,中國信息通信研究院,http://www.caict.ac.cn/kxyj/qwfb/bps/201804/P020170921430215345026.pdf

IMT-2020(5G)推進(jìn)組

  1. 2019.10,《C-V2X業(yè)務(wù)需求演進(jìn)白皮書》,25頁,IMT-2020(5G)推進(jìn)組,http://www.caict.ac.cn/kxyj/qwfb/bps/201911/P020191104336556097939.pdf
  2. 2019.10,《車輛高精度定位白皮書》,23頁,IMT-2020 (5G)推進(jìn)組,http://www.caict.ac.cn/kxyj/qwfb/bps/201911/P020200911551988189402.pdf
  3. 2019.7,《LTE-V2X安全技術(shù)》,25頁,IMT-2020 (5G)推進(jìn)組,http://zhishi.sae-china.org/read/?id=1922#page=3
  4. 2019.1,《MEC與C-V2X融合 應(yīng)用場景》,19頁,IMT-2020 (5G)推進(jìn)組,http://m.caict.ac.cn/yjcg/201901/P020190123572024553363.pdf
  5. 2018.6,《C-V2X》,33頁,IMT-2020 (5G)推進(jìn)組,http://www.caict.ac.cn/kxyj/qwfb/bps/201806/P020180621609834833905.pdf

移動

  1. 2021,《中國移動自動駕駛網(wǎng)絡(luò)白皮書》,中國移動,https://kxlabs.10086.cn/files/1626350861865-520854.pdf

聯(lián)通

  1. 2021,《5G+MEC+V2X 車聯(lián)網(wǎng)解決方案 白皮書》,32頁,中國聯(lián)合網(wǎng)絡(luò)通信集團(tuán)有限公司、聯(lián)想,http://www.future-forum.org/cn/leon/a/upfiles/file/202104/20210414164624972497.pdf

百度

  1. 2021.12,《自動駕駛汽車交通安全白皮書》,74頁,中汽中心、同濟(jì)大學(xué)、百度Apollo,https://apollo-open.bj.bcebos.com/20211215/%E8%87%AA%E5%8A%A8%E9%A9%BE%E9%A9%B6%E6%B1%BD%E8%BD%A6%E4%BA%A4%E9%80%9A%E5%AE%89%E5%85%A8%E7%99%BD%E7%9A%AE%E4%B9%A6.pdf
  2. 2019,《自動駕駛安全第一白皮書》,157頁,百度、安波福、寶馬、奧迪等,https://www.bjhzhz.com/ueditor/php/upload/file/20210611/1623382005549714.pdf

華為

  1. 2021.7,《華為數(shù)據(jù)中心自動駕駛網(wǎng)絡(luò)白皮書》,27頁,華為,https://www.chenxiaofang.site/wp-content/uploads/2021/07/%E5%8D%8E%E4%B8%BA%E6%95%B0%E6%8D%AE%E4%B8%AD%E5%BF%83%E8%87%AA%E5%8A%A8%E9%A9%BE%E9%A9%B6%E7%BD%91%E7%BB%9C%E7%99%BD%E7%9A%AE%E4%B9%A6.pdf
  2. 2021.6,《數(shù)據(jù)中心基礎(chǔ)設(shè)施智能化分級(自動駕駛)》,32頁,華為,https://www.eet-china.com/d/file/news/2021-06-09/2b6c4c1c8f18254c9e5fdd398e5b905a.pdf
  3. 2020,《自動駕駛網(wǎng)絡(luò)解決方案白皮書》,80頁,華為,https://carrier.huawei.com/~/media/CNBGV2/download/adn/Autonomous-Driving-Network-whitepaper-cn1.pdf

未來網(wǎng)絡(luò)發(fā)展大會

  1. 2021.12,《未來網(wǎng)絡(luò)白皮書——數(shù)據(jù)中心自動駕駛網(wǎng)絡(luò)技術(shù)白皮書,2021版》,52頁,第五屆未來網(wǎng)絡(luò)發(fā)展大會組委會,https://img1.sdnlab.com/wp-content/uploads/2021/06/21/whitepaper-%E6%9C%AA%E6%9D%A5%E7%BD%91%E7%BB%9C%E7%99%BD%E7%9A%AE%E4%B9%A6%E2%80%94%E2%80%94%E6%95%B0%E6%8D%AE%E4%B8%AD%E5%BF%83%E8%87%AA%E5%8A%A8%E9%A9%BE%E9%A9%B6%E7%BD%91%E7%BB%9C%E6%8A%80%E6%9C%AF%E7%99%BD%E7%9A%AE%E4%B9%A6.pdf

中國智能網(wǎng)聯(lián)汽車產(chǎn)業(yè)創(chuàng)新聯(lián)盟

  1. 2021.5,《智能網(wǎng)聯(lián)汽車高精度衛(wèi)星定位白皮書》,152頁,中國智能網(wǎng)聯(lián)汽車產(chǎn)業(yè)創(chuàng)新聯(lián)盟,http://www.china-icv.cn/upload/2021/07/12/16260536514901daijd.pdf
  2. 2021.5,《智能網(wǎng)聯(lián)汽車高精地圖白皮書》,147頁,中國智能網(wǎng)聯(lián)汽車產(chǎn)業(yè)創(chuàng)新聯(lián)盟,http://www.china-icv.cn/upload/2021/07/12/16260536764054a4d6l.pdf

中國軟件評測中心

  1. 2020.12,《車載智能計算平臺功能安全白皮書》,152頁,中國軟件評測中心,https://www.cstc.org.cn/chezaizhinengjisuanpingtaigongnenganquanbaipishu.pdf

報告

  1. 2022.1.17,維多利亞運輸政策研究所,Autonomous Vehicle Implementation Predictions:Implications for Transport Planning,48頁。許多決策者和從業(yè)者都想知道,自動駕駛汽車(AVs)將如何影響未來的出行,進(jìn)而影響對道路、停車設(shè)施和公共交通服務(wù)的需求,以及哪些公共政策可以將這些新技術(shù)的問題最小化,并使其效益最大化。本報告探討了這些問題。https://www.vtpi.org/avip.pdf
  2. 2021,2021年全球自動駕駛汽車指南Global Guide to Autonomous Vehicles,http://www.thedriverlesscommute.com/wp-content/uploads/2021/02/Global-Guide-to-Autonomous-Vehicles-2021.pdf
  3. 2021.7,《車載計算平臺標(biāo)準(zhǔn)化需求研究報告》,全國汽車標(biāo)準(zhǔn)化技術(shù)委員會、智能網(wǎng)聯(lián)汽車分技術(shù)委員會,http://www.catarc.org.cn/upload/202109/22/202109221132155975.pdf
  4. 2021.3,《自動駕駛產(chǎn)業(yè)鏈全梳理》,西南證券研究發(fā)展中心,https://pdf.dfcfw.com/pdf/H3_AP202103111470672485_1.pdf?1615459588000.pdf
  5. 2021.1,《自動駕駛駛向何方?》:自動駕駛市場、技術(shù)路徑、產(chǎn)業(yè)發(fā)展、投資建議,國金證券,http://qccdata.qichacha.com/ReportData/PDF/df94319e701b86a7594a93bfe1d498ce.pdf
  6. 2020.11.11,《ETC駛向V2X,智慧交通龍頭“駕輕就熟”》,32頁,開源證券,https://pdf.dfcfw.com/pdf/H3_AP202011151429330007_1.pdf?1605434112000.pdf
  7. 2020.5.24,《標(biāo)準(zhǔn)臨近疊加新基建助力,C-V2X 產(chǎn)業(yè)元年開啟 ——C-V2X 行業(yè)深度報告》,30頁,光大證券,https://pdf.dfcfw.com/pdf/H3_AP202005241380177659_1.pdf?1590355566000.pdf

自動駕駛-綜述

中文

  1. 2021.3,廣西大學(xué)“面向自動駕駛的邊緣計算技術(shù)研究綜述”,19頁,通信學(xué)報。介紹了基于邊緣計算的自動駕駛汽車協(xié)同感知和任務(wù)卸載技術(shù)及相關(guān)挑戰(zhàn)性問題,然后對協(xié)同感知和任務(wù)卸載技術(shù)的研究現(xiàn)狀進(jìn)行了分析總結(jié)。論文原鏈接http://www.infocomm-journal.com/txxb/CN/article/downloadArticleFile.do?attachType=PDF&id=171291
  2. 2021.1,天津大學(xué)“自動駕駛智能系統(tǒng)測試研究綜述”,22頁,軟件學(xué)報。本文調(diào)研了56 篇相關(guān)領(lǐng)域的學(xué)術(shù)論文,分別就感知模塊、決策模塊、綜合功能模塊及整車系統(tǒng)的測試技術(shù)、用例生成方法和測試覆蓋度量等維度對目前已有的研究成果進(jìn)行了梳理,并描述了自動駕駛智能系統(tǒng)測試中的數(shù)據(jù)集及工具集。論文原鏈接http://www.jos.org.cn/jos/article/pdf/6266?file_name=94B86F4BF0497EAE17A5F0D9F6591B963D17D220AD266E9D8F92E4FB76E0CA8E75A6D437C61027970688673CAEBCF9FB&open_type=self

英文

  1. 2022.1.19,科羅拉多州立大學(xué),Object Detection in Autonomous Vehicles: Status and Open Challenges。論文原鏈接https://arxiv.org/ftp/arxiv/papers/2201/2201.07706.pdf
  2. 2022.1,法國雷恩第一大學(xué),Adversarial Example Detection for DNN Models: A Review and Experimental Comparison。 論文原鏈接https://arxiv.org/pdf/2105.00203v2.pdf代碼https://github.com/aldahdooh/detectors_review
  3. 2021.12,加拿大Alberta大學(xué)、華為發(fā)表自動駕駛可解釋AI的綜述論文,“Explainable Artificial Intelligence for Autonomous Driving: A Comprehensive Overview and Field Guide for Future Research Directions”,arXiv。該研究為開發(fā)自動駕駛車輛的可解釋人工智能(XAI)方法提供了全面的信息。首先,概述了目前最先進(jìn)的自動駕駛汽車行業(yè)在可解釋方面存在的差距。然后,展示該領(lǐng)域中可解釋和可解釋受眾的分類。第三,提出了一個端到端自動駕駛系統(tǒng)體系結(jié)構(gòu)的框架,并論證了XAI在調(diào)試和調(diào)控此類系統(tǒng)中的作用。論文原鏈接https://arxiv.org/pdf/2112.11561.pdf
  4. 2021.2,法國Navya無人駕駛公司,Deep reinforcement learning for autonomous driving: A survey, IEEE Transactions on Intelligent Transportation Systems。論文原鏈接https://arxiv.org/pdf/2002.00444.pdf
  5. 2020.7,深度學(xué)習(xí)自動駕駛技術(shù)綜述論文,“Autonomous Driving with Deep Learning: A Survey of State-of-Art Technologies”,28頁,arXiv。研究了自動駕駛系統(tǒng)的主要領(lǐng)域,如感知、地圖和定位、預(yù)測、規(guī)劃和控制、仿真、V2X和安全等。重點分析幾個關(guān)鍵領(lǐng)域,即感知中的二維/三維物體檢測、攝像機(jī)深度估計、數(shù)據(jù)、特征和任務(wù)級的多傳感器融合、車輛行駛和行人軌跡的行為建模和預(yù)測。論文原鏈接https://arxiv.org/ftp/arxiv/papers/2006/2006.06091.pdf 2020.3,日本名古屋大學(xué)自動駕駛領(lǐng)域頂級專家(Senior Member, IEEE),“A Survey of Autonomous Driving: Common Practices and Emerging Technologies”,28頁,IEEE Access。本文討論了無人駕駛技術(shù)中尚未解決的問題,并對無人駕駛技術(shù)進(jìn)行了綜述。對目前的挑戰(zhàn)、高級系統(tǒng)架構(gòu)、新興方法和核心功能(包括定位、映射、感知、規(guī)劃和人機(jī)界面)的研究進(jìn)行了全面回顧。此外,在自己的平臺上實現(xiàn)了許多最先進(jìn)的算法,并在真實世界的駕駛環(huán)境中進(jìn)行了比較。最后概述了ADS開發(fā)中可用的數(shù)據(jù)集和工具。論文原鏈接https://arxiv.org/pdf/1906.05113.pdf

關(guān)鍵技術(shù)(原文、代碼、視頻、數(shù)據(jù)集鏈接)

感知

  1. 2021.11,中山大學(xué),“基于多對多生成對抗網(wǎng)絡(luò)的非對稱跨域遷移行人再識別”,自動化學(xué)報。論文原鏈接http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c190303
  2. 2021.10,廣西大學(xué),“無人駕駛汽車協(xié)同感知信息傳輸負(fù)載優(yōu)化技術(shù)”,計算機(jī)學(xué)報。本文提出了一種視頻感知數(shù)據(jù)的傳輸負(fù)載優(yōu)化方法,主要思想是通過路邊基礎(chǔ)設(shè)施把視頻幀中的靜態(tài)背景與動態(tài)前景進(jìn)行分離,僅在初始時傳輸一次靜態(tài)背景,其余每次僅傳輸動態(tài)前景信息,這樣可以使得傳輸負(fù)載大幅降低。論文原鏈接http://cjc.ict.ac.cn/online/onlinepaper/lp-x-20211014145533.pdf
  3. 2021.5,中南大學(xué),“基于可見光與紅外熱圖像的行車環(huán)境復(fù)雜場景分割”,自動化學(xué)報。論文原鏈接http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c210029
  4. 2022.1.18,采埃孚印度技術(shù)中心,Contextual road lane and symbol generation for autonomous driving。論文原鏈接https://arxiv.org/pdf/2201.07120.pdf
  5. 2022.1.18,法國南特大學(xué),Attention-based Proposals Refinement for 3D Object Detection。論文原鏈接https://arxiv.org/pdf/2201.07070.pdf
  6. 2022.1.17,加州大學(xué)歐文分校, HydraFusion: Context-Aware Selective Sensor Fusion for Robust and Efficient Autonomous Vehicle Perception,13th ACM/IEEE International Conference on Cyber-Physical Systems (ICCPS 2022)。 論文原鏈接https://arxiv.org/pdf/2201.06644.pdf代碼https://github.com/aicps/hydrafusion
  7. 2021.10,麻省理工學(xué)院,Kimera: from SLAM to Spatial Perception with 3D Dynamic Scene Graphs,arxiv。 論文原鏈接https://arxiv.org/pdf/2101.06894.pdf , 代碼https://github.com/MIT-SPARK/Kimera ,視頻Video 1: https://youtu.be/-5XxXRABXJs,Video 2: https://youtu.be/SWbofjhyPzI。
  8. 2020.7,麻省理工學(xué)院,Kimera: an Open-Source Library for Real-Time Metric-Semantic Localization and Mapping,ICRA 2020。 論文原鏈接https://arxiv.org/pdf/1910.02490.pdf , 代碼https://github.com/MIT-SPARK/Kimera,https://paperswithcode.com/paper/kimera-an-open-source-library-for-real-time,視頻https://www.youtube.com/watch?v=-5XxXRABXJs
  9. 2020.6,麻省理工學(xué)院,3D Dynamic Scene Graphs: Actionable Spatial Perception with Places, Objects, and Humans,Robotics: Science and Systems (RSS)。 論文原鏈接https://arxiv.org/pdf/2002.06289.pdf , 代碼https://paperswithcode.com/paper/3d-dynamic-scene-graphs-actionable-spatial,視頻https://www.youtube.com/watch?v=SWbofjhyPzI
  10. 2019.7,麻省理工學(xué)院,Incremental Visual-Inertial 3D Mesh Generation with Structural Regularities,ICRA 2019。 論文原鏈接https://arxiv.org/pdf/1903.01067.pdf , 代碼https://github.com/MIT-SPARK/Kimera,https://paperswithcode.com/paper/incremental-visual-inertial-3d-mesh (論文7-10為同一作者成果)
  11. 2021.10,英國埃塞克斯大學(xué)、荷蘭代爾夫特理工大學(xué)、昆士蘭科技大學(xué),VPR-Bench: An Open-Source Visual Place Recognition evaluation framework with Quantifiable Viewpoint and Appearance Change。 論文原鏈接https://arxiv.org/pdf/2005.08135v2.pdf代碼:https://github.com/MubarizZaffar/VPR-Bench
  12. 2021.10,韓國延世大學(xué),Robust Lane Detection via Expanded Self Attention,IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) 2022。 論文原鏈接https://arxiv.org/pdf/2102.07037v3.pdf,代碼https://github.com/Hydragon516/ESA-official
  13. 2021.10,瑞典RISE研究院、瑞典隆德大學(xué),Efficient and Effective Generation of Test Cases for Pedestrian Detection -- Search-based Software Testing of Baidu Apollo in SVL,AITest 2021。 論文原鏈接https://arxiv.org/pdf/2109.07960v2.pdf,代碼https://github.com/ebadi/scenariogenerator
  14. 2021.9,哈爾濱工業(yè)大學(xué)(Senior Member, IEEE),Deep Dual-resolution Networks for Real-time and Accurate Semantic Segmentation of Road Scenes。 論文原鏈接https://arxiv.org/pdf/2101.06085v2.pdf ,代碼https://github.com/ydhongHIT/DDRNet
  15. 2021.8,愛丁堡大學(xué),GRIT: Fast, Interpretable, and Verifiable Goal Recognition with Learned Decision Trees for Autonomous Driving,2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)。 論文原鏈接https://arxiv.org/pdf/2103.06113v3.pdf代碼https://github.com/uoe-agents/GRIT
  16. 2021.4,西班牙塞維利亞大學(xué),Enhancing Object Detection for Autonomous Driving by Optimizing Anchor Generation and Addressing Class Imbalance,Neurocomputing (2021)。 論文原鏈接https://arxiv.org/pdf/2104.03888v1.pdf代碼https://github.com/carranza96/waymo-detection-optimization
  17. 2021.4,俄羅斯Evocargo LLC,Raindrops on Windshield: Dataset and Lightweight Gradient-based Detection Algorithm。 論文原鏈接https://arxiv.org/pdf/2104.05078v1.pdf代碼https://github.com/EvoCargo/RaindropsonWindshield
  18. 2021.3,多倫多大學(xué)機(jī)器人研究所,Categorical Depth Distribution Network for Monocular 3D Object Detection。 論文原鏈接https://arxiv.org/pdf/2103.01100v2.pdf ,代碼https://github.com/TRAILab/CaDDN
  19. 2021.3,香港科技大學(xué),Video Deblurring by Fitting to Test Data。 論文原鏈接https://arxiv.org/pdf/2012.05228v2.pdf ,代碼https://github.com/xrenaa/Deblur-by-Fitting
  20. 2021.2,美國密歇根大學(xué),LiDARTag: A Real-Time Fiducial Tag System for Point Clouds。 論文原鏈接https://arxiv.org/pdf/1908.10349.pdf,代碼https://github.com/UMich-BipedLab/LiDARTag。
  21. 2021.2,深圳市人工智能與機(jī)器人研究院、香港中文大學(xué),Semantic Histogram based Graph Matching for Real-Time Multi-Robot Global Localization in Large Scale Environment,IEEE ROBOTICS AND AUTOMATION LETTERS. PREPRINT VERSION。 論文原鏈接https://arxiv.org/pdf/2010.09297v2.pdf , 代碼https://repository.tudelft.nl/islandora/object/uuid:af94d535-1853-4a6c-8b3f-77c98a52346a?collection=research,數(shù)據(jù)集http://www.cvlibs.net/datasets/kitti/,https://synthia-dataset.net/,https://github.com/Microsoft/AirSim
  22. 2020.10,法國格勒諾布爾大學(xué),GndNet: Fast Ground Plane Estimation and Point Cloud Segmentation for Autonomous Vehicles,IEEE/RSJ International Conference on Intelligent Robots and Systems。 論文原鏈接https://hal.inria.fr/hal-02927350/document代碼https://github.com/anshulpaigwar/GndNet
  23. 2020.8,清華大學(xué),DXSLAM: A Robust and Efficient Visual SLAM System with Deep Features。 論文原鏈接https://arxiv.org/pdf/2008.05416v1.pdf ,代碼https://github.com/ivipsourcecode/dxslam
  24. 2020.7,香港科技大學(xué),GSNet: Joint Vehicle Pose and Shape Reconstruction with Geometrical and Scene-aware Supervision,ECCV 2020。 論文原鏈接https://arxiv.org/pdf/2007.13124v1.pdf ,代碼https://github.com/lkeab/gsnet
  25. 2020.6,奔馳、烏爾姆大學(xué)、普林斯頓大學(xué)等,Seeing Through Fog Without Seeing Fog: Deep Multimodal Sensor Fusion in Unseen Adverse Weather,CVPR2020。 論文原鏈接https://arxiv.org/pdf/1902.08913.pdf ,代碼https://github.com/princeton-computational-imaging/SeeingThroughFog
  26. 2020.5,慕尼黑工業(yè)大學(xué),Persistent Map Saving for Visual Localization for Autonomous Vehicles: An ORB-SLAM Extension,EVER2020。 論文原鏈接https://arxiv.org/pdf/2005.07429v1.pdf,代碼https://github.com/TUMFTM/orbslam-map-saving-extension
  27. 2020.4,武漢大學(xué),Robust Lane Detection from Continuous Driving Scenes Using Deep Neural Networks,IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY。 論文原鏈接https://arxiv.org/pdf/1903.02193v2.pdf,代碼https://github.com/qinnzou/Robust-Lane-Detection
  28. 2020.3,劍橋大學(xué),PaRoT: A Practical framework for Robust Deep Neural Network Training,22頁,12th NASA Formal Methods Symposium。 論文原鏈接https://arxiv.org/pdf/2001.02152v3.pdf代碼https://github.com/fiveai/parot
  29. 2020.2,斯坦福大學(xué),Slice-based Learning: A Programming Model for Residual Learning in Critical Data Slices,NeurIPS 2019。 論文原鏈接https://arxiv.org/pdf/1909.06349v2.pdf ,代碼https://github.com/snorkel-team/snorkel-tutorials
  30. 2020.2,德國戴姆勒公司、德國卡爾斯魯厄理工學(xué)院,CNN-based Lidar Point Cloud De-Noising in Adverse Weather。 論文原鏈接https://arxiv.org/pdf/1912.03874v2.pdf ,代碼https://github.com/rheinzler/PointCloudDeNoising
  31. 2020.2,卡耐基梅隆大學(xué),Learning to Move with Affordance Maps,ICLR 2020。 論文原鏈接https://arxiv.org/pdf/2001.02364v2.pdf代碼https://github.com/wqi/A2L
  32. 2020.1,中科院沈陽自動化研究所研究所、中國科學(xué)院機(jī)器人與智能制造研究所等RTM3D: Real-time Monocular 3D Detection from Object Keypoints for Autonomous Driving。 論文原鏈接https://arxiv.org/pdf/2001.03343v1.pdf ,代碼https://github.com/Banconxuan/RTM3D
  33. 2019.7,意大利博洛尼亞大學(xué)、帕爾馬大學(xué),Lane Detection and Classification using Cascaded CNNs。 論文原鏈接https://arxiv.org/pdf/1907.01294v2.pdf代碼https://github.com/fabvio/Cascade-LD,https://github.com/fabvio/TuSimple-lane-classes
  34. 2019.10,加拿大約克大學(xué),PIE: A Large-Scale Dataset and Models for Pedestrian Intention Estimation and Trajectory Prediction,ICCV 2019。 論文原鏈接https://openaccess.thecvf.com/content_ICCV_2019/papers/Rasouli_PIE_A_Large-Scale_Dataset_and_Models_for_Pedestrian_Intention_Estimation_ICCV_2019_paper.pdf,代碼https://github.com/aras62/PIEPredict
  35. 2019.8,曠世研究院、清華大學(xué)等,Class-balanced Grouping and Sampling for Point Cloud 3D Object Detection。 論文原鏈接https://arxiv.org/pdf/1908.09492v1.pdf ,代碼https://github.com/poodarchu/Class-balanced-Grouping-and-Sampling-for-Point-Cloud-3D-Object-Detection
  36. 2019.7,巴西圣埃斯皮里圖聯(lián)邦大學(xué)(Senior Member, IEEE),Cross-Domain Car Detection Using Unsupervised Image-to-Image Translation: From Day to Night。 論文原鏈接https://arxiv.org/pdf/1907.08719v1.pdf代碼https://github.com/LCAD-UFES/publications-arruda-ijcnn-2019
  37. 2019.5,喬治亞理工學(xué)院、英特爾,ShapeShifter: Robust Physical Adversarial Attack on Faster R-CNN Object Detector。 論文原鏈接https://arxiv.org/pdf/1804.05810v3.pdf,代碼https://github.com/shangtse/robust-physical-attack
  38. 2017.5,高精地圖,Highiy Efficient HD Map Creation: Acceierating Mapping Process with GPUs,40頁PPT。原鏈接https://on-demand.gputechconf.com/gtc/2017/presentation/s7656-shigeyuki-iwata-accelerating-hd-mapping.pdf
分享到:
 
反對 0 舉報 0 收藏 0 評論 0
滬ICP備11026917號-25