日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

自動駕駛領(lǐng)域開源數(shù)據(jù)集詳細(xì)匯總

2021-09-26 20:21:03·  來源:交通邦  
 
1. KITTI數(shù)據(jù)集KITTI數(shù)據(jù)集由德國卡爾斯魯厄理工學(xué)院和豐田美國技術(shù)研究院聯(lián)合創(chuàng)辦,是目前最大的自動駕駛場景下的計(jì)算機(jī)視覺算法評測數(shù)據(jù)集。該數(shù)據(jù)集用于評測
1. KITTI數(shù)據(jù)集
 
KITTI數(shù)據(jù)集由德國卡爾斯魯厄理工學(xué)院和豐田美國技術(shù)研究院聯(lián)合創(chuàng)辦,是目前最大的自動駕駛場景下的計(jì)算機(jī)視覺算法評測數(shù)據(jù)集。該數(shù)據(jù)集用于評測立體圖像(stereo),光流(optical flow),視覺測距(visual odometry),3D物體檢測(object detection)和3D跟蹤(tracking)等計(jì)算機(jī)視覺技術(shù)在車載環(huán)境下的性能。
 
 
KITTI包含市區(qū)、鄉(xiāng)村和高速公路等場景采集的真實(shí)圖像數(shù)據(jù),每張圖像中最多達(dá)15輛車和30個行人,還有各種程度的遮擋與截?cái)?。整個數(shù)據(jù)集由389對立體圖像和光流圖,39.2 km視覺測距序列以及超過200k 3D標(biāo)注物體的圖像組成 ,以10Hz的頻率采樣及同步??傮w上看,原始數(shù)據(jù)集被分類為‘Road’, ‘City’, ‘Residential’, ‘Campus’ 和‘Person’。對于3D物體檢測,label細(xì)分為car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc組成。
獲取地址:http://www.cvlibs.net/datasets/kitti/
 
2.BDD100K數(shù)據(jù)集
2018年5月伯克利大學(xué)AI實(shí)驗(yàn)室(BAIR)發(fā)布了公開駕駛數(shù)據(jù)集BDD100K,同時設(shè)計(jì)了一個圖片標(biāo)注系統(tǒng)。BDD100K 數(shù)據(jù)集包含10萬段高清視頻,每個視頻約40秒\720p\30 fps 。每個視頻的第10秒對關(guān)鍵幀進(jìn)行采樣,得到10萬張圖片(圖片尺寸:1280*720 ),并進(jìn)行標(biāo)注。10萬張圖片中,包含了不同天氣、場景、時間的圖片,而且高清、模糊的圖片都有,具有規(guī)模大,多樣化的特點(diǎn)。
獲取地址:https://www.bdd100k.com/
 
3.nuScenes數(shù)據(jù)集
nuScenes數(shù)據(jù)集是由Motional(以前為nuTonomy)的團(tuán)隊(duì)開發(fā)的用于自動駕駛的公共大型數(shù)據(jù)集。Motional致力于實(shí)現(xiàn)安全,可靠和可達(dá)的無人駕駛環(huán)境。通過向公眾發(fā)布部分?jǐn)?shù)據(jù),Motional旨在推進(jìn)計(jì)算機(jī)視覺和自動駕駛的研究。
 
 
nuScenes數(shù)據(jù)集在波士頓和新加坡這兩個城市收集了1000個駕駛場景,這兩個城市交通繁忙,駕駛狀況極具挑戰(zhàn)性。nuScenes手動選擇20秒長的場景,以顯示各種駕駛操作,交通狀況和意外行為。‍‍‍‍
nuScenes收集了不同大洲的數(shù)據(jù),能讓我們進(jìn)一步研究計(jì)算機(jī)視覺算法在不同位置,天氣狀況,車輛類型,植被,道路標(biāo)記以及左右手交通之間的通用性。
nuScenes完整的數(shù)據(jù)集包括約40萬個關(guān)鍵幀中的140萬個攝像機(jī)圖像,39萬個LIDAR掃描數(shù)據(jù),1.4 M個RADAR掃描數(shù)據(jù)和1.4萬個對象邊界框。其擴(kuò)展包nuScenes-lidarseg的40,000個點(diǎn)云和1000個場景(用于訓(xùn)練和驗(yàn)證的850個場景以及用于測試的150個場景)中包含了14億個標(biāo)注點(diǎn)。
 
獲取地址:https://d3u7q4379vrm7e.cloudfront.net/download
 
4.H3D-HRI-US數(shù)據(jù)集
本田研究所于2019年3月發(fā)布其無人駕駛方向數(shù)據(jù)集,使用3D LiDAR掃描儀收集的大型全環(huán)繞3D多目標(biāo)檢測和跟蹤數(shù)據(jù)集。其包含160個擁擠且高度互動的交通場景,在27,721幀中共有100萬個標(biāo)記實(shí)例。憑借獨(dú)特的數(shù)據(jù)集大小,豐富的注釋和復(fù)雜的場景,H3D聚集在一起,以激發(fā)對全環(huán)繞3D多目標(biāo)檢測和跟蹤的研究。
 
獲取地址:https://usa.honda-ri.com/datasets
 
5.Mapillary Vistas數(shù)據(jù)集
Mapillary Vistas是世界上最大、最多樣化的街道級圖像公開數(shù)據(jù)集,包括25000張高分辨率的彩色圖像,分成66個類,其中有37個類別是特定的附加于實(shí)例的標(biāo)簽。
Mapillary Vistas 數(shù)據(jù)集具體涵蓋了25,000個高分辨率圖像(分為18,000個用于訓(xùn)練,2,000個用于驗(yàn)證,5,000個用于測試; 平均分辨率為~9百萬像素),帶有大于200萬個手動繪制多邊形的像素標(biāo)注;100個目標(biāo)類別,其中60個特定于實(shí)例(即用于枚舉目標(biāo));全球地理覆蓋范圍,覆蓋北美和南美,歐洲,非洲,亞洲和大洋洲;天氣條件(太陽,雨,雪,霧,陰霾)和拍照時間(黎明,白天,黃昏,甚至夜晚)的變化;大范圍的相機(jī)傳感器,不同的焦距,圖像寬高比和不同類型的相機(jī)噪聲;不同的拍照視點(diǎn)(來自道路,人行道和off-road)
 
 
獲取地址:https://research.mapillary.com/publication/iccv17a/
 
6.Mapillary Traffic Sign數(shù)據(jù)集
 
世界最大也最具多樣性的交通標(biāo)志數(shù)據(jù)集Mapillary Traffic Sign Dataset,可用于自動駕駛中交通標(biāo)志的自動檢測與分類的研究。
該數(shù)據(jù)集包括10萬幅高分辨率圖像,其中5.2萬幅圖像所有交通標(biāo)志全標(biāo)注,4.8萬幅圖像部分標(biāo)注;300個交通標(biāo)志類別,32萬+個包圍框;覆蓋全球6大洲多個地理位置;含有天氣、季節(jié)、時刻、相機(jī)和視角等的多樣性變化;
 
 
獲取地址:https://www.mapillary.com/dataset/trafficsign
 
7.Waymo數(shù)據(jù)集
 
2019年8月,Wamyo曾公布其Waymo Open Dataset,此后,Wamyo又為該語料庫增加了1060萬個2D標(biāo)簽、800個語料片段。該語料庫可讓研究人員更容易從頭開始構(gòu)建安全的自動駕駛模型,而且無需承擔(dān)自己收集數(shù)據(jù)的成本。
 
Waymo Open Dataset中包含了Waymo汽車在亞利桑那州鳳凰城、華盛頓柯克蘭、加州山景城和舊金山行駛了數(shù)百萬英里所收集的數(shù)據(jù),而且涵蓋了在白天夜晚、黎明黃昏、晴天雨天在各種城市和郊區(qū)環(huán)境下駕駛時收集的數(shù)據(jù)。數(shù)據(jù)樣本被分成1000個駕駛段,每個駕駛段通過安裝在Waymo車上的傳感器連續(xù)捕捉20秒駕駛數(shù)據(jù),相當(dāng)于使用10Hz攝像頭捕捉20萬幀圖像,此類攝像頭包括5個定制版激光雷達(dá)以及5個前置和側(cè)視攝像頭。
該語料庫還包括經(jīng)過標(biāo)記的激光雷達(dá)幀以及車輛、行人、騎行者和指示牌圖像。Waymo表示,攝像頭和激光雷達(dá)幀已經(jīng)由內(nèi)部研發(fā)的3D感知模型進(jìn)行了同步,該模型融合了多個來源的數(shù)據(jù),無需人工校準(zhǔn)。
 
獲取地址:https://waymo.com/open/download
 
8.Ford Multi-AV Seasonal數(shù)據(jù)集
由福特一支車隊(duì)在2017年至2018年間采集,包括混合的駕駛場景,包括底特律機(jī)場,高速公路,城市中心,大學(xué)校園和郊區(qū)。
該數(shù)據(jù)集包含了城市環(huán)境中經(jīng)歷的天氣、照明、建筑和交通條件的季節(jié)變化,可以幫助設(shè)計(jì)自主車輛和多智能體系統(tǒng)的魯棒算法。數(shù)據(jù)集中的每個日志都帶有時間戳,包含來自所有傳感器的原始數(shù)據(jù)、校準(zhǔn)值、姿勢軌跡、地面真實(shí)姿勢和3D地圖。所有數(shù)據(jù)都以Rosbag格式提供,可以使用開源機(jī)器人操作系統(tǒng)(ROS)進(jìn)行可視化、修改和應(yīng)用。
數(shù)據(jù)集還包括三維地面反射率圖,三維點(diǎn)云地圖,6自由度地面真實(shí)姿態(tài),3自由度局部位姿和傳感器轉(zhuǎn)換和校準(zhǔn)等。
 
獲取地址:https://avdata.ford.com/
 
9.DeepRoute Open Dataset數(shù)據(jù)集
 
DeepRoute Open Dataset 由 L4 級自動駕駛解決方案提供商元戎啟行發(fā)布,是用于訓(xùn)練 4 級自動駕駛算法的數(shù)據(jù)集。它包含深圳、武漢和杭州復(fù)雜城市道路上的真實(shí)測試場景。
數(shù)據(jù)是由設(shè)置在測試車輛頂部和側(cè)面的三臺激光雷達(dá)采集的激光雷達(dá)點(diǎn)云。發(fā)布的數(shù)據(jù)是從三個城市的10000幀道路測試數(shù)據(jù)中隨機(jī)抽取的。使用帶有圖像的聯(lián)合注釋,障礙物由精確的 3D 邊界框注釋。
該數(shù)據(jù)注釋了八種類型的障礙。在每種類型的障礙物中,都有包括物體類型、邊界框中心位置、邊界框尺寸和物體航向旋轉(zhuǎn)角度等信息。
 
10.Argoverse數(shù)據(jù)集
 
Argoverse數(shù)據(jù)集是由Argo AI、卡內(nèi)基梅隆大學(xué)、佐治亞理工學(xué)院發(fā)布的用于支持自動駕駛汽車3D Tracking和Motion Forecasting研究的數(shù)據(jù)集。數(shù)據(jù)集包括兩個部分:Argoverse 3D Tracking與Argoverse Motion Forecasting。
Argoverse數(shù)據(jù)集包含LiDAR數(shù)據(jù)、 RGB視頻數(shù)據(jù)、前向雙目數(shù)據(jù)、6 DOF的定位數(shù)據(jù)以及高精地圖的數(shù)據(jù),所有的數(shù)據(jù)都跟高精地圖數(shù)據(jù)進(jìn)行過配準(zhǔn)。
Argoverse是第一個包含高精地圖的數(shù)據(jù)集,它包含了290KM的帶有幾何形狀和語義信息的高精地圖數(shù)據(jù)。
 
 
獲取地址:https://www.argoverse.org/data.html#download-link
 
11.Lyft數(shù)據(jù)集
 
Lyft數(shù)據(jù)集是目前最大的交通agent數(shù)據(jù)集合。
該數(shù)據(jù)集包括自主車隊(duì)遇到的汽車、自行車者、行人和其他交通agent的運(yùn)動日志,非常適合訓(xùn)練運(yùn)動預(yù)測模型。 具體包括:小時的交通代理運(yùn)動。(1000+);來自 23 輛車的數(shù)據(jù)(16K);語義圖注解(15K)。
 
 
 
 
獲取地址:
https://level-5.global/data/
12. ApolloCar3D數(shù)據(jù)集
該數(shù)據(jù)集包含5,277個駕駛圖像和超過60K的汽車實(shí)例,其中每輛汽車都配備了具有絕對模型尺寸和語義標(biāo)記關(guān)鍵點(diǎn)的行業(yè)級3D CAD模型。該數(shù)據(jù)集比PASCAL3D +和KITTI(現(xiàn)有技術(shù)水平)大20倍以上。
 
 
獲取地址:
http://apolloscape.auto/car_instance.html#
13. CityScape 數(shù)據(jù)集
專注于對城市街景的語義理解。大型數(shù)據(jù)集,包含從50個不同城市的街景中記錄的各種立體視頻序列,高質(zhì)量的像素級注釋為5000幀,另外還有一組較大的20000個弱注釋幀。因此,數(shù)據(jù)集比先前的類似嘗試大一個數(shù)量級??梢允褂脦ё⑨尩念惖脑敿?xì)信息和注釋示例。
 
 
獲取地址:
https://www.cityscapes-dataset.com/
14. Caltech數(shù)據(jù)集
加州理工學(xué)院行人數(shù)據(jù)集包括大約10小時的640x480 30Hz視頻,這些視頻來自在城市環(huán)境中通過常規(guī)交通的車輛。大約250,000個幀(137個近似分鐘的長段)共有350,000個邊界框和2300個獨(dú)特的行人被注釋。注釋包括邊界框和詳細(xì)遮擋標(biāo)簽之間的時間對應(yīng)。更多信息可以在PAMI 2012和CVPR 2009基準(zhǔn)測試文件中找到。
 
 
獲取地址:
http://www.vision.caltech.edu/Image_Datasets/CaltechPedestrians/
15. A2D2數(shù)據(jù)集
 
奧迪公司的大型自動駕駛數(shù)據(jù)集A2D2。這套數(shù)據(jù)集提供了攝像頭、激光雷達(dá)和車輛總線數(shù)據(jù),允許開發(fā)人員和研究人員探索多模態(tài)傳感器融合方法。傳感器套件包括六個攝像頭和五個LiDAR單元,可提供完整的360度覆蓋范圍。
該數(shù)據(jù)主要來自德國街道,包含RGB圖像,也包括對應(yīng)的3D點(diǎn)云數(shù)據(jù),記錄的數(shù)據(jù)是時間同步的。目標(biāo)3D包圍框,語義分割,實(shí)例分割以及從汽車總線提取的數(shù)據(jù)。標(biāo)注的非序列數(shù)據(jù),41227幀,都含有語義分割標(biāo)注和點(diǎn)云標(biāo)簽。其中含有前置攝像頭視野內(nèi)目標(biāo)3D包圍框標(biāo)注12497幀。另外,該庫還包括 392,556 連續(xù)幀的無標(biāo)注的傳感器數(shù)據(jù)。
 
 
 
 
獲取地址:
https://www.a2d2.audi/a2d2/en.html
16. DBNet數(shù)據(jù)集
廈門大學(xué)與上海交大聯(lián)合發(fā)布大規(guī)模駕駛行為數(shù)據(jù)集DBNet,專為研究駕駛行為的策略學(xué)習(xí)而設(shè)置的。DBNet 數(shù)據(jù)集記錄了視頻、激光雷達(dá)點(diǎn)云,以及對應(yīng)的資深駕駛員(駕齡超過 10 年)的真實(shí)駕駛行為。
DBNet 的數(shù)據(jù)量大小 1.61T, 供下載的是壓縮后約 500G 的文件。這種數(shù)據(jù)規(guī)模約為 KITTI 的 10 倍,能為學(xué)習(xí)資深駕駛員的駕駛模型提供訓(xùn)練數(shù)據(jù),用于評測模型預(yù)測的駕駛行為和資深駕駛員真實(shí)駕駛行為的差距。
 
 
 
獲取地址:
http://www.dbehavior.net/
17. DADA數(shù)據(jù)集
西安交通大學(xué)和長安大學(xué)聯(lián)合構(gòu)建并公開了DADA數(shù)據(jù)集,目的在于預(yù)測正常行駛狀況,危險(xiǎn)狀況和事故狀況下駕駛員的注意力。為復(fù)雜交通場景中的類人理解提供一個大規(guī)模數(shù)據(jù)驗(yàn)證平臺。
DADA數(shù)據(jù)集包含2000個視頻序列,包含658,746幀,每一視頻幀均提供了不少于5人觀測的注意力數(shù)據(jù)。據(jù)調(diào)研,DADA是目前最大規(guī)模的駕駛注意預(yù)測數(shù)據(jù)集。經(jīng)過參與者種類之間的關(guān)系,標(biāo)注了54種突發(fā)事故場景類型。同時對于事故區(qū)間、事故目標(biāo)進(jìn)行了細(xì)致的標(biāo)注。包含白天、夜間時段;各種天氣條件(晴天、雨天、雪天);高速、城區(qū)、鄉(xiāng)村、隧道等各種場景類型。
駕駛注意預(yù)測可以通過計(jì)算機(jī)模擬人類駕駛員駕駛過程中的視覺注意機(jī)制,可以幫助計(jì)算機(jī)快速定位到可能造成交通事故的目標(biāo)物體,避免由于注意缺失造成的突發(fā)事件。同時駕駛注意又包含與周圍環(huán)境的交互,可以用于重要交通參與者的定位(important object detection)、駕駛場景新穎性檢測(novelty detection)、人眼中央窩視覺(periphery-fovea vision)啟發(fā)的駕駛模型設(shè)計(jì)、輔助搜尋安全駕駛路徑(routine searching)等。
 
 
獲取地址:
https://github.com/JWFangit/LOTVS-DADA
分享到:
 
反對 0 舉報(bào) 0 收藏 0 評論 0
滬ICP備11026917號-25