日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

駕駛模擬器之CARLA篇:An Open Urban Driving Simulator

2020-10-26 10:38:01·  來源:自動駕駛仿真  作者:Dosovitskiy等  
 
對于自動駕駛仿真,CARLA是主流的模擬器之一。本文《CARLA: An Open Urban Driving Simulator 》,由CARLA開發(fā)者(Intel、Toyota、巴塞羅那計算機視覺中心)撰寫
對于自動駕駛仿真,CARLA是主流的模擬器之一。本文《CARLA: An Open Urban Driving Simulator 》,由CARLA開發(fā)者(Intel、Toyota、巴塞羅那計算機視覺中心)撰寫,對CARLA做了詳細介紹。

摘要:本文介紹了用于自動駕駛研究的開源模擬器CARLA。CARLA的開發(fā)從一開始就是為了支持城市自動駕駛系統(tǒng)的開發(fā)、訓練和驗證。除了開源代碼和協(xié)議之外,CARLA還提供了為此目的而創(chuàng)建的開源數(shù)字資產(chǎn)(城市布局、建筑、車輛)。仿真平臺支持對傳感器和環(huán)境條件的靈活定義。我們使用CARLA研究了三種自動駕駛算法的性能:a classic modular pipeline、通過模仿學習訓練的端到端模型和通過強化學習訓練的端到端模型。這些算法在難度不斷增加的場景中進行評估,通過CARLA提供的指標來測試其性能,表明該平臺對自動駕駛研究的實用性。
 
1 簡介
三維環(huán)境中的感知-運動控制仍然是機器學習和機器人學的一個主要挑戰(zhàn)。自動駕駛車輛的發(fā)展是這個問題長期研究的一個實例[22,26]。它最困難的形式是在人口稠密的城市環(huán)境中導航[21]。這種場景帶來更多的挑戰(zhàn),是因為:交通交叉口處復雜的多智能體動態(tài);需要跟蹤和響應幾十個甚至數(shù)百個其他參與者的運動;需要識別街道標志、路燈以及道路標線,并區(qū)分多種類型的其他車輛;罕見事件的長尾——道路施工、兒童沖上道路、前方發(fā)生事故、其他車輛誤入錯誤車道;以及迅速協(xié)調(diào)沖突目標的必要性。例如,當一個心不在焉的行人誤入前面的道路,而另一輛車正從后面快速駛來,如果剎車過猛,可能會追尾。
 
城市自動駕駛的研究受到基礎(chǔ)設(shè)施成本和現(xiàn)實世界中訓練和測試系統(tǒng)的后勤困難的阻礙。一輛自動駕駛汽車的檢測和操作也需要大量的資金和人力。而且,單輛車遠遠不足以收集必要的數(shù)據(jù),這些數(shù)據(jù)涵蓋了為訓練和驗證而必須處理的大量corner case。對于classic modular pipeline來說是如此,對于需要大量數(shù)據(jù)的深度學習技術(shù)更是如此。在現(xiàn)實世界中對城市駕駛的自動駕駛模型的訓練和驗證是大多數(shù)研究小組無法實現(xiàn)的。
 
另一種方法是在仿真中訓練和驗證駕駛策略。在自動駕駛研究的早期,仿真就被用于訓練駕駛模型[22]。最近,賽車模擬器被用做評估自動駕駛的新方法[28,3]。自定義的仿真模擬也被用于訓練和bench mark視覺感知系統(tǒng)[2,9,10,11,20,25,27,29]。商業(yè)游戲已經(jīng)被用于獲取高質(zhì)量的數(shù)據(jù),用于訓練和bench mark視覺感知系統(tǒng)[23,24]。
 
雖然仿真在自主駕駛研究中的應用非常廣泛,但現(xiàn)有的仿真平臺有限。開源的賽車模擬器,如TORCS[28]并沒有表現(xiàn)出城市駕駛的復雜性:它們?nèi)狈π腥恕⒔徊婵?、交通?guī)則以及其他區(qū)分城市駕駛和賽車賽道的復雜因素。高保真度模擬城市環(huán)境的商業(yè)游戲,如《俠盜獵車手5》[23,24],可自定義的部分很有限。
 
本文介紹了一種開源的城市駕駛模擬器CARLA(Car Learning to Act)。CARLA從一開始就是為了支持自動駕駛模型的訓練、原型設(shè)計和驗證,包括感知和控制。CARLA是一個開源的平臺。獨一無二的是,CARLA提供的城市環(huán)境內(nèi)容也是免費的。它包括城市布局、多種車輛模型、建筑物、行人、路標等。該仿真平臺支持傳感器套件的靈活設(shè)置,并提供可用于訓練駕駛策略的信號,例如GPS坐標、速度、加速度以及碰撞和其他違規(guī)行為的詳細數(shù)據(jù)。CARLA可以定義廣泛的環(huán)境條件,包括天氣和時間。多種環(huán)境條件如下圖所示。
 
 圖1 CARLA構(gòu)建的四種天氣(Town2)
 
我們使用CARLA來研究三種自動駕駛方法的性能。第一個是一個經(jīng)典的modular pipeline,包括基于視覺的感知模塊、基于規(guī)則的規(guī)劃器和控制器。第二個是一個深層網(wǎng)絡(luò),將傳感器輸入映射到駕駛指令,通過模仿學習進行端到端的訓練。第三個也是一個深度網(wǎng)絡(luò),通過強化學習進行端到端的訓練。我們使用CARLA來模擬難度不斷增加的場景。我們設(shè)定必須穿越的路線的復雜性、交通流和環(huán)境條件。實驗結(jié)果揭示了這三種方法的性能特點。
 
2 仿真引擎
CARLA是為了在渲染和物理模擬方面的靈活性和真實性而設(shè)計的。它相當于在Unreal Engine 4(UE4)[7]之上涉及了一個開源層,支持未來的擴展。該引擎提供最先進的渲染質(zhì)量、逼真的物理效果、基本的NPC邏輯和可互操作插件的生態(tài)系統(tǒng)。針對非商業(yè)用途,該引擎是免費的。
 
環(huán)境。環(huán)境由靜態(tài)對象(如建筑物、植被、交通標志和基礎(chǔ)設(shè)施)以及動態(tài)對象(如車輛和行人)的三維模型組成。所有模型都經(jīng)過精心設(shè)計,以平衡視覺質(zhì)量和渲染速度:我們使用低重量的幾何模型和紋理,但通過精心制作材質(zhì)和使用可變細節(jié)級別來保持視覺真實感。所有的三維模型都有一個共同的比例,它們的大小反映了真實物體的大小。在撰寫本文時,我們的資產(chǎn)庫包括40個不同的建筑、16個動畫車輛模型和50個動畫行人模型。
圖2 CARLA現(xiàn)有的車輛及行人模型
我們通過以下步驟使用這些資源來構(gòu)建城市環(huán)境:(a)規(guī)劃道路和人行道;(b)手動放置房屋、植被、地形和交通基礎(chǔ)設(shè)施;(c)指定動態(tài)對象可以出現(xiàn)(生成)的位置。這樣,我們設(shè)計了兩個城鎮(zhèn):Town1的可行駛道路總長度為2.9 km,用于訓練;Town2的可行駛道路為1.4 km,用于測試。這兩個城鎮(zhèn)見下圖。
圖3 本文創(chuàng)建的兩個城鎮(zhèn),Town1(左)和Town2(右)
 
開發(fā)CARLA的一個挑戰(zhàn)是非玩家角色的配置(這對仿真的保真度而言非常重要)。我們基于標準的UE4車型(PhysXVehicles)來設(shè)計非玩家車輛,其運動學參數(shù)調(diào)整為現(xiàn)實模式。我們還實現(xiàn)了一個控制非玩家車輛行為的基本控制器:車道跟隨、遵守紅綠燈、速度限制和交叉路口決策。車輛和行人可以相互察覺和避開。更先進的非玩家車輛控制器將被集成到未來的版本中[1]。
 
行人根據(jù)特定城鎮(zhèn)的導航地圖在鎮(zhèn)上游蕩,相互避開,盡量避開車輛。如果汽車與行人相撞,行人將從仿真世界中刪除,并在短暫的時間間隔后在不同的位置生成新的行人。
為了增加視覺多樣性,我們在將非玩家角色添加到仿真中時對其外觀進行隨機化。每個行人都穿著從預先指定的衣柜中隨機抽取的一套衣服,并可選擇配備以下一種或多種物品:智能手機、購物袋、吉他盒、手提箱、雨傘等。每輛車都是根據(jù)特定車型的一組材料隨機噴漆的。
 
我們還實現(xiàn)了各種大氣條件和照明條件。它們在太陽的位置和顏色、天空漫射的強度和顏色以及環(huán)境遮擋、大氣霧、云量和降水量等方面存在差異。目前,CARLA支持兩種照明條件(正午和日落)以及9種天氣條件(不同的云量、降水量和街道上是否有水坑)。這將實現(xiàn)總共18種照明天氣組合(為了簡潔起見,我們將其稱為天氣。)
 
傳感器。CARLA允許靈活配置傳感器套件。在撰寫本文時,傳感器僅限于RGB攝像頭和提供地面真實深度和語義分割的傳感器。如圖2所示。攝像頭的數(shù)量及其類型和位置可由用戶指定。攝像頭參數(shù)包括三維位置、相對于汽車坐標系的三維方向、視野和景深。我們的語義分割偽傳感器提供了12個語義類:道路、車道標線、交通標志、人行道、圍欄、標桿、墻、建筑、植被、車輛、行人和其他。
圖4 CARLA傳感器模型,從左到右依次是常規(guī)RGB攝像頭、深度傳感器和語義分割傳感器
 
除了上述傳感器模型,CARLA還提供了一系列針對車輛和交通規(guī)則的測量值。與車輛相關(guān)的測量包括車輛相對于世界坐標系(類似于GPS和羅盤)的位置和方向、速度、加速度矢量和碰撞累積的影響。與交通規(guī)則相關(guān)的測量包括進入到錯誤車道或人行道的車輛足跡百分比,以及交通燈狀態(tài)和車輛當前位置的速度限制。最后,CARLA提供對環(huán)境中所有動態(tài)對象的精確位置和邊界框的訪問。這些信號在駕駛策略的訓練和評估中起著重要作用。
 
3 自動駕駛
CARLA支持自動駕駛系統(tǒng)的開發(fā)、訓練和詳細的性能分析。我們使用CARLA評估了三種自動駕駛方法。第一種是一種modular pipeline,它依賴于視覺感知、規(guī)劃和控制的專用子系統(tǒng)。這種結(jié)構(gòu)符合大多數(shù)現(xiàn)有的自動駕駛系統(tǒng)[21,8]。第二種方法基于通過模擬學習進行端到端訓練的深度網(wǎng)絡(luò)[4]。這種方法最近引起了新的興趣[22,16,4]。第三種方法基于通過強化學習進行端到端訓練的深度網(wǎng)絡(luò)[19]。
 
3.1 modular pipeline
我們的第一種方法是一個modular pipeline,它將駕駛?cè)蝿?wù)分解到以下子系統(tǒng)中:(i)感知;(ii)規(guī)劃;(iii)持續(xù)控制。由于沒有提供幾何地圖作為輸入,視覺感知成為一項關(guān)鍵任務(wù)。局部規(guī)劃完全依賴于感知模塊估計的場景布局。
感知部分使用語義分割來估計車道、道路限制、動態(tài)對象和其他危險。此外,還使用分類模型來確定交叉口的接近度。規(guī)劃器使用基于規(guī)則的狀態(tài)機。持續(xù)控制由PID控制器執(zhí)行,該控制器驅(qū)動轉(zhuǎn)向、節(jié)氣門和制動機構(gòu)。現(xiàn)在我們將更詳細地描述這些模塊。
 
感知。我們在這里描述的感知是建立在基于RefineNet的語義分割網(wǎng)絡(luò)上的[17]。訓練網(wǎng)絡(luò)將圖像中的每個像素分為以下語義類別之一:C=froad、sidewalk、lane marking、dynamic object、misscellaneous staticg。該網(wǎng)絡(luò)使用CARLA在訓練環(huán)境中生成的2500張標注圖像進行訓練。根據(jù)道路面積和車道標線,利用網(wǎng)絡(luò)提供的概率分布來估算車道。
 
此外,我們使用基于AlexNet的二元場景分類器(交叉/無交叉)來估計到達交叉路口的可能性[15]。這個網(wǎng)絡(luò)是在兩個類之間平衡的500幅圖像上訓練的。
 
規(guī)劃器。規(guī)劃器通過生成一組路徑點來實現(xiàn)低級別導航:近期目標狀態(tài)表示車輛在不久的將來所需的位置和方向。規(guī)劃器的目標是合成使汽車保持在道路上并防止碰撞的路徑點。規(guī)劃器基于狀態(tài)機,狀態(tài)機具有以下狀態(tài):(i)道路跟隨,(ii)左轉(zhuǎn),(iii)右轉(zhuǎn),(iv)交叉路口向前和(v)危險停車。狀態(tài)之間的轉(zhuǎn)換基于感知模塊提供的估計值和全局規(guī)劃器提供的拓撲信息來執(zhí)行。路徑點連同車輛當前的姿態(tài)和速度一起傳送給控制器。
 
持續(xù)控制器。我們使用比例-積分-微分(PID)控制器[6],因為它簡單、靈活,并且對慢響應時間具有相對的魯棒性。每個控制器接收當前姿態(tài)、速度和路徑點列表,并分別驅(qū)動轉(zhuǎn)向、油門和制動機構(gòu)。我們的目標巡航速度為20公里/小時。
 
3.2 模仿學習
 
我們的第二種方法是條件模仿學習,這是一種除了感知輸入外還使用高級命令的模擬學習[4]。該方法利用城鎮(zhèn)中人類駕駛員記錄的一個駕駛軌跡數(shù)據(jù)集。Thedataset D = fhoi; ci; aiig consists of tuples, each of which contains anobservation oi, a command ci, and an action ai. 這些命令由駕駛員在數(shù)據(jù)采集過程中提供,并指示他們的意圖,類似于轉(zhuǎn)向信號燈。我們使用一組四個命令:沿車道行駛(默認),在下一個十字路口直行,在下一個十字路口左轉(zhuǎn),在下一個十字路口右轉(zhuǎn)。觀察結(jié)果是來自前向攝像機的圖像。為了提高學習策略的魯棒性,我們在數(shù)據(jù)采集過程中加入了噪聲。
 
我們已經(jīng)收集了大約14個小時的駕駛數(shù)據(jù)用于訓練。使用Adam優(yōu)化器對網(wǎng)絡(luò)進行訓練[14]。為了提高泛化能力,我們進行了數(shù)據(jù)擴充和刪除。
 
3.3 強化學習
我們的第三種方法是深度強化學習,它基于環(huán)境提供的獎勵信號訓練一個深度網(wǎng)絡(luò),沒有人類駕駛軌跡。我們使用A3C[19]。該算法在仿真的三維環(huán)境中表現(xiàn)良好,例如賽車[19]和三維迷宮中的導航[19,13,5]。該方法的異步特性使多個線程能夠并行運行,這對于深度強化學習的高樣本復雜度非常重要。
 
我們訓練A3C進行目標導向的導航。在每一次訓練中,車輛必須在拓撲規(guī)劃器的高級命令指導下達到目標。當車輛到達目標時,當車輛與障礙物相撞時,或當時間預算用盡時,事件終止。獎勵是五項的加權(quán)和:朝目標行駛的速度和距離(正加權(quán))、碰撞(負加權(quán))、與人行道重疊(負加權(quán))、與對面車道重疊(負加權(quán))。
 
該網(wǎng)絡(luò)使用10個并行線程進行訓練,總共進行1000萬個simulation steps。因為仿真所帶來的計算成本,我們將訓練限制在1000萬個simulation steps。這相當于以每秒10幀的速度連續(xù)駕駛12天。
 
4 實驗
我們評估了三種方法——模塊化流水線(MP)、模擬學習(IL)和強化學習(RL),在六種天氣條件下,在兩個可用城鎮(zhèn)中的每一個進行四項越來越困難的駕駛?cè)蝿?wù)。我們按照增加難度的順序組織任務(wù)如下:
•直線:目的地位于起點正前方,環(huán)境中沒有動態(tài)對象。到目標的平均行駛距離,Town1為200米,Town 2為100米。
•一個轉(zhuǎn)彎:目的地離出發(fā)點只有一個轉(zhuǎn)彎;沒有動態(tài)物體。到目標的平均行駛距離, Town1為400米,Town 2為170米。
•導航:不限制目的地相對于起點的位置,無動態(tài)物體。到目標的平均行駛距離, Town1為170米,Town 2為360米。
•存在動態(tài)障礙物的導航:與上一個任務(wù)相同,但使用動態(tài)對象(汽車和行人)。
 
實驗在兩個城鎮(zhèn)進行。Town1用于培訓,Town2用于測試。我們考慮六種天氣條件進行實驗,分成兩組。訓練用的天氣集包括晴天、晴朗的日落、下雨的白天和雨后的白天。測試集的天氣是訓練集不包含的,包括多云的白天和細雨的日落。
 
對于一個任務(wù)、一個城鎮(zhèn)和一個天氣集合的每一個組合,都要進行超過25次的測試。在每一次測試中,目標是到達指定的目標位置。如果在預定時間內(nèi)達到目標,則認為事件成功。預定時間為以10 km/h的速度沿著最佳路徑達到目標所需的時間。違規(guī)行為:如在人行道上駕駛或產(chǎn)生碰撞,不會導致事件終止,但會記錄和報告。
 
5 結(jié)果
表1報告了在四種不同情況下成功完成任務(wù)的百分比。
表1 三種自動駕駛方法在四種不同情況下成功完成任務(wù)的百分比。
 
表1中的結(jié)果表明了幾個一般性結(jié)論。總的來說,即使是在最簡單的直線駕駛?cè)蝿?wù)中,所有方法的性能都不完美,對于更困難的任務(wù),成功率進一步下降。對新天氣的泛化要比對一個新城鎮(zhèn)的泛化容易得多。模塊化流水線和模擬學習在大多數(shù)任務(wù)和條件下都能達到同等水平。強化學習相對于其他兩種方法表現(xiàn)不佳?,F(xiàn)在我們將更詳細地討論這四個關(guān)鍵發(fā)現(xiàn)。
 
四項任務(wù)的表現(xiàn)。令人驚訝的是,在訓練條件下,即使是在空曠的街道上筆直行駛這一最簡單的任務(wù),也沒有一種方法能完美地發(fā)揮作用。我們認為,這一現(xiàn)象的根本原因是:輸入的可變性。訓練條件包括四種不同的天氣條件。在訓練過程中的精確軌跡不會在測試中重現(xiàn)。因此,完美地完成這項任務(wù)需要魯棒的泛化,這對現(xiàn)有的深度學習方法是有挑戰(zhàn)的。
 
對于更高級的任務(wù),所有方法的性能都會下降。在人口稠密的城市環(huán)境中的導航任務(wù),兩種最好的方法(模塊化流水線和模擬學習)在所有條件下的成功率都低于90%。這些結(jié)果清楚地表明,即使在訓練條件下,性能也遠未達到飽和,并且在新環(huán)境下的泛化是一個嚴重的挑戰(zhàn)。
 
泛化。我們研究兩種類型的泛化:對以前沒遇到的天氣條件和以前沒遇到的環(huán)境。有趣的是,這兩者的結(jié)果截然不同。對于模塊化流水線和模擬學習來說,“新天氣”條件下的性能與訓練條件下的性能非常接近,有時甚至更好。然而,推廣到一個新城鎮(zhèn)對這三種方法都提出了挑戰(zhàn)。在兩個最具挑戰(zhàn)性的導航任務(wù)中,當切換到測試城鎮(zhèn)時,所有方法的性能下降了很多。這種現(xiàn)象可以解釋為這樣一個事實,即模型已經(jīng)在多種天氣條件下訓練,但只在一個城鎮(zhèn)訓練。不同天氣下的訓練結(jié)果可以支持對以前沒遇到的天氣進行泛化,但對使用不同紋理和3D模型的新城鎮(zhèn)則不適用。通過在不同的環(huán)境中進行訓練,這個問題可能會得到改善??偟膩碚f,我們的結(jié)果強調(diào)了泛化對基于學習的感覺運動控制方法的重要性。
 
模塊化流水線vs端到端學習。分析模塊化流水線和模擬學習方法的相對性能具有一定的指導意義。令人驚訝的是,在大多數(shù)測試條件下,這兩種系統(tǒng)的性能非常接近:這兩種方法的性能相差不到10%。這個結(jié)論有兩個例外:一是模塊化流水線在“新天氣”條件下比在訓練條件下表現(xiàn)更好。這是由于訓練和測試天氣的特定選擇:感知系統(tǒng)恰好在測試天氣下表現(xiàn)更好。另一個是,模塊化流水線在“新城鎮(zhèn)”條件下的導航任務(wù)表現(xiàn)不佳,在“新城鎮(zhèn)和新天氣”下的直線任務(wù)表現(xiàn)不佳。這是因為感知算法在新環(huán)境的復雜天氣條件下系統(tǒng)性地失效。如果感知算法無法可靠地找到可駕駛路徑,則基于規(guī)則的規(guī)劃器和經(jīng)典控制器將無法以一致的方式導航到目的地。因此,如果感知算法正常工作,整個系統(tǒng)工作正常;否則它將完全失敗。從這個意義上說,模塊化流水線比端到端方法更脆弱。
 
模仿學習與強化學習。我們現(xiàn)在對比兩個端到端訓練系統(tǒng)的表現(xiàn):模仿學習和強化學習。在所有任務(wù)中,強化學習訓練的表現(xiàn)都比模仿學習的要差。盡管如此,強化學習的訓練使用的數(shù)據(jù)量要大得多:強化學習的數(shù)據(jù)是駕駛12天的,而模仿學習的僅是14小時的。為什么這一次強化學習表現(xiàn)不佳,而在Atari游戲[18,19]和迷宮導航[19,5]等任務(wù)上取得了很好的成績?一個原因是眾所周知強化學習是脆弱的[12],并且it is common to perform extensivetask-specific hyperparameter search,例如Mnih等人報告的每個環(huán)境50次試驗[19] 。當使用模擬器時,這種extensive hyperparameter search變得不可行。我們根據(jù)文獻證據(jù)和迷宮導航的探索性實驗選擇hyperparameters。另一種解釋是,城市駕駛比以前用強化學習解決的大多數(shù)任務(wù)更困難。例如,與迷宮導航相比,在駕駛場景中必須處理混亂動態(tài)環(huán)境中的車輛動態(tài)和更復雜的視覺感知。最后,強化學習泛化能力差的原因可能是:與模擬學習相比,強化學習的訓練沒有數(shù)據(jù)擴充或規(guī)則化。
 
違規(guī)分析。CARLA支持駕駛策略的細粒度分析?,F(xiàn)在,我們將研究三個系統(tǒng)在最困難的任務(wù)上的行為:存在動態(tài)對象的導航。我們通過以下五種違規(guī)行為中任意兩種行為之間的平均行駛距離來評價這三個系統(tǒng):在相反車道上行駛、在人行道上行駛、與其他車輛相撞、與行人相撞和撞擊靜止物體。
 
表2報告了兩次違規(guī)之間的平均行駛距離(以公里為單位)。所有的方法在訓練中都表現(xiàn)得更好。在所有情況下,模仿學習最不常進入相反車道,而強化學習在該指標中最差。令人驚訝的是,強化學習與行人碰撞的次數(shù)最少,這可以解釋為這種碰撞所產(chǎn)生的巨大的負回報。然而,強化學習在避免與汽車和靜態(tài)物體的碰撞方面并不成功,而模塊化流水線通常在這方面表現(xiàn)最好。
表2 兩次違規(guī)之間的平均行駛距離(以公里為單位)
 
6 結(jié)論
我們介紹了CARLA,一個開源的自動駕駛模擬器。除了開源代碼和協(xié)議外,CARLA還提供了專門為此目的創(chuàng)建的數(shù)字資產(chǎn),并且可以自由復用。我們利用CARLA的仿真引擎和內(nèi)容來測試三種自主駕駛方法:經(jīng)典的模塊化流水線、通過模擬學習進行端到端訓練的深度網(wǎng)絡(luò)以及通過強化學習訓練的深度網(wǎng)絡(luò)。CARLA為我們提供了對自動駕駛系統(tǒng)進行開發(fā)和訓練的工具,然后在受控場景中對其進行評估。我們希望CARLA能夠幫助大家積極參與自動駕駛駕駛研究。模擬器和相關(guān)資產(chǎn)將在http://carla.org
 
 
  
 
 
分享到:
 
反對 0 舉報 0 收藏 0 評論 0
滬ICP備11026917號-25