智能汽車測試技術(shù):環(huán)境感知系統(tǒng)的測試技術(shù)與方法(三、數(shù)據(jù)生成模型介紹)
智能汽車是汽車?電子?信息通信?道路交通運(yùn)輸?shù)刃袠I(yè)深度融合的新型產(chǎn)業(yè)形態(tài)?當(dāng)前, 我國智能汽車產(chǎn)業(yè)進(jìn)入快車道, 技術(shù)創(chuàng)新日益活躍, 新型應(yīng)用蓬勃發(fā)展, 產(chǎn)業(yè)規(guī)模不斷擴(kuò)大,而相應(yīng)的測試技術(shù)體系也在不斷完善, 推動(dòng)產(chǎn)業(yè)進(jìn)步?本書首先立足于整體現(xiàn)狀對智能汽車測試體系架構(gòu)進(jìn)行綜述, 并針對測試技術(shù)的發(fā)展趨勢和整個(gè)核心技術(shù)進(jìn)行詳細(xì)描述;然后, 針對測試體系中每一測試過程的概念?核心思想?關(guān)鍵技術(shù)?測試方法?發(fā)展趨勢等進(jìn)行詳細(xì)描述?
本書可供智能汽車設(shè)計(jì)人員及測試人員閱讀使用, 也可供車輛工程專業(yè)及相關(guān)專業(yè)師生閱讀參考?
本文是《智能汽車測試技術(shù)》系列文章第三篇,上兩篇:
智能汽車測試技術(shù):環(huán)境感知系統(tǒng)的測試技術(shù)與方法(二、測試技術(shù)框架及各類感知環(huán)境介紹)
智能汽車測試技術(shù):環(huán)境感知系統(tǒng)的測試技術(shù)與方法(一、需求分析及系統(tǒng)介紹)
注:本文節(jié)選自《智能汽車測試技術(shù)》,由機(jī)械工業(yè)出版社于2025年6月份出版
《智能汽車測試技術(shù)》目錄
第1 章
導(dǎo)論
1.1 背景與需求/ 001
1.2 基本概念/ 003
1.2.1 測試與評價(jià)的基本概念/ 003
1.2.2 產(chǎn)品全生命周期中的測評技術(shù)/ 004
1.3 現(xiàn)狀與挑戰(zhàn)/ 005
1.4 本書章節(jié)安排/ 006
第2 章
智能汽車
測評概述
2.1 測評需求分析/ 009
2.1.1 安全性測試與驗(yàn)證/ 009
2.1.2 智能性測試與評價(jià)/ 012
2.2 測試方法論/ 015
2.2.1 安全性測試驗(yàn)證框架/ 015
2.2.2 智能性測試評估框架和體系/ 017
2.3 測試工具鏈及應(yīng)用要求/ 023
2.3.1 測試工具鏈/ 023
2.3.2 測試需求與測試工具的適配性/ 027
2.4 本章小結(jié)/ 029
參考文獻(xiàn)/ 030
第3 章
智能汽車
測試場景
3.1 場景基本概念/ 031
3.2 場景體系/ 033
3.2.1 場景要素與屬性/ 033
3.2.2 場景層級/ 035
3.2.3 場景分類/ 036
3.3 場景生成方法/ 037
3.3.1 基于形式化描述的場景生成方法/ 037
3.3.2 基于駕駛員模型的場景生成方法/ 040
3.3.3 安全關(guān)鍵場景生成方法/ 048
3.4 場景采集與利用/ 051
3.4.1 場景采集技術(shù)/ 051
3.4.2 場景庫搭建/ 052
3.5 本章小結(jié)/ 052
參考文獻(xiàn)/ 053
第4 章
環(huán)境感知
系統(tǒng)的測試
技術(shù)與方法
4.1 環(huán)境感知系統(tǒng)測試需求分析/ 055
4.2 環(huán)境感知系統(tǒng)介紹/ 057
4.2.1 感知系統(tǒng)/ 057
4.2.2 硬件模組/ 058
4.2.3 認(rèn)知算法/ 058
4.3 環(huán)境感知系統(tǒng)測試技術(shù)框架/ 059
4.4 各類感知環(huán)境介紹/ 060
4.4.1 封閉場地環(huán)境/ 060
4.4.2 道路交通環(huán)境/ 064
4.4.3 虛擬仿真環(huán)境/ 066
4.5 數(shù)據(jù)生成模型介紹/ 069
4.5.1 降雨圖像生成方法概述/ 070
4.5.2 降雨圖像生成模型介紹/ 071
4.5.3 降雨圖像生成模型結(jié)果/ 075
4.6 具體測試案例/ 076
4.6.1 案例一:基于封閉場地環(huán)境的感知系統(tǒng)測試/ 076
4.6.2 案例二:基于虛擬仿真環(huán)境的硬件模組測試/ 078
4.6.3 案例三:基于虛擬仿真環(huán)境的感知系統(tǒng)測試/ 081
4.6.4 案例四:基于三類感知環(huán)境和數(shù)據(jù)生成模型的
認(rèn)知算法測試/ 083
4.7 本章小結(jié)/ 086
參考文獻(xiàn)/ 087
第5 章
決策規(guī)劃
系統(tǒng)的測試
技術(shù)與方法
5.1 決策規(guī)劃系統(tǒng)的測試需求與挑戰(zhàn)/ 089
5.1.1 測試需求/ 089
5.1.2 測試挑戰(zhàn)/ 090
5.2 基于場景的測試技術(shù)與方法/ 092
5.2.1 靜態(tài)試驗(yàn)設(shè)計(jì)測試方法/ 092
5.2.2 動(dòng)態(tài)試驗(yàn)設(shè)計(jì)測試方法/ 094
5.3 基于真實(shí)里程的測試技術(shù)與方法/ 101
5.3.1 開放道路測試技術(shù)/ 101
5.3.2 重要度采樣加速測試方法/ 103
5.4 基于虛擬里程的測試技術(shù)與方法/ 104
5.4.1 虛擬里程測試系統(tǒng)組成框架/ 105
5.4.2 用于虛擬里程測試的NPC 模型生成方法/ 106
5.4.3 用于虛擬里程測試的NPC 模型性能驗(yàn)證/ 113
5.4.4 虛擬里程測試的應(yīng)用/ 118
5.4.5 小結(jié)/ 130
5.5 其他測試技術(shù)/ 131
5.5.1 自動(dòng)化測試技術(shù)/ 131
5.5.2 錯(cuò)誤注入測試技術(shù)/ 139
5.5.3 分布式自動(dòng)化測試技術(shù)/ 152
5.6 本章小結(jié)/ 157
參考文獻(xiàn)/ 157
第6 章
整車測試
技術(shù)與方法
6.1 整車測評需求分析/ 159
6.2 封閉測試場地平臺/ 160
6.2.1 封閉測試場/ 160
6.2.2 動(dòng)態(tài)模擬目標(biāo)物系統(tǒng)/ 162
6.2.3 定位與數(shù)據(jù)采集系統(tǒng)/ 163
6.3 開放道路測試系統(tǒng)/ 164
6.3.1 測試方案制定/ 165
6.3.2 數(shù)據(jù)采集與數(shù)據(jù)閉環(huán)系統(tǒng)/ 165
6.4 本章小結(jié)/ 166
第7 章
智能汽車
安全性評估
7.1 基于具體場景的安全性評估/ 169
7.1.1 場景瞬時(shí)風(fēng)險(xiǎn)評估方法/ 170
7.1.2 多階段安全評估/ 180
7.1.3 單個(gè)測試場景結(jié)果外推/ 181
7.2 基于邏輯場景的安全性評估/ 182
7.2.1 評估要求/ 182
7.2.2 面向邏輯場景評價(jià)的危險(xiǎn)域識別方法/ 183
7.3 針對被測功能的安全性評估/ 192
7.4 本章小結(jié)/ 192
參考文獻(xiàn)/ 193
第8 章
智能汽車
綜合行駛
性能評估
8.1 測評需求與研究現(xiàn)狀/ 195
8.1.1 測評需求/ 195
8.1.2 研究現(xiàn)狀/ 195
8.2 測評基本流程/ 197
8.3 典型測試場景矩陣/ 198
8.4 測試方法與流程/ 199
8.4.1 測試方案/ 199
8.4.2 背景車跟馳模型/ 199
8.4.3 測試數(shù)據(jù)輸出/ 201
8.5 評價(jià)方法與流程/ 202
8.5.1 評價(jià)體系/ 202
8.5.2 評價(jià)流程/ 204
8.6 測評示例/ 206
8.7 本章小結(jié)/ 209
參考文獻(xiàn)/ 209
附 錄
附錄A 測試工況參數(shù)設(shè)置/ 210
附錄B 背景車跟馳模型/ 212
附錄C 歸一化方法/ 214
附錄D 常見縮寫詞/ 216
4. 5 數(shù)據(jù)生成模型介紹
在4.3 節(jié)介紹的環(huán)境感知系統(tǒng)測試技術(shù)框架中, 數(shù)據(jù)生成模型(如圖像生成模型、大語言模型等) 無須從某一個(gè)感知環(huán)境出發(fā), 就可以直接有針對性地生成大量、擬真的感知數(shù)據(jù), 近年來有很多學(xué)者致力于此。而基于數(shù)據(jù)生成模型得到的待測數(shù)據(jù)直接影響后續(xù)的測試, 因此, 這一數(shù)據(jù)生成方法對模型的精度提出了較高的要求。
近年來, 神經(jīng)輻射場(Neural Radiance Fields, NeRF)技術(shù)的興起為數(shù)據(jù)生成提供了新的可能性。NeRF 于2020年被首次提出[17] , 它是一種基于隱式輻射場的技術(shù), 通過使用多視角的2D 圖像及相應(yīng)攝像頭姿態(tài)來訓(xùn)練神經(jīng)網(wǎng)絡(luò)重建3D 場景, 用以提取新視角的圖像。NeRF 的核心原理類似于光線追蹤技術(shù), 其主要過程是通過多層感知器(Multi Layer Perceptron, MLP)對給定的空間坐標(biāo)(x, y,z) 和觀察方向(θ, ?) 進(jìn)行光線路徑建模, 計(jì)算得到該點(diǎn)的顏色和密度值, 如圖4 -18 所示?;谠摷夹g(shù)不僅能夠?qū)崿F(xiàn)高保真圖像的生成, 還能夠從不同的視角自由提取圖像, 甚至能夠?qū)鼍爸械膭?dòng)態(tài)目標(biāo)進(jìn)行修改和重建。NeRF 訓(xùn)練渲染流程可以總結(jié)如下:
1) 對于給定的攝像頭光線, 在光線上進(jìn)行采樣, 對采樣點(diǎn)的空間坐標(biāo)及觀察方向進(jìn)行編碼, 用深度復(fù)雜網(wǎng)絡(luò)獲得輻射場信息。
2) 輻射場輸出空間點(diǎn)的顏色和密度。
3) 根據(jù)2) 的輸出, 用體素渲染方程獲得生成視角圖片。
4) 在訓(xùn)練階段, 根據(jù)原視角圖片計(jì)算損失更新網(wǎng)絡(luò)。
基于NeRF技術(shù),TancikM等[18] 提出了Block?NeRF,將場景分解為單獨(dú)訓(xùn)練的NeRF,實(shí)現(xiàn)了對街景的大規(guī)模渲染。在此基礎(chǔ)上,UniSim[19] 提出了一種擴(kuò)展的NeRF,將場景解構(gòu)為動(dòng)態(tài)目標(biāo)和靜態(tài)背景,如圖4-19所示,通過動(dòng)態(tài)目標(biāo)姿態(tài)估計(jì)建立空間之間的映射,以實(shí)現(xiàn)對動(dòng)態(tài)目標(biāo)的創(chuàng)建和編輯,包括對象的移除、增添和動(dòng)作修改等,能夠有效支持自動(dòng)駕駛閉環(huán)仿真,但仍存在渲染計(jì)算負(fù)載高的問題。
圖4-19 UniSim基于原始傳感數(shù)據(jù)創(chuàng)建可編輯的數(shù)字孿生,實(shí)現(xiàn)對場景中對象的移除、增添、動(dòng)作修改等操作[19]
另外,基于GAN方法搭建的數(shù)據(jù)生成模型也是常用的數(shù)據(jù)生成方法,已經(jīng)發(fā)展較為成熟,下面將以模擬降雨圖像生成為例,介紹現(xiàn)有圖像生成方法,并選取其中一種進(jìn)行詳解。
4.5.1 降雨圖像生成方法概述
模擬降雨圖像生成方法主要分為三種。
1)基于物理模型的圖像生成:通過研究雨滴的物理模型,[20] 獲取降雨對圖像的影響,進(jìn)而實(shí)現(xiàn)從晴天圖像生成雨天圖像。如圖4-20所示,首先基于估計(jì)的場景深度,生成一個(gè)霧狀的衰減層。然后,生成雨條紋和雨滴,并與霧狀層合成。最后,將生成結(jié)果與原始圖像疊加在一起,得到基于物理模型的降雨圖像生成。
圖4-20 基于物理模型的降雨圖像生成
2)基于深度學(xué)習(xí)的圖像生成:基于神經(jīng)網(wǎng)絡(luò)構(gòu)建降雨圖像生成模型,由數(shù)據(jù)驅(qū)動(dòng)獲取降雨圖像。基于物理的渲染可以產(chǎn)生真實(shí)的雨條紋和霧狀的雨效果,但它忽略了主要的降雨特征,如濕度、反射、云,因此可能無法傳達(dá)下雨場景的整體外觀,而神經(jīng)網(wǎng)絡(luò)則擅長學(xué)習(xí)這些視覺特征。下一小節(jié)將以其中一個(gè)圖像生成模型為例,詳細(xì)介紹基于深度學(xué)習(xí)的降雨圖像生成模型的原理。
3)基于物理模型和深度學(xué)習(xí)結(jié)合的圖像生成:如圖4-21所示,首先使用深度學(xué)習(xí)模型將晴天圖像轉(zhuǎn)換為雨天圖像,再使用基于物理模型的方法增強(qiáng)雨條紋[21] 。
圖4 -21 基于物理模型和深度學(xué)習(xí)結(jié)合的圖像生成
4.5.2 降雨圖像生成模型介紹
本節(jié)將介紹一個(gè)基于GAN[22] 的小、中、大雨三級降雨圖像生成模型(RainConditionalCycleGAN,RCCycleGAN)[23] 。
GAN于2014年被提出,其由生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)相互對抗組成。生成網(wǎng)絡(luò)負(fù)責(zé)從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)期望輸出數(shù)據(jù)分布,由原始輸入生成模擬數(shù)據(jù);判別網(wǎng)絡(luò)則是負(fù)責(zé)判斷輸入數(shù)據(jù)屬于模擬數(shù)據(jù)還是真實(shí)數(shù)據(jù)。在對抗過程中,生成網(wǎng)絡(luò)旨在得到判別網(wǎng)絡(luò)無法區(qū)分的模擬數(shù)據(jù),而判別網(wǎng)絡(luò)旨在盡可能區(qū)分模擬數(shù)據(jù)與真實(shí)數(shù)據(jù),生成網(wǎng)絡(luò)與判別網(wǎng)絡(luò)按照動(dòng)態(tài)博弈規(guī)則進(jìn)行訓(xùn)練。條件生成對抗網(wǎng)絡(luò)(ConditionalGenerativeAdversarialNetworks,CGAN)于2014年被提出[24] ,實(shí)現(xiàn)生成對抗網(wǎng)絡(luò)一對多的映射輸出。該模型引入了傳統(tǒng)深度學(xué)習(xí)中的監(jiān)督式學(xué)習(xí)思想,在原有生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)上引入輔助信息y(數(shù)據(jù)標(biāo)簽),使得生成網(wǎng)絡(luò)可以生成具有輔助指導(dǎo)的模擬數(shù)據(jù)。循環(huán)對抗生成網(wǎng)絡(luò)(Cycle?ConsistentGenerativeAdversarialNetworks,CycleGAN)[21] 于2017年被提出,實(shí)現(xiàn)非配對圖像間端到端的學(xué)習(xí),該模型被廣泛應(yīng)用于兩個(gè)數(shù)據(jù)集合之間的風(fēng)格遷移。下面要詳細(xì)介紹的模型RCCycleGAN,則是在CycleGAN的基礎(chǔ)上進(jìn)行修改的,其概念示意圖如圖4-22所示。該模型主要由以下4個(gè)模塊構(gòu)成:
1)判別網(wǎng)絡(luò)Dn 與Dr: 其輸入為真實(shí)圖像或模擬圖像與對應(yīng)的降雨強(qiáng)度標(biāo)簽, Dn 用于判別輸入圖像屬于真實(shí)晴天圖像還是模擬晴天圖像, Dr 用于判別輸入圖像屬于真實(shí)降雨圖像還是模擬降雨圖像。
2)生成網(wǎng)絡(luò)Gn 與Gr:其輸入為真實(shí)圖像或模擬圖像、降雨掩膜和對應(yīng)的降雨強(qiáng)度標(biāo)簽,Gn 用于由多級降雨圖像(包括真實(shí)降雨圖像與模擬降雨圖像)生成模擬晴天圖像,Gr 用于由晴天圖像(包括真實(shí)晴天圖像和模擬晴天圖像)生成模擬多級降雨圖像。
3)降雨掩膜識別網(wǎng)絡(luò)Ident_m:用于獲取降雨圖像與真實(shí)圖像的雨量掩膜,屬于一種非監(jiān)督的降雨掩膜識別模塊。
4)圖像特征識別網(wǎng)絡(luò)Ident_f:用于獲取模擬圖像與真實(shí)圖像的關(guān)鍵特征,采用已訓(xùn)練的深度卷積網(wǎng)絡(luò)。
圖4 -22 RCCycleGAN 模型概念示意圖
(1)判別網(wǎng)絡(luò)
判別網(wǎng)絡(luò)Dn 與Dr 采用了相同的多尺度卷積網(wǎng)絡(luò)。輸入為模擬圖像或真實(shí)圖像(RGB3通道)及對應(yīng)的降雨強(qiáng)度標(biāo)簽(1通道),其中降雨強(qiáng)度標(biāo)簽實(shí)現(xiàn)條件生成對抗網(wǎng)絡(luò),并采用PathGAN結(jié)構(gòu)作為判別網(wǎng)絡(luò)最終輸出,相較于傳統(tǒng)采用全連接層作為判別網(wǎng)絡(luò)最終輸出,PathGAN結(jié)構(gòu)最終輸出為局部感受野,可保留更多圖像特征,更好地指導(dǎo)生成網(wǎng)絡(luò)輸出模擬數(shù)據(jù)。判別網(wǎng)絡(luò)架構(gòu)如圖4-23所示,其由三個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成,不同尺度通過平均池化層得到。各卷積層通過卷積核提取感受野內(nèi)特征,通過多層卷積網(wǎng)絡(luò)提取輸入圖像的特征及結(jié)構(gòu)信息。
圖4 -23 判別網(wǎng)絡(luò)架構(gòu)
(2)生成網(wǎng)絡(luò)
生成網(wǎng)絡(luò)Gn 與Gr 采用了相同的U?net結(jié)構(gòu),其網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖4-24所示。生成網(wǎng)絡(luò)輸入(5通道)包括原始圖像(RGB3通道)、降雨強(qiáng)度標(biāo)簽(1通道)和降雨掩膜(灰度圖1通道)三部分,其中降雨強(qiáng)度標(biāo)簽實(shí)現(xiàn)條件生成對抗網(wǎng)絡(luò)。生成網(wǎng)絡(luò)主要由編碼器、轉(zhuǎn)換器和解碼器構(gòu)成。編碼器由4層卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成,完成對輸入信息的特征提取,獲取更優(yōu)的全局信息。而后轉(zhuǎn)換器由10層卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成,實(shí)現(xiàn)降雨/除雨風(fēng)格遷移。解碼器由三層卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成,對風(fēng)格遷移后的圖像特征進(jìn)行解碼,輸出模擬圖像。
圖4-24 生成網(wǎng)絡(luò)結(jié)構(gòu)示意圖
(3)降雨掩膜識別網(wǎng)絡(luò)
針對晴天圖像到降雨圖像的轉(zhuǎn)換任務(wù),傳統(tǒng)的CycleGAN通過判別網(wǎng)絡(luò)自主捕捉兩個(gè)數(shù)據(jù)集合(晴天/降雨)之間的差異,而后根據(jù)判別網(wǎng)絡(luò)輸出指導(dǎo)生成網(wǎng)絡(luò)獲取較為真實(shí)的模擬降雨圖像。但降雨圖像由背景信息及降雨信息(雨滴條紋和視覺傳感器表面遮擋)兩部分構(gòu)成,其中的降雨信息,即降雨掩膜,由雨滴遮擋和雨滴條紋兩部分組成。因此,若僅依靠CycleGAN模型來完成該任務(wù),由于晴天圖像與降雨圖像所包含的信息并不對稱,則需要大量數(shù)據(jù)與訓(xùn)練時(shí)間。在數(shù)據(jù)缺乏和訓(xùn)練不足的情況下,CycleGAN模型會出現(xiàn)顏色或結(jié)構(gòu)破壞的問題。為解決上述問題,設(shè)計(jì)了降雨掩膜識別網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖4-25所示,通過降雨圖像和晴天圖像兩個(gè)支路共同約束降雨掩膜識別過程。
圖4 -25 降雨掩膜識別網(wǎng)絡(luò)結(jié)構(gòu)示意圖
降雨掩膜識別網(wǎng)絡(luò)由若干降雨掩膜識別模塊(RainMaskIdentification,RMI)構(gòu)成,每個(gè)RMI由卷積層和激活層、LSTM、若干殘差模塊和卷積層構(gòu)成。首先,由卷積層和激活層對輸入的圖像和上一輪輸出的降雨掩膜進(jìn)行特征提取。然后,利用LSTM模塊結(jié)合上一輪輸出更新降雨掩膜。此外,隨著RMI模塊數(shù)量的增加,降雨掩膜識別網(wǎng)絡(luò)的層數(shù)會急劇增加,導(dǎo)致網(wǎng)絡(luò)訓(xùn)練過程中出現(xiàn)梯度消失的問題。因此,RMI模塊引入了5個(gè)殘差模塊,使得降雨掩膜識別網(wǎng)絡(luò)具有較大的深度且具備較大的感受野。最后,利用卷積層獲取單通道的降雨信息(即掩膜)。
(4)圖像特征識別網(wǎng)絡(luò)
圖像特征識別網(wǎng)絡(luò)為一個(gè)已訓(xùn)練穩(wěn)定的VGG16網(wǎng)絡(luò),其負(fù)責(zé)提取真實(shí)圖像與模擬圖像包含的特征與結(jié)構(gòu)信息,后續(xù)無須訓(xùn)練。由先驗(yàn)知識可知,生成網(wǎng)絡(luò)輸出的模擬降雨圖像在真實(shí)圖像上疊加了降雨掩膜,總體來說,圖像的特征和結(jié)構(gòu)信息并未發(fā)生較大改變。
4.5.3 降雨圖像生成模型結(jié)果
經(jīng)過一定輪次的訓(xùn)練后,該模擬降雨圖像生成模型輸出結(jié)果如圖4-26所示。其中,左側(cè)第一列為輸入晴天圖像,第二列為真實(shí)小雨圖像,第三列為RCCycleGAN生成的模擬小雨圖像。可以看出,RCCycleGAN可以較好地保留圖像結(jié)構(gòu)信息,減少圖像扭曲現(xiàn)象,同時(shí)保留較多色彩信息,保留圖像內(nèi)的局部細(xì)節(jié)(陰影、反光等),與真實(shí)駕駛場景接近。因此,基于該生成模型輸出的圖像數(shù)據(jù),可以滿足下一步測試的需求。
圖4 -26 降雨圖像生成模型輸出結(jié)果
本書首先立足于整體現(xiàn)狀對智能汽車測試體系架構(gòu)進(jìn)行綜述, 并針對測試技術(shù)的發(fā)展趨勢和整個(gè)核心技術(shù)進(jìn)行詳細(xì)描述;然后, 針對測試體系中每一測試過程的概念、核心思想、關(guān)鍵技術(shù)、測試方法、發(fā)展趨勢等進(jìn)行詳細(xì)描述。
本書可供智能汽車設(shè)計(jì)人員及測試人員閱讀使用, 也可供車輛工程專業(yè)及相關(guān)專業(yè)師生閱讀參考。
作者簡介:
陳君毅,2009年畢業(yè)于同濟(jì)大學(xué)汽車學(xué)院,獲工學(xué)博士學(xué)位,任職于同濟(jì)大學(xué)汽車學(xué)院?長期從事自動(dòng)駕駛汽車測試與評價(jià)方向研究工作,先后主持和參與國家級?省部級項(xiàng)目共11項(xiàng),并與華為?路特斯?上汽大眾?蔚來等企業(yè)開展了深度校企合作研究?近5年,在國內(nèi)外學(xué)術(shù)期刊和國際會議上共發(fā)表SCI/EI檢索論文近30篇,其中以第一作者或及通訊作者發(fā)表的為20余篇;申請發(fā)明專利30余項(xiàng)(已授權(quán)7項(xiàng))?擔(dān)任SAE汽車安全和網(wǎng)絡(luò)安全技術(shù)委員會秘書?功能安全和預(yù)期功能安全分委會主席;是自動(dòng)駕駛測試場景國際標(biāo)準(zhǔn)(ISO3450X)支撐專家組成員,以及CAICV聯(lián)盟預(yù)期功能安全工作組核心成員;擔(dān)任《汽車工程》和《汽車工程學(xué)報(bào)》青年編委委員,IEEE Transactions on Intelligent Vehicles?Proceedings of the Institution of Mechanical Engineers, Part D: Journal of Automobile Engineering?《中國公路學(xué)報(bào)》?《汽車工程》?IEEE Intelligent Transportation Systems Conference?IEEE Intelligent Vehicles Symposium等國內(nèi)外期刊和國際會議審稿人,曾于多項(xiàng)國際學(xué)術(shù)會議擔(dān)任分論壇主席?
版權(quán)信息:
智能汽車測試技術(shù) / 陳君毅等著. -- 北京 : 機(jī)械工業(yè)出版社, 2025. 5. -- (智能汽車關(guān)鍵技術(shù)叢書).ISBN 978-7-111-77871-4 Ⅰ. U467 中國國家版本館CIP數(shù)據(jù)核字第2025X8D229號
本書由機(jī)械工業(yè)出版社出版,本文經(jīng)出版方授權(quán)發(fā)布。
廣告 編輯推薦
最新資訊
-
“汽車爬坡試驗(yàn)方法”將有國家標(biāo)準(zhǔn)
2026-03-03 12:44
-
十年耐久監(jiān)管時(shí)代:電池系統(tǒng)開發(fā)策略將如何
2026-03-03 12:44
-
聯(lián)合國法規(guī)R59對機(jī)動(dòng)車備用消聲系統(tǒng)的工程
2026-03-03 12:08
-
聯(lián)合國法規(guī)R58對后下部防護(hù)裝置的工程化約
2026-03-03 12:07
-
聯(lián)合國法規(guī)R57對摩托車前照燈配光性能的工
2026-03-03 12:07





廣告


























































