日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

基于深度學習的車輛檢測及碰撞預(yù)警研究

2020-04-05 23:12:00·  來源:汽車博士之家  作者:黎博士  
 
一.簡介隨著生活質(zhì)量的不斷提高,汽車在日常生活中越來越普及,但道路交通事故也呈現(xiàn)日漸增長的態(tài)勢。研究發(fā)現(xiàn),駕駛員注意力不集中、疲勞駕駛和駕駛行為不成熟
一.簡介
   
隨著生活質(zhì)量的不斷提高,汽車在日常生活中越來越普及,但道路交通事故也呈現(xiàn)日漸增長的態(tài)勢。研究發(fā)現(xiàn),駕駛員注意力不集中、疲勞駕駛和駕駛行為不成熟是造成交通事故的主要因素,在此背景下,車輛檢測及碰撞預(yù)警技術(shù)得到了快速的發(fā)展。車輛檢測及碰撞預(yù)警技術(shù)作為智能汽車的關(guān)鍵技術(shù)之一,能方便人們的出行,降低交通事故概率,具有極高的研究與應(yīng)用價值。
 
  近年來,深度學習方法不斷發(fā)展完善,圖形處理器(Graphics Processing Unit,GPU)計算性能不斷提升,深度學習方法在目標檢測領(lǐng)域得到了飛速的發(fā)展,這也預(yù)示著目標檢測方法的研究進入了一個新的階段。如今已經(jīng)出現(xiàn)了許多優(yōu)秀的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)結(jié)構(gòu),繼而出現(xiàn)了R-CNN、Fast R-CNN、Faster R-CNN、YOLO等目標檢測算法,并且這類深度學習算法也逐步應(yīng)用于車輛檢測領(lǐng)域。卷積神經(jīng)網(wǎng)絡(luò)在目標檢測領(lǐng)域有兩條發(fā)展主線,第一條是基于目標候選框的檢測主線,這條主線是按照R-CNN、Fast R-CNN、Faster R-CNN的線路不斷發(fā)展的;第二條是基于一體化卷積網(wǎng)絡(luò)的檢測主線,這條主線是按照YOLO、SSD、YOLOv2、YOLOv3的線路不斷發(fā)展的。第一條主線采用的方法是先粗檢測找到目標候選框,再精檢測確定檢測目標,第二條主線直接采用回歸的方法得到最終檢測結(jié)果,故兩條主線相比而言,第一條主線中的算法檢測精度較高,第二條主線中的算法檢測速度較快。

二.算法準備
 1.車輛視角定義
   根據(jù)被檢測車輛相對于自身車輛的視角情況,將被檢測到的車輛進一步細分為車輛前部、車輛后部和車輛側(cè)部,依照同車道車輛和異車道車輛兩種情況對被檢測車輛的視角進行定義。
(1)同車道被檢測車輛
   當被檢測車輛與自身車輛同向行駛時,若自車行駛方向與被檢測車輛行駛方向的夾角小于30度,則將被檢測車輛的視角定義為車輛后部,如圖1(a)所示;當被檢測車輛與自身車輛相向行駛時,若自車行駛反方向與被檢測車輛行駛方向的夾角小于30度,則將被檢測車輛的視角定義為車輛前部,如圖1(b)所示;其他視角的被檢測車輛定義為車輛側(cè)部,如圖1(c)所示。
 
(2)異車道被檢測車輛
   當被檢測車輛與自身車輛同向行駛時,在車載攝像頭獲取的實時圖像中,以能否觀察到被檢測車輛的后輪作為判斷依據(jù),若能觀察到被檢測車輛的后輪,則將被檢測車輛的視角定義為車輛后部,否則將被檢測車輛的視角定義為車輛側(cè)部,如圖2(a)所示;當被檢測車輛與自身車輛相向行駛時,在車載攝像頭獲取的實時圖像中,以能否觀察到被檢測車輛的前輪作為判斷依據(jù),若能觀察到被檢測車輛的前輪,則將被檢測車輛的視角定義為車輛前部,否則將被檢測車輛的視角定義為車輛側(cè)部,如圖2(b)所示。
 
 2.算法網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建
   對車輛進行視角檢測時,相當于對車輛目標進行進一步的細分。相較于其他目標,例如人,車輛目標與其他目標之間的特征差異性較大,深度學習網(wǎng)絡(luò)容易對特征進行學習,檢測難度相對較低。但在車輛目標內(nèi)部進一步識別其視角時,特征差異性較小,深度學習網(wǎng)絡(luò)難以對特征進行學習,檢測難度顯著提升。因此在設(shè)計算法的網(wǎng)絡(luò)結(jié)構(gòu)時,既需要保證該網(wǎng)絡(luò)結(jié)構(gòu)能正確檢測車輛目標,還需要保證該網(wǎng)絡(luò)結(jié)構(gòu)能正確識別車輛的視角。
   正確識別車輛視角需要控制好車輛視角之間的特征差異。車輛視角之間的特征差異過小容易造成欠擬合,最終檢測效果表現(xiàn)為雖然能檢測出車輛,但車輛視角容易誤識別;車輛視角之間的特征差異過大容易造成過擬合,最終檢測效果表現(xiàn)為雖然車輛視角識別準確率高,但許多車輛被漏檢。
   基于上述要求,車輛檢測算法的網(wǎng)絡(luò)結(jié)構(gòu)由YOLOv2算法網(wǎng)絡(luò)結(jié)構(gòu)改進得到。在YOLOv2算法網(wǎng)絡(luò)的最后一個卷積層前,新增一個車輛視角特征提取器,目的是在確定車輛目標之后增大車輛視角之間的特征差異。該車輛視角特征提取器由四個卷積核尺寸為1*1像素和3*3像素的卷積層組成,1*1像素和3*3像素的卷積層交替進行卷積,車輛檢測算法具體網(wǎng)絡(luò)結(jié)構(gòu)信息如圖3所示。
   網(wǎng)絡(luò)結(jié)構(gòu)讀取尺寸調(diào)整為416像素、416像素、3通道的圖片后,在每次池化操作前均進行相應(yīng)的卷積操作。架構(gòu)中采用了常用的3*3像素的卷積核,在每一次池化操作后把通道數(shù)翻倍,把1*1像素的卷積核放在3*3像素的卷積核之間用以壓縮特征,激活函數(shù)采用Leaky ReLU激活函數(shù),值取0.1。各層整體上布置成鏈式結(jié)構(gòu),另外添加一個分鏈用以提高小目標的檢測能力,先將26像素、26像素、512通道的數(shù)據(jù)體分別按行和列隔點采樣,再將得到的4張13像素、13像素、512通道的數(shù)據(jù)體按照通道串聯(lián)起來得到13像素、13像素、2048通道的數(shù)據(jù)體,最后將該數(shù)據(jù)體與主鏈上13像素、13像素、1024通道的數(shù)據(jù)體進行拼接,得到13像素、13像素、3072通道的數(shù)據(jù)體。
   將13像素、13像素、3072通道的數(shù)據(jù)體先進行一次卷積操作,得到13像素、13像素、1024通道的數(shù)據(jù)體,再使用車輛視角特征提取器對視角特征進行壓縮與整合,最后加入一個卷積核尺寸為1*1像素的卷積層,將數(shù)據(jù)體的通道數(shù)與檢測信息的維度進行統(tǒng)一。
 
  采用車輛檢測算法的網(wǎng)絡(luò)結(jié)構(gòu)最終會生成13*13*40的數(shù)據(jù)體。13*13*40代表數(shù)據(jù)體的寬為13像素、高為13像素、通道深度為40,數(shù)據(jù)體中寬和高的尺寸均為13個像素,因此在寬和高的二維平面內(nèi)形成了169個網(wǎng)格,每個網(wǎng)格都將預(yù)測5個邊框,每個預(yù)測邊框中包含8維預(yù)測信息。具體表現(xiàn)為回歸邊框的中心點位置坐標(x,y),回歸邊框的寬w和高h,邊框置信度C,車輛的“front”、“back”、“side”視角信息。每個網(wǎng)格最終會形成一個40維的向量,這40維向量最終由數(shù)據(jù)體中的深度通道顯現(xiàn)出來。
三.實驗驗證
 1. 實驗方法與步驟
①軟件環(huán)境搭建。用JetPack 3.1軟件組件包對Jetson TX2開發(fā)板進行刷機操作,使開發(fā)板具備運行代碼的軟件環(huán)境。
②代碼移植。代碼移植是指將不同操作平臺和不同編譯環(huán)境下的程序代碼采用相關(guān)方法遷移到自己的系統(tǒng)中運行。文章中代碼前期在Windows系統(tǒng)下運行,在實車實驗時需要在Linux系統(tǒng)下運行,考慮到在Jetson TX2開發(fā)板上編譯效率極低,因此將代碼移植到Jetson TX2開發(fā)板上時,采用如圖4所示流程。先將代碼復制到PC端的Linux系統(tǒng),根據(jù)不同操作平臺下編程語言的差異,修改相關(guān)代碼的表達方式,更改相關(guān)的環(huán)境配置,并根據(jù)編譯出現(xiàn)的問題不斷進行調(diào)試,直至該代碼能夠在PC端的Linux系統(tǒng)下編譯通過并成功運行。然后將PC端Linux系統(tǒng)下的所有文件打包到Jetson TX2開發(fā)板上,采用Linux系統(tǒng)下的指令執(zhí)行命令,完成該代碼需要執(zhí)行的功能。
 
③硬件環(huán)境搭建。將硬件環(huán)境與實驗車輛連接,連接情況如圖5所示。先采用車載逆變器將車上12V電源經(jīng)過汽車點煙器引到逆變器輸出口,再通過電源適配器將逆變器輸出口220V的電源轉(zhuǎn)換為19V的電源供Jetson TX2開發(fā)板使用。開發(fā)板用HDMI接口連接顯示屏,用USB接口連接攝像頭、鍵鼠設(shè)備。
 
④危險行駛區(qū)域標定。按照4.1.3節(jié)的方式確定危險行駛區(qū)域在圖像中的像素點位置,并將像素位置值輸入危險行駛區(qū)域子模型,完成對圖像中危險行駛區(qū)域的標定。
⑤實車實驗測試。啟動實驗車輛及文章中構(gòu)建的車輛碰撞預(yù)警模型,對車輛行駛過程中采集到的視頻進行車輛檢測及碰撞預(yù)警判斷。
 2. 實驗結(jié)果圖
 在不同環(huán)境下車輛檢測及碰撞預(yù)警結(jié)果如下:
實車試驗的結(jié)果圖如下:
 
 
四.后續(xù)改進
 非結(jié)構(gòu)化道路場景下的車輛檢測及碰撞預(yù)警方法研究還處于初步研究階段,由于自身能力和研究時間的限制,部分研究內(nèi)容還需要不斷完善,具體包括以下兩個方面:
(1)文章中基于視角提出的車輛檢測算法雖然能夠在單目攝像頭采集的圖像下獲得良好的車輛檢測及視角識別效果,但由于傳感器單一,獲取信息依然有限。若要得到更加優(yōu)異的車輛檢測及碰撞預(yù)警模型,需充分發(fā)揮攝像頭、毫米波雷達、激光雷達等傳感器各自的優(yōu)勢,融合多傳感器的數(shù)據(jù),獲取更多有用信息,提高車輛檢測及碰撞預(yù)警系統(tǒng)的精度、實時性及魯棒性。
(2)文章中僅僅對非結(jié)構(gòu)化道路上的車輛進行了細致的檢測,但車輛實際行駛在非結(jié)構(gòu)化道路上時,道路上的障礙物種類更為復雜,僅僅對非結(jié)構(gòu)化道路上的障礙車輛進行檢測難以進行實際應(yīng)用。因此需要對算法進行優(yōu)化,使其能夠檢測到所有對自身車輛存在威脅的障礙物。
 
 
分享到:
 
反對 0 舉報 0 收藏 0 評論 1
滬ICP備11026917號-25