日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車測(cè)試網(wǎng)

    • 在線課堂

    • 電車測(cè)試

基于集成分類器和光流法的無(wú)人機(jī)視頻實(shí)時(shí)交通流參數(shù)估計(jì)

2020-12-16 22:41:14·  來(lái)源:同濟(jì)智能汽車研究所  作者:Ruimin Ke, Zhibin Li, Jinjun Tang, Zewen Pan, and   
 
編者按:自然駕駛數(shù)據(jù)作為研究典型場(chǎng)景和邊角場(chǎng)景的重要來(lái)源,對(duì)自動(dòng)駕駛功能的測(cè)試與評(píng)價(jià)至關(guān)重要。相比于傳統(tǒng)的車載數(shù)據(jù)采集平臺(tái),基于無(wú)人機(jī)的數(shù)據(jù)采集平臺(tái)可
編者按:自然駕駛數(shù)據(jù)作為研究典型場(chǎng)景和邊角場(chǎng)景的重要來(lái)源,對(duì)自動(dòng)駕駛功能的測(cè)試與評(píng)價(jià)至關(guān)重要。相比于傳統(tǒng)的車載數(shù)據(jù)采集平臺(tái),基于無(wú)人機(jī)的數(shù)據(jù)采集平臺(tái)可以獲得場(chǎng)景的全局視圖,并且可以較好的解決車輛相互遮擋的問(wèn)題。本文結(jié)合無(wú)人機(jī),提出了一種新的,完整的視頻流量參數(shù)估計(jì)分析框架。

摘要:
近年來(lái),無(wú)人機(jī)(UAV)的出現(xiàn)為智能交通應(yīng)用開辟了新的機(jī)遇,例如自動(dòng)交通數(shù)據(jù)收集。在這樣的趨勢(shì)下,快速,準(zhǔn)確地從無(wú)人機(jī)視頻中檢測(cè)車輛并提取交通參數(shù)變得至關(guān)重要。本文提出了一種無(wú)人機(jī)視頻流量參數(shù)估計(jì)分析框架。該框架被設(shè)計(jì)成四個(gè)階段,解決了無(wú)人機(jī)在無(wú)規(guī)律的自身運(yùn)動(dòng)、交通擁擠情況下的估計(jì)準(zhǔn)確性低以及計(jì)算復(fù)雜度高等備受關(guān)注的問(wèn)題。在前兩個(gè)階段中,開發(fā)了用于車輛檢測(cè)的集成分類器,在后兩個(gè)階段中,基于光流法和交通流理論開發(fā)了魯棒的交通流參數(shù)估計(jì)方法。本文提出的集成分類器已證明其性能優(yōu)于其他基于UAV的車輛檢測(cè)而設(shè)計(jì)的最新車輛檢測(cè)器。在車輛流動(dòng)較為擁擠的交通狀況下,對(duì)交通流量參數(shù)估計(jì)值進(jìn)行了評(píng)估,都取得了較好的結(jié)果。

關(guān)鍵字:卷積神經(jīng)網(wǎng)絡(luò),集成分類器,Haar級(jí)聯(lián),光流法,無(wú)人機(jī)視頻,交通流參數(shù)

1 引言

在交通監(jiān)控應(yīng)用中使用無(wú)人機(jī)(UAV)變得越來(lái)越普遍。與傳統(tǒng)的監(jiān)視設(shè)備相比,無(wú)人機(jī)被認(rèn)為優(yōu)勢(shì)更大[1] – [3]。大多數(shù)傳統(tǒng)的交通監(jiān)控設(shè)備會(huì)捕獲固定位置的交通狀況,因此需要許多設(shè)備來(lái)監(jiān)控單個(gè)路段[4] – [7]。一些無(wú)人機(jī)可以覆蓋連續(xù)的道路甚至交通網(wǎng)絡(luò)。另外,無(wú)人機(jī)的視角是交通監(jiān)控的另一個(gè)優(yōu)勢(shì):通過(guò)獲得俯視圖,常規(guī)監(jiān)視視頻中道路用戶之間的遮擋不太可能出現(xiàn)在無(wú)人機(jī)視頻中。

除了一些諸如電池壽命短之類的實(shí)際問(wèn)題之外,基于無(wú)人機(jī)的交通監(jiān)控中最大的技術(shù)挑戰(zhàn)是自身的抖動(dòng)問(wèn)題,由無(wú)人機(jī)自身運(yùn)動(dòng)引起的視頻背景運(yùn)動(dòng)使得為固定監(jiān)控視頻設(shè)計(jì)的傳統(tǒng)車輛檢測(cè)和交通流量估算方法無(wú)法正常工作。為了簡(jiǎn)化對(duì)無(wú)人機(jī)在交通監(jiān)控中的應(yīng)用的檢查,一些自身運(yùn)動(dòng)較少的無(wú)人機(jī)視頻被用于一些初步研究。例如,趙等人[35]應(yīng)用了卷積神經(jīng)網(wǎng)絡(luò)(CNN)并加速了魯棒特征(SURF)來(lái)從無(wú)抖動(dòng)的無(wú)人機(jī)視頻中估計(jì)交通流參數(shù)。他們的方法在檢測(cè)和跟蹤方面實(shí)現(xiàn)了高精度,但不適用于運(yùn)動(dòng)背景變化的無(wú)人機(jī)視頻。Yamazki等[25]基于連續(xù)兩個(gè)無(wú)人機(jī)視頻估計(jì)車速。

在本文中,作者提出了一種基于無(wú)人機(jī)視頻的交通流參數(shù)估計(jì)框架,該框架結(jié)合了基于監(jiān)督學(xué)習(xí)的車輛檢測(cè)方法和光流法。該框架旨填補(bǔ)無(wú)人機(jī)在自身抖動(dòng)的情況下交通流參數(shù)估計(jì)的空白。該框架包括四個(gè)階段:前兩個(gè)階段用于車輛檢測(cè),后兩個(gè)階段用于估計(jì)交通流量參數(shù)(速度,車流量,車輛總數(shù))。具體來(lái)說(shuō),此框架中的前兩個(gè)階段將Haar級(jí)聯(lián)和CNN合并為一個(gè)整體分類器。第三階段和第四階段被設(shè)計(jì)為在無(wú)人機(jī)視頻中估計(jì)交通流參數(shù)的一般過(guò)程。

2 相關(guān)工作

在交通工程領(lǐng)域,越來(lái)越多的研究是關(guān)于將無(wú)人機(jī)視頻用作新型數(shù)據(jù)源。最近的工作集中在以下三類之一:道路檢測(cè)[3],[8]-[10],車輛檢測(cè)和跟蹤[11]-[22],[34]或交通參數(shù)估計(jì)[23]- [29],[35],[36]。

A.道路檢測(cè)

道路檢測(cè)對(duì)于無(wú)人機(jī)導(dǎo)航系統(tǒng)至關(guān)重要,尤其是基于視覺信息的導(dǎo)航系統(tǒng)。例如,Zhou等[3]設(shè)計(jì)了一種用于道路檢測(cè)和有效跟蹤的有效算法。金[9]進(jìn)行了另一項(xiàng)代表性研究。他們提出的道路檢測(cè)算法相對(duì)簡(jiǎn)單但實(shí)用:他們的算法首先從單個(gè)視頻幀中了解道路結(jié)構(gòu),然后在其余視頻幀中識(shí)別道路。

B.車輛檢測(cè)與跟蹤

曹等[18]通過(guò)多運(yùn)動(dòng)層分析提出了一種魯棒的車輛檢測(cè)和跟蹤系統(tǒng),這是使用無(wú)人機(jī)視頻數(shù)據(jù)進(jìn)行車輛檢測(cè)/跟蹤方面最具代表性的研究之一。監(jiān)督學(xué)習(xí)方法已經(jīng)越來(lái)越多地被應(yīng)用。使用它們,可以根據(jù)車輛的模式識(shí)別車輛,因此可以在車輛檢測(cè)任務(wù)中跳過(guò)復(fù)雜的視頻背景運(yùn)動(dòng)問(wèn)題。 諸如CNN或SVM之類的流行學(xué)習(xí)方法已經(jīng)被證明可以很好地用于基于無(wú)人機(jī)的車輛檢測(cè)[13],[35]。

C.交通參數(shù)估計(jì)

例如,McCord等[23]開發(fā)了一個(gè)使用衛(wèi)星圖像和航拍照片來(lái)估計(jì)年平均每日交通量的建??蚣?。Shastry和Schowengerdt[27]利用圖像配準(zhǔn)和運(yùn)動(dòng)信息成功估計(jì)了基本交通流參數(shù)。Ke等[29]提出了一種新穎的框架,該框架利用KLT跟蹤器,k-means聚類,連通圖和交通流理論基本方程來(lái)實(shí)時(shí)估計(jì)雙向交通速度,密度和交通量。

3 方法及實(shí)驗(yàn)

框架包括四個(gè)主要階段(見圖1)。前兩個(gè)階段涉及車輛檢測(cè),后兩個(gè)階段涉及交通流參數(shù)估計(jì)。


圖1 框架的四個(gè)階段

第一階段:Haar級(jí)聯(lián)分類器的訓(xùn)練

本文使用OpenCV 2.4.12庫(kù)[30]訓(xùn)練了Haar級(jí)聯(lián)分類器。除了如上所述需將訓(xùn)練圖像尺寸設(shè)置為60×40外,還需要在Haar級(jí)聯(lián)訓(xùn)練過(guò)程中設(shè)置其他幾個(gè)關(guān)鍵參數(shù)。首先,需要正確設(shè)置每個(gè)階段的訓(xùn)練樣本數(shù)量。每個(gè)階段抽取了2,500個(gè)樣本進(jìn)行訓(xùn)練(1,000個(gè)陽(yáng)性樣本和1,500個(gè)陰性樣本)。

訓(xùn)練所需的另外兩個(gè)參數(shù)是每個(gè)階段的最小命中率和最大假陽(yáng)性率。將最小命中率設(shè)置為接近1,以確保召回所有車輛。每個(gè)階段的最大假陽(yáng)性率應(yīng)設(shè)置為不大于0.5。但是,如果它太?。ɡ缃咏?),則訓(xùn)練時(shí)間和過(guò)度擬合的機(jī)會(huì)都會(huì)急劇增加。只要召回率很高,Haar級(jí)聯(lián)的每個(gè)階段都比隨機(jī)分類器稍好一點(diǎn)是完全可以接受的。因此,在訓(xùn)練中,這兩個(gè)參數(shù)設(shè)置為0.999和0.5。非最大抑制被用作階段1的最后部分,以進(jìn)一步減少CNN需要檢查的候選窗口。

第二階段:用于車輛檢測(cè)的卷積神經(jīng)網(wǎng)絡(luò)

在第一階段Haar級(jí)聯(lián)分類器的基礎(chǔ)上,卷積神經(jīng)網(wǎng)絡(luò)或CNN被設(shè)計(jì)為車輛檢測(cè)的最終分類器。通過(guò)這種結(jié)合,很好地利用了Haar級(jí)聯(lián)的高效率和CNN的高精度,從而可以實(shí)現(xiàn)高檢測(cè)率的實(shí)時(shí)車輛檢測(cè)。

在本文的研究中,CNN是使用Keras在python中開發(fā)的,并在Nvidia GTX 1080 GPU上進(jìn)行了培訓(xùn)。經(jīng)過(guò)反復(fù)試驗(yàn),本文的CNN架構(gòu)選擇包含兩個(gè)卷積層,一個(gè)池化層和一個(gè)隱藏FC層(參見圖2)。這兩個(gè)卷積層具有相同的尺寸,尺寸為32×2×2,具有S型激活函數(shù);然后添加池化層,以縮放因子2對(duì)第二個(gè)卷積層的輸出進(jìn)行下采樣;在池化層和最終輸出之間添加了具有128個(gè)節(jié)點(diǎn)的FC層。與其他更流行的CNN(例如AlexNet [42]或VGG [43])具有更深的結(jié)構(gòu)和更多的輸出節(jié)點(diǎn)相比,該CNN結(jié)構(gòu)重量輕,具有更少的層和參數(shù)。這是由于本文對(duì)實(shí)時(shí)操作的要求和較少類別(即車輛和背景)的需求所致。發(fā)現(xiàn)兩個(gè)卷積層已經(jīng)可以滿足精度要求。值得注意的是,在兩個(gè)卷積層之間沒有池化層。這是因?yàn)橛?xùn)練和測(cè)試損失變得更高,而如果添加池化層,則總體檢測(cè)速度不會(huì)顯著提高。

圖2用于無(wú)人機(jī)視頻中車輛檢測(cè)的CNN模型

CNN的訓(xùn)練在18,000個(gè)樣本上進(jìn)行,并在2,000個(gè)樣本上進(jìn)行了測(cè)試。根據(jù)經(jīng)驗(yàn)和測(cè)試,RMSprop(均方根傳播)[39]被選作優(yōu)化器是因?yàn)樗陬愃魄闆r下的性能優(yōu)于傳統(tǒng)SGD(隨機(jī)梯度下降)[40]。優(yōu)化的批次大小設(shè)置為30。本文的CNN車輛分類器在100次訓(xùn)練中對(duì)測(cè)試數(shù)據(jù)的分類精度達(dá)到99.55%,結(jié)果非常好。訓(xùn)練過(guò)程中的模型精度曲線如圖3所示。


圖3 CNN模型在100步訓(xùn)練過(guò)程中的準(zhǔn)確性曲線(訓(xùn)練和測(cè)試)

如前所述,圖4的頂部圖顯示了Haar級(jí)聯(lián)分類器提出的候選窗口??梢钥闯鋈匀淮嬖谝恍┘訇?yáng)性,但是與讓強(qiáng)分類器(即我們框架中的CNN)以不同比例滑動(dòng)整個(gè)幀像素相比,Haar級(jí)聯(lián)分類器大大減少了候選窗口的數(shù)量。然后,將CNN應(yīng)用于檢查所有候選窗口,并給出最終的車輛檢測(cè)結(jié)果。車輛檢測(cè)結(jié)果的一個(gè)示例框架如圖4的底圖所示。


圖4 第一階段(頂部)和第二階段(底部)之后的車輛檢測(cè)結(jié)果

第三階段:基于KLT的運(yùn)動(dòng)估計(jì)

利用獲得的檢測(cè)結(jié)果,階段3和4定義了交通運(yùn)動(dòng)估計(jì)和交通流量參數(shù)估計(jì)的一般過(guò)程。KLT方法[32]是一種基于興趣點(diǎn)的跟蹤方法,因此它能夠估算在輕交通情況下的背景運(yùn)動(dòng)[18]。但是,在車流量較大的情況下,直接應(yīng)用KLT跟蹤器會(huì)導(dǎo)致運(yùn)動(dòng)估計(jì)中出現(xiàn)較大錯(cuò)誤。本文高效的Haar + CNN車輛檢測(cè)流程經(jīng)過(guò)專門設(shè)計(jì),可解決此問(wèn)題。

車輛檢測(cè)結(jié)果將視頻幀分為兩種類型的區(qū)域:車輛(在檢測(cè)窗口內(nèi))和背景(在檢測(cè)窗口外)。因此,在CNN檢測(cè)之后,可以將KLT應(yīng)用于估算車輛運(yùn)動(dòng)和背景運(yùn)動(dòng)。在圖5中,頂部圖像示出了在檢測(cè)窗口內(nèi)部提取的運(yùn)動(dòng)矢量,而底部圖像示出了在檢測(cè)窗口外部的運(yùn)動(dòng)矢量。同一類別(檢測(cè)窗口的內(nèi)部或外部)中所有運(yùn)動(dòng)矢量的平均值分別表示交通運(yùn)動(dòng)(添加了自我運(yùn)動(dòng))和背景運(yùn)動(dòng)。


圖5 使用KLT跟蹤器進(jìn)行交通運(yùn)動(dòng)估算

假設(shè)分別表示針對(duì)交通量提取的第i個(gè)運(yùn)動(dòng)矢量和針對(duì)背景的第j個(gè)運(yùn)動(dòng)矢量,則按每幀像素計(jì)算的實(shí)際交通量如下在等式中(1)。



其中Nt是為流量提取的運(yùn)動(dòng)矢量的總數(shù),Nb為其背景總和。

第四階段:交通流量參數(shù)估計(jì)

在運(yùn)輸工程中,速度,車輛密度和車輛總數(shù)是描述交通流量的最重要的三個(gè)參數(shù),它們的關(guān)系由等式(2)給出:



其中NOL表示車道數(shù)。在第2階段檢測(cè)到車輛并在第3階段估算交通流量后,可以使用參考標(biāo)記計(jì)算車密度和速度。密度定義為每車道每單位高速公路長(zhǎng)度(英里,公里等)的車輛計(jì)數(shù)。速度將從每幀像素轉(zhuǎn)換為每小時(shí)英里/公里。參考標(biāo)記(例如標(biāo)準(zhǔn)校車和車道標(biāo)記)能夠避免復(fù)雜的攝像機(jī)校準(zhǔn),并且通常足以計(jì)算無(wú)人機(jī)視頻中的實(shí)際尺寸[27]-[29]。

在起始幀處,我們假設(shè)已知對(duì)象的實(shí)際大小為l1,像素大小為l2,因此轉(zhuǎn)換率r = l1 / l2,路段長(zhǎng)度為L(zhǎng)個(gè)像素。初始像素長(zhǎng)度l2和L離線測(cè)量。假定幀速率fr在監(jiān)視期間恒定。通過(guò)以上這些定義和計(jì)算,可以使用等式(4)-(5)計(jì)算速度和密度(車流量)。



其中N是當(dāng)前幀中檢測(cè)到的車輛數(shù)量,r是上次更新的實(shí)際像素轉(zhuǎn)換率。使用等式(2)計(jì)算另一個(gè)基本交通流量參數(shù),即車流量。

4 實(shí)驗(yàn)結(jié)果

A.車輛檢測(cè)器評(píng)估

為了分析所提出框架的性能,本文首先測(cè)試了車輛檢測(cè)器的性能,并將其與針對(duì)無(wú)人機(jī)視頻數(shù)據(jù)開發(fā)的最新車輛檢測(cè)器進(jìn)行了比較[13],[16],[34],[35],[38]。具體來(lái)說(shuō),測(cè)試了Haar級(jí)聯(lián),CNN,MLP,HOG + SVM,Haar級(jí)聯(lián)+ MLP和Haar級(jí)聯(lián)+ CNN(本文提出的集成分類器),并使用收集的車輛樣本進(jìn)行了比較。

所有檢測(cè)器均使用相同的訓(xùn)練樣本進(jìn)行了訓(xùn)練(即從UAV視頻中收獲的18,000個(gè)車輛樣本),并對(duì)其余2,000個(gè)樣本進(jìn)行了測(cè)試。在2,000個(gè)測(cè)試樣本中,其中814個(gè)被標(biāo)記為陽(yáng)性樣本(車輛)和1,186個(gè)陰性樣本(背景)。表I給出了詳細(xì)的檢測(cè)性能評(píng)估結(jié)果。精度(即相關(guān)實(shí)例在所檢索實(shí)例中所占的比例)和召回率(即已在全部相關(guān)實(shí)例中所獲得的相關(guān)實(shí)例所占的比例)通常用于檢測(cè)器性能評(píng)估。它們定義如下其中TP代表真陽(yáng)性,F(xiàn)P代表假陽(yáng)性,F(xiàn)N代表假陰性。精度和召回率分別在1和0時(shí)達(dá)到最佳值。

表1 檢測(cè)器性能評(píng)估和比較結(jié)果


由結(jié)果可知,Haar級(jí)聯(lián)保留了良好的召回率(0.957)和非??斓奶幚硭俣龋?1 fps)。就準(zhǔn)確性而言,獨(dú)立CNN是最好的檢測(cè)器,僅生成4個(gè)FP和1個(gè)FN。但是以0.29 fps的處理速度進(jìn)行計(jì)算時(shí)非常慢。MLP實(shí)現(xiàn)了良好的精度和召回率,即精度為0.845,召回率為0.856。Haar級(jí)聯(lián)+ MLP方法[38]與所提出的集成分類器具有相似的處理邏輯,因此處理速度很快。HOG + SVM是另一種流行的探測(cè)器,已應(yīng)用于不同的任務(wù),由Cao等人進(jìn)行了研究[13]在基于無(wú)人機(jī)的車輛檢測(cè)中。與Haar級(jí)聯(lián)或MLP相比,它們產(chǎn)生的FP少得多,因而獲得了很高的精度值。它的處理速度也比CNN或MLP快。但其FN率很高,因此導(dǎo)致召回率低于0.80。本文提出的集成分類器達(dá)到了0.995的精度,0.957的查全率和67 fps的處理速度。Haar級(jí)聯(lián)和CNN的結(jié)合使我們的探測(cè)器性能出色。

B.流量參數(shù)估計(jì)結(jié)果

在實(shí)驗(yàn)中,總共測(cè)試了大約30分鐘的視頻剪輯。視頻#1是由無(wú)人機(jī)在高速公路路段上拍攝的,監(jiān)視三車道高速公路的交通順暢。視頻2是在交通繁忙的城市動(dòng)脈上拍攝的另一個(gè)視頻剪輯。測(cè)試視頻中存在由無(wú)人機(jī)自身運(yùn)動(dòng)引起的連續(xù)背景運(yùn)動(dòng),包括巡航,旋轉(zhuǎn)和振動(dòng)。圖6顯示了兩個(gè)視頻剪輯中隨機(jī)選擇的樣本幀,其中標(biāo)記了檢測(cè)窗口和運(yùn)動(dòng)矢量。左側(cè)的三個(gè)幀片段來(lái)自視頻#1,右側(cè)的三個(gè)幀片段屬于視頻#2。計(jì)算了對(duì)應(yīng)視頻中的車輛平均速度,車流量和平均車數(shù),并列在表II中。視頻#1中的平均交通速度為31.5英里/小時(shí),對(duì)于中國(guó)北京的城市大動(dòng)脈來(lái)說(shuō)是合理的。平均密度為31.9 pc / mi /車道(每車道每英里客車),平均車數(shù)為3010.6 pc/ h(每小時(shí)客車)。視頻#2的估計(jì)速度遠(yuǎn)低于視頻#1的速度,并且密度更高。從表II中可以看到,視頻#2的速度僅為1.7 mph,密度為45.5 pc/mi/lane,速度為309.4 pc/h。


圖6 視頻#1(左,自由流動(dòng))和視頻#2(右,密集流量)中的示例幀顯示了檢測(cè)和運(yùn)動(dòng)估計(jì)結(jié)果

表2 估計(jì)的流量參數(shù)和性能評(píng)估結(jié)果


C. 系統(tǒng)性能評(píng)估與分析

為了驗(yàn)證交通參數(shù)估計(jì)的準(zhǔn)確性,選擇了車速和車數(shù)作為度量。圖7中的圖顯示了這兩種情況的估計(jì)計(jì)數(shù),地面真實(shí)計(jì)數(shù),估計(jì)速度和地面真實(shí)速度。表II中列出了平均速度,數(shù)量和精度。視頻#1的估算準(zhǔn)確性非常高,速度和車輛計(jì)數(shù)估算分別達(dá)到97.0%和95.8%。


圖7 交通流速度估計(jì)和車輛計(jì)數(shù)估計(jì)準(zhǔn)確性

雖然本文提出的系統(tǒng)在正常交通流和擁塞交通流方面都實(shí)現(xiàn)了良好的交通流估計(jì),但值得一提的有趣事實(shí)是,在擁塞情況下,速度估計(jì)精度和計(jì)數(shù)估計(jì)精度之間的差異比正常交通流要大(7.3%對(duì)1.2%)。這是因?yàn)榧訇?yáng)性和假陰性將導(dǎo)致較少的錯(cuò)誤,從而在交通擁擠的無(wú)人機(jī)視頻中加快估計(jì)速度。具體來(lái)說(shuō),在交通擁堵的情況下,車輛的速度較低甚至為零。

在本文提出的框架中,錯(cuò)誤檢測(cè)或丟失檢測(cè)對(duì)運(yùn)動(dòng)估計(jì)的影響較小。由于實(shí)時(shí)交通信息對(duì)于交通控制或路線指引非常重要,因此本文方法的處理速度被視為一項(xiàng)關(guān)鍵的性能衡量指標(biāo)。

5 結(jié)論

在本文中,作者提出了一個(gè)新的四階段框架,該框架可從具有運(yùn)動(dòng)背景的無(wú)人機(jī)視頻中提取交通流參數(shù)(即速度,車流量和車數(shù))。

在前兩個(gè)階段中,分別訓(xùn)練了Haar級(jí)聯(lián)分類器(階段1)和卷積神經(jīng)網(wǎng)絡(luò)(階段2),并將其組合為用于從俯視圖角度進(jìn)行車輛檢測(cè)的集成分類器。Haar級(jí)聯(lián)有效地減少了搜索空間,而CNN則作為強(qiáng)分類器將剩余的候選窗口進(jìn)行了檢查。在第三階段,采用KLT光流方法,根據(jù)檢測(cè)結(jié)果提取車輛(內(nèi)部檢測(cè)窗口)和視頻背景(外部檢測(cè)窗口)的運(yùn)動(dòng)矢量。然后,通過(guò)平均車輛運(yùn)動(dòng)減去平均背景運(yùn)動(dòng)來(lái)表示真實(shí)交通運(yùn)動(dòng)。在第四階段,開發(fā)了一種新算法,通過(guò)整合參考標(biāo)記,高度變化檢測(cè)和交通流理論來(lái)估計(jì)交通流參數(shù)。

將本文提出的集成分類器與已有的針對(duì)基于UAV的車輛檢測(cè)進(jìn)行了檢查的最新車輛檢測(cè)器進(jìn)行了比較,并證明了其高效率和準(zhǔn)確性。實(shí)驗(yàn)結(jié)果表明,所提出的方法在交通暢通和交通擁堵的情況下均具有很好的估計(jì)精度和實(shí)時(shí)處理速度。

除方法部分外,還公開提供了包含20,000個(gè)圖像樣本的訓(xùn)練和測(cè)試數(shù)據(jù)集以進(jìn)行基準(zhǔn)測(cè)試。 





分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25