日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

無人駕駛技術(shù)入門——初識深度學(xué)習(xí)之交通標(biāo)志分類

2019-02-23 15:03:03·  來源:自動駕駛干貨鋪  作者:陳光ShawnChen  
 
訓(xùn)練集、驗(yàn)證集、測試集
在前面的介紹中,我一直使用數(shù)據(jù)一詞來表達(dá)神經(jīng)網(wǎng)絡(luò)的輸入。實(shí)際上這些數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)的不同階段有不同的稱呼。他們分別是訓(xùn)練集(Training Set)、驗(yàn)證集(alidation Set)和測試集(Test Set)。
訓(xùn)練集和驗(yàn)證集是在神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練階段使用的數(shù)據(jù),而測試集是在神經(jīng)網(wǎng)絡(luò)模型完成訓(xùn)練后,用于評估模型時(shí)所使用的數(shù)據(jù)。做一個(gè)簡單的比喻,訓(xùn)練集就是的學(xué)生的課本,學(xué)生需要根據(jù)課本來學(xué)習(xí)知識(訓(xùn)練模型);驗(yàn)證集就是課后習(xí)題,學(xué)生通過課后習(xí)題來判斷自己是否掌握了課本上的知識;測試集就是期末考試(評估模型),期末考試的題一般是課本和課后習(xí)題中沒有,但是十分類似的題。
一個(gè)學(xué)生的成績好不好,看下他期末考的好不好就知道了。一個(gè)神經(jīng)網(wǎng)絡(luò)模型好不好,看看它在測試集中的表現(xiàn)就知道了。
深度學(xué)習(xí)領(lǐng)域比較出名的數(shù)據(jù)集當(dāng)屬M(fèi)NIST手寫體數(shù)字?jǐn)?shù)據(jù)集了,它包含了60000個(gè)訓(xùn)練樣本和10000個(gè)測試樣本。部分樣本如下所示:
使用Google推出的深度學(xué)習(xí)框架TensorFlow,能夠直接獲取MNIST手寫體數(shù)字?jǐn)?shù)據(jù)集,代碼如下:
代碼中的train_features和test_features分別為訓(xùn)練集和測試集,即為手寫字體數(shù)字的圖片集合;train_labels和test_labels分別是訓(xùn)練集和測試集的圖像所對應(yīng)的標(biāo)簽,即0-9的數(shù)字集合。
MNIST數(shù)據(jù)集未提供驗(yàn)證集,工程上一般會從訓(xùn)練集中取出15%~20%的數(shù)據(jù)作為驗(yàn)證集,余下的80%~85%的數(shù)據(jù)作為訓(xùn)練集,用于完成訓(xùn)練過程。
使用LeNet-5做交通標(biāo)志牌分類
了解以上內(nèi)容后,就能大致理解神經(jīng)網(wǎng)絡(luò)的工作原理了。再補(bǔ)充一下TensorFlow的語法知識、看幾個(gè)TensorFlow的例子,就可以自己動手搭建神經(jīng)網(wǎng)絡(luò)了。
如果面對復(fù)雜的圖像處理問題,需要使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)。卷積神經(jīng)網(wǎng)絡(luò)是由卷積神經(jīng)網(wǎng)絡(luò)之父Yann Lecun在貝爾實(shí)驗(yàn)室工作期間,為解決手寫數(shù)字識別而提出的。卷積是一個(gè)特殊的函數(shù),其在神經(jīng)網(wǎng)絡(luò)中的定位與四則遠(yuǎn)算或某些特殊函數(shù)的地位沒有區(qū)別。
下面我們通過導(dǎo)入交通標(biāo)志牌的訓(xùn)練集,使用卷積神經(jīng)網(wǎng)絡(luò)之父Yann Lecun提出的LeNet模型,訓(xùn)練一個(gè)能識別交通標(biāo)志的神經(jīng)網(wǎng)絡(luò)。
首先導(dǎo)入交通標(biāo)志牌的數(shù)據(jù)。優(yōu)達(dá)學(xué)城(Udacity)無人駕駛工程師學(xué)位為我們提供了34799張圖組成的數(shù)據(jù)集、4410張圖組成的驗(yàn)證集和12630張圖組成的測試。這些數(shù)據(jù)集一共包含了43種不同的標(biāo)志牌,比如限速、轉(zhuǎn)向、停車標(biāo)志牌。部分訓(xùn)練集的樣本如下圖所示:
由于LeNet-5默認(rèn)需要輸入尺寸為(32 x 32 x 1)的單通道的圖像,因此我將訓(xùn)練集、驗(yàn)證集和測試集都進(jìn)行灰度、縮放和歸一化處理。處理后的部分樣本如下:
LeNet-5是一個(gè)不太復(fù)雜的卷積神經(jīng)網(wǎng)絡(luò),下圖顯示了其結(jié)構(gòu)。網(wǎng)絡(luò)輸入的是單通道的二維圖像,先經(jīng)過兩次卷積層到池化層,再經(jīng)過全連接層,最后使用softmax分類作為輸出層。
圖片出處:優(yōu)達(dá)學(xué)城(Udacity)無人駕駛工程師學(xué)位
 
有關(guān)LeNet-5模型更詳細(xì)介紹可以搜索文章《網(wǎng)絡(luò)解析(一):LeNet-5詳解》
在訓(xùn)練時(shí)會出現(xiàn)一個(gè)問題:訓(xùn)練集的準(zhǔn)確率很高,但是驗(yàn)證集的準(zhǔn)確率上不去。這表明模型訓(xùn)練時(shí)過擬合了,導(dǎo)致驗(yàn)證集只能達(dá)到89%左右的識別率,而課程的要求是達(dá)到93%以上。
 
為了解決模型過擬合導(dǎo)致的模型準(zhǔn)確率低的問題,我做了兩件事:
使用imgaug庫做數(shù)據(jù)增廣
使用imgaug庫能夠通過很簡單的代碼完成圖像的翻轉(zhuǎn)、平移、旋轉(zhuǎn)、縮放、仿射變換、加噪聲、修改顏色通道等功能。以實(shí)現(xiàn)數(shù)據(jù)庫的增廣,達(dá)到豐富訓(xùn)練集的目的。下圖是imgaug庫對同一張圖片實(shí)現(xiàn)的數(shù)據(jù)增廣的效果。
圖片出處:https://github.com/aleju/imgaug
我對交通標(biāo)志牌訓(xùn)練集添加隨機(jī)噪聲、修改對比度和橫向翻轉(zhuǎn)操作,完成了數(shù)據(jù)集增廣。
在LeNet-5模型的全連接層后加入了Dropout函數(shù)
在LeNet-5網(wǎng)絡(luò)中加入Dropout函數(shù),能夠讓網(wǎng)絡(luò)不會太依賴某些參數(shù),因?yàn)檫@些參數(shù)隨時(shí)可能被丟棄掉。在訓(xùn)練時(shí),網(wǎng)絡(luò)會被迫地學(xué)習(xí)一切的冗余表示,以確保至少將某些重要信息保存下來。當(dāng)網(wǎng)絡(luò)中的某個(gè)參數(shù)被丟棄時(shí),還有其他參數(shù)能夠完成相同的工作,這就是Dropout的功能。
 
在網(wǎng)絡(luò)中加入Dropout函數(shù)的方式可以使得網(wǎng)絡(luò)更加穩(wěn)固,并能防止過擬合。
 
應(yīng)用數(shù)據(jù)增廣和Dropout函數(shù)后,重新訓(xùn)練即可使模型在測試集中的準(zhǔn)確率超過93%,達(dá)到要求。
 
結(jié)語
以上就是《深度學(xué)習(xí)入門之交通標(biāo)志分類》的全部內(nèi)容。文中的部分源碼、圖片和數(shù)據(jù)集來自優(yōu)達(dá)學(xué)城(Udacity)無人駕駛工程師學(xué)位的第三個(gè)項(xiàng)目。
 
在這次分享中,我介紹了深度學(xué)習(xí)中所涉及的有關(guān)神經(jīng)網(wǎng)絡(luò)的理論知識。包括神經(jīng)網(wǎng)絡(luò)中的參數(shù),反向傳播原理,訓(xùn)練集、驗(yàn)證集和測試集的區(qū)別。在正文的最后介紹了如何利用LeNet-5網(wǎng)絡(luò)實(shí)現(xiàn)交通標(biāo)志牌的分類工作,當(dāng)分類效果不理想時(shí),分析原因并提供了解決方案。
 
在無人駕駛領(lǐng)域,深度學(xué)習(xí)除了用于識別圖像中的物體外,還在激光點(diǎn)云分類障礙物、障礙物的軌跡預(yù)測、端到端的運(yùn)動控制等領(lǐng)域得到了廣泛應(yīng)用。為現(xiàn)階段無人駕駛技術(shù)的發(fā)展提供了巨大的幫助。掌握深度學(xué)習(xí)的理論知識和應(yīng)用方法能夠幫助我們解決無人駕駛領(lǐng)域很多棘手的問題。 
分享到:
 
反對 0 舉報(bào) 0 收藏 0 評論 0
廣告
滬ICP備11026917號-25