日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

預(yù)期功能安全專欄 | 自動(dòng)駕駛語義分割模型的對抗魯棒性研究

2023-12-19 11:19:17·  來源:sasetech  
 

自動(dòng)駕駛語義分割模型的對抗魯棒性研究

On Adversarial Robustness of Semantic Segmen-tation Models for Automated Driving

作者:Huilin Yin, Ruining Wang, Boyu Liu, Jun Yan


人們已經(jīng)提出了一些研究工作來評估基于深度學(xué)習(xí)的自動(dòng)駕駛語義分割模型在對抗攻擊下的魯棒性。然而,在以往的實(shí)證研究中,所測試的對抗樣本和所評估的分割模型的類型受到了限制,這導(dǎo)致了對語義分割模型的魯棒性理解的限制。為了緩解這些問題,本研究將在數(shù)據(jù)層面從模型結(jié)構(gòu)的內(nèi)部因素和環(huán)境擾動(dòng)的外部因素兩個(gè)方面系統(tǒng)地推進(jìn)語義分割模型的魯棒性研究。本研究使用具有不同內(nèi)部結(jié)構(gòu)的典型模型進(jìn)行了全面的研究:全卷積網(wǎng)絡(luò)(FCN)、金字塔場景分析網(wǎng)絡(luò)(PSPNet)、DeepLapv3+和具有不同主干網(wǎng)絡(luò)的 SegNet。這些模型將采用魯棒性評價(jià)指標(biāo)對在白盒攻擊和黑盒攻擊下的結(jié)果進(jìn)行評估。在實(shí)驗(yàn)的基礎(chǔ)上,對不同影響因素下不同模型的魯棒性進(jìn)行了定性和定量分析。隨著更多的實(shí)證研究案例,我們的工作為自動(dòng)駕駛語義分割的魯棒性研究提供了靈感,這對預(yù)期功能安全(SOTIF)研究是有意義和有利的。

?本文內(nèi)容主要分為4部分


01 簡介

近年來,隨著深度學(xué)習(xí)的快速發(fā)展,自動(dòng)駕駛技術(shù)取得了巨大進(jìn)步。在自動(dòng)駕駛領(lǐng)域,語義分割的性能對安全駕駛非常重要。

然而,深度神經(jīng)網(wǎng)絡(luò)容易受到對抗性示例的影響[1]-[4]。在沒有視覺表征修改的情況下,輕微的對抗性擾動(dòng)會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)上的欺騙。此類攻擊可能威脅圖像分類器、對象檢測器和語義分割模型。

為了緩解此類安全問題,一個(gè)合格的神經(jīng)視覺系統(tǒng)既需要在正常場景下的高泛化能力,也需要在對抗性攻擊下的魯棒性。對這種對抗性攻擊的實(shí)證研究是提高深度學(xué)習(xí)魯棒性的一項(xiàng)重要任務(wù)。在實(shí)際應(yīng)用中,用于自動(dòng)駕駛的基于深度學(xué)習(xí)的語義分割模型在模型結(jié)構(gòu)的先驗(yàn)知識的情況下遭受白盒對抗性攻擊。此外,自動(dòng)駕駛中常見的黑匣子對手,比如異常天氣和相機(jī)散焦也可以被視為語義分割模型的隱患,這可能導(dǎo)致預(yù)期功能(SOTIF)的安全性受到威脅[5]。SOTIF被認(rèn)為是自動(dòng)駕駛安全的一個(gè)重要方面。它處理人工智能模型的局限性和人類濫用造成的風(fēng)險(xiǎn)。

盡管語義分割模型在對抗性攻擊的魯棒性方面已經(jīng)取得了一些研究成果,但攻擊方法和評估模型的類型仍然有限。實(shí)際自動(dòng)駕駛場景中的擾動(dòng)是復(fù)雜的,自動(dòng)駕駛車輛中存在各種基于深度學(xué)習(xí)的語義分割模型。如果沒有詳細(xì)的實(shí)證研究,就不可能深入理解自動(dòng)駕駛中語義分割模型的魯棒性。為了解決這些問題,我們將從影響因素的兩個(gè)方面系統(tǒng)推動(dòng)語義分割模型魯棒性的研究:模型結(jié)構(gòu)的內(nèi)部因素和數(shù)據(jù)層面環(huán)境擾動(dòng)的外部因素。

在本文中,我們評估了Cityscapes[6]上的分割模型在數(shù)據(jù)級別上對自動(dòng)駕駛的白盒攻擊(FGSM[2],GD-UAP[7])和黑盒攻擊(圖像腐蝕[8])的魯棒性。

此外,根據(jù)不同自動(dòng)駕駛場景的魯棒性指標(biāo),對相同語義分割模型的各種主干網(wǎng)絡(luò)進(jìn)行評估,以探索模型結(jié)構(gòu)的影響。我們對實(shí)驗(yàn)結(jié)果進(jìn)行了定量和定性分析得出了一些發(fā)現(xiàn),這些發(fā)現(xiàn)可能會(huì)對自動(dòng)駕駛語義分割的魯棒性研究產(chǎn)生啟發(fā),這對SOTIF是有意義和有益的。

我們的貢獻(xiàn)主要包括兩個(gè)方面:

? 在模型層面,通過實(shí)證研究,我們發(fā)現(xiàn)了模型和主干網(wǎng)絡(luò)對魯棒性的影響,如PSPNet的非魯棒特征學(xué)習(xí)、ReLU6激活函數(shù)對GD-UAP攻擊的魯棒性等。此外,我們的理論分析也證實(shí)了這一發(fā)現(xiàn)。

? 在數(shù)據(jù)層面,我們研究了各種對抗性擾動(dòng)的影響,特別是異常天氣和相機(jī)畸變等黑匣子攻擊。實(shí)證和理論研究均能支持SOTIF相關(guān)風(fēng)險(xiǎn)的觸發(fā)條件分析,有助于提高駕駛安全。


02 相關(guān)工程

在本節(jié)中,我們?nèi)婊仡櫫嘶谏疃葘W(xué)習(xí)的自動(dòng)駕駛語義分割模型的開發(fā)、對抗性攻擊,以及對語義分割魯棒性的實(shí)證研究工作。

A.  基于深度學(xué)習(xí)的自動(dòng)駕駛語義分割模型

自2012年以來,卷積神經(jīng)網(wǎng)絡(luò)(CNN)已被廣泛用于圖像分類[9]-[12]并取得了巨大成功。與圖像級分類相比,語義分割使像素級識別成為圖像分類的一項(xiàng)擴(kuò)展任務(wù)。研究人員致力于提出具有最先進(jìn)性能的語義分割模型,包括全卷積網(wǎng)絡(luò)(FCN)[13]、SegNet[14]、金字塔場景解析網(wǎng)絡(luò)(PSPNet)[15]、DeepLab系列模型[16]-[19]等。FCN是語義分割領(lǐng)域的一個(gè)里程碑,它利用全卷積層而不是全連接層進(jìn)行像素識別。SegNet在FCN的基礎(chǔ)上使用了編碼器-解碼器結(jié)構(gòu),并在池化期間緩存像素位置的索引信息,這允許解碼器在上采樣時(shí)擁有更準(zhǔn)確的位置信息。PSPNet將特征圖輸入到空間金字塔池化(SPP)[20]模塊,該模塊使PSPNet能夠融合不同分辨率的特征,并對其進(jìn)行改進(jìn)以獲得全局信息。DeepLab系列型號已經(jīng)更新了四次,從DeepLabV1[16]、DeepLabV2[17]、DeepLab V3[18]到最先進(jìn)的DeepLabV3+[19]。

DeepLabV3+不僅利用了空洞空間卷積池化金字塔(多孔空間金字塔池化)(ASPP)模塊,而且還將深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)與擴(kuò)張卷積相結(jié)合,以提高目標(biāo)邊界的性能。由于這些具有不同主干網(wǎng)絡(luò)的典型模型將應(yīng)用于自動(dòng)駕駛領(lǐng)域,因此值得對這些語義分割模型的魯棒性進(jìn)行評估。

B.  對語義分割的對抗性例子和對抗性攻擊

語義分割模型被白盒對抗性攻擊和黑箱對抗性攻擊所困擾。

白盒攻擊:科學(xué)家們在了解L-BFGS[1]、快速梯度符號法(FGSM)[2]、投影梯度下降(PGD)[3]、Carlini和Wagner攻擊(C&W)[4]等模型的基礎(chǔ)上,提出了白盒對抗性攻擊方法。FGSM是一種基于梯度更新的單步無目標(biāo)對抗性攻擊。FGSM作為一種無目標(biāo)對抗性攻擊,只需要損失值變大,模型就無法識別正確的分類。另一種特殊類型的白盒攻擊是通用對抗性擾動(dòng)(UAP)[21]。通過將這種準(zhǔn)不可察覺的擾動(dòng)添加到干凈的圖像中,深度神經(jīng)網(wǎng)絡(luò)估計(jì)的標(biāo)簽很有可能發(fā)生變化。這種圖像不可知的擾動(dòng)被稱為普遍對抗性擾動(dòng)。制作通用對抗性擾動(dòng)的通用無數(shù)據(jù)目標(biāo)(GD-UAP)[7]是普通UAP攻擊方法的一種變體,它與數(shù)據(jù)無關(guān),可以在不同的視覺任務(wù)之間傳輸。

黑箱攻擊:黑箱對抗性攻擊不需要模型的先驗(yàn)知識。異常天氣和相機(jī)畸變可歸因于黑匣子對抗性攻擊。Hendrycks等人[8]在他們提出的ImageNet-C數(shù)據(jù)集中應(yīng)用了15種噪聲來評估圖像分類任務(wù)的魯棒性。Michaelis等人[22]在先前工作[8]的基礎(chǔ)上評估了基于自動(dòng)駕駛的物體檢測器的魯棒性。通常,黑盒圖像損壞[22]包含19種不同類型的噪聲,這些噪聲模擬了自動(dòng)駕駛中的真實(shí)對抗場景。

對語義分割模型進(jìn)行對抗性攻擊的實(shí)證研究:我們的工作受到了幾項(xiàng)關(guān)于語義分割的實(shí)證研究的啟發(fā)。Arnab等人[23]利用FGSM作為對抗性攻擊來評估語義分割模型(如 DeepLabV2)的魯棒性。

Kamann[24]生成損壞的圖像以攻擊圖像并評估模型的魯棒性。然而,在先前的實(shí)證研究中,測試的對抗性示例和評估的分割模型的類型是有限的。為了促進(jìn)語義分割模型魯棒性的研究,本文將從影響因素的兩個(gè)方面研究問題:模型結(jié)構(gòu)的內(nèi)部因素和數(shù)據(jù)層面環(huán)境擾動(dòng)的外部因素。更多關(guān)于不同對抗性攻擊下不同語義分割模型的實(shí)證研究案例將有助于深入理解語義分割模型在自動(dòng)駕駛中的魯棒性。


03 框架

在本節(jié)中,我們提出了我們的魯棒性分析框架。四個(gè)模型將在干凈的城市景觀數(shù)據(jù)集上進(jìn)行訓(xùn)練:FCN、SegNet、PSPNet和DeepLabV3+。對于對抗性攻擊,F(xiàn)GSM和GD-UAP是白盒對抗性攻擊的兩種類型,黑盒攻擊將由圖像損壞產(chǎn)生。研究了異常天氣和攝像機(jī)畸變的駕駛環(huán)境因素。

圖一闡述了我們的框架,包括典型的語義分割模型、對抗性擾動(dòng)和綜合分析。

圖片

圖1:我們提出的魯棒性分析框架。為了評估模型的魯棒性并分析影響因素,我們在干凈的自動(dòng)駕駛數(shù)據(jù)集上訓(xùn)練了四種用于自動(dòng)駕駛的語義分割模型,然后在各種對抗性擾動(dòng)下進(jìn)行測試。(a)對抗性攝動(dòng) 擾動(dòng)世代的過程,其中左側(cè)展示對抗性攝動(dòng) 擾動(dòng),右側(cè)顯示對抗性示例;(b)每個(gè)分割模型的結(jié)構(gòu)塊包括FCN、SegNet、DeepLabV3+和PSPNet;(c)來自輸入對抗性示例的預(yù)測;(d)定量和定性分析。

A.  語義分割模型

這四種語義分割模型是實(shí)際應(yīng)用中常用的模型,它們具有不同的內(nèi)部結(jié)構(gòu)。因此,我們基于這四個(gè)模型研究了魯棒性。

FCN[13]可以被視為第一個(gè)基于深度學(xué)習(xí)的語義分割模型。通過利用轉(zhuǎn)置卷積和反池化操作,F(xiàn)CN可以識別圖像中的特定對象。此外,F(xiàn)CN會(huì)丟棄丟失空間信息的結(jié)構(gòu),例如全局池化。為了避免“梯度消失”的現(xiàn)象,在分割模型中加入了跳躍層結(jié)構(gòu)。

經(jīng)典編碼解碼結(jié)構(gòu)中的SegNet[14]推斷。為了實(shí)現(xiàn)最大池化的效果,模型會(huì)選擇最大的像素來存儲(chǔ)特征圖中像素的位置,這些像素位置信息被稱為索引。在解碼過程中,SegNet通過對特征圖的反池化,根據(jù)索引恢復(fù)原始位置的最大值,然后用零填充其他位置,以獲得最終的分割預(yù)測圖像。SegNet中的池化操作會(huì)記住在選擇最大值期間的相對位置,以便進(jìn)一步使用上采樣,這是它與FCN的最大區(qū)別。

PSPNet[15]在訓(xùn)練過程中添加了一個(gè)輔助損失函數(shù),以加速模型收斂。該模型利用擴(kuò)張網(wǎng)絡(luò)策略,有效地逐個(gè)像素提取特征圖。然后,該模型使用金字塔池化模塊通過多尺度特征映射提取上下文信息。

DeepLabV3+[19]的貢獻(xiàn)在于編碼器-編碼器結(jié)構(gòu),它不僅提高了分割效果,還改善了邊界的信息。為了提取和純化多尺度信息,DeepLabV3+使用空洞空間卷積池化金字塔(多孔空間金字塔池化)(ASPP),在主干網(wǎng)絡(luò)之后進(jìn)行可分離卷積。與DeepLabv3相比,DeepLabv3+引入了解碼器模塊,該模塊將低級特征與高級特征進(jìn)一步融合,以提高分割邊界的準(zhǔn)確性。

B.  對抗性擾動(dòng)

FGSM和GD-UAP是魯棒性研究中兩種典型的白盒對抗性攻擊。此外,評估黑盒攻擊下的魯棒性有助于提高自動(dòng)駕駛的SOTIF。

FGSM[2]是一種單步無目標(biāo)對抗性攻擊方法。擾動(dòng)將被添加到具有最大梯度變化的方向上,以干擾分類模型的推斷。它是一個(gè)最優(yōu)的最大范數(shù)約束對抗性擾動(dòng),如方程(1)所定義。

圖片

在上式中,x表示原始輸入圖像,xadv表示對抗性樣本,?是最優(yōu)最大范數(shù)約束擾動(dòng)的參數(shù),sign表示梯度方向。擾動(dòng)預(yù)算ε越大,其獲得的攻擊效果就越好。然而,人眼可以檢測到對抗性擾動(dòng),這可能會(huì)降低對抗性攻擊的隱蔽性。

通過控制ε的大小,可以實(shí)現(xiàn)攻擊效果和圖像質(zhì)量之間的折衷,這意味著人眼無法識別與原始圖片的差異。

GD-UAP[7]是一種獨(dú)立于數(shù)據(jù)的通用對抗性擾動(dòng)生成方法,可應(yīng)用于各種任務(wù),包括圖像分類、語義分割和深度估計(jì)。這種方法的目的是通過干擾多層提取的特征來欺騙模型。

具體而言,攻擊其他模型的方法是在多個(gè)層上過度填充激活函數(shù),如等式(2)所定義。

圖片

在上述公式中,g可以被視為先驗(yàn)數(shù)據(jù)。在無數(shù)據(jù)設(shè)置中,g是一個(gè)空矩陣。在帶有數(shù)據(jù)的設(shè)置中,g是圖像矩陣。δ是需要優(yōu)化的隨機(jī)噪聲,li(δ)是當(dāng)g+δ被饋送到網(wǎng)絡(luò)時(shí),第i層的輸出張量(非線性之后)中的激活。

圖像破壞擾動(dòng)[22]是用19種不同的過程對抗性噪聲實(shí)現(xiàn)的,包括變焦模糊、運(yùn)動(dòng)模糊、散焦、磨砂玻璃、高斯模糊、高斯噪聲、脈沖噪聲、散粒噪聲、斑點(diǎn)噪聲、雪模擬、飛濺模擬、霧模擬、霜模擬、數(shù)字亮度、數(shù)字對比度、JPEG壓縮、飽和度,像素化和彈性變換。每種對抗性噪聲都有5個(gè)嚴(yán)重程度,擾動(dòng)將由從1到5的不同自然數(shù)值控制。神經(jīng)網(wǎng)絡(luò)在這種黑箱攻擊下的脆弱性和不確定性可歸因于SOTIF的風(fēng)險(xiǎn)問題。


04 試驗(yàn)

A.  試驗(yàn)設(shè)置

數(shù)據(jù)集:試驗(yàn)基于cityscape數(shù)據(jù)集[6],該數(shù)據(jù)集廣泛應(yīng)用于自動(dòng)駕駛語義分割基準(zhǔn)測試領(lǐng)域。該數(shù)據(jù)集由車載攝像頭拍攝的道路場景組成,共有19個(gè)類。驗(yàn)證數(shù)據(jù)集有500張圖像,訓(xùn)練數(shù)據(jù)集總計(jì)約23000張圖像。所有這些圖像都是高分辨率圖像(1024×2048)取自50多個(gè)城市的道路場景。其他自動(dòng)駕駛的基準(zhǔn)數(shù)據(jù)集,如KITTI[25]和Udacity[26],只能用于對象檢測和跟蹤,不能用于分割。因此,cityscape更適合我們的研究。

模型:最先進(jìn)的DeepLabV3+[19]模型-具有多個(gè)網(wǎng)絡(luò)主干網(wǎng)的模型在PyTorch框架中進(jìn)行訓(xùn)練。MobileNetV2[11]、ResNet50[10]、ResNet101[10]和Xception65[27]被選為網(wǎng)絡(luò)主干網(wǎng)。為了與Deep-LabV3+進(jìn)行比較,我們選擇FCN8s[13], FCN16s [13], FCN32s[13]與VGG16[9]主干網(wǎng),F(xiàn)CN與ResNet50和ResNet101主干網(wǎng),SegNet[14]與VGG16主干網(wǎng),PSP- Net[15]與ResNet50和ResNet101主干網(wǎng)。所有的主干網(wǎng)都在ImageNet數(shù)據(jù)集[28]上進(jìn)行了預(yù)訓(xùn)練。為了保證試驗(yàn)的準(zhǔn)確性,所有這些模型都使用了包括隨機(jī)裁剪和隨機(jī)水平翻轉(zhuǎn)在內(nèi)的圖像增強(qiáng)方法進(jìn)行訓(xùn)練。

對抗性攻擊:本文對白盒攻擊和黑盒攻擊進(jìn)行了研究。FGSM[2]和GD- UAP[7]是兩種白盒攻擊。將異常天氣和圖像損壞產(chǎn)生的攝像機(jī)畸變等驅(qū)動(dòng)環(huán)境因素視為黑盒攻擊。在FGSM的試驗(yàn)中,在[1/255,2 / 255,4 / 255,8 / 255,12 / 255,16 /255]的范圍內(nèi)對不同的攝動(dòng) 擾動(dòng)預(yù)算 約束e設(shè)置l∞范數(shù)攻擊。在GD-UAP的試驗(yàn)中,在[5/ 255,10 /255]范圍內(nèi)的擾動(dòng)預(yù)算 約束e上設(shè)置了l∞范數(shù)攻擊。在圖像破壞[22]的試驗(yàn)中,不同噪聲的5種嚴(yán)重程度都將被測試。

評價(jià)指標(biāo):平均交集超過聯(lián)合(mIoU)是語義分割模型評價(jià)中最常用的指標(biāo)。在本文中,對抗性擾動(dòng)下的mIoU可以看作是魯棒性的度量。

B.  FGSM攻擊的試驗(yàn)

圖2顯示了在Cityscapes數(shù)據(jù)集上訓(xùn)練的幾個(gè)最先進(jìn)的模型在FGSM攻擊下的魯棒性。

在FGSM(ε=[1,2,4,8,12,16])中,DeepLabV3+比其他模型具有更高的mIoU。具有輕量級主干MobileNetv2的DeepLabV3+模型不如具有其他3個(gè)主干的DeepLab V3+模型,后者具有更多的參數(shù)。很明顯,具有Xception65主干的模型在ε≤4的情況下保持了相當(dāng)大的識別性能,但當(dāng)擾動(dòng)預(yù)算 約束滿足ε≥8時(shí),mIoU迅速下降。然而,這并不意味著具有Xception65主干的DeepLabV3+模型在實(shí)際應(yīng)用中的魯棒性不好,因?yàn)楫?dāng)擾動(dòng)預(yù)算 約束滿足ε≥8時(shí),圖像的噪聲在現(xiàn)實(shí)世界中已經(jīng)變得肉眼可見。

圖片

圖2:在FGSM攻擊下,最先進(jìn)的模型對城市景觀數(shù)據(jù)集的魯棒性

在與DeepLabV3+中不同主干的比較試驗(yàn)中,具有ResNet101主干的DeepLabV2+具有最好的魯棒性。它說明了具有ResNet主干的FCN也比具有VGG16主干的FCN好。SegNet是用上采樣 不采樣模型構(gòu)建的,這可能有助于它在FGSM攻擊下的魯棒性。因此,其性能優(yōu)于具有相同VGG16主干的FCN。一般來說,主干對模型魯棒性的影響是顯著的。由于其殘差結(jié)構(gòu),ResNet是一個(gè)穩(wěn)健的主干,可以融合先前卷積層的特征信息。

C.  GD-UAP攻擊的試驗(yàn)

圖3顯示了GD-UAP進(jìn)攻的試驗(yàn)結(jié)果,DeepLabV3+在擾動(dòng)預(yù)算 約束ε=5和ε=10下的mIoU高于其他模型。在DeepLabV3+中使用的主鏈中,當(dāng)擾動(dòng)預(yù)算 約束變得更高時(shí),DeepLabV3+與Xception65主鏈的mIoU迅速降低。在FCN和DeepLabV3+的不同支柱中,ResNet50和ResNet101仍然是提高語義分割模型魯棒性的主干。具有SPP結(jié)構(gòu)的PSPNet在這次攻擊中仍然表現(xiàn)不佳,因此我們推斷SPP模塊在網(wǎng)絡(luò)中的作用是集成局部和全局特征以提高預(yù)測精度,但它無助于提高分割模型的魯棒性。DeepLabV3+與MobileNetV2主干在GD-UAP攻擊下的性能是非常突出的,其魯棒性遠(yuǎn)高于具有其他主干的DeepLabV3+模型。

圖片

圖3:在GD-UAP無數(shù)據(jù)(無數(shù)據(jù))攻擊下,最先進(jìn)的模型在城市景觀數(shù)據(jù)集上的魯棒性

在之前的工作[29]中,有一種觀點(diǎn)表明,ReLU是限定和限制神經(jīng)網(wǎng)絡(luò)模型魯棒性的因素之一。在我們的消融試驗(yàn)中,激活功能ReLU6被整合到MobileNetV2主干中。圖4顯示,使用ReLU6的MobileNetV2主干的DeepLabV3+的mIoU是使用ReLU的相同主干的Deep LabV3+mIoU的兩倍。GD-UAP的有效性在于通過過度激發(fā)激活函數(shù)來攻擊分割模型。然而,ReLU6將激活函數(shù)的最大值限制為6,并抑制GD-UAP對模型激活函數(shù)的攻擊。

圖片

圖4:具有不同ReLU和ReLU6函數(shù)的基于MobileNetv2主干的DeepLabV3+模型的不同l∞范數(shù)GD-UAP擾動(dòng)的平均mIoU

除了無數(shù)據(jù)UAP攻擊外,GD-UAP還可以使用訓(xùn)練數(shù)據(jù)集作為先驗(yàn)知識來訓(xùn)練對抗性擾動(dòng)。通過使用訓(xùn)練數(shù)據(jù)集,試驗(yàn)結(jié)果與無數(shù)據(jù)模式下的結(jié)果相似。圖5表明,DeepLabV3+仍然保持著較高的魯棒性,ResNet是貢獻(xiàn)魯棒性的合適主干。

圖片

圖5:GD-UAP下Cityscapes數(shù)據(jù)集上最先進(jìn)模型在數(shù)據(jù)攻擊下的魯棒性

D.  圖像損壞

在圖像損壞中提供了19種不同類型的噪聲。對于自動(dòng)駕駛,我們關(guān)注異常天氣、運(yùn)動(dòng)模糊和散焦模糊。其中,異常天氣和飛濺是對圖像的物理攻擊,而運(yùn)動(dòng)模糊和散焦模糊是由車輛高速行駛時(shí)的相機(jī)失真引起的。因此,在試驗(yàn)中,分析這些黑匣子攻擊對模型魯棒性的影響至關(guān)重要。

表I:DeepLabV3+和其他模型的不同網(wǎng)絡(luò)主干的驗(yàn)證集中干凈和損壞圖像的平均mIoU。每個(gè)mIoU在前三個(gè)嚴(yán)重級別上取平均值,因?yàn)樽詈髢蓚€(gè)級別的攻擊會(huì)嚴(yán)重破壞圖像質(zhì)量。這些自動(dòng)駕駛損壞類型中的最高mIoU用粗體突出顯示。

圖片

表I顯示,在異常天氣(雪、霧、霜、飛濺)的情況下,DeepLabV3+比其他模型更穩(wěn)健。在DeepLabV3+模型結(jié)構(gòu)組中,具有ResNet主干的模型優(yōu)于具有Xception65主干和MobileNetV2主干的模型。在FCN組的比較中,具有ResNet主干的模型也優(yōu)于具有VGG16主干的模型,并且這樣的模型的平均mIoU可以超過40%左右。盡管在干凈圖像下,具有ResNet主干的PSPNet的mIoU高于具有VGG16主干和ResNet主干的FCN的mIoU,但當(dāng)語義分割模型受到這些黑箱攻擊時(shí),其mIoU顯著下降,其性能甚至比具有ResNet主鏈的FCN差,原因是PSPNet學(xué)習(xí)到的特征是非魯棒的。在散焦模糊攻擊和運(yùn)動(dòng)模糊攻擊下,DeepLabV3+與其他模型相比表現(xiàn)出較強(qiáng)的魯棒性,ResNet也是用于語義分割的評估模型組內(nèi)最健壯的主干。帶有Xception主干的DeepLabV3+的性能顯示出不同的特性。在模糊攻擊中,即使與具有ResNet主干的DeepLabV3+相比,它也能獲得更高的mIoU。這可能是因?yàn)檫@兩個(gè)模糊對模型的干擾較小。

具有Xception主干的DeepLabV3+模型的分割性能在嚴(yán)重程度不高時(shí)不會(huì)下降太多(嚴(yán)重程度=1,2,3)。只有當(dāng)嚴(yán)重程度較高(嚴(yán)重程度=5)時(shí),對手才能導(dǎo)致具有Xception主干的DeepLabV3+模型的mIoU顯著下降。

E.  討論

基于上述試驗(yàn)結(jié)果,有幾個(gè)發(fā)現(xiàn)很突出,這些發(fā)現(xiàn)與模型結(jié)構(gòu)和環(huán)境數(shù)據(jù)擾動(dòng)對魯棒性的影響有關(guān)。

? 干凈測試數(shù)據(jù)集上語義分割模型的高精度并不總是與對抗性擾動(dòng)下的魯棒性相關(guān)。在我們的試驗(yàn)中,在干凈的測試數(shù)據(jù)集上具有高mIoU的PSPNet在對抗性擾動(dòng)下很容易受到攻擊。相比之下,具有相同主干的DeepLabV3+模型的性能退化較小,原因可能在于PSPNet學(xué)習(xí)到的非魯棒性特征。

? 在我們的評估試驗(yàn)中,具有包含殘差結(jié)構(gòu)的主干(如ResNet)的語義分割模型通常比具有其他基于鏈的VGG主干和輕量級主干(如MobileNetV2)的相同語義分割模型更具魯棒性。

? 具有Xception65主干的語義分割模型具有很高的分割精度。當(dāng)l∞-范數(shù)擾動(dòng)約束ε很小時(shí),性能不會(huì)下降太多。然而,當(dāng)擾動(dòng)約束ε變大時(shí),具有Xception主干的語義分割模型的魯棒性比具有其他主干的模型差。

?GD-UAP攻擊有效性的關(guān)鍵在于過度激活神經(jīng)元。由于ReLU6函數(shù)通過抑制神經(jīng)元過度激活的現(xiàn)象將其最大輸出限制在6的值,因此具有激活函數(shù)ReLU6的語義分割模型比具有頻繁使用的ReLU函數(shù)的模型更具魯棒性。

?在模擬異常天氣的黑盒攻擊試驗(yàn)中,具有ResNet101主干的DeepLabV3+模型顯示了最佳的魯棒性性能,為建立符合SOTIF安全性要求的語義分割模型提供了參考。


05 結(jié)論

神經(jīng)網(wǎng)絡(luò)的脆弱性導(dǎo)致了安全關(guān)鍵型自動(dòng)駕駛的潛在風(fēng)險(xiǎn)。為了解決分割模型的局限性,我們從兩個(gè)方面研究了語義分割模型對自動(dòng)駕駛的魯棒性:模型層面的內(nèi)部結(jié)構(gòu)和數(shù)據(jù)層面的外部對抗性擾動(dòng)。我們提出了魯棒性分析框架,包括模型、對抗性攻擊以及定性和定量分析。在兩種白盒對抗性攻擊(FGSM和GDUAP)和由圖像破壞產(chǎn)生的黑盒攻擊(模擬真實(shí)世界中的異常天氣和相機(jī)失真)下,在具有不同主干的四個(gè)語義分割模型(FCN、SegNet、PSPNet和DeepLabV3+)上實(shí)現(xiàn)了評估?;谖覀兊脑囼?yàn)結(jié)果,對不同對抗性攻擊模式下語義分割模型的魯棒性進(jìn)行了全面分析,并得出了一些有意義的發(fā)現(xiàn)。這項(xiàng)實(shí)證工作可能會(huì)為自動(dòng)駕駛中基于深度學(xué)習(xí)的視覺系統(tǒng)的研發(fā)過程提供一些參考。



參考文獻(xiàn)


圖片圖片圖片


分享到:
 
反對 0 舉報(bào) 0 收藏 0 評論 0
滬ICP備11026917號-25