日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

“端到端”自動駕駛的安全問題

2025-02-13 12:40:13·  來源:汽車電子與軟件  
 

#04、汽車功能安全方法論與端到端方案的矛盾   

4.1 汽車功能安全方法論簡述  

在汽車行業(yè),功能安全是保障車輛安全運行的關(guān)鍵要素,其核心依據(jù)是國際標準 ISO 26262《道路車輛功能安全》 。該標準專門針對汽車電子電氣系統(tǒng),旨在降低因系統(tǒng)故障而引發(fā)的不合理風險,確保車輛在整個生命周期內(nèi)的安全性。功能安全的核心目標在于追求系統(tǒng)運行的確定性,盡可能避免故障發(fā)生,并在故障不可避免時,保障車輛和人員的安全 。   

圖片

圖 4:汽車功能安全標準 ISO 26262 框架圖

為了實現(xiàn)這一目標,ISO 26262 從多個維度進行了規(guī)范和約束。在系統(tǒng)開發(fā)流程上,它遵循嚴格的 V 模型開發(fā)流程,從項目概念階段開始,逐步進行需求分析、設(shè)計、實現(xiàn)、測試和驗證等環(huán)節(jié),每個環(huán)節(jié)都有明確的輸入、輸出和審查要求 。在需求分析階段,需要對車輛的功能需求進行詳細梳理,明確每個功能的安全目標和安全需求,并將其轉(zhuǎn)化為具體的技術(shù)指標和規(guī)范。在設(shè)計階段,要考慮系統(tǒng)的架構(gòu)設(shè)計、硬件設(shè)計和軟件設(shè)計,確保系統(tǒng)具備足夠的安全性和可靠性。例如,采用冗余設(shè)計、故障檢測與診斷機制等,以提高系統(tǒng)的容錯能力。在實現(xiàn)階段,要按照設(shè)計要求進行硬件和軟件的開發(fā),并進行嚴格的代碼審查和測試,確保代碼的質(zhì)量和安全性。在測試和驗證階段,要通過各種測試手段,如功能測試、性能測試、可靠性測試、安全性測試等,驗證系統(tǒng)是否滿足安全要求和設(shè)計規(guī)范 。

在風險評估方面,ISO 26262 引入了汽車安全完整性等級(ASIL)的概念,根據(jù)危害事件的嚴重度、暴露率和可控性,將風險分為 ASIL A、ASIL B、ASIL C 和 ASIL D 四個等級,其中 ASIL D 表示最高風險等級 。對于不同的 ASIL 等級,標準規(guī)定了相應(yīng)的安全措施和開發(fā)要求,以確保風險得到有效控制。對于 ASIL D 等級的系統(tǒng),要求采用高度可靠的硬件和軟件設(shè)計,具備多重冗余和故障檢測機制,以最大程度地降低故障發(fā)生的概率和影響。   

在安全分析方法上,ISO 26262 推薦了多種方法,如故障模式及影響分析(FMEA)、故障樹分析(FTA)、危害分析與風險評估(HARA)等 。這些方法從不同角度對系統(tǒng)進行分析,識別潛在的故障模式和危害,評估其對系統(tǒng)安全的影響,并制定相應(yīng)的風險應(yīng)對措施。通過 FMEA,可以分析系統(tǒng)中每個組件的故障模式及其對整個系統(tǒng)的影響,確定故障的嚴重程度和發(fā)生概率,從而采取相應(yīng)的預(yù)防和糾正措施;通過 FTA,可以從系統(tǒng)的頂事件出發(fā),逐步分析導(dǎo)致頂事件發(fā)生的各種原因,構(gòu)建故障樹,找出系統(tǒng)的薄弱環(huán)節(jié),采取針對性的改進措施 。

4.2 矛盾點剖析  

1. 確定性與不確定性的沖突:

汽車功能安全方法論的核心是追求確定性,通過嚴謹?shù)拈_發(fā)流程、風險評估和安全分析方法,確保系統(tǒng)在各種工況下都能按照預(yù)期運行,將風險控制在可接受的范圍內(nèi) 。而端到端自動駕駛方案由于基于人工智能技術(shù),其決策過程存在內(nèi)在的不確定性。如前文所述,端到端模型的黑盒特性使得其內(nèi)部的決策邏輯難以解釋,無法像傳統(tǒng)系統(tǒng)那樣提供明確的決策依據(jù)和確定性的行為預(yù)測 。在遇到復(fù)雜的交通場景時,端到端模型可能會因為對環(huán)境信息的理解偏差或訓(xùn)練數(shù)據(jù)的局限性,做出不可預(yù)測的決策,這與功能安全追求的確定性原則背道而馳。當遇到道路上有異物或非標準交通標志時,端到端模型可能無法準確判斷,導(dǎo)致車輛采取錯誤的駕駛行為,如不減速或不避讓,從而引發(fā)安全事故 。

2. 風險評估與應(yīng)對的差異:

功能安全方法論通過嚴格的風險評估流程,如 HARA 等方法,對系統(tǒng)可能面臨的各種危害進行全面識別和分析,根據(jù)風險等級制定相應(yīng)的安全措施,以降低風險發(fā)生的概率和影響 。而端到端自動駕駛方案由于其不可解釋性,難以用傳統(tǒng)的風險評估方法來準確量化和評估風險。由于無法清晰地了解模型的決策過程和潛在的故障模式,很難確定在不同場景下模型可能出現(xiàn)的錯誤以及這些錯誤對車輛安全的影響程度 。在面對新的、未在訓(xùn)練數(shù)據(jù)中出現(xiàn)的場景時,傳統(tǒng)的風險評估方法無法有效地評估端到端模型的安全性,使得風險應(yīng)對措施難以制定。這就導(dǎo)致在實際應(yīng)用中,端到端自動駕駛方案可能面臨著無法有效評估和應(yīng)對的安全風險,增加了事故發(fā)生的可能性 。


#05、當前技術(shù)現(xiàn)狀下的安全事故及原因分析


5.1 典型安全事故案例列舉  

近年來,端到端自動駕駛汽車發(fā)生了多起引人關(guān)注的安全事故,這些事故不僅給人們的生命和財產(chǎn)帶來了損失,也引發(fā)了公眾對自動駕駛技術(shù)安全性的擔憂。2018 年,一輛特斯拉 Model X 在自動駕駛模式下失控,撞上了加州的一輛移動救護車,導(dǎo)致司機和乘客受傷 。事故發(fā)生時,車輛正處于自動輔助駕駛狀態(tài),據(jù)推測,可能是由于系統(tǒng)對救護車的識別出現(xiàn)偏差,或者在決策過程中未能及時做出正確的避讓動作,從而導(dǎo)致了碰撞事故的發(fā)生。

2019 年,Uber 的自動駕駛汽車在亞利桑那州進行測試時,撞到一名行人,導(dǎo)致其死亡 。這起事故是自動駕駛領(lǐng)域的一個重大事件,引發(fā)了對自動駕駛汽車測試的安全性和道德問題的廣泛討論。在事故發(fā)生時,車輛的傳感器應(yīng)該能夠檢測到行人的存在,但由于端到端模型的決策機制不明確,可能未能準確判斷行人的意圖和行動軌跡,導(dǎo)致車輛未能及時采取制動或避讓措施。

2022 年,一輛特斯拉 Model 3 在加州高速公路上發(fā)生自動駕駛事故,車輛未能正確識別前方道路上的障礙物,導(dǎo)致撞車 。據(jù)分析,可能是因為當時的光照條件、障礙物的形狀或顏色等因素影響了傳感器的數(shù)據(jù)采集,而端到端模型在處理這些復(fù)雜數(shù)據(jù)時,無法準確理解環(huán)境信息,從而做出了錯誤的決策,未能及時剎車或改變行駛方向,最終導(dǎo)致了事故的發(fā)生。

2024 年 7 月 7 日下午,武漢市漢陽區(qū)發(fā)生一起涉及 “蘿卜快跑” 無人駕駛出租車的交通事故 。事故發(fā)生在鸚鵡大道與國博大道交叉口,無人車在綠燈亮起啟動時與一名闖紅燈的行人發(fā)生輕微碰撞。雖然此次事故未造成嚴重后果,但也引發(fā)了人們對自動駕駛車輛在復(fù)雜交通場景下應(yīng)對能力的質(zhì)疑。在這種情況下,端到端自動駕駛系統(tǒng)可能由于對行人的行為預(yù)測不準確,或者對交通信號燈變化后的復(fù)雜路況處理不當,導(dǎo)致未能及時做出有效的避讓反應(yīng)。

5.2 從不可解釋性角度深挖原因  

從這些事故中可以看出,端到端模型的不可解釋性是導(dǎo)致事故發(fā)生的一個重要因素。由于無法準確判斷事故發(fā)生時系統(tǒng)的決策依據(jù),很難確定事故的根本原因,也難以采取有效的預(yù)防和解決措施。在特斯拉 Model X 撞上救護車的事故中,由于端到端模型的黑盒特性,無法確切知道模型是如何識別救護車的,是將其誤判為其他物體,還是在決策過程中出現(xiàn)了邏輯錯誤,這些都無法得到明確的答案 。這使得研發(fā)人員難以針對問題進行針對性的改進,也無法向公眾解釋事故發(fā)生的原因,從而降低了公眾對自動駕駛技術(shù)的信任度。   

在 Uber 自動駕駛汽車撞人事故中,同樣由于模型的不可解釋性,無法確定系統(tǒng)在檢測到行人后,為什么沒有及時采取有效的制動或避讓措施 。是因為模型對行人的運動軌跡預(yù)測不準確,還是在決策過程中受到了其他因素的干擾,這些都無從得知。這種不確定性使得自動駕駛系統(tǒng)在面對復(fù)雜的交通場景時,存在著巨大的安全隱患,一旦出現(xiàn)錯誤決策,就可能導(dǎo)致嚴重的后果。

對于特斯拉 Model 3 在高速公路上的撞車事故,端到端模型的不可解釋性使得我們無法了解系統(tǒng)在面對前方障礙物時的決策過程 。是因為傳感器數(shù)據(jù)的噪聲干擾導(dǎo)致模型對障礙物的識別錯誤,還是模型內(nèi)部的算法在處理數(shù)據(jù)時出現(xiàn)了偏差,這些都難以確定。這也使得在后續(xù)的技術(shù)改進中,缺乏明確的方向和依據(jù),無法有效地提高系統(tǒng)在復(fù)雜環(huán)境下的安全性和可靠性。

在武漢 “蘿卜快跑” 無人駕駛出租車與行人碰撞事故中,端到端自動駕駛系統(tǒng)對行人闖紅燈這一異常行為的處理能力受到質(zhì)疑 。由于模型的不可解釋性,無法明確系統(tǒng)是否正確識別了行人的行為,以及在決策過程中是否考慮到了行人闖紅燈的可能性。如果不能深入了解模型的決策機制,就難以對系統(tǒng)進行優(yōu)化,提高其在復(fù)雜交通場景下的應(yīng)對能力。


#06、未來可能的解決方法探討  

6.1 可解釋人工智能(XAI)技術(shù)的引入  

1. XAI 技術(shù)原理及應(yīng)用前景:

可解釋人工智能(XAI)技術(shù)致力于打破人工智能模型的黑盒特性,讓模型的決策過程和輸出結(jié)果變得可理解、可解釋 。其核心原理是通過一系列的技術(shù)手段,揭示模型內(nèi)部的工作機制和決策邏輯。其中,特征重要性分析是一種常用的方法,它通過計算每個輸入特征對模型輸出的影響程度,來確定哪些特征在決策過程中起到了關(guān)鍵作用 。對于一個基于圖像識別的自動駕駛決策模型,通過特征重要性分析可以發(fā)現(xiàn),車輛前方行人的位置、速度以及與本車的距離等特征,對于模型做出避讓決策具有較高的重要性。

可視化技術(shù)也是 XAI 的重要組成部分,它將模型的內(nèi)部狀態(tài)和決策過程以直觀的圖形或圖像形式展示出來 。在自動駕駛中,可以利用可視化技術(shù)展示神經(jīng)網(wǎng)絡(luò)中各層的激活情況,以及不同特征在模型中的傳播路徑。通過熱力圖可以直觀地看到圖像中哪些區(qū)域被模型重點關(guān)注,從而幫助理解模型是如何從圖像中提取關(guān)鍵信息并做出決策的。在遇到十字路口的場景時,通過可視化可以清晰地看到模型對交通信號燈、其他車輛和行人等關(guān)鍵元素的識別和處理過程,使決策過程更加透明。   

在端到端自動駕駛中,XAI 技術(shù)具有廣闊的應(yīng)用前景。它可以幫助研發(fā)人員更好地理解模型的行為,發(fā)現(xiàn)模型中的潛在問題和缺陷,從而有針對性地進行優(yōu)化和改進 。在模型訓(xùn)練過程中,通過 XAI 技術(shù)可以實時監(jiān)控模型的決策過程,及時發(fā)現(xiàn)模型是否出現(xiàn)過擬合或欠擬合現(xiàn)象,以及是否存在對某些特殊場景的誤判。在模型部署后,XAI 技術(shù)可以為駕駛員或監(jiān)管人員提供決策解釋,增強他們對自動駕駛系統(tǒng)的信任和接受度 。當車輛在行駛過程中做出緊急制動或避讓決策時,XAI 技術(shù)可以向駕駛員解釋決策的原因,如檢測到前方突然出現(xiàn)的障礙物或其他車輛的異常行為,讓駕駛員更好地理解和接受自動駕駛系統(tǒng)的操作。

2. 結(jié)合案例分析潛在優(yōu)勢:

XAI 技術(shù)在其他領(lǐng)域的應(yīng)用已經(jīng)取得了顯著的成果,為其在自動駕駛領(lǐng)域的應(yīng)用提供了有力的參考。在醫(yī)療領(lǐng)域,XAI 技術(shù)被用于輔助醫(yī)生進行疾病診斷 。IBM Watson for oncology 是一款基于人工智能的醫(yī)療診斷系統(tǒng),它利用 XAI 技術(shù)對大量的醫(yī)學(xué)文獻和病例數(shù)據(jù)進行分析和學(xué)習,能夠為醫(yī)生提供癌癥診斷和治療建議。在面對復(fù)雜的癌癥病例時,該系統(tǒng)可以通過可視化的方式展示其診斷依據(jù)和推理過程,幫助醫(yī)生更好地理解和評估診斷結(jié)果。通過分析患者的基因數(shù)據(jù)、影像資料和臨床癥狀等多源信息,系統(tǒng)可以生成一份詳細的診斷報告,其中不僅包含診斷結(jié)果,還會解釋每個信息源在診斷過程中的作用和貢獻,使醫(yī)生能夠更加信任和依賴該系統(tǒng)的診斷建議 。

在金融領(lǐng)域,XAI 技術(shù)被用于風險評估和投資決策 。一些金融機構(gòu)利用 XAI 技術(shù)開發(fā)了智能投資顧問系統(tǒng),該系統(tǒng)可以根據(jù)市場數(shù)據(jù)、投資者的風險偏好和投資目標等因素,為投資者提供個性化的投資建議。通過特征重要性分析,系統(tǒng)可以向投資者解釋每個投資決策背后的關(guān)鍵因素,如市場趨勢、行業(yè)前景、公司財務(wù)狀況等,讓投資者更好地理解自己的投資行為和風險狀況 。在評估一只股票的投資價值時,系統(tǒng)可以展示出影響其評估結(jié)果的主要因素,如公司的盈利能力、市場份額、市盈率等,幫助投資者做出更加明智的投資決策。

在自動駕駛領(lǐng)域,XAI 技術(shù)同樣具有巨大的潛力。通過引入 XAI 技術(shù),可以幫助理解決策過程,提升安全性 。當車輛在行駛過程中遇到前方道路施工的場景時,XAI 技術(shù)可以向駕駛員解釋自動駕駛系統(tǒng)是如何識別出施工區(qū)域的,以及為什么選擇了特定的繞行路線或減速策略。通過分析傳感器數(shù)據(jù)和模型的決策邏輯,XAI 技術(shù)可以展示出系統(tǒng)對施工標志、障礙物和道路狀況等關(guān)鍵信息的識別和處理過程,讓駕駛員更好地理解和信任自動駕駛系統(tǒng)的決策 。這不僅可以提高駕駛員對自動駕駛系統(tǒng)的接受度,還可以在關(guān)鍵時刻幫助駕駛員做出正確的決策,避免事故的發(fā)生。   

分享到:
 
反對 0 舉報 0 收藏 0 評論 0
滬ICP備11026917號-25