日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

綜述:自動駕駛應(yīng)用中知識增強(qiáng)的機(jī)器學(xué)習(xí)方法(三)

2022-05-17 00:07:33·  來源:計(jì)算機(jī)視覺深度學(xué)習(xí)和自動駕駛  作者:黃浴  
 
最后剩下章節(jié):可視化是一種以令人印象深刻的形式表達(dá)抽象和復(fù)雜知識的好方法。因此,它也可以作為一個(gè)有效的工具來展示從機(jī)器學(xué)習(xí)模型中提取的知識。與文本、公

最后剩下章節(jié):

圖片


可視化是一種以令人印象深刻的形式表達(dá)抽象和復(fù)雜知識的好方法。因此,它也可以作為一個(gè)有效的工具來展示從機(jī)器學(xué)習(xí)模型中提取的知識。與文本、公式或其他符號解釋不同,可視化可以提供一些復(fù)雜信息的直觀印象。這種可視化可以啟發(fā)人們更好地理解,甚至改進(jìn)算法。


許多研究都集中在機(jī)器學(xué)習(xí)模型的視覺解釋上。其中一個(gè)叫做視覺分析,旨在利用人類視覺系統(tǒng)和人類知識來識別或假設(shè)通常隱藏在大型數(shù)據(jù)集的模式。

7.1 視覺分析:作者是Cvejoski, Kelsch

視覺分析(VA)是一個(gè)研究領(lǐng)域,其中定義和調(diào)查采用人類視覺系統(tǒng)和人類知識對大數(shù)據(jù)集通常隱藏模式進(jìn)行識別或假設(shè)的過程。這包括了許多長期以來數(shù)據(jù)可視化中使用的技術(shù),并應(yīng)用了統(tǒng)計(jì)學(xué)和數(shù)據(jù)科學(xué),不過對復(fù)雜機(jī)器學(xué)習(xí)模型(如神經(jīng)網(wǎng)絡(luò))進(jìn)行徹底考察的需求也推動了VA在該領(lǐng)域的發(fā)展。


VA在機(jī)器學(xué)習(xí)生命周期的實(shí)際部署是靈活的,這也是其調(diào)研的基礎(chǔ)和目標(biāo)。在機(jī)器學(xué)習(xí)內(nèi),VA研究和開發(fā)了方法和組織過程,即機(jī)器學(xué)習(xí)開發(fā)生命周期不同階段之間的反饋循環(huán)。以數(shù)據(jù)準(zhǔn)備(Data Preparation)階段為例,包括數(shù)據(jù)獲取和標(biāo)注、而模型工程(Model Engineering)包括架構(gòu)搜索和訓(xùn)練方案,以及質(zhì)量保證(Quality Assurance)。


首先也是最直接的一點(diǎn),VA可以用作Data Preparation階段的質(zhì)量檢查。調(diào)研的重點(diǎn)是在相似或相同的情況下比較數(shù)據(jù)點(diǎn)并檢查相關(guān)標(biāo)簽的一致性。在這一點(diǎn)上,VA也經(jīng)常用于執(zhí)行數(shù)據(jù)集分析,例如,他們調(diào)研和量化不平衡分布,并識別缺失案例,從而反饋給數(shù)據(jù)采集過程。在Data Preparation階段,可以直接報(bào)告和考慮各種見解。


其次,通過訓(xùn)練的模型,VA允許識別機(jī)器學(xué)習(xí)模型的優(yōu)缺點(diǎn),以及其系統(tǒng)性成功或失敗的聚類語義形勢。這些發(fā)現(xiàn)隨后可以反饋到Model Engineering階段,特別是模型定義或模型訓(xùn)練過程。


然而,如果缺乏輸入數(shù)據(jù)或標(biāo)注不足而明顯無法執(zhí)行所需的分析,則可以向Data Preparation階段發(fā)出相應(yīng)的請求。例如,VA可以支持為未來分析建議元數(shù)據(jù)的標(biāo)注過程,以及直接搜索和選擇操作。


這涉及到主動學(xué)習(xí)領(lǐng)域,其中操作員和經(jīng)過訓(xùn)練的機(jī)器學(xué)習(xí)模型的相互作用推動了新數(shù)據(jù)點(diǎn)及其標(biāo)簽的選擇。同樣,直觀可視化技術(shù)與可解釋AI領(lǐng)域也有重疊,其目的之一是為難以解釋的機(jī)器學(xué)習(xí)模型導(dǎo)出清晰的視覺表征。


總結(jié)一下VA過程:首先是 overview,然后是 zoom 和 filter,然后是details- on-demand。這基本定義了任何VA方法的主要組成部分:可視化、選擇和搜索等方法。


VA是一個(gè)視覺技術(shù)得到極大發(fā)展的領(lǐng)域,可以更好地理解數(shù)據(jù)、模型構(gòu)建和模型決策。在自動駕駛這樣的安全-緊要領(lǐng)域,模型的透明度和問責(zé)制(accountability)非常重要。DNN在自動駕駛領(lǐng)域的利用率越來越高,這就需要開發(fā)出能夠回答模型得出一定結(jié)論“為什么”和“為什么不”問題的技術(shù)。


在機(jī)器學(xué)習(xí)流水線的所有階段使用VA技術(shù),可以幫助專家更好地理解他們構(gòu)建的目標(biāo)檢測模型優(yōu)缺點(diǎn)。VA系統(tǒng)為構(gòu)建 human-in-the-loop AI系統(tǒng)打開了一扇門,這有助于開發(fā)更好的感知模型。也提供視覺解釋,例如“為什么一個(gè)目標(biāo)被檢測為人”,為什么不是狗。通過VA的技術(shù),能夠?yàn)楦兄?、形勢解釋或?guī)劃任務(wù)建立更好的數(shù)據(jù)集。

7.2 顯著圖:作者是Hellert

熱映射(heat mapping)、像素屬性或顯著性(saliency)圖是獲得可解釋視覺表征的方法。這些方法正在生成熱圖,指示特定輸入樣本或一組輸入樣本中輸入像素與輸出的相關(guān)性。如圖顯示了顯著性圖的兩個(gè)示例:紅和藍(lán)分別代表顯著性的正和負(fù)。

圖片


因此,這些圖可以直接用于手工解釋或調(diào)試。有兩種關(guān)于locality的方法,在可解釋人工智能(XAI,Explainable Artificial Intelligence)的背景下,即局部和全局locality。局部方法僅對樣本子集解釋ML模型或再受限輸入數(shù)據(jù)空間解釋特定行為。


顯著性圖方法屬于局部locality范疇,通常在非常相似的樣本上用局部方法來評估模型是否對相同線索進(jìn)行預(yù)測。例如,在行人分類,假設(shè)頭部或身體等特定區(qū)域?qū)Ψ诸惤Y(jié)果很重要。全局XAI方法試圖解釋完整機(jī)器學(xué)習(xí)模型的行為。例如,圖像分類任務(wù),對于一個(gè)類來說,應(yīng)該由多個(gè)部分組成。這些部分的每一個(gè)都被視為概念,全局方法將揭示一個(gè)類所有樣本之間共享的概念。這些概念本身可以在語義上進(jìn)行解釋,就類別而言,車輛概念可以是輪胎、車窗或車燈。


此外,顯著性圖方法可以是模型特定或模型不可知。模型特定方法只能用于特定模型,例如CNN,而模型不可知方法將機(jī)器學(xué)習(xí)模型視為黑盒。通常,特定模型方法使用梯度,不可知模型方法使用擾動方法。下表給出顯著圖方法的概述:

圖片


這個(gè)表中列出的幾乎所有方法都可以用做感知的局部解釋。大多數(shù)方法可以應(yīng)用于解決分類任務(wù)的模型,但其中一些方法已經(jīng)或可以適用于目標(biāo)檢測,這是解決自動駕駛車輛中感知的主要任務(wù)。通常,局部解釋用于調(diào)試或改進(jìn)機(jī)器學(xué)習(xí)模型的性能,但這些方法的結(jié)果也可以在輸入受干擾(例如,相機(jī)鏡頭的污垢)時(shí)給出感知組件魯棒性的提示。


總的來說,所有方法都有一個(gè)主要缺點(diǎn):它們只能對特定的輸入進(jìn)行局部解釋,不可能泛化觀察結(jié)果。但也有人試圖從局部顯著性圖中獲取全局信息。此外,特別是感知,顯著性圖方法的計(jì)算成本也是相當(dāng)可觀的。模型無關(guān)的方法,如RISE或LIME,需要對機(jī)器學(xué)習(xí)模型進(jìn)行多次前向評估,而基于結(jié)構(gòu)或基于梯度的方法,如LRP,只需要對輸出進(jìn)行一次后向傳播。此外,像IG或SmoothGrad這樣的平滑方法也需要一些前向和后向的運(yùn)行,以確保穩(wěn)定性。


顯著性圖不直接適用于形勢解釋。一方面,顯著性圖可用于獲得目標(biāo)之間的互連,其中某些特征有助于多個(gè)目標(biāo)實(shí)例。另一方面,熱圖也可以作為額外的不確定性源。當(dāng)然,缺點(diǎn)是額外的計(jì)算成本。對于規(guī)劃,顯著性圖方法也適用,如果可以處理表格數(shù)據(jù),對一些組件來說確實(shí)如此。因此,在自動駕駛車的預(yù)測軌跡,可以估計(jì)目標(biāo)實(shí)例的重要性。這也讓內(nèi)部人士了解自動駕駛車和其他道路參與者的行為。從形式上講,如果預(yù)測軌跡符合一組規(guī)則,則可以執(zhí)行健全性(sanity)檢查。此外,可以使用顯著性圖或解釋性方法來揭示哪些目標(biāo)影響了預(yù)測的軌跡。

7.3 可解釋特征學(xué)習(xí):作者是Kraft, Kreuser

基于視覺的機(jī)器學(xué)習(xí)模型性能,在很大程度上取決于它們的特征表征。計(jì)算機(jī)視覺領(lǐng)域的早期工作集中于開發(fā)手工特征,如HOG。隨著深度學(xué)習(xí)的出現(xiàn),特征表征可以從訓(xùn)練數(shù)據(jù)中自動學(xué)習(xí),不再需要手動調(diào)整。已經(jīng)證明,自動學(xué)習(xí)的特征比經(jīng)典的手工設(shè)計(jì)有很大的優(yōu)勢,尤其是在圖像分類和目標(biāo)檢測方面。


然而,在最先進(jìn)的深度學(xué)習(xí)模型中發(fā)現(xiàn)的特征表示通常很難被人類理解和解釋。這通常是其大維度和高復(fù)雜性造成的。Explainability & Interpretability 是非常重要的安全要求,因?yàn)樵诎踩?緊要系統(tǒng)部署到實(shí)際應(yīng)用程序之前,必須能夠理解其局限性。因此,深度學(xué)習(xí)模型不透明的黑盒子性質(zhì)很難滿足這些需求。尤其是AI自動駕駛等應(yīng)用,任何預(yù)測錯(cuò)誤都可能產(chǎn)生嚴(yán)重后果。


一種神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)可解釋特征的方法,是基于解糾纏(disentangled)表征。解糾纏表征法的思想是訓(xùn)練神經(jīng)網(wǎng)絡(luò),識別彼此不影響有意義的輸入特性。因此,如果一個(gè)輸入屬性發(fā)生更改,其他屬性基本上不會受到影響。


解糾纏表征的目的是解脫(disentangle)潛特征空間,并將其與預(yù)定義的概念對齊。這是通過學(xué)習(xí)一個(gè)白化矩陣來實(shí)現(xiàn)的,該矩陣對數(shù)據(jù)進(jìn)行去相關(guān)和標(biāo)準(zhǔn)化,并沿潛空間軸最大限度地激活已知概念??偟膩碚f,有不同的方法來實(shí)現(xiàn)解糾纏表征。非監(jiān)督方法直接從數(shù)據(jù)中提取變化因子,而監(jiān)督方法則使用具有所需語義屬性的數(shù)據(jù)。


可解釋性是自動駕駛中目標(biāo)檢測任務(wù)的重要前提。檢測(2D或3D)通常類似于基于攝像頭的場景感知主干。由于自動駕駛是一種安全-緊要應(yīng)用,因此需要可解釋的目標(biāo)檢測。其中一個(gè)挑戰(zhàn)是,許多方法只關(guān)注圖像分類任務(wù)。因此,研究如何在目標(biāo)檢測任務(wù)中擴(kuò)展或改進(jìn)這些方法將是一件有趣的事情。

自動駕駛車輛是安全-緊要系統(tǒng),這意味著其故障可能具有嚴(yán)重的后果,例如,當(dāng)行人被檢測系統(tǒng)忽略時(shí)。因此,必須確保安全可靠地運(yùn)行。尤其是應(yīng)符合現(xiàn)有的安全原則和知識。其中一個(gè)原則是識別和處理不確定性,即可能導(dǎo)致系統(tǒng)以不可預(yù)測的方式運(yùn)行的因素。


另一個(gè)原則是可解釋性,也就是說,理想情況下,人類應(yīng)該能夠理解系統(tǒng)為什么做出特定的決定。為了改善這一點(diǎn),DL系統(tǒng)的決策過程應(yīng)該與人類決策更加一致,因果推理是人類決策的核心組成部分。


還有一個(gè)方面是符合有關(guān)自動駕駛汽車環(huán)境的現(xiàn)有知識。特別是,環(huán)境受到某些規(guī)則的約束,例如交通法規(guī)、自然法或人類常識。

8.1 不確定性估計(jì):作者是Pintz, Wirth, Houben

傳統(tǒng)的機(jī)器學(xué)習(xí)算法,如神經(jīng)網(wǎng)絡(luò),只能預(yù)測單個(gè)最佳估計(jì)。默認(rèn)情況下,不提供該單一估計(jì)正確的任何概率,也不提供所有可能估計(jì)正確的概率,即輸出空間的分布。因此,無論是分類任務(wù)的(可靠)正確性概率,還是回歸任務(wù)預(yù)測范圍的測度,都不可用。然而,這些信息與自動駕駛等安全-緊要應(yīng)用高度相關(guān)。


正確性或范圍的衡量能確定下游任務(wù)使用預(yù)測是否安全,以及在多大程度上安全。此外,系統(tǒng)可能會識別輸入何時(shí)偏離操作設(shè)計(jì)域(ODD),因此可能無法正確處理。此外,根據(jù)用例的不同,可以使用數(shù)字限制來“謹(jǐn)慎地犯錯(cuò)”或“樂觀地犯錯(cuò)”。例如,在視覺目標(biāo)檢測時(shí),應(yīng)該對“免費(fèi)停車”標(biāo)志持保守態(tài)度(例如,如果肯定,只預(yù)測),但即使不確定,也應(yīng)該預(yù)測行人。


特別是在城市場景中,還必須考慮道路使用者確切位置的不確定性,并根據(jù)可能的定位誤差保持一定距離。在考慮其他道路使用者的軌跡預(yù)測時(shí),還需要能夠?qū)Ω叨炔煌目赡苄宰龀龇磻?yīng)(如轉(zhuǎn)彎與直行),這需要根據(jù)正確性概率進(jìn)行多個(gè)估計(jì)。此外,一些先進(jìn)的機(jī)器學(xué)習(xí)方法,如主動學(xué)習(xí)或持續(xù)學(xué)習(xí),明確要求某種形式的置信度或不確定性估計(jì)。


通??紤]兩種不同類型的不確定性:任意(aleatoric)不確定性和認(rèn)知(epistemic)不確定性。任意不確定性與數(shù)據(jù)相關(guān)有關(guān),這意味著不能用更好的模型或更多的數(shù)據(jù)(例如,觀測噪聲或缺乏最佳解決問題的信息)來“解釋”。認(rèn)知不確定性是由機(jī)器學(xué)習(xí)模型及其訓(xùn)練的局限性引起的,理論上可以通過更多的數(shù)據(jù)或更好的方法消除。


在不確定性估計(jì)中,尋求在機(jī)器學(xué)習(xí)模型中找到描述不確定性的分布。分布通常在模型參數(shù)空間(用于描述認(rèn)知不確定性)或輸出空間(描述任意性不確定性或任意性與認(rèn)知的不確定性組合)中。


確定性方法不需要蒙特卡羅采樣進(jìn)行推理,只需一次前向傳播即可提供不確定性估計(jì)。這些方法避免了采樣的固有成本,但可能會大幅增加網(wǎng)絡(luò)的內(nèi)存占用和操作數(shù)。因此要么計(jì)算成本高,要么僅在特定模型假設(shè)下工作,比如特定的激活函數(shù)。


確定性方法通過單個(gè)前向傳播提供不確定性估計(jì)的能力,通常伴隨著對不確定性分布的限制(例如,參數(shù)模型)?;诓蓸拥姆椒ㄔ试S近似得到更靈活、更復(fù)雜的分布。為此目的,一個(gè)通用工具是蒙特卡洛集成。例如,近似任意復(fù)雜的預(yù)測分布。這一想法產(chǎn)生了多種方法,試圖從后驗(yàn)分布獲得樣本。此外,還有一些采用蒙特卡洛集成的非貝葉斯方法。


預(yù)測不確定性表示的方法,除了機(jī)器學(xué)習(xí)模型的原始性能指標(biāo)外,還可引入一些額外的質(zhì)量指標(biāo),如分類率、均方根誤差、平均精度等??梢杂眠m當(dāng)?shù)脑u分規(guī)則來評估不確定性估計(jì)的質(zhì)量,其量化了預(yù)測分布與給定真實(shí)數(shù)據(jù)點(diǎn)的對齊情況。當(dāng)預(yù)測分布與數(shù)據(jù)分布一致時(shí),該估計(jì)達(dá)到最佳。常用的正確評分規(guī)則包括負(fù)對數(shù)似然(NLL)、Brier評分(用于分類)或連續(xù)排序概率評分(CRPS,Continuous Ranked Probability Score)。


另一種評估不確定性估計(jì)的方法,提供了標(biāo)定框架。通常標(biāo)定測量的是,類概率或置信區(qū)間估計(jì)是否符合實(shí)際模型誤差。經(jīng)過標(biāo)定的分類器滿足所有類預(yù)測,正確預(yù)測的分?jǐn)?shù)為p,且估計(jì)類概率為p??梢杂妙A(yù)期標(biāo)定誤差(ECE,Expected Calibration Error)對特性進(jìn)行定量評估。需要注意的是,ECE受到多種反常變化的影響,應(yīng)明確考慮。


通過比較類概率和分類準(zhǔn)確度的可靠性圖,可以進(jìn)行一個(gè)定性評估。對于回歸模型(基于真值輸出如何符合預(yù)測置信區(qū)間)和某些應(yīng)用領(lǐng)域(如目標(biāo)檢測),也存在類似的標(biāo)定概念。為了進(jìn)行更嚴(yán)格的評估,可能希望標(biāo)定屬性不僅適用于整個(gè)(評估)數(shù)據(jù)集,而且適用于數(shù)據(jù)集的局部區(qū)域,這是由對抗性組標(biāo)定捕獲的。


還可以在輔助任務(wù)中測量不確定性估計(jì)性能,例如數(shù)據(jù)外檢測(out-of-data-detection)。將真檢測與假檢測或輸入與輸出數(shù)據(jù)分離是一項(xiàng)二元分類任務(wù),其中類別通過閾值不確定性估計(jì)來確定。因此,可以對二元閾值分類器采用標(biāo)準(zhǔn)評估方法,包括繪制精度-召回或Receiver Operating Characteristic(ROC)曲線進(jìn)行定性評估,或計(jì)算平均精度或Receiver Operating Characteristic(ROC)曲線下的面積。


另一種方法是比較每類輸入(如in-data或out-of-data)的不確定性估計(jì)直方圖(如方差或預(yù)測熵)。在技術(shù)應(yīng)用中,計(jì)算復(fù)雜度,即與單點(diǎn)估計(jì)相比計(jì)算不確定性估計(jì)的開銷,以及延遲,即計(jì)算復(fù)雜度中無法有效并行或流水線的部分,因此導(dǎo)致額外的推斷時(shí)間,也被考慮到評估中。


在特定應(yīng)用場景中進(jìn)行不確定性評估的主要挑戰(zhàn)包括:根據(jù)規(guī)則對專門層的處理,將不確定性納入預(yù)處理/后處理步驟,處理異常數(shù)據(jù)結(jié)構(gòu),利用特定任務(wù)的假設(shè)和效率。

8.2 因果推理:作者是Latka

“如果我選擇A路而不是B路,我會早點(diǎn)到達(dá)目的地嗎?”這樣的查詢,看起來很熟悉,是人類推理的一個(gè)例子。上述例子可歸因于因果論證(CR)的概念,這是因果推理(CI)的一個(gè)子類,也涉及因果發(fā)現(xiàn)(CD),即從數(shù)據(jù)推斷因果關(guān)系,并將其編碼為因果模型。


對于數(shù)學(xué)上等價(jià)的因果模型,有兩種常見的描述框架:

  1. Rubin因果模型(也稱為Neyman-Rubin因果模型或Neyman和Rubin的潛效果框架)

  2. 結(jié)構(gòu)因果模型(SCM)。

Neyman和Rubin的潛效果框架僅采用反事實(shí)(counterfactual)表示法,而SCM則明確使用DAG的圖形表征法,反事實(shí)表達(dá)式可以從中推斷出來,如下圖所示:SCM由一組因果機(jī)制(fX和fY)和一個(gè)DAG組成,DAG模擬變量之間的因果關(guān)系流(有向箭頭)。這里SCM由原因(X)及其效果(Y)組成,兩者都被潛變量(U)打敗。為了清晰起見,這里省略了與外部噪聲變量εX和εY相關(guān)的節(jié)點(diǎn)。

圖片


SCM的關(guān)鍵特征是,將每個(gè)變量表示為其直接原因以及原因不在SCM范圍內(nèi)的潛外部不確定性變量(εX、εY和U)的確定性函數(shù)(fX和fY)。


根據(jù)定義,因果推理是從因果模型中得出結(jié)論的過程,類似于概率論對隨機(jī)實(shí)驗(yàn)結(jié)果進(jìn)行推理的方式。然而,由于因果模型被認(rèn)為是數(shù)據(jù)生成過程,比概率模型包含更多信息,因此更強(qiáng)大,允許分析干預(yù)或分布變化對目標(biāo)變量的影響。


給因果模型提出的問題稱為因果查詢,是因果推理的核心,可以分為三個(gè)日益復(fù)雜的因果層次:

  1. 關(guān)聯(lián)(相關(guān)性),

  2. 干預(yù)(積極改變因果機(jī)制),

  3. 反事實(shí)(回溯推理)。

剛剛描述的因果層次(Causal Hierarchy)結(jié)構(gòu)也經(jīng)常被稱為Pearl’s Ladder of Causation,如下表所示:

圖片

除此之外,還有不同類型的因果推理:

  • ?預(yù)測(及時(shí)推理),

  • ?外展(從證據(jù)到解釋的推理),

  • ?轉(zhuǎn)導(dǎo)(通過共同原因進(jìn)行推理),

  • ?歸納(從經(jīng)驗(yàn)到因果知識)。

8.3 規(guī)則一致性:作者是Vivekanandan, Bu?hrle, Ko?nigshof

  • 規(guī)則一致性的定義

根據(jù)ISO 9000:2000標(biāo)準(zhǔn),符合性(conformity)定義為滿足某些要求。規(guī)則是從當(dāng)?shù)胤珊蜕鐣袨榻Y(jié)構(gòu)中衍生出來的一組正式代碼,同時(shí)有效地考慮了算法的操作設(shè)計(jì)域(ODD)。試圖對行動可能導(dǎo)致的風(fēng)險(xiǎn)進(jìn)行分類,遵守規(guī)則是一個(gè)至關(guān)重要的因素,這使自動駕駛汽車(AVs)不僅對乘客安全、而且對行人和騎自行車者等其他交通參與者安全負(fù)責(zé)。


對交通規(guī)則子集形式化,將優(yōu)先級與車輛相關(guān)聯(lián),不僅可以實(shí)現(xiàn)合規(guī)行為,還可以將車輛保持在安全狀態(tài)。

  • 規(guī)則和安全

可以定義一些數(shù)學(xué)規(guī)則,將常識概念/行為,例如保持車輛之間的安全間距、并入的安全行為,以及避免可能導(dǎo)致碰撞的操縱等形式化。根據(jù)ODD,可以根據(jù)形式規(guī)則對行為進(jìn)行廣泛分類;這些規(guī)則由法律規(guī)定,也可以從環(huán)境中衍生出來,包括停車標(biāo)志、適當(dāng)速度標(biāo)志、雙實(shí)線車道或虛線車道等標(biāo)志。其中每一條規(guī)則都簡要定義了需要整合到模型學(xué)習(xí)過程中的規(guī)律。


另一方面,與法律明確規(guī)定的規(guī)則相比,非正式規(guī)則很難公式化,但需要遵守,以避免碰撞或(和)提高乘客的舒適性。例如,給緊急車輛讓路時(shí)候,可以穿過實(shí)線,或在交叉口處闖紅燈,如果為救護(hù)車留出一個(gè)通道。在這種情況下,如果存在違反規(guī)則不會同時(shí)危及乘客和Vulnerable Road Users(VRU)的機(jī)動,在嚴(yán)格遵守安全要求情況下,可執(zhí)行規(guī)定優(yōu)先級的機(jī)動。

  • 順從但是有常識可循

對于自動駕駛車來說,何時(shí)遵守或放松規(guī)則是一個(gè)復(fù)雜的決策過程,能認(rèn)識到此類行為的情況本身需要通用智力(General Intelligence),而由于隱含的常識概念,人類可以具有這種智力。


考慮一個(gè)例子,即在右側(cè)車道行駛的相鄰車輛意外并入的情況下,如何實(shí)現(xiàn)無碰撞操縱。為了產(chǎn)生順從行為,該算法應(yīng)該尊重下面迭代的屬性。這個(gè)層次結(jié)構(gòu)是從自車角度定義的,遵循一個(gè)簡單的自行車模型。

  1. 通過預(yù)測網(wǎng)絡(luò)檢測和跟蹤周圍的目標(biāo),該網(wǎng)絡(luò)根據(jù)目標(biāo)類別考慮不確定性。例如,與運(yùn)動程度較高的行人相比,騎自行車人可能會散發(fā)不同的狀態(tài)。

  2. 計(jì)算正式規(guī)則定義的安全橫向和縱向間隙。

  3. 基于2;一條連續(xù)的軌跡,不僅符合交通規(guī)則,而且為相關(guān)乘客和VRU提供安全和舒適性保證。

  • a) 如果不存在這樣的有效路徑,則應(yīng)優(yōu)先考慮下一個(gè)最佳計(jì)劃,該計(jì)劃可以以最佳成本進(jìn)行切換。

  • b) 備選計(jì)劃可以(多模態(tài)軌跡預(yù)測)預(yù)先計(jì)算,方法是確保在放松法規(guī)的順從性約束與乘客的安全之間保持微妙的平衡。例如,如果穿越雙實(shí)線車道可以拯救生命,那么就應(yīng)該采取行動。

  • c) 還應(yīng)評估將車輛置于最低風(fēng)險(xiǎn)狀態(tài)(MRC,Minimal Risk Condition),使車輛處于安全狀態(tài)。

在這項(xiàng)工作的當(dāng)前范圍內(nèi),不考慮不確定性的影響以及與人類生活有關(guān)的倫理問題。通常,這些規(guī)劃應(yīng)該在不確定性的情況下計(jì)算,減少現(xiàn)實(shí)世界帶來的風(fēng)險(xiǎn)。

  • 約束和一致性

定義輸出空間的上下界,在學(xué)習(xí)函數(shù)嵌入約束,是確保神經(jīng)網(wǎng)絡(luò)符合特定目標(biāo)的直接方法?,F(xiàn)代自動駕駛車?yán)脵C(jī)器學(xué)習(xí)模型,通過正則化和優(yōu)化用基于隨機(jī)梯度下降的算法進(jìn)行訓(xùn)練;在子空間中設(shè)置軟約束。這里,正則化是一組用于微調(diào)預(yù)期行為的規(guī)則。


另一方面,當(dāng)硬約束是神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的一部分時(shí),網(wǎng)絡(luò)應(yīng)注意所涉及的物理性,其預(yù)測不應(yīng)偏離所施加的上述約束。期望網(wǎng)絡(luò)的輸出僅限于物理子空間,確保符合給定的邊界。與通過軟約束訓(xùn)練的神經(jīng)網(wǎng)絡(luò)相比,物理原理引導(dǎo)的網(wǎng)絡(luò)從不偏離邊界,從而隱式地尊重邊界。


通過對系統(tǒng)的時(shí)域?qū)傩赃M(jìn)行推理,可以將規(guī)則的一致性重新表述為約束滿足問題。確保規(guī)劃運(yùn)行期間車輛的安全是一項(xiàng)關(guān)鍵任務(wù),這樣就可以減輕可能發(fā)生的碰撞。因此,以時(shí)域邏輯的形式表達(dá)規(guī)則并滿足這些規(guī)范,用Signal Temporal Logic(STL)驗(yàn)證系統(tǒng)屬性,其中檢查和驗(yàn)證規(guī)則的形式一致性。


盡管如此,有不同的方法通過Linear Temporal Logic(LTL)以關(guān)系層次結(jié)構(gòu)的形式定義規(guī)則。這使得人們能夠靈活地描述規(guī)則之間的相對優(yōu)先級,從而向規(guī)劃者發(fā)出控制命令,根據(jù)規(guī)范,這些命令被視為符合要求。這些可擴(kuò)展的“規(guī)則手冊”可以在一定程度上明確地捕捉自動駕駛環(huán)境中的常識和非正式規(guī)則。

-----完------

 

分享到:
 
反對 0 舉報(bào) 0 收藏 0 評論 0
滬ICP備11026917號-25