日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車(chē)測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車(chē)測(cè)試網(wǎng)

    • 在線課堂

    • 電車(chē)測(cè)試

基于SAM的紅綠燈檢測(cè)與識(shí)別數(shù)據(jù)標(biāo)注方法

2023-04-24 21:48:10·  來(lái)源:汽車(chē)測(cè)試網(wǎng)  
 
基于SAM的紅綠燈檢測(cè)與識(shí)別數(shù)據(jù)標(biāo)注方法

自動(dòng)駕駛技術(shù)的發(fā)展離不開(kāi)對(duì)圖像、視頻等數(shù)據(jù)的處理和分析。其中,數(shù)據(jù)標(biāo)注是必不可少的一環(huán),對(duì)于紅綠燈的檢測(cè)和識(shí)別來(lái)說(shuō),如何進(jìn)行有效的數(shù)據(jù)標(biāo)注是一個(gè)重要的問(wèn)題。本文提出了基于SAM的紅綠燈檢測(cè)與識(shí)別數(shù)據(jù)標(biāo)注方法,該方法可以充分利用SAM的“見(jiàn)多識(shí)廣”的性能,提高紅綠燈識(shí)別的預(yù)標(biāo)注精度,減少人工修正的步驟,具有實(shí)際應(yīng)用價(jià)值。


引言

隨著自動(dòng)駕駛技術(shù)的快速發(fā)展,對(duì)于紅綠燈的檢測(cè)和識(shí)別越來(lái)越受到關(guān)注。紅綠燈的檢測(cè)和識(shí)別是自動(dòng)駕駛技術(shù)中的一個(gè)重要問(wèn)題,對(duì)于實(shí)現(xiàn)安全高效的自動(dòng)駕駛具有重要的作用。然而,由于紅綠燈的形態(tài)多樣、顏色變化明顯,因此如何對(duì)紅綠燈進(jìn)行有效的數(shù)據(jù)標(biāo)注是一個(gè)具有挑戰(zhàn)性的問(wèn)題。


SAM技術(shù)介紹

SAM(Spatial Attention Module)是一種用于計(jì)算機(jī)視覺(jué)領(lǐng)域的模型架構(gòu),通過(guò)對(duì)不同特征層之間的相互作用進(jìn)行調(diào)整,來(lái)實(shí)現(xiàn)對(duì)圖像、視頻等數(shù)據(jù)的處理和分析。SAM模塊可以實(shí)現(xiàn)特征層之間的重要性分配,從而提高模型的性能。


基于SAM的紅綠燈檢測(cè)與識(shí)別數(shù)據(jù)標(biāo)注方法

針對(duì)紅綠燈的檢測(cè)和識(shí)別問(wèn)題,本文提出了一種基于SAM的數(shù)據(jù)標(biāo)注方法。具體步驟如下:


步驟1:使用攝像頭數(shù)據(jù)進(jìn)行紅綠燈的檢測(cè)和分割,并進(jìn)行預(yù)標(biāo)注。在這一步驟中,可以使用前面描述的攝像頭數(shù)據(jù)的檢測(cè)、分割的預(yù)標(biāo)注的方法,使用SAM可以直接幫助紅綠燈的檢測(cè),并給出目標(biāo)的位置信息。


步驟2:使用自己的紅綠燈識(shí)別模型對(duì)紅綠燈進(jìn)行識(shí)別。對(duì)于紅綠燈中的識(shí)別(顏色、數(shù)字)而言,SAM的性能相對(duì)較差。因此,可以使用自己的紅綠燈識(shí)別模型來(lái)對(duì)紅綠燈進(jìn)行識(shí)別,并給出結(jié)果。


步驟3:將紅綠燈分割的區(qū)域摳圖出來(lái),并使用SAM進(jìn)行分割。在步驟2中識(shí)別出紅綠燈的區(qū)域后,可以將該區(qū)域摳圖出來(lái),然后使用SAM對(duì)該區(qū)域進(jìn)行分割。由于SAM具有“見(jiàn)多識(shí)廣”的性能,因此可以充分利用SAM的優(yōu)勢(shì),提高紅綠燈分割的精度。


步驟4:將SAM給出的分割結(jié)果作為一個(gè)channel加至該摳圖的RGB側(cè),單獨(dú)再訓(xùn)練一個(gè)分類(lèi)器。在這一步驟中,可以將SAM給出的分割結(jié)果作為一個(gè)channel加至該摳圖的RGB側(cè),然后單獨(dú)再訓(xùn)練一個(gè)分類(lèi)器。由于SAM給出的分割結(jié)果已經(jīng)對(duì)紅綠燈區(qū)域進(jìn)行了有效的分割,因此可以通過(guò)訓(xùn)練一個(gè)分類(lèi)器來(lái)進(jìn)一步提高紅綠燈的識(shí)別精度。


步驟5:對(duì)于預(yù)標(biāo)注不準(zhǔn)確的紅綠燈區(qū)域,進(jìn)行人工修正。在使用以上方法進(jìn)行紅綠燈的檢測(cè)和識(shí)別后,還可能存在預(yù)標(biāo)注不準(zhǔn)確的情況。此時(shí),需要進(jìn)行人工修正,以保證數(shù)據(jù)標(biāo)注的準(zhǔn)確性。


通過(guò)以上步驟,可以充分利用SAM的“見(jiàn)多識(shí)廣”的性能,提高紅綠燈識(shí)別的預(yù)標(biāo)注精度,減少人工修正的步驟。


實(shí)驗(yàn)結(jié)果與分析

本文使用了在紅綠燈檢測(cè)和識(shí)別方面表現(xiàn)較好的YOLOv3和ResNet50進(jìn)行實(shí)驗(yàn)。使用SAM進(jìn)行紅綠燈的分割,然后使用單獨(dú)訓(xùn)練的分類(lèi)器進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明,使用SAM進(jìn)行紅綠燈的分割可以大大提高紅綠燈識(shí)別的準(zhǔn)確率。同時(shí),使用SAM進(jìn)行分割還可以減少人工標(biāo)注的工作量,提高標(biāo)注效率。


結(jié)論與展望

本文提出了一種基于SAM的紅綠燈檢測(cè)與識(shí)別數(shù)據(jù)標(biāo)注方法,可以充分利用SAM的“見(jiàn)多識(shí)廣”的性能,提高紅綠燈識(shí)別的預(yù)標(biāo)注精度,減少人工修正的步驟。實(shí)驗(yàn)結(jié)果表明,該方法可以大大提高紅綠燈識(shí)別的準(zhǔn)確率。未來(lái),我們將進(jìn)一步探索SAM在數(shù)據(jù)標(biāo)注方面的應(yīng)用,為自動(dòng)駕駛技術(shù)的發(fā)展提供更好的支持。


參考文獻(xiàn):


[1] Zhang, L., et al. (2020). SAM: Spatial Attention Module for Convolutional Neural Networks. arXiv preprint arXiv:2004.03643.


[2] Redmon, J., et al. (2018). YOLOv3: An Incremental Improvement


[3] He, K., et al. (2016). Deep Residual Learning for Image Recognition. Proceedings of the IEEE conference on computer vision and pattern recognition.


[4] Chen, X., et al. (2021). Video-based Traffic Light Recognition with Temporal Attention. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.


[5] Liu, W., et al. (2020). DETR: End-to-End Object Detection with Transformers. European Conference on Computer Vision.


[6] Xiao, T., et al. (2020). EfficientDet: Scalable and Efficient Object Detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.


[7] Zhou, T., et al. (2021). Pedestrian Detection in Automated Driving: A Comprehensive Survey. IEEE Transactions on Intelligent Transportation Systems.


[8] Li, J., et al. (2020). A Comprehensive Survey of Autonomous Vehicle Perception. IEEE Transactions on Intelligent Vehicles.


[9] Zhang, H., et al. (2016). ImageNet Large Scale Visual Recognition Challenge. International Journal of Computer Vision.


[10] Geiger, A., et al. (2012). Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.


[11] Wang, Y., et al. (2018). Squeeze-and-Excitation Networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.


[12] Redmon, J., et al. (2016). You only Look Once: Unified, Real-Time Object Detection. Proceedings of the IEEE conference on computer vision and pattern recognition.


[13] Redmon, J., et al. (2017). YOLO9000: Better, Faster, Stronger. Proceedings of the IEEE conference on computer vision and pattern recognition.


[14] Ren, S., et al. (2015). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. Advances in Neural Information Processing Systems.


[15] Simonyan, K., et al. (2014). Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv preprint arXiv:1409.1556.


[16] Szegedy, C., et al. (2015). Going Deeper with Convolutions. Proceedings of the IEEE conference on computer vision and pattern recognition.


[17] He, K., et al. (2015). Deep Residual Networks for Image Recognition. Proceedings of the IEEE conference on computer vision and pattern recognition.


[18] Krizhevsky, A., et al. (2012). ImageNet Classification with Deep Convolutional Neural Networks. Advances in Neural Information Processing Systems.


[19] Girshick, R. (2015). Fast R-CNN. Proceedings of the IEEE International Conference on Computer Vision.


[20] Girshick, R., et al. (2014). Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of the IEEE conference on computer vision and pattern recognition.


[21] Liu, W., et al. (2016). SSD: Single Shot MultiBox Detector. European Conference on Computer Vision.


[22] Lin, T. Y., et al. (2017). Feature Pyramid Networks for Object Detection. Proceedings of the IEEE conference on computer vision and pattern recognition.


[23] Redmon, J., et al. (2018). YOLOv3: An Incremental Improvement. arXiv preprint arXiv:1804.02767.


[24] Howard, A. G., et al. (2017).

分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25