en
×

分享给微信好友或者朋友圈

使用微信“扫一扫”功能。
作者简介:

胡序洋,男,硕士生,研究方向为智能交通、计算机视觉.1102778734@qq.com;

高尚兵(通信作者),男,博士,教授,研究方向为机器学习、计算机视觉、模式识别和数据挖掘.luxiaofen-2002@126.com

中图分类号:TP391.4

文献标识码:A

DOI:10.13878/j.cnki.jnuist.2022.05.006

参考文献 1
杨弋鋆,邵文泽,王力谦,等.面向智能驾驶视觉感知的对抗样本攻击与防御方法综述[J].南京信息工程大学学报(自然科学版),2019,11(6):651-659;YANG Yijun,SHAO Wenze,WANG Liqian,et al.A survey of adversarial attacks and defenses on visual perception in automatic driving[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2019,11(6):651-659
参考文献 2
刘源,周聪玲,刘永才,等.基于边缘特征点聚类的车道线检测[J].科学技术与工程,2019,19(27):247-252;LIU Yuan,ZHOU Congling,LIU Yongcai,et al.Lane detection based on edge feature points clustering[J].Science Technology and Engineering,2019,19(27):247-252
参考文献 3
吕侃徽,张大兴.基于改进Hough变换耦合密度空间聚类的车道线检测算法[J].电子测量与仪器学报,2020,34(12):172-180;LÜ Kanhui,ZHANG Daxing.Lane detection algorithm based on improved Hough transform coupled density space clustering[J].Journal of Electronic Measurement and Instrumentation,2020,34(12):172-180
参考文献 4
Hou Y N,Ma Z,Liu C X,et al.Learning lightweight lane detection CNNs by self attention distillation[C]//2019 IEEE/CVF International Conference on Computer Vision(ICCV).October 27-November 2,2019,Seoul,Korea(South).IEEE,2019:1013-1021
参考文献 5
Ko Y,Lee Y,Azam S,et al.Key points estimation and point instance segmentation approach for lane detection[J].IEEE Transactions on Intelligent Transportation Systems,2021.DOI:10.48550/arXiv.2002.06604
参考文献 6
Su J M,Chen C,Zhang K,et al.Structure guided lane detection[C]//Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence.August 19-27,2021.Montreal,Canada.California:International Joint Conferences on Artificial Intelligence Organization,2021.DOI:10.24963/ijcai.2021/138
参考文献 7
Chen L C,Zhu Y K,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//European Conference on Computer Vision,2018:833-851
参考文献 8
Tan M X,Le Q V.EfficientNet:rethinking model scaling for convolutional neural networks [C]//International Conference on Machine Learning,2019:6105-6114
参考文献 9
Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J].arXiv e-print,2014,arXiv:1409.1556
参考文献 10
Chaudhari S,Mithal V,Polatkan G,et al.An attentive survey of attention models[J].ACM Transactions on Intelligent Systems and Technology,2021,12(5):1-32
参考文献 11
Wang Q L,Wu B G,Zhu P F,et al.ECA-net:efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 13-19,2020,Seattle,WA,USA.IEEE,2020:11531-11539
参考文献 12
Hu J,Shen L,Sun G.Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:7132-7141
参考文献 13
Zhang H,Zu K,Lu J,et al.EPSANet:an efficient pyramid split attention block on convolutional neural network[J].arXiv e-print,2021,arXiv:2105.14447
参考文献 14
Hou Q B,Zhou D Q,Feng J S.Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 20-25,2021,Nashville,TN,USA.IEEE,2021:13708-13717
参考文献 15
Szegedy C,Vanhoucke V,Ioffe S,et al.Rethinking the inception architecture for computer vision[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:2818-2826
参考文献 16
黎江,许明慧,张羽.基于Mask R-CNN的遥感影像土地分割与轮廓提取[J].南京信息工程大学学报(自然科学版),2021,13(1):116-123;LI Jiang,XU Minghui,ZHANG Yu.Land segmentation and contour extraction of remote sensing image based on Mask R-CNN[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2021,13(1):116-123
参考文献 17
何春明,许磊,卢国胜,等.基于模糊熵的GLLE熵阈值分割方法[J].南京信息工程大学学报(自然科学版),2019,11(6):757-763;HE Chunming,XU Lei,LU Guosheng,et al.GLLE entropic threshold segmentation based on fuzzy entropy[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2019,11(6):757-763
参考文献 18
赵远东,胡为尧.人工神经网络泛化性能改进[J].南京信息工程大学学报(自然科学版),2011,3(2):164-167;ZHAO Yuandong,HU Weiyao.Improve the generalization capability of artificial neural network[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2011,3(2):164-167
参考文献 19
Pan X G,Shi J P,Luo P,et al.Spatial as deep:spatial CNN for traffic scene understanding[C]//Thirty-Second AAAI Conference on Artificial Intelligence,2018:7276-7283
参考文献 20
Goyal A,Bengio Y.Inductive biases for deep learning of higher-level cognition[J].arXiv e-print,2020,arXiv:2011.15091
目录contents

    摘要

    车道线检测在智能交通领域占有重要地位,其检测的准确度和速度对于辅助驾驶以及自动驾驶有重要影响.针对目前深度学习方法识别车道线精度差、速度慢的问题,提出了一种高效的车道线分割方法LaneSegNet.首先基于编码和解码网络原理构建主干网络Lane-Net,用于提取车道线特征信息并分割出车道线;然后使用多尺度空洞卷积特征融合网络,可以极大地扩充模型的感受野,提取全局特征信息;最后使用混合注意力网络获取丰富的车道线特征,并增强与当前任务相关的信息.实验结果表明:在TuSimple数据集上,该方法检测车道线的准确率为97.6%;在CULane数据集上,该方法在标准路面的检测准确率达到92.5%,多种路面综合检测准确率为75.2%.本文提出的LaneSegNet车道线检测方法分割精确度和推理速度优于其他对比模型,且具有更强的适应性和鲁棒性.

    Abstract

    Lane detection plays an important role in intelligent transportation.The accurate and fast lane detection is important for assisted driving and automatic driving.In view of the poor accuracy and slow speed of deep learning methods for lane line recognition,a method abbreviated as LaneSegNet is proposed for efficient lane line segmentation.First,based on the principle of encoding and decoding network,a backbone network Lane-Net is constructed to extract the lane line features and segment the lane lines.Then,the multi-scale dilated convolution feature fusion network is used to greatly expand the receptive field of the model and extract the global features.Finally,the hybrid attention network is used to obtain rich lane line features and enhance the information related to the current task.The experimental results show that the accuracy of this method is 97.6% on TuSimple dataset,while on the CULane dataset,the detection accuracies are 92.5% and 75.2% for standard pavement and multiple pavements,respectively.Compared with other models,the proposed LaneSegNet has better segmentation accuracy and reasoning speed,and has stronger adaptability and robustness.

  • 0 引言

  • 随着人们生活水平的提高,汽车在人们的生活中扮演着越来越重要的角色,汽车保有量逐年增加,交通事故频发.据统计,2020年全年共发生近16万起交通事故,死亡4万多人,受伤近16万人,直接财产损失超过11亿元.为了保障行车安全,避免事故发生,衍生出多种辅助驾驶[1]技术,其中车道线检测是智能驾驶技术中重要的组成部分.车道线检测的准确度和速度决定了智能驾驶系统的性能.

  • 目前,车道线检测的方法主要分为基于传统的车道线检测方法和基于深度学习的检测方法.

  • 基于传统的车道线检测方法主要依赖于高度定义化和手工提取的特征检测车道线.例如:刘源等[2]结合车道线边缘的梯度分布和灰度分布提取特征点提出一种基于边缘特征点聚类的车道线检测算法,根据车道线特征依次进行特征点聚类和区域聚类,再挑选出最优点进行拟合;吕侃徽等[3]使用改进Hough变换和密度空间聚类提出了一种稳健的车道线检测算法,将车道线分解成小线段,再分别进行聚类和检测.传统依赖手工提取特征的车道线检测方法实时性较强,但是只适用于环境简单、车道线无遮挡、光线较为均匀的结构化道路,当道路场景复杂时,检测效果往往不能满足要求.

  • 基于深度学习的检测方法通过深度神经网络对图像中的车道线进行特征提取.例如:SAD[4]算法使用语义分割和知识蒸馏能够增强卷积神经网络的特征表达能力,大幅提升分割效果;PINet[5]模型提出基于关键点的车道线检测,使用较少的参数可以检测任意方向、任意数量的车道线;SGNet[6]算法充分利用车道线相关的结构信息,可以准确描述出车道线并对车道线进行分类和定位.

  • 由于采集设备以及采集环境的不同,采集的道路信息会受到光照、遮挡以及阴影等因素的影响,进而影响车道线检测的准确度.同时,采集的道路图像较为复杂,准确有效的检测车道线仍然存在较大的挑战.本文基于高速公路以及城市内道路结构化的特征,提出一种基于LaneSegNet的高效的车道线检测算法,其流程如图1所示.该算法主要由编解码网络、混合注意力网络、多尺度空洞卷积融合网络组成.首先使用编码网络提取结构化道路的车道线特征,同时通过混合注意力网络增强车道线特征信息,然后通过多尺度空洞卷积融合网络扩大模型的感受野,最后使用解码网络恢复图像至原图大小,实现了车道线的检测.本方法能够实现端到端的车道线检测,能够满足实时性的要求.

  • 图1 总体算法流程

  • Fig.1 Flow chart of overall algorithm

  • 1 相关工作

  • 近年来深度学习在各个领域有广泛应用,深度神经网络在车道线检测领域也取得了很好的效果.本文主要以Lane-Net为主干网络对图像特征进行信息提取和恢复、使用多尺度空洞卷积特征融合网络增大整个网络的感受野、使用混合注意力网络增强本任务相关的特征.

  • 1)主干网络:主干网络的主要功能是尽可能多地提取特征信息.目前图像分割中使用的主干网络主要以编码-解码器为主,DeepLabv3+[7]的编码模块为带有空洞卷积的DCNN,其后为带有空洞卷积的金字塔池化模块,并引入解码模块将低级信息与高级信息进行融合.EfficientNet[8]通过增加网络宽度、深度以及图像分辨率提升网络的性能,通过复合模型扩张方法并结合神经网络搜索技术决定增加的数量.上述网络对于特征提取比较准确,但是参数量较大导致推理速度较慢.本文提出一种轻量级的主干网络,具有更少的参数同时保持较高的准确度和速度.

  • 2)多尺度空洞卷积特征融合网络:神经网络的感受野大小对于大尺度对象的检测和分割具有重要影响.在早期的神经网络中通过增加网络的深度来增大感受野,VGGNet[9]通过增加网络层数增大网络的感受野,使其在图像相关任务中取得比较好的效果.

  • 3)混合注意力网络:近年来注意力机制[10]经常作为一种插件应用在神经网络中,并且对网络的训练效果有显著的提升.注意力机制主要有空间域注意力、通道域注意力、混合域注意力等.ECA-Net[11]在SENet[12]的基础上提出一种新的通道注意力机制,它在增加通道之间的交互、降低复杂度的同时保持性能.EPSANet[13]是一种新的高效金字塔注意力分割模块(Efficient Pyramid Split Attention,EPSA),它可以有效地提取更细力度的多尺度空间信息,同时可以建立更长距离的通道依赖关系.Hou等[14]提出CA(Coordinate Attention)注意力机制可以捕获跨通道的信息,同时能够感知方向信息以及位置信息,使模型可以更准确地定位目标区域.但是在以上注意力机制的实现过程中,准确率和效率之间很难达到平衡.

  • 基于以上分析,本文提出一种基于LaneSegNet的高效车道线检测方法.主要贡献如下:

  • 1) 提出一种DDConv(Double Down sampling Convolution)模块和DUConv(Double Upsampling Conolution)模块.通过DDConv模块构建Lane-Net编码器,用于提取车道线特征信息;通过下采样减少网络的运算量;通过DUConv模块建立Lane-Net解码器,用于逐步恢复图像分辨率.

  • 2) 根据车道线的形态特征,提出一种多尺度空洞卷积特征融合网络 (Multi-scale Dilated convolution Feature fusion Network,MDFN),使用并行与串行相结合的空洞卷积增大网络的感受野,选择合适的空洞率避免出现网格效应,使网络能够捕捉较大尺度的特征信息.

  • 3) 针对道路场景图像中含有较多的噪声信息提出一种混合注意力网络(Hybrid Attention Network,HAN),使用平均池化和最大池化获取全局位置权重,使用多次卷积得到通道权重,可以增强网络的性能.

  • 2 本文方法

  • 2.1 LaneSegNet模型

  • LaneSegNet模型是由主干网络(Lane-Net)、多尺度空洞卷积特征融合网络(MDFN)和混合注意力网络(HAN)组成的一种深度卷积神经网络.网络整体架构如图2所示,主干网络Lane-Net为编码器-解码器结构,由DDConv和DUConv模块组成,网络中使用非对称卷积,具备参数量少、运算速度快的特点,能快速准确地检测出车道线.在主干网络中使用连续的卷积提取出车道线的特征,最后使用并行的空洞卷积获取较大尺度的感受野,增加分割的精度,通过混合注意力网络可以有效增强与当前任务相关的特征.以上步骤构成了LaneSegNet网络,形成了一个端到端的车道线检测网络.

  • 2.2 DDConv网络

  • 目前图像分割研究通常使用更深层的卷积神经网络来提升模型的性能,网络层数越多,能够提取的特征就更丰富,但是网络深度增加会导致模型的参数量增加和计算量的上升,对于车道线分割任务来说,在保证准确率可行的情况下,实时检测是非常重要的,更多的网络层数在一定程度上能够提升检测效果,但是参数量增加会导致检测速度明显下降.为了平衡网络的速度和准确率,在主干网络中使用非对称卷积[15]来降低网络的参数量,加快网络的训练和推理速度.车道线分割任务相比其他任务来说,特征更少,MaxPooling下采样时只保留局部最大值,其他值均丢弃,步长为2的标准卷积下采样的结果为局部特征计算的总和,最后将两种操作结果相加,这种结合方案可以很好地避免单一下采样丢失过多车道线特征.

  • 图2 LaneSegNet网络结构

  • Fig.2 Structure of the proposed LaneSegNet network

  • 图3中的x为DDConv模块的输入特征,首先特征信息会依次经过1×1卷积和非对称的3×3卷积进行特征提取,这个过程可以表示为

  • E0=C3×1C1×3C1×1(x)+x
    (1)
  • 其中,E 0表示DDConv模块提取的特征信息,C1×1表示卷积核大小为1×1的卷积函数,C 3×1C 1×3 表示组成非对称卷积的两个函数.为了减少网络的计算量,在DDConv模块中提取特征之后会进行下采样操作,这个过程可以表示为

  • E1=C1×1C3×3S=2C1×1E0+GMP2×2E0
    (2)
  • 其中,E 1表示DDConv模块的输出, C3×3S=2表示卷积核大小为3×3,步长为2卷积,GMP2×2表示2×2的最大池化.

  • 图3 DDConv网络结构

  • Fig.3 DDConv network structure

  • 2.3 DUConv网络

  • 在图像分割任务中,通常先使用编码网络提取特征信息并减少图像分辨率,然后使用解码网络在恢复出原始信息的同时恢复图像大小,但是在特征提取的过程中会丢失部分信息导致一些特征难以恢复.UpSample直接使用插值的方式扩充特征图,计算过程较为简单,转置卷积上采样时可以像普通卷积一样学习参数,恢复出更多的特征.所以本文采用上述两种上采样方法,尽可能恢复出更多的特征信息.

  • 图4中的x为输入到DUConv模块的特征,首先特性信息会通过一个1×1卷积和非对称的3×3卷积,然后通过并联UpSampling2D以及Conv2Dtranspose来进行上采样,尽可能恢复出较多的原始特征,最后通过1×1卷积融合两部分特征信息.这个过程可以表示为

  • 图4 DUConv网络结构

  • Fig.4 DUConv network structure

  • Y=C1×1C1×3C3×1(UP(x)+CT(x))
    (3)
  • 式中,UP(·)表示双线性插值上采样,CT(·)表示反卷积,Y表示DUConv模块的输出.

  • 2.4 多尺度空洞卷积特征融合网络

  • 空洞卷积被广泛应用于语义分割[16-17]任务中,通过在常规卷积中引入空洞率,使得网络可以任意增大其感受野.车道线在整个图像中像素比较少,但跨度较大,表现为细长的形态结构,感受野的大小对车道线分割来说至关重要,标准卷积有限的感受野只能感受到局部的车道线特征,使用空洞率为偶数的组合会导致网格效应,因此本文提出一种多尺度空洞卷积特征融合网络,通过设置奇数空洞率的串行卷积块组成空洞卷积层,在避免网格效应的同时也增强了卷积结果之间的相关性.

  • 图5中多尺度空洞卷积特征融合网络采用的第1层的空洞率(d)为1,第2层的空洞率分别为2、5、9和13,第3层的空洞率分别为7、13、19和25.多尺度空洞卷积特征融合网络的输入可以定义为x,高度为h,宽度为w,通道数为c,所以在一次空洞卷积中可以表示为Gd=PRelu(BN(Convd(x))),其中Convd(·)为空洞率d的空洞卷积,BN(·)为归一化操作,PRelu(·)为激活函数.Gd表示空洞率为d的空洞卷积层.

  • P1=G1(x),
    (4)
  • 其中,Pi为第i层的输出,并行空洞卷积第1层空洞率为1.

  • 第2层将第1层卷积的结果和原输入特征相加再进行空洞率依次为2、5、9和13的卷积操作,即

  • P2=G13G9G5G2x+P1
    (5)
  • 第3层将第2层卷积的结果和原输入特征相加再进行空洞率依次为7、13、19和25的卷积操作,即

  • P3=G25G19G13G7x+P2
    (6)
  • 多尺度空洞卷积特征融合网络输出的结果为3个并行层的结果之和.即

  • P=P1+P2+P3,
    (7)
  • 其中,P为整个多尺度空洞卷积特征融合网络的输出.

  • 2.5 混合注意力网络

  • 计算机视觉中处理的对象一般包含较多噪声信息,这些噪声特征会显著降低神经网络[18]模型的性能.车道线通常处于图像的下半部分,位置相对固定,空间注意力能关注并有效捕捉到车道线特征信息.分割车道线要求在提取特征的同时尽可能地捕捉到全局的特征,建立通道间的依赖关系,以往通道注意力模块直接将特征图压缩到1×1×C大小,以获得通道注意力分数,并没有关注通道间的依赖关系.本文提出一种混合注意力网络通过逐步减少特征维数,融合通道之间的特征,然后再逐步恢复到原来通道维数,从而获得通道之间的依赖关系,得到通道注意力分数,最后与空间注意力结合,最终得到混合注意力分数.

  • 图6为混合注意力网络结构.对于原始特征x首先使用全局最大池化和全局平均池化获得空间注意力得分,然后使用1×1卷积进行融合.具体为

  • K=SoftmaxC1×1(GAP(x)+GMP(x))
    (8)
  • 式中,GMP(·)表示全局最大池化,GAP(·)表示全局平均池化,Softmax(·)为Softmax归一化函数,保证所有通道的和为1.接着使用先下采样再上采样的方法获取混合注意力分数,即

  • H=SigmoidC3×32fC3×32fC3×3C3×3f/2C3×3f/2(x)
    (9)
  • 图5 多尺度空洞卷积特征融合网络结构

  • Fig.5 Multi-scale dilated convolution feature fusion network structure

  • 图6 混合注意力网络结构

  • Fig.6 Hybrid attention network structure

  • 式中, C3×3f/2表示卷积核大小为3×3,输出特征通道数为原来1/2的卷积操作, C3×32f 表示卷积核大小为3×3,输出特征通道数为原来2倍的卷积操作,C3×3表示卷积核大小为3×3的卷积操作,Sigmoid(·)为Sigmoid函数,保证输出的通道权重值在0~1之间.最后联合空间注意力分数和通道注意力分数得到最终的注意力.即

  • B=H+K
    (10)
  • 其中,B为混合注意力网络的最终输出,通过多种方式获取特征图的注意力分值,得到鲁棒的加权特征.

  • 2.6 损失函数

  • 对于车道线分割任务来说,车道线像素只占整幅图像的很小部分区域,所以存在正负样本分布不均衡的问题.针对这一问题LaneSegNet算法选择在Dice损失函数的监督下进行训练.

  • L=1-k=1k 2wki=1N P(k,i)g(k,i)i=1N P(k,i)+i=1N g(k,i)
    (11)
  • 式中,N为像素点的总数,k为类别的总数,在车道线分割任务中,k为2(车道线和背景).P(k,i)∈[0,1]表示像素点属于车道线的概率;g(k,i)∈{0,1}表示标签值,取0或者1.实验中设置wk=1k.

  • 3 实验与分析

  • 3.1 实验参数设置

  • 本文实验在Windows开发平台训练及测试,使用python语言实现,选择基于Tensorflow和Keras深度学习框架对模型进行部署.在模型参数设置方面,选择Adam优化器进行参数优化,损失函数选择DiceLoss损失函数,学习率初始值为0.001,batch size设置为4.在对模型进行训练时,输入图像大小调整为512×512像素.

  • 3.2 数据集

  • 为了有效验证本文提出的LaneSegNet模型,选取了TuSimple数据集(http://benchmark.tusimple.ai)以及CULane[19]数据集分别进行训练.TuSimple数据集采集的是结构化道路图像,共有3 626张训练图片和2 782张测试图片,数据集中包含的图像类别有白天不同的时间段、不同的车道数目以及不同的交通状况.CULane数据集共有133 235张图片,其中88 880张图片用作训练,9 675张图片用作验证,34 680张图片用作测试.数据集中共有9个场景,包括常规、拥堵、夜间、非结构化、阴影、箭头、强化、弯道和路口.

  • 3.3 算法评价标准

  • 在语义分割中准确率(A)是模型分割效果经常使用的评价指标.语义分割中的准确率表示预测正确的像素点在样本中所占的比例,通常准确率越高表示模型的分割效果越好.准确率的定义如下:

  • A=TP+TNTP+TN+FP+FN.
    (12)
  • 在深度学习中可以使用F值(F-measure)判断模型的优劣,F值又被称为F1分数,它表示的是精确率(P)和召回率(R)的加权调和平均,F1分数的定义如下:

  • F1=1+β2P×Rβ2(P+R)
    (13)
  • F1的定义中经常将参数β 设置为1,F1分数越高表明模型越优秀.本文使用准确率、F1、速度(fps)综合评估LaneSegNet模型,验证其性能.

  • 3.4 实验结果与分析

  • 图7为LaneSegNet算法在TuSimple数据集上检测的效果.在无标线的道路场景下,由于在训练阶段经过多遍重复性的训练,即使没有车道线信息,根据归纳性偏好[20]的特点模型推理时会优先假设在合适的位置存在车道线,借助道路边缘信息辅助在分割阶段也会分割出较为合理的车道线.对于存在车辆遮挡的场景中,由于网络能够感受到图像的全局信息,可以依靠周围车流的走向对车道线进行定位.从图7中可以看出,本文方法在各种路况下都能够准确地检测出车道线,对无标线(图7a)、阴影(图7b)、低光照(图7c)和有车辆遮挡(图7d)情况下的车道也具备良好的推理效果.

  • 表1为本文模型和其他模型在TuSimple数据集上的实验结果,可以看出本文模型的准确率最高,达到了97.6%.并且4种模型中本文方法检测速度最快,达到34.5fps.本文方法保持较快的速度和较高的准确度的原因主要是由于在主干网络中具有较深的卷积,增强了网络的特征提取能力,同时使用非对称卷积降低参数量和运算量,使网络保持较快的运行速度.SAD和PINet模型由于具有较多的参数导致在车道线检测的过程中表现较差.在检测准确率和检测速度上SCNN和SAD并没有产生较大的差距.基于LaneSegNet模型的检测准确度都优于其他模型,且检测速度较快,可以满足实时性要求.

  • 表2为各种算法在CULane数据集上的实验结果,从结果可以看出,除了非结构化路面和路口,本文算法在其他7种情况下均取得了较好的效果.非结构化道路由于路况较为复杂,没有清晰的车道线和道路边界,道路几何特征较为模糊,受到其他因素影响较大,网络提取车道线特征与其他情况相比更为困难.在路口情况下车道线与其他路面有较大的差别,它含有更多较复杂的车道线,对网络提取特征的能力要求更高.

  • 表1 TuSimple车道线检测准确率比较

  • Table1 Accuracy comparison of detecting lane line on TuSimple

  • 图7 TuSimple数据集结果对比

  • Fig.7 Comparison of lane line detection on TuSimple

  • 表2 CULane车道线检测准确率比较(IoU=0.5)

  • Table2 Accuracy comparison of detecting lane line on CULane (IoU=0.5)

  • 为了验证本文方法的有效性,对本文模型进行消融实验,实验结果如表3所示,其中α表示主干网络,β表示混合注意力网络,γ表示多尺度空洞卷积特征融合网络.通过实验数据可知,在本文方法中加入混合注意力网络后可以使模型的准确率(A)提升1.1个百分点,F1提升0.5个百分点,损失函数(L)下降0.016;加入多尺度空洞卷积特征融合网络可以使模型的A提升1.3个百分点,F1提升1.0个百分点,L下降0.018;加入混合注意力网络和多尺度空洞卷积特征融合网络可以使模型的A提升2.1个百分点,F1提升1.1个百分点,L下降0.03.综上所述,本文提出的混合注意力网络可以在一定程度上使模型更加关注与当前任务相关的特性信息,提升网络的检测性能;提出的多尺度空洞卷积特征融合网络可以有效提升模型的感受野,增加图像分割的准确率.

  • 表3 LaneSegNet消融实验

  • Table3 LaneSegNet ablation experiment

  • 4 结论

  • 本文针对车道线检测方法准确率不足以及速度较慢的问题,提出了一种高效的车道线检测算法LaneSegNet.首先主干网络中使用非对称卷积可以有效减少网络参数量,快速提取车道线特征信息;使用空洞卷积扩大网络的感受野;通过注意力网络增强特定特征信息.在公开基准数据集上进行实验,验证了本文算法的有效性.本文算法中增加了很多注意力网络模块导致网络训练过程中参数的增加,将会相应地增加训练和推理时间,因此在后续的研究工作中,在不影响网络性能的前提下将进一步优化网络,提升模型检测效率.

  • 参考文献

    • [1] 杨弋鋆,邵文泽,王力谦,等.面向智能驾驶视觉感知的对抗样本攻击与防御方法综述[J].南京信息工程大学学报(自然科学版),2019,11(6):651-659;YANG Yijun,SHAO Wenze,WANG Liqian,et al.A survey of adversarial attacks and defenses on visual perception in automatic driving[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2019,11(6):651-659

    • [2] 刘源,周聪玲,刘永才,等.基于边缘特征点聚类的车道线检测[J].科学技术与工程,2019,19(27):247-252;LIU Yuan,ZHOU Congling,LIU Yongcai,et al.Lane detection based on edge feature points clustering[J].Science Technology and Engineering,2019,19(27):247-252

    • [3] 吕侃徽,张大兴.基于改进Hough变换耦合密度空间聚类的车道线检测算法[J].电子测量与仪器学报,2020,34(12):172-180;LÜ Kanhui,ZHANG Daxing.Lane detection algorithm based on improved Hough transform coupled density space clustering[J].Journal of Electronic Measurement and Instrumentation,2020,34(12):172-180

    • [4] Hou Y N,Ma Z,Liu C X,et al.Learning lightweight lane detection CNNs by self attention distillation[C]//2019 IEEE/CVF International Conference on Computer Vision(ICCV).October 27-November 2,2019,Seoul,Korea(South).IEEE,2019:1013-1021

    • [5] Ko Y,Lee Y,Azam S,et al.Key points estimation and point instance segmentation approach for lane detection[J].IEEE Transactions on Intelligent Transportation Systems,2021.DOI:10.48550/arXiv.2002.06604

    • [6] Su J M,Chen C,Zhang K,et al.Structure guided lane detection[C]//Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence.August 19-27,2021.Montreal,Canada.California:International Joint Conferences on Artificial Intelligence Organization,2021.DOI:10.24963/ijcai.2021/138

    • [7] Chen L C,Zhu Y K,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//European Conference on Computer Vision,2018:833-851

    • [8] Tan M X,Le Q V.EfficientNet:rethinking model scaling for convolutional neural networks [C]//International Conference on Machine Learning,2019:6105-6114

    • [9] Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J].arXiv e-print,2014,arXiv:1409.1556

    • [10] Chaudhari S,Mithal V,Polatkan G,et al.An attentive survey of attention models[J].ACM Transactions on Intelligent Systems and Technology,2021,12(5):1-32

    • [11] Wang Q L,Wu B G,Zhu P F,et al.ECA-net:efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 13-19,2020,Seattle,WA,USA.IEEE,2020:11531-11539

    • [12] Hu J,Shen L,Sun G.Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:7132-7141

    • [13] Zhang H,Zu K,Lu J,et al.EPSANet:an efficient pyramid split attention block on convolutional neural network[J].arXiv e-print,2021,arXiv:2105.14447

    • [14] Hou Q B,Zhou D Q,Feng J S.Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 20-25,2021,Nashville,TN,USA.IEEE,2021:13708-13717

    • [15] Szegedy C,Vanhoucke V,Ioffe S,et al.Rethinking the inception architecture for computer vision[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:2818-2826

    • [16] 黎江,许明慧,张羽.基于Mask R-CNN的遥感影像土地分割与轮廓提取[J].南京信息工程大学学报(自然科学版),2021,13(1):116-123;LI Jiang,XU Minghui,ZHANG Yu.Land segmentation and contour extraction of remote sensing image based on Mask R-CNN[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2021,13(1):116-123

    • [17] 何春明,许磊,卢国胜,等.基于模糊熵的GLLE熵阈值分割方法[J].南京信息工程大学学报(自然科学版),2019,11(6):757-763;HE Chunming,XU Lei,LU Guosheng,et al.GLLE entropic threshold segmentation based on fuzzy entropy[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2019,11(6):757-763

    • [18] 赵远东,胡为尧.人工神经网络泛化性能改进[J].南京信息工程大学学报(自然科学版),2011,3(2):164-167;ZHAO Yuandong,HU Weiyao.Improve the generalization capability of artificial neural network[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2011,3(2):164-167

    • [19] Pan X G,Shi J P,Luo P,et al.Spatial as deep:spatial CNN for traffic scene understanding[C]//Thirty-Second AAAI Conference on Artificial Intelligence,2018:7276-7283

    • [20] Goyal A,Bengio Y.Inductive biases for deep learning of higher-level cognition[J].arXiv e-print,2020,arXiv:2011.15091

  • 参考文献

    • [1] 杨弋鋆,邵文泽,王力谦,等.面向智能驾驶视觉感知的对抗样本攻击与防御方法综述[J].南京信息工程大学学报(自然科学版),2019,11(6):651-659;YANG Yijun,SHAO Wenze,WANG Liqian,et al.A survey of adversarial attacks and defenses on visual perception in automatic driving[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2019,11(6):651-659

    • [2] 刘源,周聪玲,刘永才,等.基于边缘特征点聚类的车道线检测[J].科学技术与工程,2019,19(27):247-252;LIU Yuan,ZHOU Congling,LIU Yongcai,et al.Lane detection based on edge feature points clustering[J].Science Technology and Engineering,2019,19(27):247-252

    • [3] 吕侃徽,张大兴.基于改进Hough变换耦合密度空间聚类的车道线检测算法[J].电子测量与仪器学报,2020,34(12):172-180;LÜ Kanhui,ZHANG Daxing.Lane detection algorithm based on improved Hough transform coupled density space clustering[J].Journal of Electronic Measurement and Instrumentation,2020,34(12):172-180

    • [4] Hou Y N,Ma Z,Liu C X,et al.Learning lightweight lane detection CNNs by self attention distillation[C]//2019 IEEE/CVF International Conference on Computer Vision(ICCV).October 27-November 2,2019,Seoul,Korea(South).IEEE,2019:1013-1021

    • [5] Ko Y,Lee Y,Azam S,et al.Key points estimation and point instance segmentation approach for lane detection[J].IEEE Transactions on Intelligent Transportation Systems,2021.DOI:10.48550/arXiv.2002.06604

    • [6] Su J M,Chen C,Zhang K,et al.Structure guided lane detection[C]//Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence.August 19-27,2021.Montreal,Canada.California:International Joint Conferences on Artificial Intelligence Organization,2021.DOI:10.24963/ijcai.2021/138

    • [7] Chen L C,Zhu Y K,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//European Conference on Computer Vision,2018:833-851

    • [8] Tan M X,Le Q V.EfficientNet:rethinking model scaling for convolutional neural networks [C]//International Conference on Machine Learning,2019:6105-6114

    • [9] Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J].arXiv e-print,2014,arXiv:1409.1556

    • [10] Chaudhari S,Mithal V,Polatkan G,et al.An attentive survey of attention models[J].ACM Transactions on Intelligent Systems and Technology,2021,12(5):1-32

    • [11] Wang Q L,Wu B G,Zhu P F,et al.ECA-net:efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 13-19,2020,Seattle,WA,USA.IEEE,2020:11531-11539

    • [12] Hu J,Shen L,Sun G.Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:7132-7141

    • [13] Zhang H,Zu K,Lu J,et al.EPSANet:an efficient pyramid split attention block on convolutional neural network[J].arXiv e-print,2021,arXiv:2105.14447

    • [14] Hou Q B,Zhou D Q,Feng J S.Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 20-25,2021,Nashville,TN,USA.IEEE,2021:13708-13717

    • [15] Szegedy C,Vanhoucke V,Ioffe S,et al.Rethinking the inception architecture for computer vision[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:2818-2826

    • [16] 黎江,许明慧,张羽.基于Mask R-CNN的遥感影像土地分割与轮廓提取[J].南京信息工程大学学报(自然科学版),2021,13(1):116-123;LI Jiang,XU Minghui,ZHANG Yu.Land segmentation and contour extraction of remote sensing image based on Mask R-CNN[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2021,13(1):116-123

    • [17] 何春明,许磊,卢国胜,等.基于模糊熵的GLLE熵阈值分割方法[J].南京信息工程大学学报(自然科学版),2019,11(6):757-763;HE Chunming,XU Lei,LU Guosheng,et al.GLLE entropic threshold segmentation based on fuzzy entropy[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2019,11(6):757-763

    • [18] 赵远东,胡为尧.人工神经网络泛化性能改进[J].南京信息工程大学学报(自然科学版),2011,3(2):164-167;ZHAO Yuandong,HU Weiyao.Improve the generalization capability of artificial neural network[J].Journal of Nanjing University of Information Science & Technology(Natural Science Edition),2011,3(2):164-167

    • [19] Pan X G,Shi J P,Luo P,et al.Spatial as deep:spatial CNN for traffic scene understanding[C]//Thirty-Second AAAI Conference on Artificial Intelligence,2018:7276-7283

    • [20] Goyal A,Bengio Y.Inductive biases for deep learning of higher-level cognition[J].arXiv e-print,2020,arXiv:2011.15091

  • 地址:江苏省南京市宁六路219号    邮编:210044

    联系电话:025-58731025    E-mail:nxdxb@nuist.edu.cn

    南京信息工程大学学报 ® 2024 版权所有  技术支持:北京勤云科技发展有限公司