基于几何特征提取和位置信息编码的车道线检测方法

未命名 09-07 阅读:156 评论:0


1.本发明属于图像处理技术领域,更进一步涉及图像分割技术领域中的一种基于几何特征提取和位置信息编码的车道线检测方法。本发明可用于通过自动驾驶设备实现机动车在行驶过程中对车道线的检测。


背景技术:

2.在车道线检测中,每条车道的确切形状是由安装在车辆上的摄像头捕捉到的二维前视图像获得的。除了获得车道线的方向和形状外,系统还必须能够区分每条车道。也正因为如此,车道线检测往往被视作一种语义分割任务。之前的绝大部工作都采用纯分割的方法,即通过编码器来捕捉其语义特征,再进行解码后处理得到最终结果。车道线检测是一种相对特殊的检测问题,它具有不同于其他检测问题的挑战,如噪声大(多阴影遮挡),属于正样本的像素占全图的比例低(车道线细长),形式多样(有不同颜色和形状的车道线),场景多样(受到天气因素影响)。因此,如果仅将其视作传统的语义分割问题来处理,采用纯分割的方法无法有效地处理一些复杂场景如阴影,强光,夜间等,适用范围小。而且对于车道线,除了最为基本的语义特征以外,还有一个重要的特点就是车道线属于人工物体,这不同的一般的自然物体,其拥有强烈的先验几何特征(车道线一般都是细长的平行四边形结构,如果利用其几何特征将带来更好的检测性能。同时,车道线之间具有位置信息,例如现实世界种车道线之间是平行的。因此如果不考虑位置信息,也会丧失一些检测性能。
3.华东交通大学在其申请的专利文献“一种基于深度学习的车道线检测方法”(申请号:2022110592895,申请公布号:cn 115376089 a,申请公布日:2022.11.22)中提出了一种自动驾驶设备实现机动车车道线检测方法。该方法的实现步骤是:(1)对数据集中已有的图片样本进行多尺度图像增强操作,再根据标注的车道线位置信息和图像生成训练样本;(2)根据生成的图像构建适用的卷积神经网络;(3)利用生成的车道线图像进行训练;(4)对该卷积神经网络的性能进行评估;(5)使用训练好的模型进行车道线检测。该方法的优势是结合深度学习方法增强了整体模型的鲁棒性,能够在车道线破损、遮挡、阴影情况下有效检测直道及弯道。但是,该方法仍然存在的不足之处是,把车道线检测当作单纯的像素分割任务,其网络结构完全由普通的二维卷积层和激活层构成,既没有捕捉车道线的几何特征也没有考虑车道线的位置信息,这导致该方法在对面一些车道线语义信息不明显甚至缺失的场景的时候,检测性能较差甚至检测不到车道线。
4.广东工业大学在其申请的专利文献“基于深度学习的车道线检测方法、系统、计算机及存储介质”(申请号:2021112642095申请公布号:cn114022863a,申请公布日:2022.02.08)中提出了一种基于自注意力结构的自动驾驶设备实现机动车车道线检测方法。其实现步骤是:(1)通过交通监控摄像枪拍摄带有车道线的视频,并从视频中截取多张带有车道线的图像生成数据集;(2)对生成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;(3)构建双分支的车道线检测模型,两个分支分别设特征提取器和图像分割器;(4)通过训练集训练双分支的车道线检测模型;(5)通过训练好的双分支的车道
线检测模型对测试集进行检测。该发明引入了注意力机制能够更加有效地提取图像特征尤其是全局信息,全局信息能够反映一些车道线自身的情况,但是,该方法仍然存在的不足之处是,还是没有考虑车道线与车道线之间的位置信息关系,以至于自动驾驶机动车在行驶过程中面对多条车道线排列较紧密的情况时,会将其识别为一条车道线,进而导致车道线检测技术检测效果不佳的问题。


技术实现要素:

5.本发明的目的在于针对上述现有技术的不足,提供一种基于几何特征提取和位置信息编码的车道线检测方法,用于解决车道线检测技术检测效果不佳,同时计算量较大以及车道线检测在复杂道路场景中检测准确率较低的问题。
6.实现本发明目的的技术思路是,本发明首先利用resnet作为编码器进行初步的特征提取,然后分别构建几何特征提取模块和位置信息编码模块,上下并行处理特征图。几何特征提取模块以条状卷积核的形式,在行间和行内由左至右分别进行注意力操作。条状卷积核契合车道线的几何形状还能降低计算复杂度,而行间内注意力的形式能够有效融合局部和全局信息。由于采用条形卷积核代替传统的方形卷积核,减少了参数量和计算量,缓解了现有技术计算量较大的问题。同时条形卷积核相对于方形卷积核往往横跨整个特征图,在某一方向上具有更大的感受野,能够提供更多的上下文信息,有助于捕获长距离依赖,解决了车道线检测在复杂道路场景中检测准确率较低的不足。本发明构建的位置信息编码模块时将首先生成相对位置向量,然后将位置向量融入到transformer中,形成带位置信息编码的注意力机制。位置向量编码能有效捕捉车道线自身和车道线之间的潜在的位置关系。通过以上两种方式的并行处理,最终进行特征融合,然后进行双分支解码,分别得到实例分支结果和存在分支结果,再进行解码得到车道线检测结果。挖掘捕捉图像中车道线分布的潜在位置信息,直接对位置向量进行编码。由于多车道线紧密的情况一般仅存在于路面的消失点附近,在靠近车身附近的车道线是相对分散的,是由相机拍摄角度所决定的。本发明的位置编码初始是由全局编码矩阵重排列为向量而形成的,也就是说对于同一张图片,相对分散的车道线的位置编码信息也会作用于车道线密集处,而车道线分散处的车道线是便于分类的,这就有助于车道线密集处的车道线分类,克服了现有技术在自动驾驶机动车行驶过程中面对多条车道线排列较紧密的情况时,会将其识别为一条车道线的检测效果不佳的缺陷。
7.本发明的实现步骤如下:
8.步骤1,构建初步特征提取子网络;
9.步骤2,构建几何特征提取模块:
10.搭建由高级特征输入层,行内自注意力子模块,行间自注意力子模块,几何特征输出层依次串联而成的几何特征提取模块;
11.所述的行内自注意力子模块由两条支路组成,第一条支路由输入层,第1维度重排层,线性层,分割层,自注意力层依次串联组成;第二条支路由矩阵加法层,第2维度重排层,输出层依次串联组成;第二条支路中的矩阵加法层跨接在第一条支路的输入层和自注意力层之间;
12.所述的行间自注意力子模块由两条支路组成,第1条支路由行间自注意力输入层,
卷积层,第1分割层,堆砌层,第1维度重排层,第2分割层,自注意力层依次串联组成,第2条支路由矩阵加法层,第2维度重排层,行间自注意力输出层依次串联组成,矩阵加法层跨接在第1条支路的行间自注意力和自注意力层之间;将卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0,自注意力层采用标准的自注意力操作;
13.步骤3,构建位置信息编码模块:
14.搭建由低级特征输入层,向量编码层,自注意力层,位置信息编码输出层依次串联组成的位置信息编码模块;所述向量编码层由相对位置向量编码层与qkv特征生成层并联组成;位置信息编码模块中的自注意力层将进行多头注意力操作;
15.所述的相对位置向量编码层由相对位置矩阵生成层,展平层,下标选择层,分割层依次串联组成;
16.所述的qkv特征生成层由第1维度重排层,卷积层,归一化层,第2维度重排层,分割层依次串联组成;将卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0;
17.所述自注意力层由2条支路组成,第1条支路中的第1矩阵加法层分别与第1矩阵乘法层,第2矩阵乘法层,第3矩阵乘法层相连;第2条支路中的softmax层分别与第2矩阵加法层,第4矩阵乘法层,第5矩阵乘法层相连,第2矩阵加法层分别与第4矩阵乘法层,第5矩阵乘法层和相连softmax层以及第1条支路的第1矩阵加法层相连;
18.步骤4,构建非对称双边注意力网络:
19.步骤4.1,构建特征融合层;
20.步骤4.2,搭建由实例分支和存在分支并行组成的解码预测子网络;
21.步骤4.3,将几何特征提取模块与位置信息编码模块并联组成模块组;
22.步骤4.4,将初步特征提取子网络,模块组,特征融合层,解码预测子网络级联成非对称双边注意力网络;
23.步骤5,生成训练集:
24.选取至少3000张含有车道线的图像组成样本集,每张图像的分辨率均为1280
×
720,且每张图像中包括0至4条车道线,同时每张图像对应有一张二值分割标签图;对样本集中的每张图像依次进行裁剪,旋转,模糊的预处理;将预处理后的图像组成训练集;
25.步骤6,训练非对称双边注意力网络:
26.步骤6.1,设置训练参数:将momentum率设置为0.9,权重衰减率设置为0.0004,初始学习率设置为0.02;
27.步骤6.2,权重初始化,将imagenet预训练的resnet-34的权重作为非对称双边注意力网络的初始权重,采用sgd优化算法,将训练集按批次输入到非对称双边注意力网络中,利用梯度下降法,对网络参数进行迭代更新,直至网络总损失函数收敛为止,得到训练好的网络并保存权重;
28.步骤7,检测车道线:
29.采用与步骤5相同的方法,将预处理后待检测的含有车道线的图像依次输入训练好的非对称双边注意力网络,输出车道线检测结果。
30.本发明与现有技术相比较,具有如下优点:
31.第一,本发明构建了几何特征提取模块,采用条形卷积核改进自注意力机制,克服了现有技术计算量较大以及车道线检测在复杂道路场景中检测准确率较低的不足,使得本
发明能够较好的平衡车道线检测准确率和时效性。
32.第二,本发明构建了位置信息编码模块,挖掘捕捉图像中车道线分布的潜在位置信息,直接对位置向量进行编码,并嵌入到注意力模块中,克服了现有技术在自动驾驶机动车行驶过程中面对多条车道线排列较紧密的情况时,会将其识别为一条车道线的检测效果不佳的缺陷,使得本发明的自动驾驶机动车在行驶过程中充分利用车道线与车道线之间的位置信息,有效提升了车道线检测的准确性和鲁棒性。
附图说明
33.图1是本发明的流程图;
34.图2是本发明的非对称双边注意力网络结构图;
35.图3是本发明的初步特征提取子网络的结构图;
36.图4是本发明的几何特征模块结构图;
37.图5是本发明的几何特征模块中的行内自注意力子模块结构图;
38.图6是本发明的几何特征模块中的行间自注意力子模块结构图;
39.图7是本发明的位置信息编码模块结构图;
40.图8是本发明的位置信息编码模块中的相对位置向量编码层结构图;
41.图9是本发明的位置信息编码模块中的qkv特征生成层结构图;
42.图10是本发明的位置信息编码模块中的自注意力层结构图;
43.图11是本发明的解码预测子网络中的实例分支结构图;
44.图12是本发明的解码预测子网络中的存在分支结构图。
具体实施方式
45.下面结合附图和实施例,对本发明作进一步的描述。
46.参照图1,对本发明实施例的实现步骤作进一步的描述。
47.本发明实施例的非对称双边注意力网络中包括初步特征提取子网络,几何特征提取模块,位置信息编码模块,解码预测子网络,如图2所示。
48.步骤1,构建非对称双边注意力网络中的初步特征提取子网络。
49.搭建由图像输入层,初步特征提取层,输出层组依次串联组成的初步特征提取子网络,所述输出层组由高级特征输出层与低级特征输出层并联组成,如图3所示。
50.所述输入层为车道线图片的输入。所述初步特征提取层采用resnet-34用作对输入的车道线图片进行初步的特征提取。初步特征提取后,以resnet-34的直接输出作为高级特征输出层输出,以resnet-34的第一层特征图作为低级特征的输出。
51.步骤2,非对称双边注意力网络中的几何特征提取模块。
52.构建由高级特征输入层,行内自注意力子模块,行间自注意力子模块,几何特征输出层依次串联而成的几何特征提取模块,如图4所示。
53.所述的行内自注意力子模块由两条支路组成,第一条支路由输入层,第1维度重排层,线性层,分割层,自注意力层依次串联组成;第二条支路由矩阵加法层,第2维度重排层,输出层依次串联组成;第二条支路中的矩阵加法层跨接在第一条支路的输入层和自注意力层之间,如图5所示。
54.当尺寸为(b,c,h,w)的特征图x输入到行内自注意力子模块后,先通过第1维度重排层,将x维度重排为(b*h,w,c)后,再通过线性层在通道维度上扩张,得到尺寸为(b*h,w,3c)的特征图,经过分割层将尺寸为(b*h,w,3c)的特征图在通道维度上切割为3份,分别得到3个尺度为(b*h,w,c)的特征图。将这3个特征图分别作为query,key,value输入到自注意力层中,经该层标准的自注意力操作,将操作结果与尺寸为(b,c,h,w)的特征图x通过矩阵加法层进行相加,再经过第2维度重排层使其尺寸变为(b,c,h,w),将该结果作为输出,即行内自注意力子模块的结果。其中,b表示一次操作的特征图的个数,c表示特征图的通道数,h表示特征图的高,w表示特征图的宽,
55.所述的行间自注意力子模块由两条支路组成,第1条支路由行间自注意力输入层,卷积层,第1分割层,堆砌层,第1维度重排层,第2分割层,自注意力层依次串联组成,第2条支路由矩阵加法层,第2维度重排层,行间自注意力输出层依次串联组成,矩阵加法层跨接在第1条支路的行间自注意力和自注意力层之间,如图6所示。将卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0,自注意力层采用标准的自注意力操作。
56.当尺寸为(b,c,h,w)的特征图进入行间自注意力子模块后,经过一层卷积层,卷积核大小1
×
1,得到尺寸为(b,3c,h,w)的特征图后经过分割层在通道维度上切割为3份,分别得到3个尺度为(b,c,h,w)的特征图;经过堆砌层在第一个维度上堆砌张量得到尺度为(3b,c,h,w)的特征图,进行维度重排得到(3b,h,w*c),按第一个维度切割为3份,尺寸均为(b,h,w*c)。将这3个张量分别作为query,key,value输入到标准的自注意力模块中,将结果与输入层的特征图进行矩阵加法,再经过维度重排层将尺度变为(b,c,h,w),最终得到输出结果,即行间自注意力的结果。
57.步骤3,构建非对称双边注意力网络中的位置信息编码模块。
58.搭建由低级特征输入层,向量编码层,自注意力层,位置信息编码输出层依次串联组成的位置信息编码模块。所述向量编码层由相对位置向量编码层与qkv特征生成层并联组成,如图7所示。
59.位置信息编码模块中的自注意力层将进行多头注意力操作,本发明的实施例中设置多头的注意力的分组数g=8。
60.所述的相对位置向量编码层由相对位置矩阵生成层,展平层,下标选择层,分割层依次串联组成,如图8所示。
61.当尺寸为(b,c,h,w)的特征图进入相对位置向量编码层后,先在相对位置矩阵生成层中生成0~79的常数序列,分别在第0维度和第1维度上进行扩张,用后者减去前者(这里利用了张量的广播机制)再加上79,得到相对位置矩阵。通过展平层将其拉伸称为一个向量,得到相对位置序列。在下标选择层中先利用服从标准正态函数的随机函数生成尺寸为(2c/g,80*2-1)的随机数矩阵,以相对位置序列作为下标选取的标准,对该随机数矩阵在第2个维度上进行重排列,得到尺寸为(2c/g,80,80)的张量,最后在第1个维度上分为3份,得到尺寸依次为(c/2g,80,80)、(c/2g,80,80)和(c/g,80,80)的3个位置信息编码向量,记作lq、lk和lv。
62.所述的qkv特征生成层由第1维度重排层,卷积层,归一化层,第2维度重排层,分割层依次串联组成,如图9所示。将卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0;归一化层的归一化操作在第二个维度上进行,输入输出通道一致。
63.当尺寸为(b,c,h,w)的特征图进入qkv特征生成层后,首先将其维度重排为(b*w,c,h),经过1个卷积层,卷积核大小为1
×
1,步长为1,填充为0。在第2个维度上进行一次batchnorm操作,即归一化层,得到尺寸为(b*w,2c,h)的特征图。对该特征图进行维度重排得到尺寸为(b*w,g,2c/g,h)的特征图,再在第3个维度上进行分割,得到3份张量,尺寸分别为(b*w,g,c/2g,h)、(b*w,g,c/2g,h)和(b*w,g,c/g,h),依次记作xq、xk和xv。
64.所述自注意力层由2条支路组成,第1条支路中的第1矩阵加法层分别与第1矩阵乘法层,第2矩阵乘法层,第3矩阵乘法层相连。第2条支路中的softmax层分别与第2矩阵加法层,第4矩阵乘法层,第5矩阵乘法层相连,第2矩阵加法层分别与第4矩阵乘法层,第5矩阵乘法层和相连softmax层以及第1条支路的第1矩阵加法层相连,如图10所示。
65.将相对位置编码层和qkv特征生成层得到结果经过分别经过第1,2,3矩阵乘法层得到xq×
lq、xk×
lk和xq×
xk,在第1个维度上进行堆砌后都重排列为(b*w,3,g,h,h),并在第2个维度上累加,然后在第4个维度上进行softmax操作得到(b*w,g,h,h)。将其结果分别通过第4矩阵乘法层与lv相乘和第5矩阵乘法层与xv相乘,再通过第2矩阵加法层相加得到最终结果。
66.步骤4,搭建由张量堆砌层和卷积层串联的特征融合层,将卷积层的卷积核大小设置为1
×
1,步长设置为1,无填充。
67.步骤5,搭建由实例分支和存在分支并行组成的解码预测子网络。
68.步骤5.1,实例分支由dropout层、卷积层和上采样层依次串联组成,如图11所示。其中dropout层中dropout的概率为0.1;卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0;上采样层采用的算法为双线性插值算法。
69.步骤5.2,存在分支由dropout层、卷积层、softmax层、平均池化层、维度重排层、第1线性层、第1激活层、第2线性层和第2激活层依次串联组成,如图12所示。其中dropout层中dropout的概率为0.1;卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0;softmax在输入特征图的第2个维度上进行;平均池化层的池化核大小设置为2
×
2,步长设置为2,填充设置为0;第1激活层采用的激活函数是relu函数,第2激活层采用的激活函数是sigmoid函数。
70.步骤6,构建非对称双边注意力网络。
71.步骤6.1,将几何特征提取模块与位置信息编码模块并联组成模块组。
72.步骤6.2,将初步特征提取子网络,模块组,特征融合层,解码预测子网络级联成非对称双边注意力网络。
73.步骤7,生成训练集。
74.步骤7.1,本发明的实施例是从tusimple数据集选取至少3000张含有车道线的图像组成训练集,每张图像的分辨率均为1280
×
720,且每张图像中包括0至4条车道线,同时每张图像对应有一张二值分割标签图;
75.步骤7.2,对训练集中的每张图像依次进行裁剪,旋转,模糊的预处理,其中,采用opencv中的resize函数,将图像尺寸裁剪为320
×
800;旋转操作为随机角度旋转,角度均匀分布在[-10
°
,+10
°
]之间;模糊操作采用opencv中的gaussianblur函数,模糊核大小为5
×
5,在水平和竖直方向上的高斯核标准差分别为1.0
×
10-6
和0.6。
[0076]
步骤8,训练非对称双边注意力网络。
[0077]
步骤8.1,设置训练参数:将momentum率设置为0.9,权重衰减率设置为0.0004。初始学习率设置为0.02。
[0078]
步骤8.2,权重初始化,将imagenet预训练的resnet-34的权重作为非对称双边注意力网络的初始权重,将训练集输入到非对称双边注意力网络中,利用梯度下降法,对网络参数进行迭代更新。采用sgd优化算法,一个batch至少需要送入4张图片,训练200轮并且前1000个batch采用指数型训练热身算法。直至网络总损失函数值下降至稳定值时停止训练,得到训练好的网络并保存权重。
[0079]
所述网络总损失函数如下:
[0080]
l=w
bce
l
bce
+w
ce
l
ce
[0081]
其中,l表示非对称双边注意力网络的总损失函数,w
bce
表示解码预测子网络中存在分支的二进制交叉熵损失函数的权重,l
bce
表示解码预测子网络中存在分支的二进制交叉熵损失函数,w
ce
表示解码预测子网络中实例分支的标准交叉熵损失函数的权重,l
ce
表示解码预测子网络中实例分支的标准交叉熵损失函数。
[0082][0083]
其中,s表示输入到解码预测子网络中存在分支的一张图片中像素点的总数,i表示输入到解码预测子网络中存在分支的一张图片中像素点的序号,yi表示第i个像素点的真值标签,log表示以2为底的对数操作,y'i表示经过解码预测子网络预测得到的第i个像素点的预测值。
[0084][0085]
其中,∑表示求和操作,m表示车道线分类的总数,j表示车道线的序号,p
ij
表示第i个像素点是否属于第j条车道线的标签值,p'
ij
表示经过解码预测子网络预测得到的第i个像素点属于第j条车道线的可能性。
[0086]
步骤9,检测车道线。
[0087]
采用与步骤7相同的方法,将预处理后待检测的含有车道线的图像依次输入训练好的非对称双边注意力网络,输出车道线检测结果。
[0088]
下面结合仿真实验对本发明的效果做进一步的说明:
[0089]
1.仿真实验条件:
[0090]
本发明的仿真实验的硬件平台:显卡为nvidia rtx2080ti x4、显存为11gb x4、处理器为intel(r)core(tm)cpui9-10900x@3.70ghz、内存为32gb。
[0091]
软件平台是ubuntu18.04操作系统下的anaconda的python 3.6虚拟环境中搭建了包含pytorch-1.1.0+cu100、matplotlib-3.3.3重要环境库的代码运行环境。
[0092]
本发明仿真实验所使用的输入图像为图森未来公司所创建的公开数据集tusimple,该车道线数据成像时间为2017年,图像大小为1280
×
720,采集自中等天气条件,不同的时间,不同的交通状况,图像格式为png。本仿真实验选取tusimple数据集中除开训练集以外的图片至少2000张作为测试集,并按照步骤7.2的方法进行预处理。
[0093]
2.仿真内容及其结果分析:
[0094]
本发明仿真实验是采用本发明和三个现有技术(laneaf,lstr,laneatt)分别对输
入的图森数据集tusimple车道线图像进行检测,获得检测准确度结果。
[0095]
在仿真实验中,采用的三个现有技术是指:
[0096]
现有技术lanenet是指abualsaud,hala等人在“laneaf:robust multi-lane detection with affinity fields.ieee robotics and automation letters 6.4(2021):7477-7484.”中提出的一种车道线检测方法,简称为laneaf。
[0097]
现有技术lstr是指liu,ruijin等人在“end-to-end lane shape prediction with transformers.proceedings of the ieee/cvf winter conference on applications of computer vision.2021.”中提出的一种车道线检测方法,简称lstr。
[0098]
现有技术laneatt是指tabelini,lucas等人在“keep your eyes on the lane:real-time attention-guided lane detection.proceedings of the ieee/cvf conference on computer vision and pattern recognition.2021.”中提出的一种车道线检测方法,简称laneatt。
[0099]
利用三个评价指标(准确度accuracy、误报率fp、误检率fn)分别对四种方法的检测准确度结果进行评价。利用下面公式,计算准确度accuracy、误报率fp、误检率fn,将所有计算结果绘制成表1:
[0100][0101]
其中,accuracy表示车道线检测的准确率,n表示测试集中所有的图片数量,i表示图片的序号,ci表示第i张图片中预测正确的点,si表示第i张图片所对应的标签图的像素点的总数目,准确率accuracy越大,说明检测性能越好。
[0102][0103]
其中,fp表示误报率,f
pred
表示将非车道线的点预测成车道线的点的数量,n
pred
表示预测为车道线的点的总数。fp越小,性能越好。
[0104][0105]
其中,fn表示误检率,m
pred
表示将车道线的点预测成非车道线的点的数量,n
gt
表示真实标签的所有点的数量。fn越小,性能越好。
[0106]
将所生成的测试图像输入到训练好的车道线特征提取网络中对车道线进行检测,本发明中车道线检测的准确率为96.76%。
[0107]
表1.仿真实验中本发明和各现有技术分类结果的定量分析对比表
[0108]
实验方法本发明方法laneaflstrlaneatt准确率(%)96.7696.4096.1895.63fn(%)3.324.183.383.53fp(%)2.802.802.912.92
[0109]
由表1可以看出本发明的准确率、fn和fp均优于现有三种方法,说明本发明性能上
的优越性,证明本发明提出的几何特征提取模块和位置信息编码模块是有效的。
[0110]
以上仿真实验表明:不同于以往的方法仅利用车道线的语义特征,本发明所提出的几何特征提取模块和位置信息编码模块能够有效地利用车道线的几何特性和位置信息,跳出了语义分割检测车道线的思维限制,特化了车道线检测方法从而提升了检测性能,同时在模块中用部分条形卷积核代替方形卷积核,在一定程度上降低了计算量,便于实际应用。因此,本发明是一种兼顾性能和速度的基于深度学习的车道线检测方法。

技术特征:
1.一种基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,分别构建了几何特征提取模块和位置信息编码模块;该检测方法的步骤包括如下:步骤1,构建初步特征提取子网络;步骤2,构建几何特征提取模块:搭建由高级特征输入层,行内自注意力子模块,行间自注意力子模块,几何特征输出层依次串联而成的几何特征提取模块;所述的行内自注意力子模块由两条支路组成,第一条支路由输入层,第1维度重排层,线性层,分割层,自注意力层依次串联组成;第二条支路由矩阵加法层,第2维度重排层,输出层依次串联组成;第二条支路中的矩阵加法层跨接在第一条支路的输入层和自注意力层之间;所述的行间自注意力子模块由两条支路组成,第1条支路由行间自注意力输入层,卷积层,第1分割层,堆砌层,第1维度重排层,第2分割层,自注意力层依次串联组成,第2条支路由矩阵加法层,第2维度重排层,行间自注意力输出层依次串联组成,矩阵加法层跨接在第1条支路的行间自注意力和自注意力层之间;将卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0,自注意力层采用标准的自注意力操作;步骤3,构建位置信息编码模块:搭建由低级特征输入层,向量编码层,自注意力层,位置信息编码输出层依次串联组成的位置信息编码模块;所述向量编码层由相对位置向量编码层与qkv特征生成层并联组成;位置信息编码模块中的自注意力层将进行多头注意力操作;所述的相对位置向量编码层由相对位置矩阵生成层,展平层,下标选择层,分割层依次串联组成;所述的qkv特征生成层由第1维度重排层,卷积层,归一化层,第2维度重排层,分割层依次串联组成;将卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0;所述自注意力层由2条支路组成,第1条支路中的第1矩阵加法层分别与第1矩阵乘法层,第2矩阵乘法层,第3矩阵乘法层相连;第2条支路中的softmax层分别与第2矩阵加法层,第4矩阵乘法层,第5矩阵乘法层相连,第2矩阵加法层分别与第4矩阵乘法层,第5矩阵乘法层和相连softmax层以及第1条支路的第1矩阵加法层相连;步骤4,构建非对称双边注意力网络:步骤4.1,构建特征融合层;步骤4.2,搭建由实例分支和存在分支并行组成的解码预测子网络;步骤4.3,将几何特征提取模块与位置信息编码模块并联组成模块组;步骤4.4,将初步特征提取子网络,模块组,特征融合层,解码预测子网络级联成非对称双边注意力网络;步骤5,生成训练集:选取至少3000张含有车道线的图像组成样本集,每张图像的分辨率均为1280
×
720,且每张图像中包括0至4条车道线,同时每张图像对应有一张二值分割标签图;对样本集中的每张图像依次进行裁剪,旋转,模糊的预处理;将预处理后的图像组成训练集;步骤6,训练非对称双边注意力网络:步骤6.1,设置训练参数:将momentum率设置为0.9,权重衰减率设置为0.0004,初始学
习率设置为0.02;步骤6.2,权重初始化,将imagenet预训练的resnet-34的权重作为非对称双边注意力网络的初始权重,采用sgd优化算法,将训练集按批次输入到非对称双边注意力网络中,利用梯度下降法,对网络参数进行迭代更新,直至网络总损失函数收敛为止,得到训练好的网络并保存权重;步骤7,检测车道线:采用与步骤5相同的方法,将预处理后待检测的含有车道线的图像依次输入训练好的非对称双边注意力网络,输出车道线检测结果。2.根据权利要求1所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤1中所述的初步特征提取子网络是由图像输入层,初步特征提取层,输出层组依次串联;所述输出层组由高级特征输出层与低级特征输出层并联组成。3.根据权利要求1所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤4.1中所述特征融合层是由张量堆砌层和卷积层串联组成的,将卷积层的卷积核大小设置为1
×
1,步长设置为1。4.根据权利要求1所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤4.2中所述实例分支由dropout层、卷积层和上采样层依次串联组成,将dropout层中dropout的概率设置为0.1;将卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0;上采样层采用双线性插值算法。5.根据权利要求1所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤4.2中所述存在分支由dropout层、卷积层、softmax层、平均池化层、维度重排层、第1线性层、第1激活层、第2线性层和第2激活层依次串联组成;将dropout层中dropout的概率设置为0.1;卷积层的卷积核大小设置为1
×
1,步长设置为1,填充设置为0;将平均池化层的池化核大小设置为2
×
2,步长设置为2,填充设置为0;第1激活层采用relu函数,第2激活层采用sigmoid函数。6.根据权利要求1所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤5中所述的预处理指的是,采用opencv中的resize函数,将图像尺寸裁剪为320
×
800;旋转操作为随机角度旋转,角度均匀分布在[-10
°
,+10
°
]之间;模糊操作采用opencv中的gaussianblur函数,模糊核大小为5
×
5,在水平和竖直方向上的高斯核标准差分别为1.0
×
10-6
和0.6。7.根据权利要求1所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤6.2中所述的网络总损失函数如下:l=w
bce
l
bce
+w
ce
l
ce
其中,l表示非对称双边注意力网络的总损失函数,w
bce
表示解码预测子网络中存在分支的二进制交叉熵损失函数的权重,l
bce
表示解码预测子网络中存在分支的二进制交叉熵损失函数,w
ce
表示解码预测子网络中实例分支的标准交叉熵损失函数的权重,l
ce
表示解码预测子网络中实例分支的标准交叉熵损失函数。8.根据权利要求7所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤6.2中所述网络总损失函数中的二进制交叉熵损失函数如下:
其中,s表示输入到解码预测子网络中存在分支的一张图片中像素点的总数,i表示输入到解码预测子网络中存在分支的一张图片中像素点的序号,y
i
表示第i个像素点的真值标签,log表示以2为底的对数操作,y'
i
表示经过解码预测子网络预测得到的第i个像素点的预测值。9.根据权利要求7所述的基于几何特征提取和位置信息编码的车道线检测方法,其特征在于,步骤6.2中所述网络总损失函数中的标准交叉熵损失函数如下:其中,∑表示求和操作,m表示车道线分类的总数,j表示车道线的序号,p
ij
表示第i个像素点是否属于第j条车道线的标签值,p'
ij
表示经过解码预测子网络预测得到的第i个像素点属于第j条车道线的可能性。

技术总结
本发明公开了一种基于几何特征提取和位置信息编码的车道线检测方法,解决了现有技术中没有考虑车道线几何特征和位置信息从而导致准确率较低以及计算量较大的问题。本发明实现的步骤包括:搭建初步特征提取子网络;搭建几何特征提取模块;搭建位置信息编码模块;构建非对称双边自注意力网络;生成训练集;训练非对称双边自注意力网络;检测车道线。本发设计的几何特征提取模块和位置信息编码模块能够充分提取并利用车道线的几何特征和位置信息,从而整体上提升车道线检测的性能,同时采用条形卷积核代替方形卷积核以减少计算量,对车道线检测的准确率和时效性有较好的平衡效果。果。果。


技术研发人员:张静 乐垚 郑淙耀 李云松
受保护的技术使用者:西安电子科技大学
技术研发日:2023.06.15
技术公布日:2023/9/6
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐