一种基于深度学习的小目标检测方法

未命名 08-22 阅读:158 评论:0


1.本发明涉及一种小目标检测方法,特别涉及一种基于深度学习的小目标检测方法。


背景技术:

2.目前,深度学习技术在计算机视觉领域取得了长足的进步。目标检测在输入图像中检测出所有感兴趣的目标,并确定这些目标出现的位置及对应的类别。传统的目标检测算法先通过滑动窗口获得大量候选区域,再对初步定位的区域提取特征,最后根据提取的特征使用训练的分类器进行检测。传统目标检测算法运算量大,并且识别效果和准确率并不理想。基于深度学习的目标检测方法主要分为两类,即两阶段目标检测和一阶段目标检测。yolov5作为一阶段目标检测算法,将对象检测重新定义为一个回归问题,使用cspdarknet-53作为主干网络对输入图像进行特征提取,并采用特征金字塔网络(feature pyramid network,fpn)和路径聚合网络(path aggregation network,pan)进行多尺度特征融合,得到三个不同尺度的输出特征层,最终经过预测部分检测出物体类别和位置。当前的方法虽然对目标检测的速度和精度都有了一定程度的提高,但无法兼顾较小的局部特征,不足以在一些应用场景下应对小目标检测任务的精度要求,因此需要改进多尺度特征融合结构,优化损失函数计算,以便提升基于深度学习的目标检测模型对于小目标的检测性能。


技术实现要素:

3.本发明的目的是为了解决现有的小目标检测方法中存在的无法兼顾较小的局部特征,不足以在一些应用场景下应对小目标检测任务的精度要求的问题,而提供的一种基于深度学习的小目标检测方法。
4.本发明提供的基于深度学习的小目标检测方法,其方法包括的步骤如下:
5.第一步、获取图像样本,构建训练集;
6.第二步、小目标检测模型的构建,具体步骤如下:
7.步骤1、在输入端对输入图像采用马赛克增强的方式进行数据预处理;
8.步骤2、通过主干网络来提取图像的特征;
9.步骤3、通过基于特征金字塔的结构将提取的特征进行处理得到多尺度融合特征;
10.在输入图像上进行深度卷积,不断进行下采样操作,再对高层特征进行上采样,对具有相同尺寸的特征图在通道维度上进行拼接操作,达到特征融合目的,即通过结合自上而下和自下而上方法获得较强的语义特征,运用浅层的细节信息提升模型对于小目标的检测性能;
11.步骤4、采用综合矩形框损失、分类损失和置信度损失的损失函数,其中矩形框损失是通过基于双参数加权的完全交并比损失来计算的,对深度网络进行训练,得到小目标检测模型,矩形框损失等同于基于双参数加权的完全交并比损失loss
αβ-ciou
,具体公式如
下:
[0012][0013]
其中b和bgt分别表示预测框和真实框的中心点,ρ表示两个中心点之间的欧式距离,c表示预测框和真实框的最小闭包区域的对角线距离,δ是权重参数,v用来衡量预测框宽高比和真实框宽高比的相似度,iou是预测框与真实框的交并比,其中:
[0014][0015]
第三步:将待检测的图像,利用上述第二步得到的小目标检测模型实现目标检测,具体步骤如下:
[0016]
在输入端对待检测的图像进行自适应黑边填充预处理;通过主干网络对输入图像进行特征提取;通过基于特征金字塔的网络结构将提取到的特征进行处理,得到多尺度的融合特征;通过预测端对于得到的多尺度融合特征图进行网格化预测,由预测出来的物体目标框和置信度获得图像的目标检测效果。
[0017]
第二步的步骤2中的主干网络包括cbs卷积模块、csp1_x模块和sppf模块,在cbs模块中,conv为卷积层,用于提取特征,通过对输入图像进行采样从而获得更加丰富的特征信息;bn为批量归一化,利用优化方差大小和均值分布,加速模型训练;silu为swish激活函数,是sigmoid加权线性组合。
[0018]
第二步的步骤3中包含cbs模块、upsample、concat和csp2_x模块,特征金字塔浅层的特征图语义信息较少,主要反映细节信息,其所携带的位置信息更强,深层的特征所携带的语义信息较丰富,而位置信息更弱,特征金字塔结构的思想就是通过特征融合把深层的语义信息与浅层的细节信息相结合,兼顾了细节和整体,基于fpn结构进行改进的具体实现过程如下:
[0019]
网络主干部分的快速空间金字塔池化模块的输出经过1个卷积核大小为1
×
1的cbs模块,再通过采用最近邻差值方式的2倍上采样后与第6层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,经过1个csp2_x模块后,作为预测端的其中一个输入;在csp2_x模块后继续通过1个卷积核大小为1
×
1的cbs模块和最近邻差值方式的2倍上采样,与第4层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,再经过1个csp2_x模块后,作为预测端的第二个输入;继续通过1个卷积核大小为1
×
1的cbs模块和最近邻差值方式的2倍上采样,与第2层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,再经过csp2_x模块后,作为预测端的第三个输入,此时获得3个不同尺寸的融合特征图。
[0020]
第二步步骤4中得到小目标检测模型的具体步骤如下:
[0021]
1)、网络模型的预测部分中,在3个不同尺寸的特征图上划分网格,每个网格都预设3个不同宽高比的锚框,用来预测和回归目标,预测时采取跨网格扩充的策略,即当1个gt的中心点落在某个检测层上的某个网格中,除了中心点所在的网格之外,其左、上、右、下4个邻域的网格中,靠近gt中心点的两个网格中的锚框也会参与预测和回归,具体公式如下所示:
[0022]bx
=2σ(t
x
)-0.5+c
x
[0023]by
=2σ(ty)-0.5+cy[0024]bw
=pw×
(2σ(tw))2[0025]bh
=ph×
(2σ(th))2ꢀꢀꢀꢀ
(1)
[0026]
其中bx、by、bw、bh表分别示预测框的中心点坐标、宽度和高度,cx、cy分别表示预测框中心点所在网格的左上角坐标,tx、ty分别控制预测框的中心点相对于网格左上角坐标的偏移量大小,tw、th分别控制预测框的宽高相对于锚框宽高的缩放比例,pw、ph分别表示先验锚框的宽和高,公式中使用sigmoid函数处理偏移量,使预测的偏移值保持在(0,1)范围内,从而使得预测框中心点坐标的偏移量保持在(-0.5,1.5)范围内;
[0027]
2)、对特征图的每个网格进行预测之后,将得到的预测信息与真实信息进行对比,从而调整模型的改进方向,损失函数能够衡量预测信息和真实信息之间的差距,若预测信息越接近真实信息,则损失函数值越小,损失函数主要包含三个方面:矩形框损失loss
bbox
、分类损失loss
cls
和置信度损失loss
obj
,具体公式如下:
[0028]
loss=box
gain
×
loss
bbox
+cls
gain
×
loss
cls
+obj
gain
×
loss
obj
ꢀꢀꢀ
(2)
[0029]
其中box
gain
为矩形框损失的权重系数,设置为0.05,cls
gain
为分类损失的权重系数,设置为0.5,obj
gain
为置信度损失的权重系数,设置为1.0;
[0030]
对于矩形框损失,使用基于交并比的损失函数进行计算,交并比能够衡量目标检测中预测框与真实框的重叠程度,若预测框为a,真实框为b,则交并比的具体公式如下:
[0031][0032]
yolov5计算矩形框损失,公式如下:
[0033][0034]
其中b和bgt分别表示预测框和真实框的中心点,ρ表示两个中心点之间的欧式距离,c表示预测框和真实框的最小闭包区域的对角线距离,δ是权重参数,v用来衡量预测框和真实框宽高比的相似度,具体公式如下:
[0035][0036][0037]
在此基础上采用基于双参数加权的完全交并比损失loss
αβ-ciou
的计算矩形框损失,具体公式如下:
[0038][0039]
对于分类损失,使用二元交叉熵函数计算,具体公式如下:
[0040]
[0041]
其中y为输入样本对应的标签,正样本为1,负样本为0,p为模型预测该输入样本为正样本的概率;
[0042]
对于置信度损失,根据网格对应的预测框与真实框的αβ-ciou值作为该预测框的置信度标签,并结合二元交叉熵函数进行计算,具体公式如下:
[0043]
loss
obj
=-lable
×
log p-(1-lable)
×
log(1-p)
ꢀꢀꢀꢀꢀ
(8)
[0044]
其中lable为置信度标签矩阵,p为预测置信度矩阵;
[0045]
对于不同尺度上检测到的置信度损失,按照检测层尺度从大到小的顺序,将对应尺度默认的权重系数分别改进为3.0、1.0、0.4,即用于检测小目标的大尺度特征图上的损失权重系数为3.0,能使得网络在训练时侧重于小目标;
[0046]
3)、通过上述的损失函数,对网络模型进行多轮训练,在训练中不断调整参数,损失函数值逐渐减低,直至模型达到收敛,得到训练好的目标检测模型。
[0047]
本发明的有益效果:
[0048]
本发明提供的基于深度学习的小目标检测方法预先利用公开的图像数据集对yolov5 v6.1的模型进行改进,通过训练得到用于检测的改进版yolo模型,该模型包括输入部分、主干部分,多尺度特征融合网络部分和预测部分。该方法改进特征融合部分的网络结构,使用fpn代替原先网络模型中的fpn+pan结构,使得整体网络结构不再臃肿,不仅压缩了网络模型,有效减少了计算量,并且更有效地利用了浅层次网络中提取的特征信息,在识别小目标物体上达到了理想的效果。采用基于双参数加权的完全交并比损失函数能让网络模型更加关注高交并比值目标,并有效提升小目标物体的检测准确度。
附图说明
[0049]
图1为本发明所述的利用公开的目标检测数据集训练模型的流程示意图。
[0050]
图2为本发明所述的改进的目标检测网络模型结构示意图。
[0051]
图3为本发明所述的csb模块结构示意图。
[0052]
图4为本发明所述的csp1_x模块结构示意图。
[0053]
图5为本发明所述的sppf模块结构示意图。
[0054]
图6为本发明所述的csp2_x模块结构示意图。
[0055]
图7为本发明所述的fpn结构示意图。
具体实施方式
[0056]
请参阅图1至图7所示:
[0057]
本发明提供的基于深度学习的小目标检测方法;
[0058]
所需条件:普通pc机,操作系统采用ubuntu 18.04.3,显卡nvidia geforce rtx 2080ti,深度学习框架为pytorch 1.8.1,编译环境python3.6.13。
[0059]
具体步骤如下:
[0060]
第一步、获取图像样本,构建训练集;
[0061]
第二步、小目标检测模型的构建,具体步骤如下:
[0062]
步骤1、将待训练的图像数据集进行马赛克增强数据预处理。采用马赛克数据增强的方式,从数据集中每次随机读取4张图片分别进行翻转、缩放、色域变化等操作,再将4张
图片按照左上、左下、右上、右下排列拼接成一张新的图片,主要用于丰富数据集并在训练过程中提升小目标检测的性能;
[0063]
在本技术实施例中,目标检测数据集为visdrone目标检测数据集。可以根据实际应用进行选取,本技术实施例不加以限定。
[0064]
步骤2、通过主干网络提取图像特征,主要包括cbs卷积模块、csp1_x模块和sppf模块。在cbs模块中,conv为卷积层,用于提取特征,通过对输入图像进行采样从而获得更加丰富的特征信息;bn为批量归一化,利用优化方差大小和均值分布,加速模型训练;silu为swish激活函数,是sigmoid加权线性组合,该模块结构如图3所示。另包含csp1_x模块,如图4所示;sppf模块如图5所示。通过以上模块提取图像特征;
[0065]
步骤3、通过基于fpn结构的特征融合部分,将提取的图像特征进行多尺度融合,该部分包含cbs模块、upsample、concat、csp2_x模块,csp2_x模块结构如图6所示,fpn结构如图7所示。特征金字塔浅层的特征图语义信息较少,主要反映细节信息,其所携带的位置信息更强,深层的特征所携带的语义信息较丰富,而位置信息更弱。特征金字塔结构的思想就是通过特征融合把深层的语义信息与浅层的细节信息相结合,兼顾了细节和整体。基于fpn结构进行改进的具体实现过程如下:
[0066]
网络主干部分的快速空间金字塔池化模块的输出经过1个卷积核大小为1
×
1的cbs模块,再通过采用最近邻差值方式的2倍上采样后与第6层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,经过1个csp2_x模块后,作为预测端的其中一个输入;在csp2_x模块后继续通过1个卷积核大小为1
×
1的cbs模块和最近邻差值方式的2倍上采样,与第4层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,再经过1个csp2_x模块后,作为预测端的第二个输入;继续通过1个卷积核大小为1
×
1的cbs模块和最近邻差值方式的2倍上采样,与第2层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,再经过csp2_x模块后,作为预测端的第三个输入,此时获得3个不同尺寸的融合特征图。
[0067]
步骤4、采用综合矩形框损失、分类损失和置信度损失的损失函数,其中矩形框损失是通过基于双参数加权的完全交并比损失来计算的,对深度网络进行训练,得到小目标检测模型。具体如下:
[0068]
1)、网络模型的预测部分中,在3个不同尺寸的特征图上划分网格,每个网格都预设3个不同宽高比的锚框,用来预测和回归目标。预测时采取跨网格扩充的策略,即当1个gt的中心点落在某个检测层上的某个网格中,除了中心点所在的网格之外,其左、上、右、下4个邻域的网格中,靠近gt中心点的两个网格中的锚框也会参与预测和回归,具体公式如下所示:
[0069][0070]
其中bx、by、bw、bh表分别示预测框的中心点坐标、宽度和高度,cx、cy分别表示预测框中心点所在网格的左上角坐标,tx、ty分别控制预测框的中心点相对于网格左上角坐
标的偏移量大小,tw、th分别控制预测框的宽高相对于锚框宽高的缩放比例,pw、ph分别表示先验锚框的宽和高。公式中使用sigmoid函数处理偏移量,使预测的偏移值保持在(0,1)范围内,从而使得预测框中心点坐标的偏移量保持在(-0.5,1.5)范围内。
[0071]
2)、对特征图的每个网格进行预测之后,将得到的预测信息与真实信息进行对比,从而调整模型的改进方向。损失函数可以衡量预测信息和真实信息之间的差距,若预测信息越接近真实信息,则损失函数值越小。本发明的损失函数主要包含三个方面:矩形框损失(loss
bbox
)、分类损失(loss
cls
)、置信度损失(loss
obj
)具体公式如下:
[0072]
loss=box
gain
×
loss
bbox
+cls
gain
×
loss
cls
+obj
gain
×
loss
obj
ꢀꢀ
(2)
[0073]
其中box
gain
为矩形框损失的权重系数,本发明设置为0.05,cls
gain
为分类损失的权重系数,本发明设置为0.5,obj
gain
为置信度损失的权重系数,本发明设置为1.0。
[0074]
对于矩形框损失,使用基于交并比的损失函数进行计算。交并比可以衡量目标检测中预测框与真实框的重叠程度,若预测框为a,真实框为b,则交并比的具体公式如下:
[0075][0076]
yolov5计算矩形框损失,公式如下:
[0077][0078]
其中b和bgt分别表示预测框和真实框的中心点,ρ表示两个中心点之间的欧式距离,c表示预测框和真实框的最小闭包区域的对角线距离,δ是权重参数,v用来衡量预测框和真实框宽高比的相似度,具体公式如下:
[0079][0080][0081]
本发明在此基础上采用基于双参数加权的完全交并比损失loss
αβ-ciou
的计算矩形框损失,具体公式如下:
[0082][0083]
对于分类损失,使用二元交叉熵函数计算,具体公式如下:
[0084][0085]
其中y为输入样本对应的标签(正样本为1,负样本为0),p为模型预测该输入样本为正样本的概率。
[0086]
对于置信度损失,根据网格对应的预测框与真实框的αβ-ciou值作为该预测框的置信度标签,并结合二元交叉熵函数进行计算,具体公式如下:
[0087]
loss
obj
=-lable
×
log p-(1-lable)
×
log(1-p)
ꢀꢀ
(8)
[0088]
其中lable为置信度标签矩阵,p为预测置信度矩阵。
[0089]
对于不同尺度上检测到的置信度损失,按照检测层尺度从大到小的顺序,将对应尺度默认的权重系数分别改进为3.0、1.0、0.4,即用于检测小目标的大尺度特征图上的损
失权重系数为3.0,能使得网络在训练时侧重于小目标。
[0090]
3)、通过上述的损失函数,对网络模型进行多轮训练,在训练中不断调整参数,损失函数值逐渐减低,直至模型达到收敛,得到训练好的目标检测模型。
[0091]
第三步、将待检测的图像,利用上述第二步得到的小目标检测模型实现目标检测,具体实现过程如下。
[0092]
先对输入图像进行自适应图片缩放,将原始图片自适应添加最少黑边,再将处理后的待检测图像输入主干网络提取特征;通过fpn结构的特征融合部分将提取的特征进行处理得到多尺度融合特征图;通过预测端处理多尺度融合特征图预测出物体的类别、边界框以及置信度;由预测出来的物体类别、置信度、边界框信息获得图像最终的目标检测效果。

技术特征:
1.一种基于深度学习的小目标检测方法,其特征在于:其方法包括的步骤如下:第一步、获取图像样本,构建训练集;第二步、小目标检测模型的构建,具体步骤如下:步骤1、在输入端对输入图像采用马赛克增强的方式进行数据预处理;步骤2、通过主干网络来提取图像的特征;步骤3、通过基于特征金字塔的结构将提取的特征进行处理得到多尺度融合特征;在输入图像上进行深度卷积,不断进行下采样操作,再对高层特征进行上采样,对具有相同尺寸的特征图在通道维度上进行拼接操作,达到特征融合目的,即通过结合自上而下和自下而上方法获得较强的语义特征,运用浅层的细节信息提升模型对于小目标的检测性能;步骤4、采用综合矩形框损失、分类损失和置信度损失的损失函数,其中矩形框损失是通过基于双参数加权的完全交并比损失来计算的,对深度网络进行训练,得到小目标检测模型,矩形框损失等同于基于双参数加权的完全交并比损失loss
αβ-ciou
,具体公式如下:其中b和bgt分别表示预测框和真实框的中心点,ρ表示两个中心点之间的欧式距离,c表示预测框和真实框的最小闭包区域的对角线距离,δ是权重参数,v用来衡量预测框宽高比和真实框宽高比的相似度,iou是预测框与真实框的交并比,其中:第三步:将待检测的图像,利用上述第二步得到的小目标检测模型实现目标检测,具体步骤如下:在输入端对待检测的图像进行自适应黑边填充预处理;通过主干网络对输入图像进行特征提取;通过基于特征金字塔的网络结构将提取到的特征进行处理,得到多尺度的融合特征;通过预测端对于得到的多尺度融合特征图进行网格化预测,由预测出来的物体目标框和置信度获得图像的目标检测效果。2.根据权利要求1所述的一种基于深度学习的小目标检测方法,其特征在于:所述的第二步的步骤2中的主干网络包括cbs卷积模块、csp1_x模块和sppf模块,在cbs模块中,conv为卷积层,用于提取特征,通过对输入图像进行采样从而获得更加丰富的特征信息;bn为批量归一化,利用优化方差大小和均值分布,加速模型训练;silu为swish激活函数,是sigmoid加权线性组合。3.根据权利要求1所述的一种基于深度学习的小目标检测方法,其特征在于:所述的第二步的步骤3中包含cbs模块、upsample、concat和csp2_x模块,特征金字塔浅层的特征图语义信息较少,主要反映细节信息,其所携带的位置信息更强,深层的特征所携带的语义信息较丰富,而位置信息更弱,特征金字塔结构的思想就是通过特征融合把深层的语义信息与浅层的细节信息相结合,兼顾了细节和整体,基于fpn结构进行改进的具体实现过程如下:网络主干部分的快速空间金字塔池化模块的输出经过1个卷积核大小为1
×
1的cbs模块,再通过采用最近邻差值方式的2倍上采样后与第6层的csp1_x模块的输出执行拼接操
作,将特征图在通道维度上进行拼接形成融合特征图,经过1个csp2_x模块后,作为预测端的其中一个输入;在csp2_x模块后继续通过1个卷积核大小为1
×
1的cbs模块和最近邻差值方式的2倍上采样,与第4层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,再经过1个csp2_x模块后,作为预测端的第二个输入;继续通过1个卷积核大小为1
×
1的cbs模块和最近邻差值方式的2倍上采样,与第2层的csp1_x模块的输出执行拼接操作,将特征图在通道维度上进行拼接形成融合特征图,再经过csp2_x模块后,作为预测端的第三个输入,此时获得3个不同尺寸的融合特征图。4.根据权利要求1所述的一种基于深度学习的小目标检测方法,其特征在于:所述的第二步的步骤4中得到小目标检测模型的具体步骤如下:1)、网络模型的预测部分中,在3个不同尺寸的特征图上划分网格,每个网格都预设3个不同宽高比的锚框,用来预测和回归目标,预测时采取跨网格扩充的策略,即当1个gt的中心点落在某个检测层上的某个网格中,除了中心点所在的网格之外,其左、上、右、下4个邻域的网格中,靠近gt中心点的两个网格中的锚框也会参与预测和回归,具体公式如下所示:b
x
=2σ(t
x
)-0.5+c
x
b
y
=2σ(t
y
)-0.5+c
y
b
w
=p
w
×
(2σ(t
w
))2b
h
=p
h
×
(2σ(t
h
))2ꢀꢀꢀꢀ
(1)其中bx、by、bw、bh表分别示预测框的中心点坐标、宽度和高度,cx、cy分别表示预测框中心点所在网格的左上角坐标,tx、ty分别控制预测框的中心点相对于网格左上角坐标的偏移量大小,tw、th分别控制预测框的宽高相对于锚框宽高的缩放比例,pw、ph分别表示先验锚框的宽和高,公式中使用sigmoid函数处理偏移量,使预测的偏移值保持在(0,1)范围内,从而使得预测框中心点坐标的偏移量保持在(-0.5,1.5)范围内;2)、对特征图的每个网格进行预测之后,将得到的预测信息与真实信息进行对比,从而调整模型的改进方向,损失函数能够衡量预测信息和真实信息之间的差距,若预测信息越接近真实信息,则损失函数值越小,损失函数主要包含三个方面:矩形框损失loss
bbox
、分类损失loss
cls
和置信度损失loss
obj
,具体公式如下:loss=box
gain
×
loss
bbox
+cls
gain
×
loss
cls
+obj
gain
×
loss
obj (2)其中box
gain
为矩形框损失的权重系数,设置为0.05,cls
gain
为分类损失的权重系数,设置为0.5,obj
gain
为置信度损失的权重系数,设置为1.0;对于矩形框损失,使用基于交并比的损失函数进行计算,交并比能够衡量目标检测中预测框与真实框的重叠程度,若预测框为a,真实框为b,则交并比的具体公式如下:yolov5计算矩形框损失,公式如下:其中b和bgt分别表示预测框和真实框的中心点,ρ表示两个中心点之间的欧式距离,c表示预测框和真实框的最小闭包区域的对角线距离,δ是权重参数,v用来衡量预测框和真实框宽高比的相似度,具体公式如下:
在此基础上采用基于双参数加权的完全交并比损失loss
αβ-ciou
的计算矩形框损失,具体公式如下:对于分类损失,使用二元交叉熵函数计算,具体公式如下:其中y为输入样本对应的标签,正样本为1,负样本为0,p为模型预测该输入样本为正样本的概率;对于置信度损失,根据网格对应的预测框与真实框的αβ-ciou值作为该预测框的置信度标签,并结合二元交叉熵函数进行计算,具体公式如下:loss
obj
=-lable
×
logp-(1-lable)
×
log(1-p)
ꢀꢀꢀꢀꢀ
(8)其中lable为置信度标签矩阵,p为预测置信度矩阵;对于不同尺度上检测到的置信度损失,按照检测层尺度从大到小的顺序,将对应尺度默认的权重系数分别改进为3.0、1.0、0.4,即用于检测小目标的大尺度特征图上的损失权重系数为3.0,能使得网络在训练时侧重于小目标;3)、通过上述的损失函数,对网络模型进行多轮训练,在训练中不断调整参数,损失函数值逐渐减低,直至模型达到收敛,得到训练好的目标检测模型。

技术总结
本发明公开了一种基于深度学习的小目标检测方法,其方法为:第一步、获取图像样本,构建训练集;第二步、小目标检测模型的构建;第三步:将待检测的图像,利用上述第二步得到的小目标检测模型实现目标检测,有益效果:通过训练得到用于检测的改进版YOLO模型,使得整体网络结构不再臃肿,不仅压缩了网络模型,有效减少了计算量,并且更有效地利用了浅层次网络中提取的特征信息,在识别小目标物体上达到了理想的效果。采用基于双参数加权的完全交并比损失函数能让网络模型更加关注高交并比值目标,并有效提升小目标物体的检测准确度。并有效提升小目标物体的检测准确度。并有效提升小目标物体的检测准确度。


技术研发人员:卢奕南 赵浩权 赵柯贤
受保护的技术使用者:吉林大学
技术研发日:2023.05.29
技术公布日:2023/8/21
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐