训练、预警发送方法、系统、装置、设备和介质与流程
未命名
10-18
阅读:156
评论:0
1.本技术人工智能、预警发送技术领域,尤其涉及一种目标检测模型训练、预警发送方法、系统、装置、设备和存储介质。
背景技术:
2.目前主流的目标检测算法中,通常是利用卷积神经网络,对输入图片进行卷积池化操作,再对位置信息进行回归,得到识别主体的检测信息,例如位置信息和大小信息,其中的位置信息一般使用检测框(如矩形框)表示。然而,传统的算法对人、车、动物等常见主体比较通用,但是,面对牵绳(如牵狗绳)这类非常见主体并不适用,导致识别准确率并不高。
技术实现要素:
3.基于此,有必要针对上述技术问题,提供一种目标检测模型训练、预警发送方法、系统、装置、设备和存储介质,以解决面对牵绳(如牵狗绳)这类非常见主体并不适用,导致识别准确率并不高的技术问题。
4.本技术第一方面提供了一种目标检测模型训练方法,包括:
5.获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;
6.将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;
7.所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。
8.在一实施方式中,所述将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型,包括:
9.所述输入网络用于对提取输入的所述训练图片进行数据增强,并将增强后的所述训练图片输入至所述骨干网络;
10.所述骨干网络用于对增强后的所述训练图片进行特征提取,得到至少一个尺度的初始特征图,并将所述至少一个尺度的初始特征图输入至所述检测颈网络;
11.所述检测颈网络用于对所述至少一个尺度的初始特征图进行特征融合,得到至少一个尺度的融合特征图,并将多尺度的所述融合特征图输入至所述检测头网络;
12.所述检测头网络用于对所述至少一个尺度的融合特征图进行检测,得到至少一个尺度的预测信息,所述预测信息包括所述标注对象的位置、分类和置信度;
13.将所述训练图片对应的所述预测信息,和所述训练图片标注的所述真实标签送入预设损失函数进行反向传播,并通过多轮迭代,得到符合所述预设条件的所述目标检测模型。
14.在一实施方式中,所述目标对象包括狗。
15.本技术第二方面提供了一种基于网络模型的预警发送方法,包括:
16.获取监控设备拍摄的被检测图片;
17.将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象;所述目标检测模型为采用所述的目标检测模型训练方法得到;
18.根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳;
19.当所述目标对象未被牵绳子,则基于所述目标对象未牵绳的被检测图片和所述监控设备的位置信息生成预警事件信息;
20.将所述预警事件信息发送至管理终端。
21.本技术第三方面提供了一种目标检测模型训练装置,包括:
22.获取模块,用于获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;
23.训练模块,用于将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;
24.其中,所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。
25.本技术第四方面提供了一种基于网络模型的预警发送装置,包括:
26.获取模块,用于获取监控设备拍摄的被检测图片;
27.输入模块,用于将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象;所述目标检测模型为采用前述的目标检测模型训练方法得到;
28.判定模块,用于根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳;
29.生成模块,用于当所述目标对象未被牵绳子,则基于所述目标对象未牵绳的被检测图片和所述监控设备的位置信息生成预警事件信息;
30.发送模块,用于将所述预警事件信息发送至管理终端。
31.本技术第五方面,提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如前述任一项所述方法的步骤。
32.本技术第六方面提供了一种基于网络模型的预警发送系统,所述系统包括监控设备、管理终端和如前述的计算机设备。
33.在一实施方式中,所述计算机设备包括边缘盒子。
34.本技术第七方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如前述任一项所述方法的步骤。
35.上述方案所提供的其中一个方案中,利用骨干网络使用空洞卷积方式处理,代替了骨干网络池化层的平均池化或最大值池化,可以理解,使普通卷积核的部分位置参与计算,其他位置不参与计算,这样可以避免骨干网络的池化层对牵绳这细长物体信息的丢弃和破坏,提高了牵绳的识别准确率。
附图说明
36.为了更清楚地说明本技术实施例的技术方案,下面将对本技术实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
37.图1是本技术一实施例中目标检测模型训练方法的一流程示意图;
38.图2是传统的目标检测方案中卷积层的处理方式示意图;
39.图3是本技术一实施例中预设神经网络的卷积处理处理方式示意图;
40.图4是本技术一实施例中预设神经网络的网络架构示意图;
41.图5是本技术一实施例中预警发送方法的一流程示意图;
42.图6-a是本技术一实施例中管理终端显示预警信息的一显示示意图;
43.图6-b是本技术一实施例中管理终端显示预警信息的另一显示示意图;
44.图7是图5步骤s103的一具体实施方式流程示意图;
45.图8是本技术一实施例中牵狗绳的检测框与狗的检测框未相交时的检测示意图;
46.图9是本技术一实施例中牵狗绳的检测框与狗的检测框相交时的检测示意图;
47.图10是本技术一实施例多只狗场景下的检测判断示意图;
48.图11是本技术一实施例最终决策目标对象是否被牵绳的一流程示意图;
49.图12是本技术一实施例中目标检测模型训练装置的一结构示意图;
50.图13是本技术一实施例中预警发送装置的一结构示意图;
51.图14是本技术一实施例中计算机设备的一示意图;
52.图15是本技术一实施例中预警发送系统的其中两种解决方案示意图。
具体实施方式
53.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
54.本实施例提供了目标检测模型训练方法,和基于该训练好的目标检测模型,所采用的各种应用场景中,包括提供了基于该目标检测模型的预警发送方法,该预警发送方法可用于诸如小区、社区、公园等公共场所中,以用于检测上述场所中目标对象是否有牵绳,便于后续公共场所的管理,该目标对象包括狗、猫等动物,具体不做限定。下面,对本技术实施例提供的目标检测模型训练方法,和基于神经网络的预警发送方法进行详细的描述。
55.在一实施例中,如图1所示,提供了一种目标检测模型训练方法,包括如下步骤:
56.s10:获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;
57.s20:将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型,所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式,该真实标签用于对标注对象进行分类的标注。
58.其中,所述预设神经网络的输出符合预设条件,包括该目标检测模型收敛,关于模型训练收敛条件,在此不详细展开说明。
59.值得注意的是,本技术实施例针对牵绳这种检测场景,提出了一种新的预设神经网络,是一种新的深度学习网络架构,用于训练出上述目标检测模型,能够检测到牵绳这类细长的物体,其中,目标对象(狗)、牵绳(牵狗绳)的检测,是为了下一步判定目标对象是否有牵绳的重要依据,因此,需要准确的知道检测对象的检测信息,包括位置、类别和大小信息等。发明人经过研究发现,目前主流的目标检测算法中,通常是利用卷积神经网络,对输入图片进行卷积池化操作,再对位置信息进行回归,得到识别主体的检测信息,例如位置信息和大小信息,其中的位置信息一般使用检测框(如矩形框)表示。然而,传统的算法对人、车、动物等常见主体比较通用,但是,面对牵绳(如牵狗绳)这类非常见主体并不适用,导致识别准确率并不高,因为牵绳属于细长的物体,甚至在通常监测得到的视频中,长度可能有上百个像素,但宽度仅几个像素,传统方案并不能有效的检测出牵绳。为解决该技术问题,本技术实施例特提供了一种新的预设神经网络架构,通过本技术提供的预设神经网络架构训练得到的目标检测模型用于对检测对象进行识别,在不减小常见主体检测准确率的基础上,大大提升了对牵绳这类细长主体的检测准确率。
60.可以理解的是,常规的卷积神经网络在处理图像的过程中,为了减小特征图的尺寸提取更高维度的特征,往往会使用池化层,如图2所示。池化层的处理方式分为平均池化(average pooling)和最大值池化(max pooling),池化过程中,会分别对图取范围类内的像素值的平均值或最大值作为结果,该方式在处理细长主体时,会忽略或改变原始信息,所以对细长主体检测准确率低。
61.本技术实施例提供的预设神经网络中,如图3所示,利用空洞卷积代替了普通的池化层(平均池化或最大值池化),可以理解,空洞卷积是指普通卷积核的部分位置参与计算,其他位置不参与计算,这样可以避免池化层对图片信息的丢弃和破坏,同时也可以缩小特征图尺寸,减少了工作量。
62.基于上述改进特点,本技术提供的一种预设神经网络的架构图如图4所示,该预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,各个网络的作用如下所示:
63.所述输入网络用于对提取输入的所述训练图片进行数据增强,并将增强后的所述训练图片输入至所述骨干网络;如图4所示,示例性的,该输入的训练图片可以是一尺寸为640*640*3的图片,其中,训练图片分别对标注对象标注有真实标签,包括人、狗和牵狗绳。并对输入的训练图像进行数据增强,便于后续特征提取和识别,具体的数据增强方式不做限定。
64.所述骨干网络用于对增强后的所述训练图片进行特征提取,得到至少一个尺度的初始特征图,并将所述至少一个尺度的初始特征图输入至所述检测颈网络。需要说明的是,本技术实施例中的骨干网络的卷积处理采用空洞卷积的处理方式,而非普通卷积层处理方式,该骨干网络可以采用成熟的骨干网络,不同的地方在于卷积层采用的空洞卷积处理方式,具体的骨干网络的更多架构本技术不做限定和详细展开说明。示例性的,该骨干网络可以包括依次连接的空洞卷积层和向下采样模块,用于将训练图片输入所述主干网络的空洞卷积层进行特征提取和空间维度降维后,使用向下采样模块提取更深的语义信息特征,得
到至少一个尺度的初始特征图。
65.所述检测颈网络用于对所述至少一个尺度的初始特征图进行特征融合,得到至少一个尺度的融合特征图,并将多尺度的所述融合特征图输入至所述检测头网络;在该检测颈网络中,进一步对至少一个尺度的融合特征图进行特征融合处理,融合多种尺度的特征,有利于提高检测精度,然后送入检测头网络中。
66.所述检测头网络用于接受检测颈网络经过融合过的至少一个融合特征图,并对所述至少一个尺度的融合特征图进行检测得到至少一个尺度的预测信息,所述预测信息包括所述标注对象的位置、分类和置信度,该标注对象至少包括牵绳、目标对象,还可以包括牵绳主体,取决于标注工作。例如分别进行三次不同尺度的卷积处理,得到三个不同尺度的预测结果,分别为32*32*225、16*16*225和8*8*225,其中的一维度预测信息包括位置(t
x
:目标所在矩形框左上角横坐标、ty:目标所在矩形框左上角横坐标、tw:目标所在矩形框的宽度、th:目标所在矩形框的长度)、置信度(po)和类别(p1、p2...pc(c表示总类别))。最后将预测信息和真实标签送入预设损失函数进行反向传播,通过多轮迭代,便可训练得到最优的目标检测模型。其中,预设损失函数和反向传播方式在此不展开说明,可采用成熟的损失函数和反向传播方式,具体也不做限定。
67.需要说明的是,图4中的预设神经网络架构以及训练过程在此仅为一种实施例,基于上述预设神经网络架构,可以对应有其他的架构或者训练方式,具体本技术不做限定,例如改变输出尺度大小、卷积参数或者标注对象等,具体本技术均不做限定。
68.在一实施例中,上述目标对象可以是狗,当然,还可以包括猫等其他需要牵绳的对象,本技术实施例不做限定。
69.在一实施例中,基于上述训练好的目标检测模型,具体可以有多种用处,其中,就包括用于目标对象是否被牵绳的检测判定中,当然也可以用于场景的牵绳检测,本技术实施例均不做限定。在本技术实施例中,以目标对象是否被牵绳的检测判定的应用流程为例进行说明。
70.在一实施例中,如图5所示,本技术实施例提供了一种基于神经网络的前生,该方法包括如下步骤:
71.s101:获取监控设备拍摄的被检测图片。
72.本技术实施例主要是提供一种基于神经网络的预警发送方法,用于对被监控区域的目标对象是否有牵绳进行判定的方案,该被检测图片指的是被监控区域所对应的图片。示例性的,上述被监控区域包括是民众居住的小区环境,也可以指的是公园等公共场所,上述目标对象包括但不局限于宠物狗等,具体不做限定。为便于说明,在本实施例以及后续实施例中,将均会以目标对象为狗为例进行描述,具体不做限定。在具体实现时,可以通过在被监控区域布置监控设备(如摄像头),利用监控设备对被监控区域进行拍摄,从而获取到上述被检测图片。
73.s102:将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象。
74.在该实施例中,获取到被检测图片后,会将被检测图片输入至预先训练好的目标检测模型中,用该训练好的目标检测模型对被检测图片进行分析检测。该目标检测模型被构造为对被检测图片的检测对象进行检测和分类,其中,该检测对象包括牵绳和目标对象,
也即,利用该训练好的目标检测模型,可以检测识别出被检测图片中的牵绳和目标对象,并生成检测对象对应的检测框。示例性的,通过该目标检测模型,可以检测识别出被检测图片中的牵狗绳和狗,并生成牵狗绳和狗的检测框,其中,关于该目标检测模型的更多内容将在后续实施例中描述,这里先不展开。
75.s103:根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳。
76.s104:当所述目标对象未被牵绳子,则基于所述被检测图片和监控设备的位置信息生成预警事件信息;
77.s105:将所述预警事件信息发送至管理终端。
78.在该实施例中,将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中牵绳和目标对象的检测框后,会根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳。例如,会根据牵狗绳的检测框和狗的检测框的相交情况,判定所述被检测图片中所述狗是否被牵狗绳。
79.通过该实施例可见,本技术实施例与传统的预警发送方法相比具有较大的差异,本技术通过预先训练好的目标检测模型先识别出牵绳和目标对象的检测框,然后利用二者检测框的相交来判定目标对象是否有牵绳,也即利用了牵绳和目标对象二者检测框的相交情况,来判定目标对象的牵绳状态。而不是简单利用人和目标对象的远近来判定,极大了提高了目标对象是否被牵绳的判定准确率。然后,将基于该被检测图片生成对应的预警信息,发送管理终端,使得管理终端得知此时存在未牵绳情况,以便管理人员做出后续处理方案。
80.在一实施例中,在得到最后的决策后的,可以保存监控视频的有关截图,用于管理人员辨识,同时将预先设置好的监控设备位置信息,一同发送到管理人员的管理终端(例如手机)app中。在手机app中,基于预警信息,在手机app中渲染出所需的信息,包括可以查看所有非法遛狗的事件信息,在事件列表界面,示意理性的,管理终端显示预警信息的方式可以如如图6-a所示,可以根据时间和位置排序,分别列出时间和位置最近的非法遛狗的事件,并显示一张缩略图和相关重要信息,例如时间12:51,1号摄像头,棕色金毛犬,持续时间23秒等等,需要说明的是,这个持续时间也可以是预警信息的一部分,发送给管理终端。在事件详情界面,也可如图6-b所示,可以显示多张非法遛狗的图片、具体的位置和时间信息等详情信息,例如,详情信息:棕色金毛犬,出现时间12:51:07,持续时间23秒,最后出现时间12:51:30...,请及时处理,便于管理人员进行干预处理。
81.需要说明的是,所述牵绳的检测框和所述目标对象的检测框的相交情况,表征了牵绳与被牵的目标对象之间的状态,因此可以根据所述牵绳的检测框和所述目标对象的检测框的相交情况,来判定所述被检测图片中所述目标对象是否被牵绳,在一实施例中,提供了一种所述被检测图片中所述目标对象是否被牵绳的具体的规则判断方式。如图7所示,在一实施例,上述步骤s103中,也即根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳,具体包括如下步骤:
82.s1031:判断所述牵绳的检测框和所述目标对象的检测框是否存在相交区域;当未存在所述相交区域,则执行步骤s1032:当存在所述相交区域,则执行步骤s1033-s1034;
83.s1032:判定所述被检测图片中所述目标对象未被牵绳;
84.s1033:获取所述相交区域占相并部分的比例,所述相并部分为所述牵绳的检测框
和所述目标对象的检测框的相并部分;
85.s1034:判断所述比例是否超过预设阈值;当所述比例超过预设阈值时,则执行步骤s1035,当所述比例未超过预设阈值时,则执行步骤s1032;
86.s1035:判定所述被检测图片中所述目标对象被牵绳。
87.对于步骤s1031-s1035,提供了一种具体的判断被检测图片中是否被牵绳的规则判断方式,先是判断所述牵绳的检测框和所述目标对象的检测框是否存在相交区域,如果未存在相交区域,则直接判定该被检测图片中该目标对象为未被牵绳,例如如图8所示,图8中的狗和牵狗绳的检测框并无相交部分;如果存在相交区域,那么说明被检测图片中目标对象存在被牵绳嫌疑,发明人经过研究得出一种判断方式,如果存在相交区域,则会获取所述相交区域占相并部分的比例,所述相并部分为所述牵绳的检测框和所述目标对象的检测框的相并部分,当所述比例未超过所述预设阈值时,则判定所述被检测图片中所述目标对象未被牵绳。
88.需要说明的是,通过目标检测模型可以可以得知牵绳和目标对象的位置信息,检测框也是基于检测出的位置信息所圈出来的,因此,通过牵绳和目标对象的位置信息便可得知二者检测框的相交部分的所占的比例。另外需要说明的是,上述预设阈值可以是一种经验值,在本技术实施例中不做具体限定。示例性的,如图9所示,以目标对象为狗为例,图9为其中一被检测图片中牵狗绳与狗的检测框示意图,可以看出,通过目标检测模型检测只是获得了狗和牵狗绳的位置和类别,并不能判断图片中的狗是否被牵了狗绳,因此需要在上述信息上进行规则判断。在本技术实施例中,提出的规则是,计算狗所在检测框和牵狗绳所在的检测框是否存在相交部分,当如图8所示存在相交部分时,则计算该相交部分占牵狗绳的检测框和狗的检测框的相并部分的比例,当该比例大于某个预设阈值的时候,就判断该狗存在牵狗绳的动作,也即该狗被牵狗绳,当该比例小于或等于某个预设阈值的时候,就判断该狗为未存在牵狗绳的动作,也即该只狗未被牵狗绳。
89.可以看出,在该实施例中提出了一种规则判断方式,提供了具体如何根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳的具体方式,提高了方案的可实施性,除此之外,还可以有其他根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳的具体方式,例如当判断所述牵绳的检测框和所述目标对象的检测框存在相交区域,也可以直接判定被检测图片中该目标对象被牵绳,具体不做限定,值得说明是,利用比例进一步判定的方式,准确率更高。
90.需要说明的是,在上述实施例中,被检测图片可以是指一帧图片,也可以是指包括多帧序列图片。其中,由于现实情况中存在不同角度、多只相同或不同目标对象的重叠等意外情况,例如被检测图片中存在多只狗重叠的场景,那么所以单凭一张图片的结果,可能无法准确的判断是否存在牵狗绳的行为,为了结论的准确性,在本技术实施例中,提供了一种结合监控视频的视频流的序列图片和目标检测模型输出的检测信息,来综合判断目标对象是否被牵绳子。也即是该实施例作为进一步的实施例,是一种最终决策的判定方案,下面详细描述。
91.在一实施例中,所述被检测图片包括从监控视频中抽帧得到的多张序列图片,所述步骤103之后,也即判定所述被检测图片中所述目标对象是否被牵绳之后,所述方法还包
括如下步骤:
92.s106:记录每张所述序列图片中,所述目标对象的牵绳状态;
93.s107:根据多张所述序列图片中所述目标对象的牵绳状态,获取所述目标对象在预设时段内的牵绳状态变化情况;
94.s108:当所述目标对象的牵绳状态在所述预设时段内保持为被牵绳状态,则判定所述监控视频中所述目标对象被牵绳;
95.s109:当所述目标对象的牵绳状态在所述预设时段内保持为未被牵绳状态,则判定所述监控视频中所述目标对象未被牵绳。
96.在一实施例,结合上述实施例,s104:当所述目标对象未被牵绳子,则基于所述被检测图片生成预警事件信息,指的是从监控视频中挑选出其中一个未牵绳的目标序列图片和位置信息生成预警信息。具体本技术不做限定。
97.对于步骤s106-s109,在分析出每一张序列图片的目标对象的牵绳状态(有牵绳或未牵绳)后,会记录每张序列图片中目标对象的牵绳状态,然后根据多张所述序列图片中该目标对象的牵绳状态,获取所述目标对象在预设时段内的牵绳状态变化情况。需要说明的是,监控区域中的场景是多变不定的,序列图片中的目标对象的情况有可能是变化的,例如上一帧序列图片中的目标对象包括目标对象a、目标对象b和目标对象c,在下一帧序列图片中的目标对象仅包括目标对象a和目标对象c,其中,在本技术实施例中,可以通过目标跟踪算法,在一段监控视频的视频流中,通过对比几帧的图片,跟踪同一个目标对象,并赋予该同一个目标对象一个唯一标签,可见,当序列图片中存在多个目标对象时,则每个目标对象均有对应的唯一标签,便于后续通过标签来判定同一个目标对象的牵绳状态变化情况。如图10所示,本技术实施例可以同时检测多只狗,对每只狗设置一个编号,实时追踪每只狗,实时判断每只狗是否存在牵狗绳的动作,其中,生成的检测框可以用不同的颜色标注出不同牵绳状态的狗和牵绳,例如红色框属于未牵狗绳的狗,绿色框属于牵狗绳的狗,橙色框则是狗绳的检测框。
98.需要说明的是,在一些实施例中,由于需要获取牵绳状态变化,首先将所有检测的目标对象的初始状态设定为:“牵绳”,当所述目标对象的牵绳状态在预设时段内保持为被牵绳状态,则判定监控视频中所述目标对象被牵绳,当所述目标对象的牵绳状态在所述预设时段内保持为未被牵绳状态,则判定所述监控视频中所述目标对象未被牵绳。
99.例如,以目标对象为某只狗为例,结合上述决策实施例,对应的判断流程如下如图11所示:首先可以将所有检测的狗的初始牵绳状态设定为:“牵狗绳”,从该只狗进入到检测范围内开始,开始判断该只狗的牵绳状态是否改变,根据上一步检测得到的该狗的牵绳状态,一种情况是:当通过序列图片获取到该只狗的初始牵绳状态设定不变,且在所述预设时段内依旧保持为牵狗绳,也即在某个阈值时间内依旧未改变牵绳状态,则决策结果为所述监控视频中该只狗有被牵狗绳;另一种情况是,当通过序列图片获取到该只狗的牵绳状态转变为未牵狗绳,则判断在所述预设时段内是否发生状态变化,如果未发生状态变化,则决策结果为所述监控视频中该狗未被牵绳。综上,也就是说,从该狗进入到检测范围内开始,根据上一步检测得到的牵绳状态,只要保持相同的状态经过一个时间段阈值(预设时段)后,就可以判定该只狗有牵绳或未牵绳,如图11所示。
100.在一些实施例中,上述序列图片可以是连续的序列图片,需要说明的是,通过连续
的序列图片,可以更加有效的对同个目标对象进行跟踪,且有利于提高检测准确率。
101.可以看出,通过该实施例,视频流的连续图片序列和检测信息,综合判断目标对象否存在牵狗绳的行为,作为一种最终决策方案,可以有效地避免由于现实情况中存在不同角度、多只目标重叠等意外情况下,以单凭一张图片的结果无法准确判断是否存在牵绳的行为,有利于提高判定牵绳状态判定结论的准确性,具有极高的推广价值。
102.需要说明的是,在本技术实施例中,是通过预先训练的目标检测模型对序列图片进行检测,以得到序列图片中的牵绳、目标对象的位置信息和类别,然后基于多张序列图片和多张序列图片对应的检测信息,综合判定目标对象是否有牵绳子。发明人进一步研究发现,目标检测模型是基于大量数据训练得到的,可能存在一些训练方式等原因,使得存在模型误差,导致目标对象的牵绳状态连续改变等异常现象,即每次牵绳状态的持续时长都小于某个判断时长阈值,则说明有问题,此时的牵绳状态改变应当是错误的或者说不准确的,为解决这一技术问题,s107中,也即所述根据多张所述序列图片中所述目标对象的牵绳状态,获取所述目标对象在预设时段内的牵绳状态变化情况,具体包括如下步骤:
103.s1071:根据多张所述序列图片中所述目标对象的牵绳状态,确定所述目标对象每次的牵绳状态的持续时长。
104.s1072:获取状态判断冗余间隔,所述状态判断冗余间隔为前一牵绳状态的持续时长与预设状态参数的乘积;
105.s1073:当所述目标对象当前牵绳状态的持续时长大于所述状态判断冗余间隔,则判定所述当前牵绳状态相对于前一牵绳状态发生改变;
106.s1074:当所述目标对象当前牵绳状态的持续时长小于或等于所述状态判断冗余间隔,则判定所述当前牵绳状态相对于前一牵绳状态未发生改变。
107.对于步骤s1071-s1074,本技术实施例提供了一种具体的根据多张所述序列图片中所述目标对象的牵绳状态,获取所述目标对象在预设时段内的牵绳状态变化情况的方案,在该方案中利用了冗余判断的方式,以解决由于模型误差问题导致的牵绳状态变化异常的问题,具体的,先根据多张所述序列图片中所述目标对象的牵绳状态,确定所述目标对象每次的牵绳状态的持续时长,在此过程中需要获取每张序列图片中所述目标对象的牵绳状态,由于前面有记录每次的牵绳状态,此时可以同时记录前一次牵绳状态的时刻以及转变后的牵绳状态的时刻,两个时刻的差便是目标对象每次牵绳状态发生变化时,某个牵绳状态的持续时长。
108.其次,会获取状态判断冗余间隔,所述状态判断冗余间隔为前一牵绳状态的持续时长与预设状态参数的乘积。从所述目标对象的牵绳状态改变的时刻开始计时,当所述目标对象的牵绳状态持续时长大于所述状态判断冗余间隔,则判定所述目标对象这一次的牵绳状态的改变成立,即所述当前牵绳状态相对于前一牵绳状态发生改变;反之若当所述目标对象的牵绳状态持续时长小于所述状态判断冗余间隔,则判定所述目标对象这一次的牵绳状态的改变不成立,即所述当前牵绳状态相对于前一牵绳状态未发生改变。这里需要说清楚两个阶段的牵绳状态,一个通过序列图片检测出的牵绳状态变化,一个是通过本实施例冗余判断后的牵绳状态变化,当前牵绳状态是通过序列图片检测出的前一牵绳状态转变后的下一牵绳状态,例如,通过序列图片检测出的前一牵绳状态为“牵狗绳”,通过序列图片检测出牵绳状态改变为“未牵狗绳”,则“未牵狗绳”便是通过图片序列检测出的当前牵绳状
态,然而,在本技术实施例中,加入了冗余判断方式,会判断通过序列图片获取的当前牵绳状态(未牵狗绳)的持续时长是否大于状态判断冗余间隔,如果大于状态判断冗余间隔,则才会判定当前牵绳状态(未牵狗绳)相对于前一牵绳状态(牵狗绳)确实是发生了状态改变;但是,如果小于或等于状态判断冗余间隔,则会判定所述当前牵绳状态(未牵狗绳)相对于前一牵绳状态(未牵狗绳)是未发生改变,也即,会丢弃该当前牵绳状态(未牵狗绳)的认定,会认为狗的牵绳状态并未发生改变,依旧是前一牵绳状态为“牵狗绳”。也即是,冗余判断的规则如下:
109.状态判断冗余间隔=前一牵绳状态的持续时长*参数通过状态判断冗余间隔来判断牵绳状态是否改变,当后一牵绳状态的持续时长>状态判断冗余间隔,则说明牵绳状态改变,当后一牵绳状态的持续时长≤状态判断冗余间隔,则说明牵绳状态没有改变。
110.可以看出,在该实施例中,还通过冗余判断的方式,准确的判定每个目标对象的牵绳状态变化,以解决由于模型误差问题导致的牵绳状态变化异常的问题,进一步提高了最终目标对象的牵绳状态的判定结果,提高了准确率。
111.在一实施例中,基于上述基于神经网络的预警发送方法,具体可以有许多应用场景或流程,本技术实施例不做限定。在一个实施例中,步骤s70之后,也即判定所述监控视频中所述目标对象未被牵绳之后,该方法还包括如下步骤:
112.s80:从多张序列图片中挑选出其中一个张或多张所述目标对象未牵绳的目标序列图片并生成预警信息。
113.在该实施例中,如果判定所述监控视频中所述目标对象未被牵绳,则会保存一张目标对象未牵绳的图片,用于后期查询、追溯。以目标对象为狗为例,如果通过监控视频发现有狗未牵狗绳,就保存一张未牵狗绳的目标序列图片,用于后期查询。
114.综上可见,本技术实施例与传统的预警发送方法相比具有较大的差异,本技术通过预先训练好的目标检测模型先识别出牵绳和目标对象的检测框,然后利用二者检测框的相交来判定目标对象是否有牵绳,也即利用了牵绳和目标对象二者检测框的相交情况,来判定目标对象的牵绳状态。而不是简单利用人和目标对象的远近来判定,极大了提高了目标对象是否被牵绳的准确率,而且其中还对神经网络的改进和其他进一步的改进,详见上述实施例,在此不一一重复。
115.应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术实施例的实施过程构成任何限定。
116.在一实施例中,提供一种目标检测模型训练装置,该目标检测模型训练装置与上述实施例中目标检测模型训练方法一一对应。如图12所示,该目标检测模型训练装置包括获取模块101和训练模块102。各功能模块详细说明如下:
117.获取模块101,用于获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;
118.训练模块102,用于将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;
119.其中,所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。
120.在一实施例中,所述输入网络用于对提取输入的所述训练图片进行数据增强,并将增强后的所述训练图片输入至所述骨干网络;
121.所述骨干网络用于对增强后的所述训练图片进行特征提取,得到至少一个尺度的初始特征图,并将所述至少一个尺度的初始特征图输入至所述检测颈网络;
122.所述检测颈网络用于对所述至少一个尺度的初始特征图进行特征融合,得到至少一个尺度的融合特征图,并将多尺度的所述融合特征图输入至所述检测头网络;
123.所述检测头网络用于对所述至少一个尺度的融合特征图进行检测,得到至少一个尺度的预测信息,所述预测信息包括所述标注对象的位置、分类和置信度;
124.将所述训练图片对应的所述预测信息,和所述训练图片标注的所述真实标签送入预设损失函数进行反向传播,并通过多轮迭代,得到符合所述预设条件的所述目标检测模型。
125.在一实施例中,提供一种预警发送装置,该监控视频的预警发送方法与上述实施例中监控视频的预警发送方法一一对应。如图13所示,该基于神经网络的牵绳检测装置包括获取模块201、输入模块202、判定模块203、生成模块204和发送模块205。各功能模块详细说明如下:
126.获取模块201,用于获取监控设备拍摄的被检测图片;
127.输入模块202,用于将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象;所述目标检测模型为采用前述实施例任一项所述的目标检测模型训练方法得到;
128.判定模块203,用于根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳。
129.生成模块204,用于当所述目标对象未被牵绳子,则基于所述目标对象未牵绳的被检测图片和所述监控设备的位置信息生成预警事件信息;
130.发送模块205,用于将所述预警事件信息发送至管理终端。
131.在一实施例中,判定模块203具体用于:
132.判断所述牵绳的检测框和所述目标对象的检测框是否存在相交区域;
133.当未存在所述相交区域,则判定所述被检测图片中所述目标对象未被牵绳;
134.当存在所述相交区域,则获取所述相交区域占相并部分的比例,所述相并部分为所述牵绳的检测框和所述目标对象的检测框的相并部分;
135.当所述比例超过预设阈值时,则判定所述被检测图片中所述目标对象被牵绳;
136.当所述比例未超过所述预设阈值时,则判定所述被检测图片中所述目标对象未被牵绳。
137.在一实施例中,判定模块203具体用于:
138.记录每张所述序列图片中,所述目标对象的牵绳状态;
139.根据多张所述序列图片中所述目标对象的牵绳状态,获取所述目标对象在预设时段内的牵绳状态变化情况;
140.当所述目标对象的牵绳状态在所述预设时段内保持为被牵绳状态,则判定所述监控视频中所述目标对象被牵绳;
141.当所述目标对象的牵绳状态在所述预设时段内保持为未被牵绳状态,则判定所述
监控视频中所述目标对象未被牵绳。
142.在一实施例中,所述多张序列图片为连续帧图片。
143.在一实施例中,判定模块203具体用于:
144.根据多张所述序列图片中所述目标对象的牵绳状态,确定所述目标对象每次的牵绳状态的持续时长;
145.获取状态判断冗余间隔,所述状态判断冗余间隔为前一牵绳状态的持续时长与预设状态参数的乘积;
146.当所述目标对象当前牵绳状态的持续时长大于所述状态判断冗余间隔,则判定所述当前牵绳状态相对于前一牵绳状态发生改变;
147.当所述目标对象当前牵绳状态的持续时长小于或等于所述状态判断冗余间隔,则判定所述当前牵绳状态相对于前一牵绳状态未发生改变。
148.在一实施例中,所述预先训练好的目标检测模型通过如下方式训练得到:
149.获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;
150.将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型。
151.在一实施例中,所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络;
152.所述输入网络用于对提取输入的所述训练图片进行数据增强,并将增强后的所述训练图片输入至所述骨干网络;
153.所述骨干网络用于对增强后的所述训练图片进行特征提取,得到至少一个尺度的初始特征图,并将所述至少一个尺度的初始特征图输入至所述检测颈网络,其中,所述骨干网络的卷积处理采用空洞卷积方式;
154.所述检测颈网络用于对所述至少一个尺度的初始特征图进行特征融合,得到至少一个尺度的融合特征图,并将多尺度的所述融合特征图输入至所述检测头网络;
155.所述检测头网络用于对所述至少一个尺度的融合特征图进行检测,得到至少一个尺度的预测信息,所述预测信息包括所述标注对象的位置、分类和置信度。
156.关于前述装置的具体限定可以参见上文中对于前述对应方法的限定,在此不再赘述。上述装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
157.在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器、边缘盒子或者其他计算机设备,其内部结构图可以如图14所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的网络接口用于与设备通过网络连接通信,用于获取所需的信息,例如图片或视频流等。该计算机可读指令被处理器执行时以实现一种目标检测模型训练方法的步骤或者基于网络模型的预警发送方法的步骤。本实施例所提供的可读存储介质包括非易失性可读存储介质和易失性可读存储介质。
158.在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上
并可在处理器上运行的计算机可读指令,处理器执行计算机可读指令时实现以下步骤:
159.获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;
160.将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;
161.所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。
162.在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机可读指令,处理器执行计算机可读指令时实现以下步骤:
163.获取监控设备拍摄的被检测图片;
164.将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象;所述目标检测模型为采用前述实施例任一项所述的目标检测模型训练方法得到;
165.根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳;
166.当所述目标对象未被牵绳子,则基于所述目标对象未牵绳的被检测图片和所述监控设备的位置信息生成预警事件信息;
167.将所述预警事件信息发送至管理终端。
168.在一个实施例中,提供了一个或多个存储有计算机可读指令的计算机可读存储介质,本实施例所提供的可读存储介质包括非易失性可读存储介质和易失性可读存储介质。可读存储介质上存储有计算机可读指令,计算机可读指令被一个或多个处理器执行时实现以下步骤:
169.获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;
170.将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;
171.所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。
172.在一个实施例中,提供了一个或多个存储有计算机可读指令的计算机可读存储介质,本实施例所提供的可读存储介质包括非易失性可读存储介质和易失性可读存储介质。可读存储介质上存储有计算机可读指令,计算机可读指令被一个或多个处理器执行时实现以下步骤:
173.获取监控设备拍摄的被检测图片;
174.将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象;所述目标检测模型为采用前述实施例任一项所述的目标检测模型训练方法得到;
175.根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳;
176.当所述目标对象未被牵绳子,则基于所述目标对象未牵绳的被检测图片和所述监
控设备的位置信息生成预警事件信息;
177.将所述预警事件信息发送至管理终端。
178.其中,关于计算机可读存储介质或的计算机设备所实现的更多内容,可以对应参阅前述方法实施例的描述,这里不重复展开描述。
179.在一实施例中,如图15所示,提供了一种基于网络模型的预警发送系统,所述系统包括监控设备、管理终端和前述所述的计算机设备;所述计算机设备包括边缘盒子。
180.或者,提供了一种基于网络模型的预警发送系统,所述系统包括监控设备、管理终端和定制软件;该定制软件用于实现上述预警发送方法。
181.可以看出,基于本技术实施例提供的方案,可提供边缘盒子和安装软件两种解决方案,针对不同的应用场景,在小区等监控设备较少的场景,只需要将视频信号接入到边缘盒子中,并给边缘盒子联网配置相关参数,就可以完成对非法遛狗事件的检测。其综合功能,边缘盒子由视频输入接口、ai芯片、网络设备、内置算法模型和存储设备组成,这里不详述。而在城市管理中心这种存在大量监控设备的场景,一个边缘盒子的算力不足以支撑大量的监控设备,多个边缘盒子维护比较繁重,则可以安装定制软件,在管理终端的服务器上进行检测。可以通过定制软件中可以查看各个监控的状态,基于预警信息,可以统计每天各时段出现非法遛狗的事件数量,可以浏览非法遛狗事件列表和事件的详情信息,并且支持对预警事件进行处理,比如发送给指定管理人员等,具有极大的应用价值和场景。
182.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一非易失性可读取存储介质或易失性可读存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
183.所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
184.以上所述实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围,均应包含在本技术的保护范围之内。
技术特征:
1.一种目标检测模型训练方法,其特征在于,包括:获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。2.如权利要求1所述的目标检测模型训练方法,其特征在于,所述将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型,包括:所述输入网络用于对提取输入的所述训练图片进行数据增强,并将增强后的所述训练图片输入至所述骨干网络;所述骨干网络用于对增强后的所述训练图片进行特征提取,得到至少一个尺度的初始特征图,并将所述至少一个尺度的初始特征图输入至所述检测颈网络;所述检测颈网络用于对所述至少一个尺度的初始特征图进行特征融合,得到至少一个尺度的融合特征图,并将多尺度的所述融合特征图输入至所述检测头网络;所述检测头网络用于对所述至少一个尺度的融合特征图进行检测,得到至少一个尺度的预测信息,所述预测信息包括所述标注对象的位置、分类和置信度;将所述训练图片对应的所述预测信息,和所述训练图片标注的所述真实标签送入预设损失函数进行反向传播,并通过多轮迭代,得到符合所述预设条件的所述目标检测模型。3.如权利要求1或2任一项所述的目标检测模型训练方法,其特征在于,所述目标对象包括狗。4.一种基于网络模型的预警发送方法,其特征在于,包括:获取监控设备拍摄的被检测图片;将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象;所述目标检测模型为采用权利要求1-3任一项所述的目标检测模型训练方法得到;根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳;当所述目标对象未被牵绳子,则基于所述目标对象未牵绳的被检测图片和所述监控设备的位置信息生成预警事件信息;将所述预警事件信息发送至管理终端。5.一种目标检测模型训练装置,其特征在于,包括:获取模块,用于获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;训练模块,用于将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;其中,所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。
6.一种基于网络模型的预警发送装置,其特征在于,包括:获取模块,用于获取监控设备拍摄的被检测图片;输入模块,用于将所述被检测图片输入预先训练好的目标检测模型中,以获取所述被检测图片中检测对象的检测框,所述检测对象包括牵绳和目标对象;所述目标检测模型为采用权利要求1-3任一项所述的目标检测模型训练方法得到;判定模块,用于根据所述牵绳的检测框和所述目标对象的检测框的相交情况,判定所述被检测图片中所述目标对象是否被牵绳;生成模块,用于当所述目标对象未被牵绳子,则基于所述目标对象未牵绳的被检测图片和所述监控设备的位置信息生成预警事件信息;发送模块,用于将所述预警事件信息发送至管理终端。7.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述方法的步骤。8.一种基于网络模型的预警发送系统,其特征在于,所述系统包括监控设备、管理终端和如权利要求7所述的计算机设备。9.如权利要求8所述的预警发送系统,其特征在于,所述计算机设备包括边缘盒子。10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述方法的步骤。
技术总结
本申请涉及人工智能技术领域,公开了一种目标检测模型训练、预警发送方法、系统、装置、设备和存储介质,以解决面对牵绳的识别准确率并不高的技术问题。方法部分包括:获取训练图片集,所述训练图片集包括多张训练图片,所述训练图片被标注有标注对象的真实标签,所述标注对象包括牵绳和目标对象;将所述多张训练图片输入至预设神经网络中进行迭代训练,直至所述预设神经网络的输出符合预设条件,得到所述目标检测模型;所述预设神经网络包括输入网络、骨干网络、检测颈网络和检测头网络,其中,所述骨干网络的卷积层采用空洞卷积方式。所述骨干网络的卷积层采用空洞卷积方式。所述骨干网络的卷积层采用空洞卷积方式。
技术研发人员:虞爱 刘周可 闵家龙 贾立铭
受保护的技术使用者:深圳市快瞳科技有限公司
技术研发日:2023.06.29
技术公布日:2023/10/11
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
上一篇:一种上盖组件及电池的制作方法 下一篇:一种车辆平均能耗的确定方法及装置与流程
