目标对象的识别方法及装置、非易失性存储介质与流程

未命名 10-19 阅读:86 评论:0


1.本技术涉及计算机视觉与增强现实技术领域,具体而言,涉及一种目标对象的识别方法及装置、非易失性存储介质。


背景技术:

2.随着我国经济建设的迅猛发展,人们生活水平的不断提高,汽车逐渐成为生活中不可或缺的交通工具进入千家万户。汽车给人们生活带来便利的同时,也导致了许多交通事故的发生,给个人和家庭带来不可逆转的危害。特殊天气如沙尘、雨雪、浓雾等是引发事故的重要因素之一,及时为驾驶员提供预警信息可有效降低安全隐患。
3.针对上述问题,相关技术中无法准确获知前方是否有行人、非机动车、机动车等目标对象,在行车过程中存在较大的安全隐患。
4.针对上述的问题,目前尚未提出有效的解决方案。


技术实现要素:

5.本技术实施例提供了一种目标对象的识别方法及装置、非易失性存储介质,以至少解决由于在特殊天气中无法精准识别车辆前方的目标对象造成的在行车过程中存在较大的安全隐患的技术问题。
6.根据本技术实施例的一个方面,提供了一种目标对象的识别方法,包括:获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像;确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点;分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像;根据目标图像,识别车辆前方的目标区域内的目标对象。
7.可选地,对红外图像进行处理,得到目标红外图像,包括:在红外图像不为灰度图像的情况下,将红外图像转换为灰度图像;对灰度图像进行高斯滤波,得到第一红外图像;利用拉普拉斯滤波器对第一红外图像进行锐化处理,得到目标红外图像。
8.可选地,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点,包括:确定可见光图像在水平方向上的第一梯度值以及在垂直方向上的第二梯度值;确定目标红外图像在水平方向上的第三梯度值以及在垂直方向上的第四梯度值;将第一梯度值和第二梯度值进行合并,得到可见光图像对应的第一目标梯度值和第一目标梯度方向;将第三梯度值和第四梯度值进行合并,得到目标红外图像对应的第二目标梯度值和第二目标梯度方向;根据第一目标梯度值,确定可见光图像中每个第一像素点的梯度值;根据第二目标梯度值,确定目标红外图像中每个第二像素点的梯度值;分别根据每个第一像素点的梯度值和每个第二像素点的梯度值,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点。
9.可选地,分别根据每个第一像素点的梯度值和每个第二像素点的梯度值,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点,包括:在第一目标梯
度方向上,遍历可见光图像中的每个第一像素点,确定当前第一像素点的梯度值是否为第一预设区域内的最大值;在第二目标梯度方向上,遍历目标红外图像中的每个第二像素点,确定当前第二像素点的梯度值是否为第二预设区域内的最大值;将梯度值为第一预设区域内的最大值的第一像素点确定为可见光图像中的第一边缘点;将梯度值为第二预设区域内的最大值的第二像素点确定为目标红外图像中的第二边缘点;根据第一预设阈值和第二预设阈值,确定可见光图像中第一边缘点中的第一目标边缘点;根据第三预设阈值和第四预设阈值,确定目标红外图像中第二边缘点中的第二目标边缘点。
10.可选地,分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像,包括:在第一目标边缘点中确定可见光图像中的多个第一角点;在第二目标边缘点中确定目标红外图像中的多个第二角点;确定与多个第一角点中的每个第一角点一一对应的多个第一特征向量;确定与多个第二角点中的每个第二角点一一对应的多个第二特征向量;根据多个第一特征向量和多个第二特征向量,将多个第一角点和多个第二角点进行匹配,得到目标角点对;根据目标角点对,对可见光图像和目标红外图像进行对齐处理,得到待融合的可见光图像和目标红外图像;对待融合的可见光图像和目标红外图像进行融合处理,得到目标图像。
11.可选地,对待融合的可见光图像和目标红外图像进行融合处理,得到目标图像,包括:分别对待融合的可见光图像和目标红外图像进行灰度化处理,得到可见光图像对应的第一灰度图像和目标红外图像对应的第二灰度图像;分别对第一灰度图像和第二灰度图像进行haar小波变换,得到第一矩阵和第二矩阵;确定第一矩阵中的元素对应的第一权重,确定第二矩阵中的元素对应的第二权重,其中,第一权重和第二权重至少根据车辆所在环境的能见度确定;根据第一权重和第二权重,对第一矩阵中的元素和第二矩阵中的元素进行加权求和,得到目标矩阵;对目标矩阵进行逆haar小波变换,得到目标图像。
12.可选地,确定车辆的处理器执行目标任务所需的目标计算资源,其中,目标任务至少包括:识别车辆前方的目标区域内的目标对象;至少根据处理器的核数和时钟频率,确定用于表征处理器运算能力的第一参数;根据目标计算资源和第一参数,确定处理器处理目标计算资源所需的目标时长;在目标计算资源超过第一预设阈值的情况下,确定处理器处理第一计算资源所需的第一时长,车辆所在道路的路侧单元对应的边缘服务器处理第二计算资源所需的第二时长,以及与车辆在预设范围内的其他车辆的处理器处理第三计算资源所需的第三时长,其中,第一计算资源为第一预设比例的目标计算资源,第二计算资源为第二预设比例的目标计算资源,第三计算资源为第三预设比例的目标计算资源;在第一时长、第二时长和第三时长的总和小于目标时长的情况下,利用处理器处理第一计算资源,利用路侧单元对应的边缘服务器处理第二计算资源,利用与车辆在预设范围内的其他车辆的处理器处理第三计算资源。
13.可选地,根据目标图像,识别车辆前方的目标区域内的目标对象之前,方法还包括:对目标图像进行预处理,其中,预处理至少包括:调整亮度、增强对比度和增加色彩饱和度;利用卷积神经网络模型,对完成预处理的图像进行滤波处理。
14.可选地,根据目标图像,识别车辆前方的目标区域内的目标对象,包括:识别目标对象的类型,其中,目标对象的类型至少包括:行人、机动车和非机动车;在目标区域内存在多个类型的目标对象的情况下,通过不同颜色的矩形框对不同类型的目标对象进行标识,
并展示矩形框。
15.根据本技术实施例的再一方面,还提供了一种目标对象的识别装置,包括:第一处理模块,用于获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像;第二处理模块,用于确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点;第三处理模块,用于分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像;识别模块,用于根据目标图像,识别车辆前方的目标区域内的目标对象。
16.根据本技术实施例的再一方面,还提供了一种非易失性存储介质,存储介质包括存储的程序,其中,程序运行时控制存储介质所在的设备执行以上的目标对象的识别方法。
17.根据本技术实施例的再一方面,还提供了一种电子设备,包括:存储器和处理器,处理器用于运行存储在存储器中的程序,其中,程序运行时执行以上的目标对象的识别方法。
18.在本技术实施例中,采用获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像;确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点;分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像;根据目标图像,识别车辆前方的目标区域内的目标对象的方式,通过对车辆采集到的可见光图像和红外图像进行处理和融合,达到了在特殊天气中精准识别车辆前方的目标对象的目的,从而实现了降低行车过程中存在的安全隐患的技术效果,进而解决了由于在特殊天气中无法精准识别车辆前方的目标对象造成的在行车过程中存在较大的安全隐患的技术问题。
附图说明
19.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
20.图1是根据本技术实施例的一种目标对象的识别方法的流程图;
21.图2是根据本技术实施例的另一种目标对象的识别方法的流程图;
22.图3是根据本技术实施例的一种计算资源的处理方法的流程图;
23.图4是根据本技术实施例的一种目标识别网络的示意图;
24.图5是根据本技术实施例的一种目标对象的识别装置的结构图;
25.图6是根据本技术实施例的一种目标对象的识别方法的计算机终端(或电子设备)的硬件结构框图。
具体实施方式
26.为了使本技术领域的人员更好地理解本技术方案,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分的实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本技术保护的范围。
27.需要说明的是,本技术的说明书和权利要求书及上述附图中的术语“第一”、“第
二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
28.根据本技术实施例,提供了一种目标对象的识别方法的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
29.图1是根据本技术实施例的一种目标对象的识别方法的流程图,如图1所示,该方法包括如下步骤:
30.步骤s102,获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像。
31.根据本技术的一些可选的实施例,可见光图像是指由人眼可见的光波长范围内所捕捉到的图像。可见光波长范围大约在400纳米到700纳米之间,是人眼最敏感的光波长范围。可见光图像可以通过相机或眼睛来观察和记录。然而,可见光图像也有其局限性。在特定的条件下,如光线不足或遮挡等情况下,可见光图像可能无法提供清晰的视觉信息。此外,可见光图像也无法直接观察到一些特殊波长的现象,如红外线或紫外线辐射等。红外图像是指通过红外摄像机或红外热像仪获取的图像。红外辐射是一种电磁辐射,其波长范围位于可见光和微波之间。红外图像能够显示物体的热分布,因为不同温度的物体会产生不同强度的红外辐射。
32.对红外图像进行滤波处理的目的是要去除图像中的噪声,增强图像的细节,并提高图像的质量。可选地,红外图像滤波方法包括:1.均值滤波:将每个像素点的值替换为周围像素点的平均值,可以有效地去除高频噪声;2.中值滤波:将每个像素点的值替换为周围像素点的中值,可以有效地去除脉冲噪声;3.高斯滤波:使用高斯函数对图像进行平滑,可以有效地去除高频噪声和平滑图像;4.维纳滤波:根据图像的信噪比,对图像进行自适应滤波,在保持图像细节的同时去除噪声。
33.步骤s104,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点。
34.根据本技术的另一些可选的实施例,利用sobel算子,确定图像中的边缘点,其中,sobel算子是一种基于梯度的边缘检测算子,可以计算图像中每个像素点的梯度值,具体步骤为:首先,将图像转换为灰度图像,以便进行灰度处理;其次,对灰度图像进行高斯滤波,以平滑图像并降低噪声;然后,分别计算图像在水平和垂直方向上的梯度值,使用sobel算子模板对图像进行卷积操作;再次,根据水平和垂直方向上的梯度值,计算每个像素点的梯度幅值和梯度方向;最后,根据设定的阈值,将梯度幅值大于阈值的像素点判定为边缘点。
35.步骤s106,分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像。
36.在本技术的一些可选的实施例,对可见光图像和目标红外图像进行像素级融合,
具体而言,将可见光图像和红外图像的每个像素进行加权融合。可以根据应用需求,对不同波段的权重进行调整,以突出可见光或红外图像的特定信息。融合后的图像可以使用简单的加权平均方法计算,如下所示:
37.融合后的像素值=α*可见光图像的像素值+(1-α)*红外图像的像素值
38.其中,α为权重参数,范围一般为[0,1]。
[0039]
可选地,对可见光图像和目标红外图像进行特征级融合,可以先分别提取可见光图像和红外图像中的特征,然后将特征进行融合。融合的方法可以采用加权平均、最大值、最小值等方法。
[0040]
步骤s108,根据目标图像,识别车辆前方的目标区域内的目标对象。
[0041]
根据融合后的目标图像,识别车辆前方的目标区域内的行人、机动车和非机动车。
[0042]
根据上述步骤,通过对车辆采集到的可见光图像和红外图像进行处理和融合,达到了在特殊天气中精准识别车辆前方的目标对象的目的,从而实现了降低行车过程中存在的安全隐患的技术效果。
[0043]
根据本技术的一些可选的实施例,对红外图像进行处理,得到目标红外图像,可以通过以下方法实现:在红外图像不为灰度图像的情况下,将红外图像转换为灰度图像;对灰度图像进行高斯滤波,得到第一红外图像;利用拉普拉斯滤波器对第一红外图像进行锐化处理,得到目标红外图像。
[0044]
高斯滤波是一种常用的图像平滑滤波方法,可以有效地去除图像中的噪声,同时保持图像的边缘信息。对灰度图像进行高斯滤波的步骤如下:
[0045]
1.选择合适的高斯核大小和标准差。高斯核的大小决定了滤波器的大小,一般选择奇数大小的核,例如3x3、5x5等,其中,标准差决定了高斯分布的宽度,标准差越大,滤波器的效果越弱。
[0046]
2.根据选择的高斯核大小和标准差,构建高斯滤波器。高斯滤波器是一个二维的权重矩阵,其中每个元素表示该位置的像素值对应的权重。
[0047]
3.将每个像素点与高斯滤波器进行卷积操作,计算该像素点的新值,其中,卷积操作可以通过将滤波器与图像的每个像素点进行乘积并求和来实现。
[0048]
4.对于边缘像素点,由于滤波器的大小可能超出图像边界,需要进行边界处理。
[0049]
5.重复执行步骤3和步骤4,直到完成对整个图像的滤波操作。
[0050]
通过以上步骤,可以对灰度图像进行高斯滤波,实现图像的平滑效果。
[0051]
拉普拉斯滤波器是一种常用的边缘检测和图像锐化滤波器,可以通过增强图像中的高频部分来增强图像的边缘和细节。对上述第一红外图像进行锐化处理时,可以采用以下步骤:首先,对第一红外图像进行拉普拉斯滤波器操作,其中,拉普拉斯滤波器可以通过与原图像进行卷积来实现。将卷积核放置于图像的每个像素位置上,将卷积核与图像对应的像素值相乘并求和,得到该位置的新像素值。重复此操作直到完成对整个图像的遍历。其次,对于得到的锐化图像,可以选择适当的阈值进行二值化处理,以进一步增强图像的边缘和细节。
[0052]
在本技术的一些可选的实施例,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点,包括以下步骤:确定可见光图像在水平方向上的第一梯度值以及在垂直方向上的第二梯度值;确定目标红外图像在水平方向上的第三梯度值以及在垂直
方向上的第四梯度值;将第一梯度值和第二梯度值进行合并,得到可见光图像对应的第一目标梯度值和第一目标梯度方向;将第三梯度值和第四梯度值进行合并,得到目标红外图像对应的第二目标梯度值和第二目标梯度方向;根据第一目标梯度值,确定可见光图像中每个第一像素点的梯度值;根据第二目标梯度值,确定目标红外图像中每个第二像素点的梯度值;分别根据每个第一像素点的梯度值和每个第二像素点的梯度值,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点。
[0053]
作为本技术的一些可选的实施例,分别根据每个第一像素点的梯度值和每个第二像素点的梯度值,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点,通过以下方法实现:在第一目标梯度方向上,遍历可见光图像中的每个第一像素点,确定当前第一像素点的梯度值是否为第一预设区域内的最大值;在第二目标梯度方向上,遍历目标红外图像中的每个第二像素点,确定当前第二像素点的梯度值是否为第二预设区域内的最大值;将梯度值为第一预设区域内的最大值的第一像素点确定为可见光图像中的第一边缘点;将梯度值为第二预设区域内的最大值的第二像素点确定为目标红外图像中的第二边缘点;根据第一预设阈值和第二预设阈值,确定可见光图像中第一边缘点中的第一目标边缘点;根据第三预设阈值和第四预设阈值,确定目标红外图像中第二边缘点中的第二目标边缘点。
[0054]
可选地,采用canny边缘检测算法,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点,具体地:
[0055]
1.使用高斯滤波器对图像进行平滑处理,减少噪声的影响。
[0056]
2.对平滑后的图像进行梯度计算,得到每个像素点的梯度幅值和方向。
[0057]
3.在梯度方向上进行非极大值抑制,只保留局部梯度幅值最大的像素点。
[0058]
4.置两个阈值,将梯度幅值分为强边缘、弱边缘和非边缘三个部分。强边缘像素点被保留,弱边缘像素点进行连接操作,非边缘像素点被丢弃。
[0059]
5.将弱边缘像素点与强边缘像素点进行连接,形成完整的边缘线。
[0060]
在本技术的一些可选的实施例中,分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像,包括以下步骤:在第一目标边缘点中确定可见光图像中的多个第一角点;在第二目标边缘点中确定目标红外图像中的多个第二角点;确定与多个第一角点中的每个第一角点一一对应的多个第一特征向量;确定与多个第二角点中的每个第二角点一一对应的多个第二特征向量;根据多个第一特征向量和多个第二特征向量,将多个第一角点和多个第二角点进行匹配,得到目标角点对;根据目标角点对,对可见光图像和目标红外图像进行对齐处理,得到待融合的可见光图像和目标红外图像;对待融合的可见光图像和目标红外图像进行融合处理,得到目标图像。
[0061]
首先,使用角点检测算法,从可见光图像和目标红外图像中提取角点。其次,计算角点的特征,并使用特征匹配算法将可见光图像和目标红外图像中的角点进行匹配,形成角点对。再次,利用角点对,计算出可见光图像到红外图像之间的变换矩阵。其中,常用的变换模型包括仿射变换和透视变换,可以使用ransac等算法来估计最优的变换矩阵。最后,使用得到的变换矩阵,对可见光图像进行变换,使其与目标红外图像对齐。
[0062]
利用harris角点检测算法,从可见光图像和目标红外图像中提取角点,其中,harris角点检测算法的基本思想是利用图像中像素点的灰度变化来判断是否为角点,角点
是图像中灰度变化较大的点,通常表示物体的边缘或角落。具体地,1.计算每个像素的梯度,以获得图像的梯度矩阵;2.对每个像素,计算其周围像素的灰度变化,以获得图像的结构矩阵;3.利用结构矩阵计算每个像素的角点响应函数;4.根据角点响应函数的值,确定图像中的角点位置。
[0063]
作为本技术的另一些可选的实施例,对待融合的可见光图像和目标红外图像进行融合处理,得到目标图像,可以通过以下方法实现:分别对待融合的可见光图像和目标红外图像进行灰度化处理,得到可见光图像对应的第一灰度图像和目标红外图像对应的第二灰度图像;分别对第一灰度图像和第二灰度图像进行haar小波变换,得到第一矩阵和第二矩阵;确定第一矩阵中的元素对应的第一权重,确定第二矩阵中的元素对应的第二权重,其中,第一权重和第二权重至少根据车辆所在环境的能见度确定;根据第一权重和第二权重,对第一矩阵中的元素和第二矩阵中的元素进行加权求和,得到目标矩阵;对目标矩阵进行逆haar小波变换,得到目标图像。
[0064]
harr小波变换是一种用于图像处理和分析的常用技术,可以用于实现图像的像素级融合。下面是通过harr小波变换实现图像的像素级融合的具体步骤:
[0065]
1.对每个图像进行harr小波变换,将其分解为低频和高频部分;
[0066]
2.对低频部分进行加权平均,其中,低频部分包含图像的大致结构和整体信息,通过对不同图像的低频部分进行加权平均,可以实现图像的融合。加权平均可以根据不同的需求进行调整,例如可以根据图像的亮度或对比度来进行加权;
[0067]
3.对高频部分进行融合,其中,高频部分包含图像的细节和纹理信息,可以通过对不同图像的高频部分进行融合来增强图像的细节;
[0068]
4.对融合后的低频和高频部分进行逆harr小波变换,将其重建成融合后的图像;
[0069]
5.对融合后的图像进行后处理。根据需要,可以对图像进行调整、增强、去噪等处理,以获得最终的融合图像,即目标图像。
[0070]
在一些可选的实施例中,确定车辆的处理器执行目标任务所需的目标计算资源,其中,目标任务至少包括:识别车辆前方的目标区域内的目标对象;至少根据处理器的核数和时钟频率,确定用于表征处理器运算能力的第一参数;根据目标计算资源和第一参数,确定处理器处理目标计算资源所需的目标时长;在目标计算资源超过第一预设阈值的情况下,确定处理器处理第一计算资源所需的第一时长,车辆所在道路的路侧单元对应的边缘服务器处理第二计算资源所需的第二时长,以及与车辆在预设范围内的其他车辆的处理器处理第三计算资源所需的第三时长,其中,第一计算资源为第一预设比例的目标计算资源,第二计算资源为第二预设比例的目标计算资源,第三计算资源为第三预设比例的目标计算资源;在第一时长、第二时长和第三时长的总和小于目标时长的情况下,利用处理器处理第一计算资源,利用路侧单元对应的边缘服务器处理第二计算资源,利用与车辆在预设范围内的其他车辆的处理器处理第三计算资源。
[0071]
根据本技术一些优选的实施例,根据目标图像,识别车辆前方的目标区域内的目标对象之前,还需要:对目标图像进行预处理,其中,预处理至少包括:调整亮度、增强对比度和增加色彩饱和度;利用卷积神经网络模型,对完成预处理的图像进行滤波处理。
[0072]
根据本技术的一些可选的实施例,根据目标图像,识别车辆前方的目标区域内的目标对象,可以通过以下方法实现:识别目标对象的类型,其中,目标对象的类型至少包括:
行人、机动车和非机动车;在目标区域内存在多个类型的目标对象的情况下,通过不同颜色的矩形框对不同类型的目标对象进行标识,并展示矩形框。
[0073]
可选地,根据眼动追踪系统实时调节矩形框的位置,使得图像出现在驾驶员视野中的最佳区域。
[0074]
图2是根据本技术实施例的另一种目标对象的识别方法的流程图,如图2所示,该方法包括如下步骤:
[0075]
步骤s202,将可见光和红外双目摄像头采集到的两幅图像,经过预处理、边缘检测、特征检测等操作,最终匹配融合生成新的目标图像。
[0076]
根据本技术的一些可选的实施例,在雨雪、雾霾等恶劣天气条件下,红外热辐射穿透能力比可见光强,并且不受昼夜光线变化的影响,但红外图像边缘模糊、对比度差,需要先经过拉普拉斯滤波器进行图像锐化。为了保证后续特征匹配效果,对预处理后的红外图像和可见光图像,分别进行canny边缘检测细化边缘轮廓,再利用orb特征匹配算法快速配准两幅图像提取的对应角点,最后通过harr小波变换实现图像的像素级融合。
[0077]
orb特征匹配算法结合了关键点检测算法和描述子算法,能够在保持较高计算效率的同时,提供较好的特征匹配性能。
[0078]
步骤s204,由于特殊天气采集的图像质量不高,通用的cnn检测算法无法达到理想效果,因此先将目标图像经过一组图像增强滤波器,再输入到带注意力机制的目标识别网络中,计算出目标对象在图像中的实时坐标位置。
[0079]
根据本技术的另一些可选的实施例,采用去雾、调节白平衡、调节对比度、调节色调和锐化等操作处理目标图像,使用一个小型cnn模型来预估滤波器的超参数,以弱监督学习的方法自适应增强每张图像。最后将过滤后的图像作为目标识别网络的输入,其中,目标识别网络为引入了cbam注意力机制的yolox,图4是根据本技术实施例的一种目标识别网络的示意图。
[0080]
yolox是一种基于yolo系列算法的目标检测模型,其引入了cbam(convolutional block attention module)注意力机制来提升模型的性能。cbam注意力机制通过学习适应性的权重来增强模型对图像中不同区域的关注程度,cbam包含两个关键模块:通道注意力模块(channel attention module)和空间注意力模块(spatial attention module)。通道注意力模块通过计算每个通道的全局平均池化特征图,然后通过一层全连接层得到通道注意力权重,其中,通道注意力权重用于调节每个通道的重要性。空间注意力模块通过计算每个空间位置的通道最大池化特征图,然后通过一层全连接层得到空间注意力权重,其中,空间注意力权用于调节每个空间位置的重要性。在yolox中,cbam注意力机制被应用于骨干网络,例如darknet53,以增强模型对于目标的感知能力。通过引入cbam注意力机制,yolox可以更加准确地检测目标,并且在目标检测任务中取得更好的性能。
[0081]
步骤s206,由于车载终端的计算能力有限,无法在短时间内处理大量计算资源,通过综合测算运算时延和传输时延,确定是否将计算任务向同层的邻车终端设备水平移动,或者向上层的边缘服务器垂直移动,亦或本地独立完成所有识别任务。
[0082]
在一些可选的实施例中,将任务按比例分为在车辆本地计算、移动到路侧单元对应的边缘服务器上计算、移动到邻车终端设备上计算的3个子任务。每个子任务的数据量占总任务数据量的比例系数为αi,βi和γi,其中αi+βi+γi=1,调整每个子任务的占比使总处
理时延最短。
[0083]
在车辆本地处理子任务产生的计算时延为:
[0084]
车辆将子任务移动到路侧单元对应的边缘服务器处理,采用lte-v2x通信协议,产生的时延分为三部分:
[0085]
子任务在无线侧的传输时延排队等待子任务被执行的时延在边缘节点处理的计算时延即
[0086]
车辆将子任务移动到邻车终端设备处理,采用ieee 802.11p通信协议,产生的时延分为两部分:子任务在相邻车辆之间的传输时延在车载终端处理的计算时延即
[0087]
其中,ci为总任务所需要的计算资源,di为总任务的数据量大小,fv为车载终端的统一计算能力,f
mec
为路侧单元的边缘服务器计算能力,ri为数据平均传输速率,
[0088]
根据香农定理b为信道带宽,s为信道中信号功率,n为信道中高斯白噪声功率,为信噪比。
[0089]
当任务无需移动完全在本地独立计算时,计算时延为被拆分成垂直/水平移动的3个子任务处理总时延必须满足
[0090]
对于目标识别模型的拆分位置,需要综合考虑计算任务复杂度、设备负载、张量数据量和网络带宽等问题。本技术采用eeci(edge-end collaborative inference)推理加速框架,确定cnn最佳分割位置和参与协同推理的设备。
[0091]
一般情况下,同向相邻车道驾驶员视野前方出现的目标基本一致,为了避免不同车辆的终端设备对结构相似性高的图像重复处理,检测结果经过坐标变换后同步投影到相邻车道的车辆前挡风玻璃显示。虽然任务垂直卸载时优先关联到邻近的路测单元,但是在相应的边缘服务器负载较重的情况下,为了避免任务需要排队等待无法及时执行的情况,可将任务由关联的邻近路测单元迁移到周边路测单元处理,以确保负载均衡,提升资源利用率。
[0092]
图3是根据本技术实施例的一种计算资源的处理方法的流程图,如图3所示,该方法包括:
[0093]
步骤s302,搜索可用边缘服务器计算节点;
[0094]
步骤s304,将目标对象的识别模型划分为车辆的终端计算和边缘服务器的边缘计算两部分;
[0095]
步骤s306,确定将计算资源从车辆的终端发送至边缘服务器的传输时间,确定边缘服务器的边缘计算时间,并判断传输时间与边缘计算时间的总和是否小于车辆终端的执行时间;
[0096]
步骤s308,在传输时间与边缘计算时间的总和小于车辆终端的执行时间的情况
下,将数据传输到边缘服务器计算节点,利用边缘服务器计算节点执行计算,并将计算结果传回车辆终端;
[0097]
步骤s310,在传输时间与边缘计算时间的总和不小于车辆终端的执行时间的情况下,车辆终端在本地执行计算;
[0098]
步骤s312,车辆终端聚合最终的计算结果。
[0099]
步骤s208,利用矩形框标识检测结果,即车辆前方出现目标对象,通过ar-hud预警模块将目标对象的信息投影到前挡风玻璃上,利用车载眼动追踪系统自动调节图像位置,使得矩形框显示在驾驶员视野范围内。
[0100]
按照类别区分车辆前方的目标对象(如行人、非机动车、机动车),并通过不同颜色的矩形框进行标识,当目标对象与车辆距离过近时,在相应目标位置闪烁红色警告标志,ar-hud将虚拟标识叠加实景图像渲染投影到前挡风玻璃上。考虑到驾驶员的身高各不相同,行驶过程中的颠簸会使视线发生偏移,因此采用眼动追踪系统实时调节画面位置,确保图像出现在驾驶员视野中的最佳区域。
[0101]
通过上述步骤,实现对目标对象的识别,具有如下优点:
[0102]
1.利用可见光与红外图像两者优势融合生成信息熵更高的新图像,更多的图像信息与更高的图像质量可兼顾白天和夜晚不同光照强度的检测效果。在恶劣天气条件下,经过图像增强滤波器改善画质,使更多原始模糊目标的潜在信息被还原。
[0103]
2.在目标识别网络中添加注意力机制,提高模型的表征能力,忽略无关信息的干扰,利用有限资源快速筛选出高价值信息,提升对关注目标的检测准确率。
[0104]
3.考虑车联网场景对高算力、低时延的要求,将本地计算任务向边缘服务器或邻车移动,通过合理的分配调度资源提高计算效率。
[0105]
4.利用ar-hud将前方目标位置显示出来,驾驶员无需低头获取路况信息。
[0106]
图5是根据本技术实施例的一种目标对象的识别装置的结构图,如图5所示,该装置包括:
[0107]
第一处理模块50,用于获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像;
[0108]
第二处理模块52,用于确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点;
[0109]
第三处理模块54,用于分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像;
[0110]
识别模块56,用于根据目标图像,识别车辆前方的目标区域内的目标对象。
[0111]
需要说明的是,上述图5中的各个模块可以是程序模块(例如是实现某种特定功能的程序指令集合),也可以是硬件模块,对于后者,其可以表现为以下形式,但不限于此:上述各个模块的表现形式均为一个处理器,或者,上述各个模块的功能通过一个处理器实现。
[0112]
需要说明的是,图5所示实施例的优选实施方式可以参见图1所示实施例的相关描述,此处不再赘述。
[0113]
可选地,对红外图像进行处理,得到目标红外图像,包括:在红外图像不为灰度图像的情况下,将红外图像转换为灰度图像;对灰度图像进行高斯滤波,得到第一红外图像;利用拉普拉斯滤波器对第一红外图像进行锐化处理,得到目标红外图像。
[0114]
可选地,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点,包括:确定可见光图像在水平方向上的第一梯度值以及在垂直方向上的第二梯度值;确定目标红外图像在水平方向上的第三梯度值以及在垂直方向上的第四梯度值;将第一梯度值和第二梯度值进行合并,得到可见光图像对应的第一目标梯度值和第一目标梯度方向;将第三梯度值和第四梯度值进行合并,得到目标红外图像对应的第二目标梯度值和第二目标梯度方向;根据第一目标梯度值,确定可见光图像中每个第一像素点的梯度值;根据第二目标梯度值,确定目标红外图像中每个第二像素点的梯度值;分别根据每个第一像素点的梯度值和每个第二像素点的梯度值,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点。
[0115]
可选地,分别根据每个第一像素点的梯度值和每个第二像素点的梯度值,确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点,包括:在第一目标梯度方向上,遍历可见光图像中的每个第一像素点,确定当前第一像素点的梯度值是否为第一预设区域内的最大值;在第二目标梯度方向上,遍历目标红外图像中的每个第二像素点,确定当前第二像素点的梯度值是否为第二预设区域内的最大值;将梯度值为第一预设区域内的最大值的第一像素点确定为可见光图像中的第一边缘点;将梯度值为第二预设区域内的最大值的第二像素点确定为目标红外图像中的第二边缘点;根据第一预设阈值和第二预设阈值,确定可见光图像中第一边缘点中的第一目标边缘点;根据第三预设阈值和第四预设阈值,确定目标红外图像中第二边缘点中的第二目标边缘点。
[0116]
可选地,分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像,包括:在第一目标边缘点中确定可见光图像中的多个第一角点;在第二目标边缘点中确定目标红外图像中的多个第二角点;确定与多个第一角点中的每个第一角点一一对应的多个第一特征向量;确定与多个第二角点中的每个第二角点一一对应的多个第二特征向量;根据多个第一特征向量和多个第二特征向量,将多个第一角点和多个第二角点进行匹配,得到目标角点对;根据目标角点对,对可见光图像和目标红外图像进行对齐处理,得到待融合的可见光图像和目标红外图像;对待融合的可见光图像和目标红外图像进行融合处理,得到目标图像。
[0117]
可选地,对待融合的可见光图像和目标红外图像进行融合处理,得到目标图像,包括:分别对待融合的可见光图像和目标红外图像进行灰度化处理,得到可见光图像对应的第一灰度图像和目标红外图像对应的第二灰度图像;分别对第一灰度图像和第二灰度图像进行haar小波变换,得到第一矩阵和第二矩阵;确定第一矩阵中的元素对应的第一权重,确定第二矩阵中的元素对应的第二权重,其中,第一权重和第二权重至少根据车辆所在环境的能见度确定;根据第一权重和第二权重,对第一矩阵中的元素和第二矩阵中的元素进行加权求和,得到目标矩阵;对目标矩阵进行逆haar小波变换,得到目标图像。
[0118]
可选地,确定车辆的处理器执行目标任务所需的目标计算资源,其中,目标任务至少包括:识别车辆前方的目标区域内的目标对象;至少根据处理器的核数和时钟频率,确定用于表征处理器运算能力的第一参数;根据目标计算资源和第一参数,确定处理器处理目标计算资源所需的目标时长;在目标计算资源超过第一预设阈值的情况下,确定处理器处理第一计算资源所需的第一时长,车辆所在道路的路侧单元对应的边缘服务器处理第二计算资源所需的第二时长,以及与车辆在预设范围内的其他车辆的处理器处理第三计算资源
所需的第三时长,其中,第一计算资源为第一预设比例的目标计算资源,第二计算资源为第二预设比例的目标计算资源,第三计算资源为第三预设比例的目标计算资源;在第一时长、第二时长和第三时长的总和小于目标时长的情况下,利用处理器处理第一计算资源,利用路侧单元对应的边缘服务器处理第二计算资源,利用与车辆在预设范围内的其他车辆的处理器处理第三计算资源。
[0119]
可选地,根据目标图像,识别车辆前方的目标区域内的目标对象之前,方法还包括:对目标图像进行预处理,其中,预处理至少包括:调整亮度、增强对比度和增加色彩饱和度;利用卷积神经网络模型,对完成预处理的图像进行滤波处理。
[0120]
可选地,根据目标图像,识别车辆前方的目标区域内的目标对象,包括:识别目标对象的类型,其中,目标对象的类型至少包括:行人、机动车和非机动车;在目标区域内存在多个类型的目标对象的情况下,通过不同颜色的矩形框对不同类型的目标对象进行标识,并展示矩形框。
[0121]
图6示出了一种用于实现目标对象的识别方法的计算机终端(或移动设备)的硬件结构框图。如图6所示,计算机终端60(或移动设备60)可以包括一个或多个(图中采用602a、602b,
……
,602n来示出)处理器602(处理器602可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器604、以及用于通信功能的传输模块606。除此以外,还可以包括:显示器、输入/输出接口(i/o接口)、通用串行总线(usb)端口(可以作为bus总线的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图6所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端60还可包括比图6中所示更多或者更少的组件,或者具有与图6所示不同的配置。
[0122]
应当注意到的是上述一个或多个处理器602和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端60(或移动设备)中的其他元件中的任意一个内。如本技术实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
[0123]
存储器604可用于存储应用软件的软件程序以及模块,如本技术实施例中的目标对象的识别方法对应的程序指令/数据存储装置,处理器602通过运行存储在存储器604内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的目标对象的识别方法。存储器604可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器604可进一步包括相对于处理器602远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端60。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0124]
传输模块606用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端60的通信供应商提供的无线网络。在一个实例中,传输模块606包括一个网络适配器(network interface controller,nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块606可以为射频(radio frequency,rf)模块,其用于通过无线方式与互联网进行通讯。
[0125]
显示器可以例如触摸屏式的液晶显示器(lcd),该液晶显示器可使得用户能够与
计算机终端60(或移动设备)的用户界面进行交互。
[0126]
此处需要说明的是,在一些可选实施例中,上述图6所示的计算机设备(或电子设备)可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图6仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算机设备(或电子设备)中的部件的类型。
[0127]
需要说明的是,图6所示的电子设备用于执行图1所示的目标对象的识别方法,因此上述命令的执行方法中的相关解释说明也适用于该电子设备,此处不再赘述。
[0128]
本技术实施例还提供了一种非易失性存储介质,非易失性存储介质包括存储的程序,其中,程序运行时控制存储介质所在的设备执行以上的目标对象的识别方法。
[0129]
非易失性存储介质执行以下功能的程序:获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像;确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点;分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像;根据目标图像,识别车辆前方的目标区域内的目标对象。
[0130]
本技术实施例还提供了一种电子设备,包括:存储器和处理器,处理器用于运行存储在存储器中的程序,其中,程序运行时执行以上的目标对象的识别方法。
[0131]
处理器用于运行执行以下功能的程序:获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像;确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点;分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像;根据目标图像,识别车辆前方的目标区域内的目标对象。
[0132]
上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。
[0133]
在本技术的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0134]
在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
[0135]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0136]
另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0137]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对相关技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式
体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
[0138]
以上所述仅是本技术的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本技术的保护范围。

技术特征:
1.一种目标对象的识别方法,其特征在于,包括:获取车辆采集到的可见光图像和红外图像,对所述红外图像进行滤波处理,得到目标红外图像;确定所述可见光图像中的第一目标边缘点和所述目标红外图像中的第二目标边缘点;分别根据所述第一目标边缘点和所述第二目标边缘点,对所述可见光图像和所述目标红外图像进行融合处理,得到目标图像;根据所述目标图像,识别所述车辆前方的目标区域内的目标对象。2.根据权利要求1所述的方法,其特征在于,对所述红外图像进行处理,得到目标红外图像,包括:在所述红外图像不为灰度图像的情况下,将所述红外图像转换为所述灰度图像;对所述灰度图像进行高斯滤波,得到第一红外图像;利用拉普拉斯滤波器对所述第一红外图像进行锐化处理,得到所述目标红外图像。3.根据权利要求1所述的方法,其特征在于,确定所述可见光图像中的第一目标边缘点和所述目标红外图像中的第二目标边缘点,包括:确定所述可见光图像在水平方向上的第一梯度值以及在垂直方向上的第二梯度值;确定所述目标红外图像在水平方向上的第三梯度值以及在垂直方向上的第四梯度值;将所述第一梯度值和所述第二梯度值进行合并,得到所述可见光图像对应的第一目标梯度值和第一目标梯度方向;将所述第三梯度值和所述第四梯度值进行合并,得到所述目标红外图像对应的第二目标梯度值和第二目标梯度方向;根据所述第一目标梯度值,确定所述可见光图像中每个第一像素点的梯度值;根据所述第二目标梯度值,确定所述目标红外图像中每个第二像素点的梯度值;分别根据所述每个第一像素点的梯度值和所述每个第二像素点的梯度值,确定所述可见光图像中的第一目标边缘点和所述目标红外图像中的第二目标边缘点。4.根据权利要求3所述的方法,其特征在于,分别根据所述每个第一像素点的梯度值和所述每个第二像素点的梯度值,确定所述可见光图像中的第一目标边缘点和所述目标红外图像中的第二目标边缘点,包括:在所述第一目标梯度方向上,遍历所述可见光图像中的所述每个第一像素点,确定当前第一像素点的梯度值是否为第一预设区域内的最大值;在所述第二目标梯度方向上,遍历所述目标红外图像中的所述每个第二像素点,确定当前第二像素点的梯度值是否为第二预设区域内的最大值;将梯度值为所述第一预设区域内的最大值的第一像素点确定为所述可见光图像中的第一边缘点;将梯度值为所述第二预设区域内的最大值的第二像素点确定为所述目标红外图像中的第二边缘点;根据第一预设阈值和第二预设阈值,确定所述可见光图像中所述第一边缘点中的所述第一目标边缘点;根据第三预设阈值和第四预设阈值,确定所述目标红外图像中所述第二边缘点中的所述第二目标边缘点。
5.根据权利要求4所述的方法,其特征在于,分别根据所述第一目标边缘点和所述第二目标边缘点,对所述可见光图像和所述目标红外图像进行融合处理,得到目标图像,包括:在所述第一目标边缘点中确定所述可见光图像中的多个第一角点;在所述第二目标边缘点中确定所述目标红外图像中的多个第二角点;确定与所述多个第一角点中的每个第一角点一一对应的多个第一特征向量;确定与所述多个第二角点中的每个第二角点一一对应的多个第二特征向量;根据所述多个第一特征向量和所述多个第二特征向量,将所述多个第一角点和所述多个第二角点进行匹配,得到目标角点对;根据所述目标角点对,对所述可见光图像和所述目标红外图像进行对齐处理,得到待融合的所述可见光图像和所述目标红外图像;对待融合的所述可见光图像和所述目标红外图像进行融合处理,得到所述目标图像。6.根据权利要求1所述的方法,其特征在于,对待融合的所述可见光图像和所述目标红外图像进行融合处理,得到所述目标图像,包括:分别对待融合的所述可见光图像和所述目标红外图像进行灰度化处理,得到所述可见光图像对应的第一灰度图像和所述目标红外图像对应的第二灰度图像;分别对所述第一灰度图像和所述第二灰度图像进行haar小波变换,得到第一矩阵和第二矩阵;确定所述第一矩阵中的元素对应的第一权重,确定所述第二矩阵中的元素对应的第二权重,其中,所述第一权重和所述第二权重至少根据所述车辆所在环境的能见度确定;根据所述第一权重和所述第二权重,对所述第一矩阵中的元素和所述第二矩阵中的元素进行加权求和,得到目标矩阵;对所述目标矩阵进行逆haar小波变换,得到所述目标图像。7.根据权利要求1所述的方法,其特征在于,所述方法还包括:确定所述车辆的处理器执行目标任务所需的目标计算资源,其中,所述目标任务至少包括:识别所述车辆前方的目标区域内的目标对象;至少根据所述处理器的核数和时钟频率,确定用于表征所述处理器运算能力的第一参数;根据所述目标计算资源和所述第一参数,确定所述处理器处理所述目标计算资源所需的目标时长;在所述目标计算资源超过第一预设阈值的情况下,确定所述处理器处理第一计算资源所需的第一时长,所述车辆所在道路的路侧单元对应的边缘服务器处理第二计算资源所需的第二时长,以及与所述车辆在预设范围内的其他车辆的处理器处理第三计算资源所需的第三时长,其中,所述第一计算资源为第一预设比例的所述目标计算资源,所述第二计算资源为第二预设比例的所述目标计算资源,所述第三计算资源为第三预设比例的所述目标计算资源;在所述第一时长、所述第二时长和所述第三时长的总和小于所述目标时长的情况下,利用所述处理器处理所述第一计算资源,利用所述路侧单元对应的边缘服务器处理所述第二计算资源,利用与所述车辆在所述预设范围内的所述其他车辆的处理器处理所述第三计算资源。
8.根据权利要求1所述的方法,其特征在于,根据所述目标图像,识别所述车辆前方的目标区域内的目标对象之前,所述方法还包括:对所述目标图像进行预处理,其中,所述预处理至少包括:调整亮度、增强对比度和增加色彩饱和度;利用卷积神经网络模型,对完成预处理的图像进行滤波处理。9.根据权利要求1所述的方法,其特征在于,根据所述目标图像,识别所述车辆前方的目标区域内的目标对象,包括:识别所述目标对象的类型,其中,所述目标对象的类型至少包括:行人、机动车和非机动车;在所述目标区域内存在多个类型的所述目标对象的情况下,通过不同颜色的矩形框对不同类型的所述目标对象进行标识,并展示所述矩形框。10.一种目标对象的识别装置,其特征在于,包括:第一处理模块,用于获取车辆采集到的可见光图像和红外图像,对所述红外图像进行滤波处理,得到目标红外图像;第二处理模块,用于确定所述可见光图像中的第一目标边缘点和所述目标红外图像中的第二目标边缘点;第三处理模块,用于分别根据所述第一目标边缘点和所述第二目标边缘点,对所述可见光图像和所述目标红外图像进行融合处理,得到目标图像;识别模块,用于根据所述目标图像,识别所述车辆前方的目标区域内的目标对象。11.一种非易失性存储介质,其特征在于,所述非易失性存储介质包括存储的程序,其中,在所述程序运行时控制所述非易失性存储介质所在设备执行权利要求1至9中任意一项所述的目标对象的识别方法。12.一种电子设备,其特征在于,包括:存储器和处理器,所述处理器用于运行存储在所述存储器中的程序,其中,所述程序运行时执行权利要求1至9中任意一项所述的目标对象的识别方法。

技术总结
本申请公开了一种目标对象的识别方法及装置、非易失性存储介质。其中,该方法包括:获取车辆采集到的可见光图像和红外图像,对红外图像进行滤波处理,得到目标红外图像;确定可见光图像中的第一目标边缘点和目标红外图像中的第二目标边缘点;分别根据第一目标边缘点和第二目标边缘点,对可见光图像和目标红外图像进行融合处理,得到目标图像;根据目标图像,识别车辆前方的目标区域内的目标对象。本申请解决了由于在特殊天气中无法精准识别车辆前方的目标对象造成的在行车过程中存在较大的安全隐患的技术问题。安全隐患的技术问题。安全隐患的技术问题。


技术研发人员:汪镜秋
受保护的技术使用者:中电信智能网络科技有限公司
技术研发日:2023.07.14
技术公布日:2023/10/15
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐