基于人工智能的干眼症风险预测方法、装置、设备及介质与流程
未命名
10-18
阅读:112
评论:0
1.本发明涉及人工智能、医疗健康技术领域,尤其涉及一种基于人工智能的干眼症风险预测方法、装置、设备及介质。
背景技术:
2.随着人们使用手机、电脑等电子设备的时间越来越多,干眼症的发病率也越来越高。在30-40岁的人群中,干眼症患病率约20%,在70岁以上的人群中,干眼症患病率约36.1%。干眼症可以缓解但很难治愈,干眼症患者需及时干预来减缓干眼症的恶化。目前检查干眼症需要前往医院,通过干眼仪等设备才能判断是否患干眼症,这种方式只有在确实有干眼症的情况才能检测到,不能检测患者是否具有患干眼症的风险,导致不能及时干预来减缓发展成干眼症、或者减缓干眼症的恶化。
技术实现要素:
3.基于此,有必要针对现有技术的不能检测患者是否具有患干眼症的风险的技术问题,提出了一种基于人工智能的干眼症风险预测方法、装置、设备及介质。
4.第一方面,提供了一种基于人工智能的干眼症风险预测方法,所述方法包括:
5.获取目标对象的目标面部视频;
6.将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;
7.根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;
8.根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。
9.第二方面,提供了一种基于人工智能的干眼症风险预测装置,所述装置包括:
10.数据获取模块,用于获取目标对象的目标面部视频;
11.分割模块,用于将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;
12.计算模块,用于根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;
13.预测模块,用于根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。
14.第三方面,提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于人工智能的干眼症风险预测方法的步骤。
15.第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于人工智能的干眼症风险预测方法
的步骤。
16.本技术的基于人工智能的干眼症风险预测方法,通过获取目标对象的目标面部视频,将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合,根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算,根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。从而实现只需要通过目标对象的目标面部视频,即可确定所述目标对象对应的左眼干眼症风险预测结果和右眼干眼症风险预测结果,目标对象不需要前往医院采用设备进行检测,提高了目标对象检测的积极性,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础;通过根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果,实现了干眼症的风险预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。
附图说明
17.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
18.其中:
19.图1为一个实施例中基于人工智能的干眼症风险预测方法的应用环境图;
20.图2为一个实施例中基于人工智能的干眼症风险预测方法的流程图;
21.图3为一个实施例中基于人工智能的干眼症风险预测装置的结构框图;
22.图4为一个实施例中计算机设备的结构框图;
23.图5为一个实施例中计算机设备的另一种结构框图。
具体实施方式
24.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
25.本发明实施例提供的基于人工智能的干眼症风险预测方法,可应用在如图1的应用环境中,其中,客户端110通过网络与服务端120进行通信。服务端120可以通过客户端110获取目标对象的目标面部视频。服务端120将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合,根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算,根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。实现只需要通过目标对象的目标面部视频,即可确定所述目标对象对应的左眼干眼症风险预测结果和右眼干眼症风险预测结果,目标对象不需要前往医院采用设备进行检测,提高了目标对象检测的积极性,为及时干预来减缓发展成干眼症、或干预来减缓干眼
症的恶化提供了基础;通过根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果,实现了干眼症的风险预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。
26.在另一个实施例中,客户端110获取目标对象的目标面部视频,将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合,根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算,根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。
27.其中,客户端110可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。下面通过具体的实施例对本发明进行详细的描述。
28.请参阅图2所示,图2为本发明实施例提供的基于人工智能的干眼症风险预测方法的一个流程示意图,包括如下步骤:
29.s1:获取目标对象的目标面部视频;
30.目标对象,是想要进行干眼症风险预测的人或动物。
31.目标面部视频,是采用具有摄像功能的设备,对目标对象的面部拍摄的视频。目标面部视频中的每个图像帧中包含至少一个眼睛的图像区域。
32.具体而言,可以获取用户输入的目标对象的目标面部视频,也可以从存储空间获取目标对象的目标面部视频,还可以从第三方应用中获取目标对象的目标面部视频,还可以从客户端获取目标对象的目标面部视频。
33.s2:将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;
34.具体而言,将所述目标面部视频中的每个图像帧输入预设的分割模型进行每个眼睛的区域分割,将针对各个眼睛分割得到的各个眼睛掩膜作为眼睛掩膜组合。
35.s3:根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;
36.具体而言,对每个所述眼睛掩膜组合中的每个掩膜进行最大睁眼幅度计算,根据每个眼睛(比如,左眼的眼睛、右眼的眼睛)的各个最大睁眼幅度进行眨眼次数及不完全眨眼次数计算,将每个眼睛的眨眼次数除以所述目标面部视频对应的时长,得到该眼睛对应的眨眼频率,将每个眼睛的不完全眨眼次数除以所述目标面部视频对应的时长,得到该眼睛对应的不完全眨眼数据。
37.最大睁眼幅度是上眼睑和下眼睑之间的最大距离。
38.若不存在最大睁眼幅度等于0,则确定存在不完全眨眼的情况。不完全眨眼时,部分眼球暴露在眼皮外面。
39.s4:根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。
40.具体而言,基于预设的映射表,根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。其中,映射表中
包括:眨眼频率对应的条件、不完全眨眼对应的条件和风险等级。
41.干眼症风险预测结果包括眼睛标识和风险等级。眼睛标识可以是眼睛标号、眼睛名称,用于唯一标识一个眼睛。
42.本实施例实现只需要通过目标对象的目标面部视频,即可确定所述目标对象对应的左眼干眼症风险预测结果和右眼干眼症风险预测结果,目标对象不需要前往医院采用设备进行检测,提高了目标对象检测的积极性,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础;通过根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果,实现了干眼症的风险预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。
43.在一个实施例中,所述将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合的步骤,包括:
44.s211:将所述目标面部视频中的任一图像帧作为第一图像;
45.s212:对所述第一图像进行头部以外的背景的去除,得到第二图像;
46.具体而言,采用预设的背景检测模型,对所述第一图像进行背景检测,得到背景掩膜,采用背景掩膜,对所述第一图像进行头部以外的背景的去除,得到第二图像。
47.预设的背景检测模型是基于神经网络训练得到的模型。
48.背景掩膜的尺寸与所述第一图像的尺寸相同。背景掩膜中的每个掩模点的值为1或0;当掩模点的值为1时,则值为1的掩模点在所述第一图像中对应的像素点是背景(头部以外的图像区域)上的一个点;当掩模点的值为0时,则值为0的掩模点在所述第一图像中对应的像素点不是背景上的一个点。
49.s213:采用预设的双线性插值法,对所述第二图像进行裁减,得到第三图像;
50.双线性插值法,也称为双线性插值算法,是图像插值算法中的一种,通过待求像素点在源图像中4个最近邻像素值的加权和计算得到。
51.具体而言,采用预设的双线性插值法,将所述第二图像裁减到预设尺寸,得到第三图像。
52.可选的,预设尺寸为512*521。
53.s214:将所述第三图像输入所述分割模型进行每个眼睛的区域分割,得到眼睛掩膜;
54.具体而言,将所述第三图像输入所述分割模型进行每个眼睛的区域分割,将针对一个眼睛分割得到的数据作为一个眼睛掩膜。
55.眼睛掩膜的尺寸与所述第三图像的尺寸相同。眼睛掩膜中的每个掩模点的值为1或0;当掩模点的值为1时,则值为1的掩模点在所述第三图像中对应的像素点是眼睛上的一个点;当掩模点的值为0时,则值为0的掩模点在所述第三图像中对应的像素点不是眼睛上的一个点。
56.s215:将所述第一图像对应的各个所述眼睛掩膜,作为所述眼睛掩膜组合。
57.可以理解的是,重复执行步骤s211至步骤s215,即可确定所述目标面部视频中所有图像帧各自对应的眼睛掩膜组合。
58.本实施例通过先进行头部以外的背景的去除及裁减,然后再进行每个眼睛的区域
分割,减少了输入所述分割模型的数据量,提高了所述分割模型的分割效率,通过背景的去除,减少了噪音像素点对区域分割的影响,提高了所述分割模型的准确性。
59.在一个实施例中,所述将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合的步骤之前,还包括:
60.s221:获取训练样本集和初始模型,其中,所述初始模型是基于segformer模型得到的模型;
61.训练样本集中包括多个训练样本,每个训练样本包括:图像样本和掩膜标签,图像样本中包含至少一个眼睛的图像区域,掩膜标签是图像样本中的眼睛的准确标定结果,掩膜标签的尺寸与所述图像样本的尺寸相同,掩膜标签中的每个掩模点的值为1或0,当掩模点的值为1时,则值为1的掩模点在所述图像样本中对应的像素点是眼睛上的一个点,当掩模点的值为0时,则值为0的掩模点在所述图像样本中对应的像素点不是眼睛上的一个点。
62.segformer模型,是一种基于transformer架构的语义分割模型,在性能和效果上表现出色,具有优异的性能和效果。transformer,是一个利用注意力机制来提高模型训练速度的模型。
63.具体而言,可以获取用户输入的训练样本集和初始模型,也可以从存储空间获取训练样本集和初始模型,还可以从第三方应用中获取训练样本集和初始模型,还可以从客户端获取训练样本集和初始模型。
64.s222:采用所述训练样本集,对所述初始模型进行眼睛区域分割的训练,将训练结束的所述初始模型作为待验证模型;
65.具体而言,采用所述训练样本集,对所述初始模型进行眼睛区域分割的训练,在训练时,batch-size(每批次的训练样本的数量)设置为8,epoch(训练轮次)设置为100,初始学习率为0.0001,损失函数使用dice-loss。dice-loss,又称为dice loss,是一种常用于图像分割任务的损失函数。
66.s223:采用预设的验证样本集,对所述待验证模型进行验证,得到验证结果;
67.验证样本集中包括多个验证样本,每个验证样本包括:图像样本和掩膜标签,图像样本中包含至少一个眼睛的图像区域,掩膜标签是图像样本中的眼睛的准确标定结果,掩膜标签的尺寸与所述图像样本的尺寸相同,掩膜标签中的每个掩模点的值为1或0,当掩模点的值为1时,则值为1的掩模点在所述图像样本中对应的像素点是眼睛上的一个点,当掩模点的值为0时,则值为0的掩模点在所述图像样本中对应的像素点不是眼睛上的一个点。
68.具体而言,基于预设的验证指标,采用预设的验证样本集,对所述待验证模型进行验证,若满足验证指标,则确定所述验证结果为通过,若不满足验证指标,则确定所述验证结果为不通过。
69.可选的,预设的验证指标包括:准确率大于第一数值。
70.s224:若所述验证结果为不通过,则将所述待验证模型作为所述初始模型,对所述训练样本集随机进行排序调整,跳转到所述采用所述训练样本集,对所述初始模型进行眼睛区域分割的训练,将训练结束的所述初始模型作为待验证模型的步骤重新执行;
71.具体而言,若所述验证结果为不通过,此时意味着所述待验证模型还不符合性能要求,因此,将所述待验证模型作为所述初始模型,对所述训练样本集随机进行排序调整,以为下一轮训练做准备;跳转到所述采用所述训练样本集,对所述初始模型进行眼睛区域
分割的训练,将训练结束的所述初始模型作为待验证模型的步骤重新执行,也就是跳转到步骤s222并重新执行步骤s222。
72.s225:若所述验证结果为通过,则将所述待验证模型作为所述分割模型。
73.具体而言,若所述验证结果为通过,此时意味着所述待验证模型符合性能要求,因此,将所述待验证模型作为所述分割模型。
74.本实施例实现基于segformer模型训练得到分割模型,segformer模型具有比cnn(卷积神经网络)更好的性能和更强的鲁棒性,从而使分割模型具有比cnn更好的性能和更强的鲁棒性;通过将所述验证结果为通过的所述待验证模型作为所述分割模型,使应用于预测阶段的所述分割模型的性能符合要求,提高了本技术的稳定性。
75.在一个实施例中,所述获取训练样本集和初始模型的步骤之前,还包括:
76.s2211:获取预设数量的初始面部视频;
77.初始面部视频,是采用具有摄像功能的设备,对对象的面部拍摄的视频。初始面部视频中的每个图像帧中包含至少一个眼睛的图像区域。
78.具体而言,可以获取用户输入的预设数量的初始面部视频,也可以从存储空间获取预设数量的初始面部视频,还可以从第三方应用中获取预设数量的初始面部视频,还可以从客户端获取预设数量的初始面部视频。
79.s2212:对每个所述初始面部视频进行两次眨眼过程的图像帧提取,得到第一图像帧集;
80.具体而言,对每个所述初始面部视频进行两次眨眼过程的视频段提取,将提取的视频段中的所有图像帧作为第一图像帧集。
81.s2213:分别对所述第一图像帧集中的每个图像帧进行头部以外的背景的去除,得到第二图像帧集;
82.具体而言,采用预设的背景检测模型,对所述第一图像帧集中的每个图像帧进行背景检测,得到背景掩膜,采用背景掩膜,对该图像帧进行头部以外的背景的去除,以得到第二图像帧。将所有第二图像帧作为第二图像帧集。
83.s2214:采用预设的双线性插值法,分别对所述第二图像帧集中的每个图像帧进行裁减,得到第三图像帧集;
84.具体而言,采用预设的双线性插值法,将所述第二图像帧集中的每个图像帧裁减到预设尺寸,得到第三图像,将所有第三图像帧作为第三图像帧集。
85.s2215:根据所述第三图像帧集中的每个图像帧,生成一个初始样本;
86.具体而言,根据所述第三图像帧集中的每个图像帧(也就是第三图像),获取用户输入的样本标签,将该图像帧和该样本标签作为初始样本。
87.s2216:基于预设的扩增方法,分别对所述第三图像帧集中的每个图像帧进行扩增,得到第四图像帧集,其中,所述扩增方法为每次从裁减、翻转和倾斜调整中随机选择至少一种算法;
88.具体而言,对所述第三图像帧集中的每个图像帧进行扩增,在扩增时采用从裁减、翻转和倾斜调整中随机选择至少一种算法进行扩增,将扩增后的图像帧作为第四图像帧;将所有第四图像帧作为第四图像帧。
89.s2217:根据所述第四图像帧集中的每个图像帧,生成一个所述初始样本;
90.具体而言,根据所述第四图像帧集中的每个图像帧(也就是第四图像帧),获取用户输入的样本标签,将该图像帧和该样本标签作为初始样本。
91.s2218:采用预设的划分比例,将各个所述初始样本划分为所述训练样本集和所述验证样本集。
92.可选的,预设的划分比例为7:3,也就是说,各个所述初始样本中70%的所述初始样本被划分到所述训练样本集,此时初始样本的图像帧作为训练样本的图像样本,初始样本的样本标签作为训练样本的掩膜标签,剩下的所有所述初始样本(也就是各个所述初始样本30%)被划分到所述验证样本集,此时初始样本的图像帧作为验证样本的图像样本,初始样本的样本标签作为验证样本的掩膜标签。
93.本实施例从每个视频提取两次眨眼过程的图像帧作为生成初始样本的基础,通过对图像帧先进行头部以外的背景的去除及裁减,然后再进行每个眼睛的区域分割,减少了输入所述初始模型的数据量,提高了所述初始模型的分割效率,提高了训练速度,通过背景的去除,减少了噪音像素点对区域分割的影响,有利于初始模型快速收敛,进一步提高了训练速度。
94.在一个实施例中,所述根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算的步骤,包括:
95.s31:对每个所述眼睛掩膜组合中的每个掩膜依次进行去除噪点及毛刺处理,得到目标掩膜组合;
96.具体而言,采用opencv的morphologyex函数,对每个所述眼睛掩膜组合中的每个掩膜依次进行去除噪点及毛刺处理,将同一个所述眼睛掩膜组合对应的去除噪点及毛刺处理之后的各个掩膜作为目标掩膜组合。opencv是一个基于apache2.0许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以运行在linux、windows、android和mac os操作系统上。morphologyex函数,是一种形态学操作函数,是opencv中的一种函数。它可以进行图像的腐蚀、膨胀、开运算、闭运算等操作,常用于图像处理、数字图像分析和计算机视觉等领域。
97.s32:根据各个所述目标掩膜组合各自对应的所述图像帧的采集时间,对各个所述目标掩膜组合进行序列组合,得到掩膜组合序列;
98.具体而言,对各个所述目标掩膜组合,按各个所述目标掩膜组合各自对应的所述图像帧的采集时间进行从早到晚的排序,将排序后的各个所述目标掩膜组合作为掩膜组合序列。
99.s33:根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算。
100.具体而言,对所述掩膜组合序列中的每个所述目标掩膜组合中的每个掩膜进行最大睁眼幅度计算,根据每个眼睛的各个最大睁眼幅度进行眨眼次数及不完全眨眼次数计算,将每个眼睛的眨眼次数除以所述目标面部视频对应的时长,得到该眼睛对应的眨眼频率,将每个眼睛的不完全眨眼次数除以所述目标面部视频对应的时长,得到该眼睛对应的不完全眨眼数据。
101.本实施例通过先对掩膜依次进行去除噪点及毛刺处理,然后进行进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算,提高了计算的所述眨眼频率及所述不完全
眨眼数据的准确性。
102.在一个实施例中,所述根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算的步骤,包括:
103.s331:基于峰值检测算法,根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算。
104.具体而言,对所述掩膜组合序列中的每个所述目标掩膜组合中的每个掩膜进行最大睁眼幅度计算;根据每个眼睛的各个最大睁眼幅度生成幅度曲线,其中,最大睁眼幅度对应的图像帧的采集时间作为幅度曲线的x轴的坐标,最大睁眼幅度作为幅度曲线的y轴的坐标;基于峰值检测算法,根据幅度曲线进行眨眼次数及不完全眨眼次数计算;将每个眼睛的眨眼次数除以所述目标面部视频对应的时长,得到该眼睛对应的眨眼频率,将每个眼睛的不完全眨眼次数除以所述目标面部视频对应的时长,得到该眼睛对应的不完全眨眼数据。
105.本实施例通过峰值检测算法进行所述眨眼频率及所述不完全眨眼数据计算,从而提高了计算的所述眨眼频率及所述不完全眨眼数据计算的准确性和计算效率。
106.在一个实施例中,所述根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果的步骤,包括:
107.s41:判断每个眼睛对应的所述眨眼频率及所述不完全眨眼数据是否满足每个干眼症条件,并从满足的各个所述干眼症条件对应的各个风险等级中选择最高的所述风险等级,作为所述眼睛对应的所述干眼症风险预测结果。
108.干眼症条件包括:频率条件和/或不完全眨眼条件。比如,干眼症条件为频率条件为小于15次每秒(也就是频率条件),或者,不完全眨眼频率不为0次每秒(也就是不完全眨眼条件)。
109.本实施例通过干眼症条件、每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果,实现了干眼症的风险预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。
110.请参阅图3所示,在一实施例中,提供一种基于人工智能的干眼症风险预测装置,所述装置包括:
111.数据获取模块801,用于获取目标对象的目标面部视频;
112.分割模块802,用于将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;
113.计算模块803,用于根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;
114.预测模块804,用于根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。
115.本实施例实现只需要通过目标对象的目标面部视频,即可确定所述目标对象对应的左眼干眼症风险预测结果和右眼干眼症风险预测结果,目标对象不需要前往医院采用设备进行检测,提高了目标对象检测的积极性,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础;通过根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果,实现了干眼症的风险
预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。
116.在一个实施例中,所述分割模块802的所述将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合的步骤,包括:
117.将所述目标面部视频中的任一图像帧作为第一图像;
118.对所述第一图像进行头部以外的背景的去除,得到第二图像;
119.采用预设的双线性插值法,对所述第二图像进行裁减,得到第三图像;
120.将所述第三图像输入所述分割模型进行每个眼睛的区域分割,得到眼睛掩膜;
121.将所述第一图像对应的各个所述眼睛掩膜,作为所述眼睛掩膜组合。
122.在一个实施例中,所述装置还包括训练模块,所述训练模块用于:
123.获取训练样本集和初始模型,其中,所述初始模型是基于segformer模型得到的模型;
124.采用所述训练样本集,对所述初始模型进行眼睛区域分割的训练,将训练结束的所述初始模型作为待验证模型;
125.采用预设的验证样本集,对所述待验证模型进行验证,得到验证结果;
126.若所述验证结果为不通过,则将所述待验证模型作为所述初始模型,对所述训练样本集随机进行排序调整,跳转到所述采用所述训练样本集,对所述初始模型进行眼睛区域分割的训练,将训练结束的所述初始模型作为待验证模型的步骤重新执行;
127.若所述验证结果为通过,则将所述待验证模型作为所述分割模型。
128.在一个实施例中,所述训练模块的所述获取训练样本集和初始模型的步骤之前,还包括:
129.获取预设数量的初始面部视频;
130.对每个所述初始面部视频进行两次眨眼过程的图像帧提取,得到第一图像帧集;
131.分别对所述第一图像帧集中的每个图像帧进行头部以外的背景的去除,得到第二图像帧集;
132.采用预设的双线性插值法,分别对所述第二图像帧集中的每个图像帧进行裁减,得到第三图像帧集;
133.根据所述第三图像帧集中的每个图像帧,生成一个初始样本;
134.基于预设的扩增方法,分别对所述第三图像帧集中的每个图像帧进行扩增,得到第四图像帧集,其中,所述扩增方法为每次从裁减、翻转和倾斜调整中随机选择至少一种算法;
135.根据所述第四图像帧集中的每个图像帧,生成一个所述初始样本;
136.采用预设的划分比例,将各个所述初始样本划分为所述训练样本集和所述验证样本集。
137.在一个实施例中,所述计算模块803的所述根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算的步骤,包括:
138.对每个所述眼睛掩膜组合中的每个掩膜依次进行去除噪点及毛刺处理,得到目标掩膜组合;
139.根据各个所述目标掩膜组合各自对应的所述图像帧的采集时间,对各个所述目标
掩膜组合进行序列组合,得到掩膜组合序列;
140.根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算。
141.在一个实施例中,所述计算模块803的所述根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算的步骤,包括:
142.基于峰值检测算法,根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算。
143.在一个实施例中,所述预测模块804的所述根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果的步骤,包括:
144.判断每个眼睛对应的所述眨眼频率及所述不完全眨眼数据是否满足每个干眼症条件,并从满足的各个所述干眼症条件对应的各个风险等级中选择最高的所述风险等级,作为所述眼睛对应的所述干眼症风险预测结果。
145.在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性和/或易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的客户端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人工智能的干眼症风险预测方法服务端侧的功能或步骤。
146.在一个实施例中,提供了一种计算机设备,该计算机设备可以是客户端,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人工智能的干眼症风险预测方法客户端侧的功能或步骤。
147.在一个实施例中,提出了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
148.获取目标对象的目标面部视频;
149.将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;
150.根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;
151.根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。
152.本实施例实现只需要通过目标对象的目标面部视频,即可确定所述目标对象对应的左眼干眼症风险预测结果和右眼干眼症风险预测结果,目标对象不需要前往医院采用设
备进行检测,提高了目标对象检测的积极性,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础;通过根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果,实现了干眼症的风险预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。
153.在一个实施例中,提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
154.获取目标对象的目标面部视频;
155.将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;
156.根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;
157.根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。
158.本实施例实现只需要通过目标对象的目标面部视频,即可确定所述目标对象对应的左眼干眼症风险预测结果和右眼干眼症风险预测结果,目标对象不需要前往医院采用设备进行检测,提高了目标对象检测的积极性,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础;通过根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果,实现了干眼症的风险预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。
159.需要说明的是,上述关于计算机可读存储介质或计算机设备所能实现的功能或步骤,可对应参阅前述方法实施例中,服务端侧以及客户端侧的相关描述,为避免重复,这里不再一一描述。
160.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
161.所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
162.以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实
施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
技术特征:
1.一种基于人工智能的干眼症风险预测方法,所述方法包括:获取目标对象的目标面部视频;将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。2.根据权利要求1所述的基于人工智能的干眼症风险预测方法,其特征在于,所述将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合的步骤,包括:将所述目标面部视频中的任一图像帧作为第一图像;对所述第一图像进行头部以外的背景的去除,得到第二图像;采用预设的双线性插值法,对所述第二图像进行裁减,得到第三图像;将所述第三图像输入所述分割模型进行每个眼睛的区域分割,得到眼睛掩膜;将所述第一图像对应的各个所述眼睛掩膜,作为所述眼睛掩膜组合。3.根据权利要求1所述的基于人工智能的干眼症风险预测方法,其特征在于,所述将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合的步骤之前,还包括:获取训练样本集和初始模型,其中,所述初始模型是基于segformer模型得到的模型;采用所述训练样本集,对所述初始模型进行眼睛区域分割的训练,将训练结束的所述初始模型作为待验证模型;采用预设的验证样本集,对所述待验证模型进行验证,得到验证结果;若所述验证结果为不通过,则将所述待验证模型作为所述初始模型,对所述训练样本集随机进行排序调整,跳转到所述采用所述训练样本集,对所述初始模型进行眼睛区域分割的训练,将训练结束的所述初始模型作为待验证模型的步骤重新执行;若所述验证结果为通过,则将所述待验证模型作为所述分割模型。4.根据权利要求3所述的基于人工智能的干眼症风险预测方法,其特征在于,所述获取训练样本集和初始模型的步骤之前,还包括:获取预设数量的初始面部视频;对每个所述初始面部视频进行两次眨眼过程的图像帧提取,得到第一图像帧集;分别对所述第一图像帧集中的每个图像帧进行头部以外的背景的去除,得到第二图像帧集;采用预设的双线性插值法,分别对所述第二图像帧集中的每个图像帧进行裁减,得到第三图像帧集;根据所述第三图像帧集中的每个图像帧,生成一个初始样本;基于预设的扩增方法,分别对所述第三图像帧集中的每个图像帧进行扩增,得到第四图像帧集,其中,所述扩增方法为每次从裁减、翻转和倾斜调整中随机选择至少一种算法;根据所述第四图像帧集中的每个图像帧,生成一个所述初始样本;
采用预设的划分比例,将各个所述初始样本划分为所述训练样本集和所述验证样本集。5.根据权利要求1所述的基于人工智能的干眼症风险预测方法,其特征在于,所述根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算的步骤,包括:对每个所述眼睛掩膜组合中的每个掩膜依次进行去除噪点及毛刺处理,得到目标掩膜组合;根据各个所述目标掩膜组合各自对应的所述图像帧的采集时间,对各个所述目标掩膜组合进行序列组合,得到掩膜组合序列;根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算。6.根据权利要求5所述的基于人工智能的干眼症风险预测方法,其特征在于,所述根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算的步骤,包括:基于峰值检测算法,根据所述目标面部视频和所述掩膜组合序列进行每个眼睛对应的所述眨眼频率及所述不完全眨眼数据计算。7.根据权利要求1所述的基于人工智能的干眼症风险预测方法,其特征在于,所述根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果的步骤,包括:判断每个眼睛对应的所述眨眼频率及所述不完全眨眼数据是否满足每个干眼症条件,并从满足的各个所述干眼症条件对应的各个风险等级中选择最高的所述风险等级,作为所述眼睛对应的所述干眼症风险预测结果。8.一种基于人工智能的干眼症风险预测装置,其特征在于,所述装置包括:数据获取模块,用于获取目标对象的目标面部视频;分割模块,用于将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;计算模块,用于根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;预测模块,用于根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述基于人工智能的干眼症风险预测方法的步骤。10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于人工智能的干眼症风险预测方法的步骤。
技术总结
本申请涉及医疗健康领域,揭示了一种基于人工智能的干眼症风险预测方法、装置、设备及介质。其中方法包括:获取目标对象的目标面部视频;将所述目标面部视频中的每个图像帧输入预设的分割模型进行眼睛区域分割,得到眼睛掩膜组合;根据所述目标面部视频和各个所述眼睛掩膜组合进行每个眼睛对应的眨眼频率及不完全眨眼数据计算;根据每个眼睛各自对应的所述眨眼频率和所述不完全眨眼数据,确定所述目标对象对应的每个眼睛的干眼症风险预测结果。实现了干眼症的风险预测,检测了目标对象患有干眼症风险,为及时干预来减缓发展成干眼症、或干预来减缓干眼症的恶化提供了基础。干预来减缓干眼症的恶化提供了基础。干预来减缓干眼症的恶化提供了基础。
技术研发人员:王关政
受保护的技术使用者:平安科技(深圳)有限公司
技术研发日:2023.06.30
技术公布日:2023/10/11
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
上一篇:一种功率模块的制作方法 下一篇:长林小蠹特异性引物、试剂、试剂盒及应用
