活体检测装置、控制方法和计算机可读介质与流程

未命名 09-08 阅读:108 评论:0


1.本公开涉及使用图像的活体检测。


背景技术:

2.已经开发了一种使用相机进行活体检测的技术。本文中提及的活体检测是指确定由相机捕获的对象是否是活体。例如,活体检测用于防止使用照片的假冒。
3.作为与使用相机的活体检测相关的现有技术文献,例如,有专利文献1。专利文献1的系统公开了一种技术,该技术通过控制照明灯以改变照明环境来获取在不同照明环境中捕获的人的图像,并且使用这些图像来确定捕获的对象是否是人。
4.引用列表
5.专利文献
6.专利文献1:日本未审查专利申请公开no.2003-178306


技术实现要素:

7.技术问题
8.本公开的目的是改进专利文献1中公开的技术。
9.问题的解决方案
10.本公开的计算机可读介质存储由计算机执行的程序。该程序使计算机执行:显示控制步骤,使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同的显示的第二画面;获取步骤,获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及活体检测步骤,使用多个捕获图像来确定所述目标是否是活体。所述第一画面包括具有不同显示的至少两个区域。
11.本公开的活体检测装置包括:显示控制单元,被配置为使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同的显示的第二画面;获取单元,被配置为获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及活体检测单元,被配置为使用多个捕获图像来确定所述目标是否是活体。所述第一画面包括具有不同显示的至少两个区域。
12.显示控制单元,被配置为使显示装置显示包括多个区域中的每一个区域中的指示的第一画面和包括与所述第一画面的指示不同的指示的第二画面;
13.获取单元,被配置为获取在显示所述第一画面和所述第二画面中的每一个的同时由相机捕获目标时生成的多个捕获图像;以及
14.活体检测单元,被配置为使用多个捕获图像来确定所述目标是否是活体。所述第一画面包括具有不同指示的至少两个区域。
15.本公开的控制方法由计算机执行。该控制方法包括:显示控制步骤,使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同
的显示的第二画面;获取步骤,获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及活体检测步骤,使用多个捕获图像来确定所述目标是否是活体。所述第一画面包括具有不同显示的至少两个区域。
附图说明
16.图1是示出了第一示例实施例的活体检测装置的操作概况的图。
17.图2是示出了第一示例实施例的活体检测装置的功能配置的框图。
18.图3是示出了实现第一示例实施例的活体检测装置的计算机的硬件配置的框图。
19.图4是示出了由第一示例实施例的活体检测装置执行的处理流程的流程图。
20.图5是示出了包括两个区域的画面的图。
21.图6是示出了包括三个区域的画面的图。
22.图7是示出了画面在水平方向和竖直方向二者上被划分的情况的图。。
23.图8是示出了基于相机的位置确定画面上的边界线的情况的图。
24.图9是示出了由显示控制单元在显示装置上显示的多个画面的第一图。
25.图10是示出了由显示控制单元在显示装置上显示的多个画面的第二图。
26.图11是示出了指示面部的适当尺寸的引导的图。
27.图12是示出了在视线方向固定的状态下使面部的取向左右移动的状态的图。
28.图13是示出了在面部左右摆动而视线方向固定的情况下面部方向和视线方向的时间变化的图。
29.图14是示出了引导信息的第一图。
30.图15是示出了第二示例实施例的活体检测装置的功能配置的框图。
31.图16是示出了由第二示例实施例的活体检测装置执行的处理流程的流程图。
32.图17是示出了指示目标对象接下来应该执行的动作的引导信息的图。
33.图18是示出了指示面部方向的引导的动画的图。
34.图19是示出了包括目标对象的视线位置和面部方向的引导信息的图。
35.图20是示出了包括目标对象的视线位置和面部方向的引导信息的第二图。
36.图21是示出了第二示例实施例的第一修改示例的活体检测装置中的目标对象的动作的图。
37.图22是示出了第二示例实施例的第一修改示例的活体检测装置的引导信息的图。
38.图23是示出了第二示例实施例的第二修改示例的活体检测装置中的目标对象的动作的图。
39.图24是示出了第二示例实施例的第二修改示例的活体检测装置的引导信息的图。
40.图25是示出了在顺序执行由第一示例实施例的活体检测装置进行的活体检测和由第二示例实施例的活体检测装置进行的活体检测的情况下的处理流程的流程图。
具体实施方式
41.在下文中,将参考附图详细描述本公开的示例实施例。在附图中,相同或对应的元件用相同的附图标记表示,并且为了描述的清楚,必要时将省略冗余的描述。此外,在附图中,除非另有说明,否则使用诸如点图案的图案来表示用除白色之外的颜色填充。此外,除
非另有说明,否则各种预定值(阈值等)被预先存储在存储装置中。
42.第一示例实施例
43.《概述》
44.图1是示出了第一示例实施例的活体检测装置2000的操作概况的图。这里,图1是用于促进理解活体检测装置2000的概况的图,并且活体检测装置2000的操作不限于图1中所示的操作。
45.活体检测装置2000确定由相机10捕获的目标对象50是否是活体(即,活体检测)。例如,活体检测装置2000区分目标对象50是真人的情况和目标对象50不是活体(诸如人的照片)的情况(即,捕获的不是真人而是人的照片等的情况)。然而,活体检测的目标不限于人,并且可以是诸如狗或蛇的另一种动物,或者是诸如机器人的无生命对象。在以下公开中,作为示例示出了人是活体检测的目标的情况,但是类似的方法可以应用于除了人之外的动物或者诸如机器人之类的无生命对象是活体检测的目标的情况。
46.为此,活体检测装置2000控制由显示装置20执行的画面的输出。显示装置20例如设置在用户使用的终端60(智能电话等)中。具体地,活体检测装置2000使显示装置20在不同的定时显示多个画面30。例如,在图1的示例中,在使显示装置20显示画面30-1之后,活体检测装置2000将显示在显示装置20上的画面从画面30-1改变为画面30-2。
47.这里,至少一个画面30具有多个区域32。在多个区域32中,存在包括彼此不同的显示的至少两个区域32。例如,图1中的画面30-1包括用白色填充的区域32-1和用黑色填充的区域32-2。注意,为了便于说明,黑色由点图案表示。
48.对于至少两个画面30中的每一个,当画面30被显示在显示装置20上的同时,相机10捕获目标对象50,并且生成表示结果的捕获图像40。例如,在图1中,通过在显示画面30-1的同时执行的捕获来生成捕获图像40-1,并且通过在显示画面30-2的同时执行的捕获来生成捕获图像40-2。
49.活体检测装置2000获取以这种方式生成的多个捕获图像40,并且使用所获取的多个捕获图像40来确定目标对象50是否是活体。
50.《有利效果的示例》
51.通过本示例实施例的活体检测装置2000,在画面30被显示在显示装置20上的状态下,执行由相机10进行的捕获。这里,在目标对象50是示出面部的纸质照片、显示面部图像的显示设备等的情况下,照片等用从显示装置20发射的光照射,并且其反射光被相机10捕获。另一方面,在目标对象50是真人的情况下,用从显示装置20发射的光照射真实面部,并且反射光被相机10捕获。
52.纸张、显示装置等的形状基本上是平的,并且与真实面部的形状有很大不同。因此,可以说,在从显示装置20发射的光被发射到纸质照片等的情况和光被发射到真实面部的情况之间,反射光的特性有很大不同。然后,反射光的这种特性差异出现在通过用相机10捕获反射光而获得的捕获图像40中。
53.利用活体检测装置2000,通过分析通过捕获上述反射光获得的捕获图像40,可以基于这种特性差异来确定目标对象50是否是活体。
54.此外,在专利文献1的系统中,光从一个照明灯发射到活体检测的目标。因此,仅可以实现诸如“照亮整个画面”或“照暗整个画面”的有限的照明环境变化。在这方面,在本示
例实施例的活体检测装置2000中,画面30包括具有不同显示的多个区域32。因此,可以灵活地配置从显示装置20发射到目标对象50的光的图案。例如,如图1所示,目标对象50可以用各种图案的光照射,诸如“左半亮而右半暗”或“右半亮而左半暗”。
55.利用本示例实施例的活体检测装置2000,这种各种图案的光被发射到目标对象50,并且从其反射的光被捕获的捕获图像40用于确定目标对象50是否是活体。因此,与仅向目标对象50发射诸如“照亮整个画面”或“照暗整个画面”的相对简单的光图案的情况相比,可以以更高的准确度确定目标对象50是否是活体。
56.在下文中,将更详细地描述本示例实施例的活体检测装置2000。
57.《功能配置的示例》
58.图2是示出了第一示例实施例的活体检测装置2000的功能配置的框图。活体检测装置2000包括显示控制单元2020、获取单元2040和活体检测单元2060。显示控制单元2020在不同的定时在显示装置20上显示多个画面30。这里,至少一个画面30具有多个区域32。此外,至少两个区域32包括彼此不同的显示。获取单元2040获取在显示多个画面30中的每一个的同时由相机10生成的多个捕获图像40。活体检测单元2060通过使用多个捕获图像40来确定目标对象50是否是活体。
59.《硬件配置的示例》
60.活体检测装置2000的每个功能配置单元可以通过实现每个功能配置单元的硬件(例如,硬连线电子电路等)来实现,或者可以通过硬件和软件的组合(例如,电子电路和控制电子电路的程序的组合等)来实现。在下文中,将进一步描述通过硬件和软件的组合来实现活体检测装置2000的每个功能配置单元的情况。
61.图3是示出了实现活体检测装置2000的计算机500的硬件配置的框图。计算机500是任何计算机。例如,计算机500是诸如个人计算机(pc)或服务器机器的固定计算机。在另一示例中,计算机500是移动计算机,诸如智能电话、平板终端或笔记本pc。注意,在使用终端60的情况下,活体检测装置2000可以与终端60一体地提供,或者可以单独提供。
62.计算机500可以是被设计为实现活体检测装置2000的专用计算机,或者可以是通用计算机。例如,通过在计算机500上安装预定的应用,在计算机500中实现活体检测装置2000的每个功能。上述应用由用于实现活体检测装置2000的功能配置单元的程序配置。
63.计算机500包括总线502、处理器504、存储器506、存储设备508、输入/输出接口510和网络接口512。总线502是处理器504、存储器506、存储设备508、输入/输出接口510和网络接口512相互发送和接收数据的数据传输路径。然而,将处理器504等彼此连接的方法不限于总线连接。
64.处理器504是各种处理器,诸如中央处理单元(cpu)、图形处理单元(gpu)、现场可编程门阵列(fpga)、数字信号处理器(dsp)或专用集成电路(asic)。存储器506是通过使用随机存取存储器(ram)等实现的主存储设备。存储设备508是通过使用硬盘、固态驱动器(ssd)、存储卡、只读存储器(rom)等实现的辅助存储设备。
65.输入/输出接口510是用于连接计算机500和输入/输出设备的接口。例如,相机10和显示装置20连接到输入/输出接口510。
66.网络接口512是用于将计算机500连接到网络的接口。该网络可以是局域网(lan)或广域网(wan)。
67.存储设备508存储用于实现活体检测装置2000的每个功能配置单元的程序(用于实现上述应用的程序)。处理器504通过读出存储器506中的该程序并且执行该程序来实现活体检测装置2000的每个功能配置单元。
68.活体检测装置2000可以由一个计算机500实现,或者可以由多个计算机500实现。在后一种情况下,计算机500的配置不需要相同,并且可以彼此不同。
69.《关于显示装置20》
70.显示装置20是能够显示画面30的任何显示装置。例如,显示装置20可通信地连接到由用户操作的终端60,并且被配置成显示从终端60输出的画面。终端60是用户使用的任何计算机。当目标对象50是真人并且终端60由目标对象50使用时,终端60的用户是目标对象50。另一方面,在将执行照片等被用作目标对象50的假冒的情况下,终端60的用户是使相机10捕获这样的照片等的人。终端60可以由诸如智能电话、平板终端或膝上型pc的移动计算机来实现,或者可以由诸如台式pc的固定计算机来实现。
71.在终端60由移动计算机实现的情况下,显示装置20是设置在终端60中的显示装置。另一方面,在终端60由固定计算机实现的情况下,显示装置20是可通信地连接到终端60并且被配置为显示从终端60输出的画面的显示装置。
72.活体检测装置2000可以与终端60一体地提供,或者可以单独提供。在终端60与活体检测装置2000分开提供的情况下,在图3中示出了实现终端60的计算机的硬件配置,例如,类似于计算机500。
73.此外,可以在终端60中提供活体检测装置2000的一些功能,并且可以在除了终端60之外的计算机中提供其他功能。例如,在终端60中提供显示控制单元2020和获取单元2040,并且在服务器装置中提供活体检测单元2060。在这种情况下,例如,由相机10生成的多个捕获图像40从终端60发送到服务器装置。然后,服务器装置通过分析接收到的捕获图像40来执行活体检测,并且将指示结果的信息发送到终端60。
74.显示装置20不限于可通信地连接到由用户操作的终端60的那些装置。例如,显示装置20可以被实现为通过设施入口处的门的人可以看到的显示装置,其中门的打开和关闭由计算机控制。在这种情况下,例如,对将要通过门的人执行使用相机10的面部认证和活体检测。具体地,通过使用从相机10获得的目标对象50的捕获图像来确定目标对象50是否被登记为可以通过门的人。此外,活体检测装置2000控制显示装置20以对目标对象50执行活体检测。然后,当目标对象50被登记为可以通过门的人并且确定目标对象50是活体时,门由控制门的打开和关闭的门控制装置打开。另一方面,当目标对象50没有被登记为可以通过门的人时,或者当确定目标对象50不是活体时,门不被打开(当门是打开的时,门控制装置关闭门)。通过执行活体检测,可以防止使用登记人的面部照片等的假冒。
75.注意,在基于面部认证和活体检测的结果控制门的打开和关闭的情况下,可以使用用户使用的诸如智能电话的终端60来执行面部认证和活体检测。具体地,首先,当用户操作终端60时,执行由活体检测装置2000进行的面部认证和活体检测。门控制装置通过从终端60获得指示面部认证和活体检测的结果的信息来控制门的打开和关闭。指示面部认证和活体检测的结果的信息例如通过无线通信从终端60发送到门控制装置。在另一示例中,终端60使显示装置20显示指示面部认证和活体检测的结果的信息(例如,二维码等),并且使可通信地连接到门控制装置的读取器读取该信息。门控制装置基于由读取器读取的信息来
控制门的打开和关闭。
76.《关于相机10》
77.在目标对象50的面部用从显示装置20的显示区域输出的光照射的状态下,相机10以能够捕获目标对象50的面部的位置和姿势使用。例如,相机10是内置在显示装置20的显示区域附近的相机。这种相机被称为内置相机等。然而,相机10不限于内置在终端60中的相机,诸如内置相机。例如,附接到显示装置20的边缘等的便携式相机(诸如网络相机)可以用作相机10。在另一示例中,相机10可以安装在远离显示装置20的位置处。例如,在根据上述活体检测装置2000进行的活体检测的结果来控制门的打开和关闭的示例中,安装成使得将要通过门的人进入捕获范围的监控相机等可以用作相机10。
78.相机10可以是生成静止图像的静止相机或生成视频的摄像机。在相机10是静态相机的情况下,相机10在多个画面30中的每一个显示在显示装置20上的状态下生成捕获图像40。另一方面,在相机10是摄像机的情况下,例如,相机10通过在包括从显示第一画面30时到显示最后一个画面30时的时段的时段中执行捕获来生成视频数据。在这种情况下,捕获图像40是构成视频数据的视频帧。
79.《处理流程》
80.图4是示出了由第一示例实施例的活体检测装置2000执行的处理流程的流程图。s102至s106构成循环处理a。针对要在显示装置20上显示的每个画面30执行循环处理a。
81.在s102中,显示控制单元2020确定是否已经针对所有画面30执行了循环处理a。在针对所有画面30执行循环处理a的情况下,图4的处理进行到s108。另一方面,在存在尚未作为循环处理a的目标处理的画面30的情况下,显示控制单元2020选择它们中的一个。这里选择的画面30被称为画面i。在画面30被选择之后,图4中的处理进行到s104。
82.注意,画面30的选择顺序是任意的。例如,显示控制单元2020以预定顺序选择画面30。在另一示例中,显示控制单元2020可以以随机顺序选择画面30。
83.显示控制单元2020使显示装置20显示画面i(s104)。由于s106是循环处理a的结束,所以图4的处理进行到s102。注意,在通过执行s104在显示装置20上显示画面i之后,由相机10执行捕获,并且生成捕获图像40。
84.在循环处理a结束之后,获取单元2040获取多个捕获图像40。(s108)。活体检测单元2060通过使用多个获取的捕获图像40对目标对象50执行活体检测(s110)。
85.《关于画面30》
86.画面30具有多个区域32。显示在显示装置20上的画面30中的至少一个画面30具有多个区域32。多个区域32中的至少两个区域32包括彼此不同的显示。包括不同显示的区域32是例如具有彼此不同的颜色或亮度的区域32,或者是包括彼此不同的字符、符号、图形等的区域32。通过在画面30中包括这样的两个区域32,目标对象50可以用从在其上显示画面30的显示装置20到目标对象50的具有不均匀亮度的光照射。
87.图5是示出了包括两个区域32的画面30的图。画面30-1被竖直方向上的边界线划分成两个区域32-1和32-2。区域32-1是画面30-1的左半区域,而区域32-2是画面30-1的右半区域。区域32-1和区域32-2填充有彼此不同的颜色(所有像素具有相同的颜色)。注意,可以仅对区域32的一些像素设置颜色,而不是对区域32的所有像素设置颜色(完全填充区域32)。例如,在区域32中,设置了颜色的像素(发光的像素)和没有设置颜色的像素(不发光的
像素)可以交替布置。
88.另一方面,画面30-2被水平方向上的边界线划分成两个区域32-3和32-4。区域32-3是画面30-2的上半区域,而区域32-4是画面30-2的下半区域。区域32-3和区域32-4填充有彼此不同的颜色。
89.注意,作为区域32的颜色,可以指定诸如白色、黑色、红色或蓝色的任何颜色。此外,在诸如红外光的不可见光可以从显示装置20输出的情况下,可以使用不可见光。例如,可以想到执行处理“可见光从显示装置20的左半发射,而红外光从显示装置20的右半发射”,然后执行处理“红外光从显示装置20的左半发射,而可见光从显示装置20的右半发射”。注意,当使用不可见光时,有必要使用能够检测不可见光的传感器。例如,在使用可见光和红外光的情况下,使用能够捕获可见光的相机和能够捕获红外光的相机。
90.在图5中的画面30-1和画面30-2两者中,两个区域32的尺寸彼此相同。然而,区域32的尺寸可以彼此不同。
91.在图5中,区域32的边界线是竖直方向或水平方向上的直线。然而,区域32的边界线不限于线性方向或水平方向上的直线,并且可以是对角线。此外,边界线不限于直线,并且可以是曲线、曲折线等。
92.画面30中包括的区域32的数量可以是三个或更多个。例如,画面30在水平方向或竖直方向上被划分成n个(n≥2)。图6是示出了具有三个区域32的画面30的图。在图6中,画面30-1在水平方向上被划分成三个(在水平方向上布置有三个区域32)。另一方面,画面30-2在竖直方向上被划分成三个(在竖直方向上布置有三个区域32)。
93.此处,在画面30具有三个或更多个区域32的情况下,彼此不相邻的多个区域32上的显示可以彼此相同。例如,在图6的画面30-1上,区域32-1和区域32-3填充有彼此相同的颜色,而区域32-2填充有与其不同的颜色。另一方面,在图6的画面30-2上,三个区域32填充有彼此不同的颜色。
94.此外,画面30可以在水平方向和竖直方向二者上被划分。图7是示出了画面30在水平方向和竖直方向二者上被划分的情况的图。在图7中,画面30-1被水平方向上的边界线和竖直方向上的边界线划分成四个。另一方面,画面30-2被两条对角线划分成四个。
95.这里,存在使多个区域32上的显示不同的各种方法。例如,如上所述,多个区域32填充有彼此不同的颜色。在区域32填充有彼此不同颜色的情况下,优选地使用彼此具有不同亮度的颜色,以便在显示这些区域32时使从显示装置20发射的光的亮度不同。
96.在另一示例中,区域32填充有诸如格子图案或点图案的图案。在这种情况下,优选地通过改变要使用的模型的特性来使从显示装置20发射的光的亮度不同。例如,在格子图案中,从显示装置20发射的光的亮度可以通过改变格子的尺寸或线的粗细来改变。此外,在点图案中,从显示装置20发射的光的亮度可以通过改变点的尺寸或点之间的间隔来改变。
97.在另一示例中,区域32可以包括字符、符号、图形等。同样在这种情况下,从显示装置20发射的光的亮度可以通过改变在区域32中包括的字符、符号或图形的尺寸或间隔来改变。
98.此外,在显示装置20的显示区域的亮度可以针对每个部分而改变的情况下,多个区域32可以以彼此不同的亮度显示相同的颜色。例如,在图5的画面30-1中,区域32-1是相对亮的白色区域,而区域32-2是相对暗的白色区域。以这种方式,即使当多个区域32填充有
彼此相同的颜色时,从显示装置20发射的光的亮度也可以针对每个区域32而不同。此外,相对暗的区域32也可以由未用光照射的区域实现。
99.《《相机10的位置与划分方法之间的关系》》
100.将画面30划分成多个区域32的边界线的位置可以基于相机10相对于显示装置20的相对位置来确定。在人用相机10捕获自己的情况下,很有可能终端60被保持为使得相机10的位置位于面部的中心。因此,通过基于相机10的位置确定画面30的边界线的位置,画面30的边界线可以位于目标对象50的中心。因此,发射到目标对象50的光的特性可以以目标对象50的中心作为边界而改变,诸如“亮光被施加到左半面部,而暗光被施加到右半面部”。由于面部的形状基本上是两侧对称的,因此可以通过将具有不同特性的光施加到面部的左右来促进比较。
101.图8是示出了基于相机10的位置确定画面30上的边界线的情况的图。图8中的相机10没有设置在显示装置20的显示区域的中心处,而是设置在水平方向上的左侧。
102.在画面30-1的情况下,边界34-1是从相机10沿竖直方向向下绘制的直线。也就是说,基于从相机10沿竖直方向向下绘制的直线,画面30被划分成左和右。这里,由于相机10设置在左侧,因此区域32-1小于区域32-2。
103.另一方面,在画面30-2的情况下,画面30被等分为二,同时边界线34参考相机10的位置来确定。具体地,边界线34-2的上端由从相机10沿竖直方向向下绘制的直线与显示装置20的显示区域的上边的交点设置。然后,区域32-4是从上述上端向右斜下方绘制的直线,使得画面30-2被边界线34-2等分为二。
104.注意,在画面30在水平方向或竖直方向上被划分的情况下,画面30在哪个方向上被划分可以由相机10的位置来确定。具体地,在相机10设置在显示装置20的显示区域的上方或下方的情况下,显示控制单元2020在水平方向上划分画面30。另一方面,在相机10设置在显示装置20的显示区域的左侧或右侧的情况下,显示控制单元2020在竖直方向上划分画面30。
105.为了基于相机10的位置确定边界线34,活体检测装置2000需要知道相机10与显示装置20的显示区域之间的位置关系。例如,如上所述确定的边界线34的一端的位置被预先设置在活体检测装置2000中。在另一示例中,边界线34的一端的位置可以由终端60的用户设置。例如,活体检测装置2000使终端60的用户指定显示装置20的显示区域上的位置。然后,活体检测装置2000使用指定位置的x坐标作为边界线34的上端的x坐标。
106.注意,不仅边界线34的一端而且边界线34本身都可以由终端60的用户设置。例如,使用户在显示装置20上绘制线,并且该线被用作边界线34。注意,在期望基于用户面部来确定边界线34的情况下,例如,由相机10捕获的用户面部的图像(捕获图像40)被显示在显示装置20上。然后,例如,通过使显示装置20显示诸如“绘制线以便穿过你的面部中心”的引导消息,设置基于用户面部的边界线34。
107.此外,活体检测装置2000可以从捕获图像40中检测面部,并且基于捕获图像40上的面部的位置自动确定边界线34(例如,在竖直方向上穿过面部中心的直线)。
108.《画面30上的显示控制:s102至s106》
109.显示控制单元2020使显示装置20在不同的定时显示多个画面30(s102至s106)。上述各种画面30可以用作多个画面30。注意,两种或更多种类型的画面30被显示在显示装置
20上,并且它们中的至少一个具有多个不同的区域32。显示在显示装置20上的画面30可以包括没有被划分成多个区域32的画面30。
110.图9是示出了显示控制单元2020在显示装置20上显示的多个画面30的第一图。在图9的示例中,画面30以画面30-1、画面30-2、画面30-3和画面30-4的顺序显示。
111.画面30-1的左半部分用白色填充,而右半部分用黑色填充。画面30-2的左半部分用黑色填充,而右半部分用白色填充。画面30-3完全用白色填充。画面30-4完全用黑色填充。
112.图10是示出了显示控制单元2020在显示装置20上显示的多个画面30的第二图。在图10中,m个画面30按顺序显示。这m个画面30是通过将用白色填充的左区域32和用黑色填充的右区域32之间的边界线逐渐向右移动而生成的。
113.注意,当如图10中所示移动边界线时,可以针对边界线的一个位置显示画面30的多个图案。例如,在图10的示例中,假设每1秒改变区域32上的显示,同时每3秒移动边界线。在这种情况下,在边界线的位置固定的状态下,显示画面30的三个图案。例如,通过显示三种类型的画面30,包括左区域32是白色的画面30、左区域32是相对浅灰色的画面30和左区域32是相对深灰色的画面30,可以在边界线固定的状态下显示画面30的多个图案。然而,在边界线固定的状态下其显示改变的区域32不限于仅仅一个区域32,并且多个区域32中的每一个上的显示可以被改变。
114.注意,每个画面30显示在显示装置20上的时间可以是彼此相同的长度,或者可以是彼此不同的长度。
115.相机10需要能够在画面30显示在显示装置20上的定时捕获两个或更多个画面30的图像。因此,例如,显示控制单元2020控制相机10的捕获。具体地,活体检测装置2000在改变画面30的同时重复处理“使显示装置20显示画面30,然后使相机10捕获图像”。因此,对于每个画面30,针对画面30显示在显示装置20上的状态获得捕获图像40。
116.然而,显示控制单元2020可以不控制相机10捕获的定时。例如,相机10被配置为重复执行捕获。通过在相机10重复执行捕获的同时切换显示在显示装置20上的画面30,可以获得针对显示每个画面30的状态的捕获图像40。在这种情况下,例如,在显示装置20上显示一个画面30的时间长度优选地被设置为长于相机10的捕获周期。以这种方式,对于所有画面30中的每一个,可以获得在该画面30显示在显示装置20上时生成的一个或多个捕获图像40。然而,画面30显示在显示装置20上的时间长度不必被设置为长于相机10的捕获周期。
117.注意,在三个或更多个画面30显示在显示装置20上的情况下,不必针对所有画面30生成捕获图像40。例如,在图10的示例中,假设相机10是摄像机,并且相机10的捕获周期比边界线的移动周期长。在这种情况下,当显示画面30时,相机10可能没有捕获到m个画面30中的任何一个或多个画面30。然而,只要可以获取两个或更多个捕获图像40,就可以实现由活体检测单元2060进行的活体检测。
118.《捕获图像40的获取:s108》
119.获取单元2040获取由相机10生成的多个捕获图像40(s108)。这里,可以使用各种方法作为获取由相机生成的图像的方法。例如,获取单元2040通过访问存储捕获图像40的存储设备来获取捕获图像40。这里,存储设备可以设置在相机10的内部或外部。在另一示例中,获取单元2040可以通过接收从相机10发送到活体检测装置2000的捕获图像40来获取捕
获图像40。
120.《活体检测的执行:s110》
121.活体检测单元2060通过使用多个获取的捕获图像40来执行活体检测。具体地,活体检测单元2060确定由相机10捕获的目标对象50是否是活体。
122.如上所述,目标对象50的形状彼此大不相同,并且这种形状的差异作为反射光的特性的差异出现在捕获图像40中。因此,例如,活体检测单元2060基于捕获图像40上的目标对象50的颜色或亮度的分布特性来确定目标对象50是否是活体。
123.存在用于实现由活体检测单元2060进行的活体检测的各种具体方法。例如,使用经训练的识别模型来实现活体检测。响应于多个捕获图像40的输入,识别模型输出指示关于相机10捕获的对象是否是活体的确定结果的数据。指示确定结果的数据例如是标签,在由相机10捕获的对象是活体的情况下指示1,并且在由相机10捕获的对象不是活体的情况下指示0。例如,这种识别模型可以通过诸如卷积神经网络(cnn)的神经网络来实现。然而,识别模型的类型不限于神经网络。根据使用经训练的识别模型执行活体检测的方法,可以以数据驱动的方式容易地构建用于确定目标对象50是否是活体的算法。
124.可以使用由“多个捕获图像40和真实标签”的组合配置的训练数据来实现识别模型的训练。例如,假设显示控制单元2020使显示装置20显示从第一图案的画面30到第三图案的画面30的三种类型的画面30。在这种情况下,与第一图案的画面30至第三图案的画面30相对应地获得第一图案的捕获图像40至第三图案的捕获图像40。这里,第n图案(n是大于或等于1且小于或等于3的整数)的捕获图像40是当第n图案的画面30显示在显示装置20上的同时由相机10生成的捕获图像40。在以这种方式获得三个图案的捕获图像40的情况下,由“第一图案的捕获图像40、第二图案的捕获图像40、第三图案的捕获图像40和真实标签”的组合配置的训练数据用于训练识别模型。
125.识别模型的训练优选地使用正例的训练数据和负例的训练数据二者来执行。正例的训练数据指示在相机10捕获活体的情况下获得的多个捕获图像40和指示相机10捕获活体的真实标签(例如,1)。另一方面,非示例的训练数据指示在除了活体之外的那些被相机10捕获的情况下获得的多个捕获图像40和指示除了活体之外的那些被相机10捕获的真实标签(例如,0)。通过使用正例的训练数据和负例的训练数据二者,可以学习在捕获活体的情况下获得的捕获图像40和在捕获除了活体之外的那些的情况下获得的捕获图像40之间的差异。
126.《结果的输出》
127.活体检测装置2000输出指示活体检测结果的信息(下文中,检测结果信息)。检测结果信息指示关于目标对象50是否是活体的确定结果。检测结果信息优选地显示在终端60的用户可观看的显示装置(例如,显示装置20)上。然而,检测结果信息可以输出到除终端60的显示装置之外的装置。
128.《其他处理》
129.除了从显示装置20发射的光之外,目标对象50还用显示装置20周围的环境光(阳光、照明光等)照射。然后,在环境光比从显示装置20发射的光强得多的情况下,环境光变成主导,因此,即使当从显示装置20发射的光的强度改变时,该改变也几乎不会出现在捕获图像40中。因此,优选地,在环境光不太强的地方执行使用活体检测装置2000的活体检测。
130.因此,例如,活体检测装置2000可以在显示控制单元2020控制显示装置20之前确定环境光的强度,并且可以仅在确定环境光等于或小于阈值的情况下开始活体检测的一系列处理(图4中的s102至s110)。以这种方式,当环境光的强度合适时,可以执行活体检测处理。
131.使用例如照度传感器来确定环境光的强度。照度传感器可以预先内置在显示装置20或终端60中,或者可以单独准备。例如,在环境光大于阈值的情况下,活体检测装置2000使显示装置20显示建议移动到稍微暗的地方(环境光比当前状态弱的地方)的消息。以这种方式,在不在适当的环境中使用终端60的情况下,可以向用户通知该事实,使得在适当的环境中使用终端60。
132.注意,确定环境光强度是否合适的方法不限于用传感器测量环境光强度的方法。例如,活体检测装置2000基于捕获图像40的亮度高度来确定环境光的强度是否合适。捕获图像40可以在画面30显示在显示装置20上时生成,或者可以在画面30没有显示在显示装置20上时生成。例如,在捕获图像40中包括的所有或一些像素的亮度的统计值(例如,平均值)等于或小于阈值的情况下,活体检测装置2000确定环境光的强度是合适的。另一方面,在统计值大于阈值的情况下,活体检测装置2000确定环境光的强度不合适。
133.在另一示例中,活体检测装置2000可以将在相对较亮的画面30(例如,全白的画面30)显示在显示装置20上时由相机10生成的捕获图像40与在相对较暗的画面30(例如,全黑的画面30)显示在显示装置20上时由相机10生成的捕获图像40进行比较,并且确定是否存在足够的亮度差(例如,亮度差等于或大于阈值)。亮度差可以由例如前一捕获图像40中包括的所有像素的亮度的统计值(例如,平均值)和后一捕获图像40中包括的所有像素的亮度的统计值之间的差来表示。
134.然而,在亮度的统计值的计算中,包括目标对象50的区域的亮度可以优先于其他区域的亮度。例如,活体检测装置2000从捕获图像40中检测包括目标对象50的区域,并且仅使用该区域的亮度来计算亮度的统计值。在另一示例中,活体检测装置2000可以在对包括目标对象50的区域的亮度给予比其他区域更大的权重之后,计算整个图像的亮度的加权平均。
135.当确定不存在足够的亮度差时,认为环境光太强。因此,例如,在确定不存在足够的亮度差的情况下,活体检测装置2000不确定目标对象50是否是活体,并且使显示装置20显示建议在移动到稍微暗的地方之后重新尝试活体检测的消息。通过以这种方式比较捕获图像40来确定环境光是否太强的方法具有不需要用于确定环境光强度的硬件(诸如照度传感器)的优点。
136.显示控制单元2020可以根据环境光的强度来改变要在显示装置20上显示的画面30。例如,当环境光更强时,优选增加画面30的对比度。以这种方式,可以降低环境光成为主导的概率。此外,以这种方式,由于画面30的对比度随着环境光变弱而变低,可以降低显示装置20的功耗。画面30的对比度可以通过“使相对较亮的区域32更亮”和“使相对较暗的区域32更暗”这两种措施中的任何一种或两种来实现。
137.例如,对于环境光强度的每个等级(下文中称为环境光等级),预先确定要在显示装置20上显示的多个画面30。较高的环境光等级与较高对比度的画面30相关联。显示控制单元2020确定环境光的当前强度所对应的环境光等级,并且使用与所确定的环境光等级相
关联的画面30。
138.在另一示例中,显示控制单元2020可以通过根据环境光的强度改变(校正)包括在画面30中包括的一个或多个区域32中的像素的颜色,根据环境光的强度生成画面30。例如,准备校正系数α,其值随着环境光更强而增加。校正系数α的值范围例如是0《α≤1。通过将该校正系数乘以在区域32中包括的颜色的亮度,区域32可以随着环境光更强而变亮。
139.活体检测装置2000可以在使显示装置20显示画面30之前获取捕获图像40并且执行面部检测处理,并且可以响应于从捕获图像40检测到面部而开始用于活体检测的一系列处理。这是因为在从捕获图像40中没有检测到面部的情况下,不能执行活体检测。例如,在使显示装置20显示提示捕获面部的消息之后,活体检测装置2000重复获取捕获图像40并且执行面部检测处理。然后,当从捕获图像40中检测到面部时,开始用于活体检测的一系列处理。另一方面,在一定时间段内没有从捕获图像40中检测到面部的情况下,活体检测装置2000使显示装置20显示提示捕获面部的消息。
140.此外,在从捕获图像40中检测到面部的情况下,活体检测装置2000可以确定面部的尺寸是否足够大。例如,仅当面部的尺寸足够大时,活体检测装置2000才开始用于活体检测的一系列处理。另一方面,在面部的尺寸不够大的情况下,活体检测装置2000使显示装置20显示提示捕获面部的更大图像的消息。
141.例如,通过将捕获图像40中的目标对象50的面部区域的面积与阈值进行比较,确定面部的尺寸是否足够大。在另一示例中,面部的尺寸是否足够大可以不由面部本身的尺寸来确定,而是通过将左眼和右眼之间的距离与阈值进行比较来确定。在这种情况下,活体检测装置2000从捕获图像40中检测目标对象50的左眼和右眼,并且计算它们之间的距离。然后,活体检测装置2000确定所计算的距离是否等于或小于阈值。在眼睛之间的距离等于或小于阈值的情况下,活体检测装置2000确定面部的尺寸足够大。另一方面,在眼睛之间的距离大于阈值的情况下,活体检测装置2000确定面部的尺寸不够大。
142.在另一示例中,活体检测装置2000可以基于显示装置20和目标对象50之间的距离来确定面部的尺寸是否足够大。例如,在显示装置20与目标对象50之间的距离等于或小于阈值的情况下,活体检测装置2000确定面部的尺寸足够大。另一方面,在显示装置20与目标对象50之间的距离大于阈值的情况下,活体检测装置2000确定面部的尺寸不够。注意,作为用于计算显示装置20与目标对象50之间的距离的方法,可以使用各种方法,诸如使用深度传感器的方法。此外,代替显示装置20与目标对象50之间的距离,可以使用相机10与目标对象50之间的距离。在这种情况下,可以通过使用立体相机或具有深度传感器的相机作为相机10来确定相机10与目标对象50之间的距离。
143.注意,活体检测装置2000可以使显示装置20显示指示面部的适当尺寸的引导,使得用户可以容易地捕获具有适当尺寸的面部。图11是示出了指示面部的适当尺寸的引导的图。椭圆形的框表示应该布置面部的位置。此外,虚线表示应该布置面部的中心线(穿过中心的线)的位置。通过显示这样的引导,用户可以更容易地执行捕获。
144.活体检测装置2000可以检测到捕获图像40中的用户面部的中心线与由上述引导指示的面部的中心线(图11中的虚线)重叠,并且可以响应于该检测而开始活体检测的一系列处理。因此,在面部采取适当姿势的定时执行活体检测,因此,提高了活体检测的准确度。注意,现有技术可以用作用于通过图像分析确定面部中心线的技术。
145.在另一示例中,活体检测装置2000可以使用捕获图像40检测目标对象50的眨眼,并且响应于该检测而开始活体检测的一系列处理。注意,现有技术可以用作用于从时间序列图像中检测眨眼的技术。
146.第二示例实施例
147.类似于第一示例实施例的活体检测装置2000,第二示例实施例的活体检测装置2000对目标对象50执行活体检测。然而,第二示例实施例的活体检测装置2000通过不同于第一示例实施例的活体检测装置2000的方法来实现活体检测。
148.作为前提,在本示例实施例中,相机10捕获其中作为活体检测的目标的人(目标对象50)在视线方向固定的状态下使面部的取向左右移动的场景的图像。图12是示出了在视线方向固定的状态下(在连续观看同一地方的状态下)使面部的取向左右移动的状态的图。视线固定在终端60上的一点。
149.这里,在由相机10捕获的面部是真实面部的情况下,目标人可以独立于面部的移动而移动眼睛,从而可以在视线方向固定的情况下改变面部方向。然后,在视线方向固定的情况下执行随时间改变面部方向的动作的情况下,面部方向与视线方向之间的差异随时间改变。例如,在面部和视线二者都面向前方的情况下,面部方向与视线方向之间的差异小。另一方面,在面部面向左侧或右侧而视线面向前方的情况下,面部方向与视线方向之间的差异大。
150.另一方面,假设目标人佩戴着附件(所谓的3d面具等),在该附件上绘制了另一个人的面部用于假冒。在这种情况下,由于眼睛被绘制在面具等上,因此眼睛不能独立于面部的移动而移动。也就是说,视线的方向与面部方向一起改变。因此,即使在视线方向固定的情况下执行随时间改变面部方向的运动,在实际中,面部方向与视线方向之间的差异不会随时间改变或者改变量较小。
151.图13是示出了在面部左右摆动而视线方向固定的情况下面部方向和视线方向的时间变化的图。在这两个曲线图中,实线表示面部方向,而虚线表示视线方向。左侧的曲线图表示由相机10捕获的面部是真实面部的情况。另一方面,右侧的曲线图表示由相机10捕获的面部是3d面具的情况。通过比较这些曲线图可以看出,当附接上3d面具时,面部方向与视线方向之间的差异变得相对较小。
152.因此,活体检测装置2000基于面部方向与视线方向之间的差异来确定目标对象50是否是活体。具体地,活体检测装置2000获取由相机10在不同时间生成的多个捕获图像40,确定在每个捕获图像40中示出的目标人的面部的面部方向和视线方向,并且计算差异。这里,现有技术可以用作用于确定图像中包括的面部的面部方向和视线方向的技术。然后,活体检测装置2000基于面部方向与视线方向之间的差异来确定捕获图像40中示出的目标对象50是否是活体。注意,在有必要将第二示例实施例的捕获图像40与第一示例实施例的捕获图像40区分开的情况下,第二示例实施例的捕获图像40也被称为“第二捕获图像”。
153.此外,为了实现上述活体检测,活体检测装置2000使终端60的显示装置20显示指示用于使目标对象50执行期望动作的引导的信息(下文中称为引导信息)。活体检测装置2000至少输出指示与视线方向相关的引导的引导信息和指示与面部的取向相关的引导的引导信息二者。注意,这些引导信息可以同时输出,或者可以在不同的定时输出。
154.图14是示出了引导信息的第一图。在图14中,包括引导信息的画面80显示在显示
装置20上。作为与视线方向相关的引导,画面80包括指示视线应该指向的位置的标记、以及诸如“将视线指向此处”的消息。此外,画面80包括作为与面部取向相关的引导的消息“左右移动面部”。
155.注意,在以下描述中,除非另有说明,否则关于目标对象50的面部和视线的方向,前方方向(从前方观看显示装置20的方向)由0
°
的参考角度表示,右方向由正角度表示,并且左方向由负角度表示。
156.《有利效果的示例》
157.作为假冒另一个人的方法之一,如上所述,可以想到使用在其上绘制另一个人的面部的3d面具等的方法。这里,如上所述,在佩戴3d面具等的状态下,视线与面部一起移动,而在未佩戴3d面具的状态下,视线可以独立于面部移动。因此,在佩戴3d面具等的情况下和在未佩戴3d面具等的情况下,面部方向与视线方向之间的差异是不同的。
158.在这方面,利用活体检测装置2000,相机10捕获执行左右摆动面部而视点方向固定的动作的情形的图像。然后,活体检测装置2000通过分析从相机10获得的捕获图像40来计算面部方向与视线方向之间的差异,并且基于该差异来执行活体检测。因此,利用活体检测装置2000,可以防止使用3d面具等的假冒。
159.《功能配置的示例》
160.图15是示出了第二示例实施例的活体检测装置2000的功能配置的框图。第二示例实施例的活体检测装置2000包括第二显示控制单元2080、第二获取单元2100和第二活体检测单元2120。第二显示控制单元2080使终端60的显示装置20显示引导信息。第二显示控制单元2080在显示引导信息之后获取由相机10生成的多个捕获图像40。第二活体检测单元2120针对多个捕获图像40中的每一个确定目标对象50的面部方向和视线方向。然后,第二活体检测单元2120基于针对每个捕获图像40确定的面部方向与视线方向之间的差异来确定目标对象50是否是活体。
161.《硬件配置的示例》
162.例如,类似于第一示例实施例的活体检测装置2000的硬件配置,在图3中示出了第二示例实施例的活体检测装置2000的硬件配置。然而,第二示例实施例的存储设备508存储用于实现第二示例实施例的活体检测装置2000的每个功能的程序。
163.《处理流程》
164.图16是示出了由第二示例实施例的活体检测装置2000执行的处理流程的流程图。第二显示控制单元2080使显示装置20显示引导信息(s202)。第二获取单元2100获取多个捕获图像40(s204)。第二活体检测单元2120针对多个捕获图像40中的每一个计算目标对象50的视线方向与面部方向之间的差异(s206)。注意,不必针对所有捕获图像40计算视线方向和面部方向。第二活体检测单元2120基于针对多个捕获图像40中的每一个计算的面部方向与视线方向之间的差异来确定目标对象50是否是活体(s208)。
165.注意,由第二示例实施例的活体检测装置2000执行的处理的流程不限于图16中所示的流程。例如,由第二活体检测单元2120使用的捕获图像40可以不是一次全部获取的。例如,活体检测装置2000通过重复“1)获取新的捕获图像40,以及2)针对所获取的捕获图像40计算面部方向与视线方向之间的差异”的处理,来针对多个捕获图像40中的每一个计算面部方向与视线方向之间的差异。
166.在另一示例中,显示引导信息的定时不限于获取捕获图像40之前的定时。例如,如下所述,活体检测装置2000可以确定由目标对象50执行的动作是否是适当的动作,并且在没有执行适当的动作的情况下,显示用于使适当的动作被执行的引导信息。
167.《关于引导信息》
168.由第二显示控制单元2080在显示装置20上显示的引导信息是各种各样的。例如,如图14所示的示例中,针对视线方向的引导指示视线应该固定的位置,并且针对面部方向的引导指示面部应该移动的方向。通过查看该引导,可以看出目标对象50应该在视线方向固定的情况下左右摆动面部。
169.在另一示例中,第二显示控制单元2080根据目标对象50的面部的移动来显示指示目标对象50接下来应该执行的动作的引导信息。图17是示出了指示目标对象50接下来应该执行的动作的引导信息的图。显示在图17中的显示装置20上的画面90-1至画面90-3显示包括关于目标对象50的消息、指示视线应该指向的位置的引导、以及指示面部应该指向的方向的引导的引导信息。通过在显示装置20上显示这样的引导,目标对象50可以容易地掌握他们应该面向哪个方向。
170.首先,第二显示控制单元2080使显示装置20显示画面90-1。在画面90-1上显示的引导信息中,提示面向前方的消息和面向前方的面部的图像被显示为与面部方向相关的引导。此外,十字标记和眼睛的图像被显示为关于视线方向的引导。
171.第二显示控制单元2080确定目标对象50的面部是否面向前方。第二活体检测单元2120使用捕获图像40计算目标对象50的面部方向。
172.这里,优选地,画面90-1被连续显示,直到目标对象50的面部面向前方为止。以这种方式,可以避免在目标对象50的面部面向作为基准的前方方向之前开始活体检测。然而,在目标对象50的面部即使在预定时间经过之后也不面向前方的情况下,可以由于超时来确定目标对象50不是活体。
173.另一方面,当确定目标对象50的面部面向前方时,第二显示控制单元2080使显示装置20显示画面90-2。在画面90-2上,提示面向左侧的消息、向左箭头和面向左侧的面部的图像被显示为关于面部方向的引导。此外,十字标记和眼睛的图像被显示为关于视线方向的引导。
174.第二显示控制单元2080确定目标对象50的面部是否面向左侧。例如,当目标对象50的面部方向等于或小于阈值时,确定目标对象50的面部面向左侧。
175.画面90-2持续显示在显示装置20上,直到目标对象50的面部面向左侧为止。然而,在目标对象50的面部即使在预定时间经过之后也不面向前方的情况下,可以由于超时来确定目标对象50不是活体。
176.另一方面,当确定目标对象50的面部面向左侧时,第二显示控制单元2080使显示装置20显示画面90-3。在画面90-3上,提示面向右侧的消息、向右箭头和面向右侧的面部的图像被显示为关于面部方向的引导。此外,十字标记和眼睛的图像被显示为与视线方向相关的引导。
177.如上所述,通过顺序显示画面90-1、画面90-2和画面90-3,可以提示目标对象50在视线固定的情况下按照前、左、右的顺序改变面部方向。此外,此后,通过进一步交替显示画面90-2和画面90-3,可以提示目标对象50重复地左右移动面部方向。
178.注意,可以通过动画显示指示面部方向的引导,使得目标对象50可以更容易地理解如何移动面部。图18是示出了指示面部方向的引导的动画的图。
179.这里,引导信息优选地与由相机10生成的捕获图像40一起显示在显示装置20上。例如,在诸如智能电话的移动终端中,当使用相机时,相机捕获的结果可以实时显示在显示装置上。因此,同样在终端60中,如上所述,由相机10生成的捕获图像40实时显示在显示装置20上,并且引导信息与捕获图像40一起显示在显示装置20上(例如,叠加在捕获图像40上)。以这种方式,目标对象50可以执行左右摆动面部而视线固定的动作,同时检查其自己的面部和视线的状态。
180.例如,在图18中所示的动画的引导信息的情况下,优选的是使显示装置20与动画一起实时显示由相机10生成的捕获图像40。通过这样做,目标对象50可以通过以动画和其自己的面部彼此重叠的方式移动其自己的面部来适当地左右摆动面部。因此,目标对象50可以更直观地执行活体检测所需的动作。然而,表示面部移动的动画可以显示在不与目标对象50的面部重叠的位置(例如,画面的角落)处。
181.在另一示例中,在目标对象50执行的动作不是适当动作的情况下,第二显示控制单元2080可以显示用于使目标对象50能够执行适当动作的引导信息。例如,第二显示控制单元2080确定目标对象50的面部摆动宽度的大小是否足够大(等于或大于阈值)。目标对象50的面部摆动宽度可以被计算为目标对象50的面部方向上的最大值和最小值之间的差。
182.当目标对象50的面部摆动宽度的大小小于阈值时,第二显示控制单元2080使显示装置20显示要求增大面部摆动宽度的引导信息。例如,显示包括诸如“更大程度地移动面部”的消息的引导信息。通过显示这种引导信息,目标对象50可以掌握面部应该更大程度地摆动。然后,当根据这种引导进一步增加面部摆动宽度时,在目标对象50是真实面部的情况下,面部方向与视线方向之间的差异变得更大。因此,可以以更高的准确度执行活体检测。
183.作为目标对象50执行的动作是不适当的另一种情况,可以想到目标对象50的视线不固定的情况。因此,例如,第二显示控制单元2080确定目标对象50的视线是否固定,并且在目标对象50的视线不固定的情况下,使显示装置20显示包括提示固定视线的消息的引导信息。例如,显示包括诸如“不要移动视线”的消息的引导信息。通过显示这种引导信息,目标对象50可以掌握视线方向尚未固定。
184.注意,视线是否固定可以例如基于视线方向的变化来计算。例如,当在目标对象50面向前方时计算的视线方向和当前视线方向之间的差的绝对值变得等于或大于阈值时,确定视线不固定。
185.第二显示控制单元2080可以使显示装置20显示指示目标对象50的视线位置和面部取向的引导信息,使得目标对象50可以掌握其自己的视线位置和面部方向。图19是示出了包括目标对象50的视线位置和面部方向的引导信息的图。在图19中,当前视线位置由白色圆圈指示。目标对象50可以通过调整视线位置使得白色圆圈与十字标记重叠来直观地固定视线。
186.此外,在图19中,当前面部方向由黑色圆圈指示。目标对象50可以通过查看黑色圆圈来直观地掌握其自己的面部正在面向哪个方向。注意,图19示出了要求目标对象50面向前方的情况。因此,目标对象50可以通过调整面部方向使得黑色圆圈与十字标记重叠来直观地将面部指向前方。
187.注意,在当目标对象50面向前方方向时开始活体检测的一系列处理的情况下,活体检测装置2000可以在图19的示例中确定白色圆圈和黑色圆圈二者是否都与十字标记重叠,并且可以在确定两者都与十字标记重叠时开始活体检测的一系列处理。
188.指示面部方向的引导不限于图19所示的引导。图20是示出了包括目标对象50的视线位置和面部方向的引导信息的第二图。在图20中,指示当前视线位置和当前面部方向的标记类似于图19中的标记。
189.在图20中,指示面部方向的黑色圆圈显示在水平矩形框中。此外,显示黑色星形标记作为指示面部方向的目标的标记来显示。此外,还显示提示将面部方向移动到星形标记方向的消息。目标对象50可以通过改变面部方向使得黑色圆圈与黑色星形标记重叠来直观地将面部方向改变为适当的方向。
190.注意,在面部方向已经移动到最大方向(图20中的黑色星形标记)的情况下,活体检测装置2000可以使显示装置20显示提示将面部方向保持在该方向一定时间段(例如,2秒)的引导信息。
191.作为由目标对象50执行的动作是不适当的另一种情况,可以想到面部移动太快的情况。因此,在面部移动太快的情况下,第二显示控制单元2080可以使显示装置20显示提示减慢面部移动的引导。面部的移动速度可以通过例如时间序列中相邻的捕获图像40之间的面部位置差来表示。在另一示例中,面部移动的差异可以由面部方向的时间变化量来表示。
192.例如,第二显示控制单元2080确定面部的移动速度是否等于或大于阈值。然后,在面部的移动速度等于或大于阈值的情况下,第二显示控制单元2080使显示装置20显示提示减慢面部移动的引导信息。例如,该引导信息包括诸如“更慢地移动面部”的消息。在另一示例中,图17中所示的面部移动的动画可以被包括在引导信息中。在这种情况下,在引导信息中包括的动画中,面部可以比正常情况下移动得更慢。
193.注意,除了面部之外,第二显示控制单元2080还可以显示关于躯干部分(例如,肩膀等)的姿势的引导。例如,第二显示控制单元2080使用捕获图像40计算目标对象50的躯干的方向,并且基于所计算的躯干的方向确定躯干是否面向前方(例如,躯干的方向与前方方向之间的差的绝对值是否等于或小于阈值)。然后,在确定躯干不面向前方的情况下,第二显示控制单元2080使显示装置20显示提示将躯干指向前方的引导信息。例如,引导信息包括诸如“将躯干指向前方”的消息。在另一示例中,引导信息可以包括面向前方的躯干的图像。
194.在上面的示例中,引导信息显示在显示装置20上。然而,除了显示装置20上的显示之外,或者代替显示装置20上的显示,可以通过语音输出引导信息。例如,诸如“面向前方”和“在视线固定的情况下面向左侧”的各种消息被输出为语音消息。此外,如上所述,在检测到目标对象50的动作是不适当的情况下,可以输出对应于检测到的状态的语音消息。例如,输出诸如“将视线稍微偏向右上方”或“将面部移动得稍微慢一点”之类的语音消息。此外,在方向可以由诸如立体声之类的语音来表达的情况下,视线或面部应该指向的方向可以由语音的方向来表达。例如,通过从正确方向听到的语音输出消息“将面部指向语音输出的方向”。
195.《活体检测:s206和s208》
196.针对每个捕获图像40,第二活体检测单元2120使用捕获图像40中包括的目标对象
50的面部的图像来计算目标对象50的面部方向和视线方向,并且计算它们之间的差异(s206)。然后,基于针对每个捕获图像40计算的面部方向与视线方向之间的差异来确定目标对象50是否是活体(s208)。例如,在目标对象50的面部方向与视线方向之间有足够差异的情况下,第二活体检测单元2120确定目标对象50是活体。另一方面,当目标对象50的面部方向与视线方向之间没有足够的差异时,第二活体检测单元2120确定目标对象50不是活体。
197.例如,通过将面部方向与视线方向之间的差异与阈值进行比较,确定目标对象50的面部方向与视线方向之间是否有足够的差异。作为具体示例,第二活体检测单元2120针对每个捕获图像40计算面部方向与视线方向之间的差异,并且确定面部方向与视线方向之间的差异的最大值是否等于或大于第一阈值。当面部方向与视线方向之间的差异的最大值等于或大于第一阈值时,确定面部方向与视线方向之间有足够的差异。另一方面,当面部方向与视线方向之间的差异的最大值小于第一阈值时,确定面部方向与视线方向之间没有足够的差异。这里,由于右方向被假设为正方向,因此面部方向与视线方向之间的差异的最大值等于或大于第一阈值意味着当面部向右时,面部方向与视线方向之间有足够的差异(换句话说,在视线固定的情况下,面部足够大程度地向右)。
198.在另一示例中,通过将面部方向与视线方向之间的差异的最小值与第二阈值进行比较,确定目标对象50的面部方向与视线方向之间是否有足够的差异。当面部方向与视线方向之间的差异的最小值等于或小于第二阈值时,确定面部方向与视线方向之间有足够的差异。另一方面,当面部方向与视线方向之间的差异的最小值大于第二阈值时,确定面部方向与视线方向之间没有足够的差异。这里,由于左方向被假设为负方向,因此面部方向与视线方向之间的差异的最小值等于或小于第二阈值意味着当面部向左时,面部方向与视线方向之间有足够的差异(换句话说,在视线固定的情况下,面部足够大程度地向左)。
199.第二活体检测单元2120可以确定,在视线固定的情况下面部充分左右摆动的情况下,面部方向与视线方向之间有足够的差异。在这种情况下,例如,第二活体检测单元2120确定“面部方向与视线方向之间的差异的最大值是否等于或大于第一阈值,并且面部方向与视线方向之间的差异的最小值是否等于或小于第二阈值”。在面部方向与视线方向之间的差异的最大值等于或大于第一阈值并且面部方向与视线方向之间的差异的最小值等于或小于第二阈值的情况下,第二活体检测单元2120确定面部方向与视线方向之间有足够的差异。另一方面,在面部方向与视线方向之间的差异的最大值不等于或大于第一阈值或者面部方向与视线方向之间的差异的最小值不等于或小于第二阈值的情况下,第二活体检测单元2120确定面部方向与视线方向之间没有足够的差异。
200.通过以这种方式进行针对左方向和右方向的确定,可以以更高的准确度防止使用3d面具等的假冒。例如,在某个3d面具中,假设绘制的视线方向很大程度偏向右侧。然后,假设目标对象50试图通过佩戴3d面具来假冒。在这种情况下,当目标对象50将面部指向左侧时,面部方向与视线方向之间的差异增大,因为面部指向左侧,而视线指向右侧。因此,当用户面向左侧时,存在难以基于面部方向与视线方向之间的差异来检测假冒的可能性。另一方面,当用户在这种情况下面向右侧时,由于面部和视线二者都面向右侧,因此面部方向与视线方向之间的差异变小。因此,当用户面向右侧时,可以基于面部方向与视线方向之间的差异来检测假冒。综上所述,优选的是使目标对象50面向左侧和右侧。
201.活体检测装置2000可以使目标对象50执行多次左右摆动面部的一系列动作,并且针对多个动作中的每一个确定面部方向与视线方向之间是否有足够的差异。左右摆动面部的一系列动作是“将面部指向左侧,然后将面部指向右侧”的一系列动作或“将面部指向右侧,然后将面部指向左侧”的一系列动作。例如,第二活体检测单元2120将左右摆动面部的一系列运动作为一个组来对待,并且通过分析多个捕获图像40来检测该组的多个动作。第二活体检测单元2120针对每个组计算面部方向与视线方向之间的差异的最大值和最小值中的一个或两个,并且根据计算结果确定目标对象50是否是活体。
202.例如,第二活体检测单元2120针对预定数量n(n是整数)的组中的每一个组,确定面部方向与视线方向之间是否有足够的差异。然后,第二活体检测单元2120确定被确定为在面部方向与视线方向之间具有足够差异的组的数量是否是预定数量m(m是大于或等于1且小于或等于n的整数)或更多。在被确定为在面部方向与视线方向之间具有足够差异的组的数量是m或更多的情况下,第二活体检测单元2120确定目标对象50是活体。另一方面,在被确定为在面部方向与视线方向之间具有足够差异的组的数量小于预定数量m的情况下,第二活体检测单元2120确定目标对象50不是活体。
203.在另一示例中,第二活体检测单元2120可以针对在预定时间内检测到的每一组确定面部方向与视线方向之间是否有足够的差异,并且可以在被确定为在面部方向与视线方向之间具有足够差异的组的数量为m或更多的情况下,确定目标对象50是活体。
204.在另一示例中,第二活体检测单元2120可以使目标对象50重复左右摆动面部的动作,直到被确定为在面部方向与视线方向之间具有足够差异的组的数量变为m或更多为止。在这种情况下,每当目标对象50执行左右摆动面部的一系列动作时,第二活体检测单元2120针对该系列动作确定面部方向与视线方向之间是否有足够的差异。当确定面部方向与视线方向之间有足够的差异时,计数器增加1。在计数器为m或更大的情况下,第二活体检测单元2120确定目标对象50是活体。另一方面,当计数器没有变为m或更大时(例如,在计数器变为m或更大之前已经经过预定时间的情况下),第二活体检测单元2120确定目标对象50不是活体。
205.注意,在左右摆动面部的动作没有被正确执行的情况下,上述计数器可以被初始化为零。没有正确执行左右摆动面部的动作的情况包括:1)面部没有充分指向左侧或右侧的情况(例如,在图25的示例中,在黑色圆圈重叠黑色星形标记之前面部指向右侧的情况),以及2)确定面部方向与视线方向之间没有足够差异的情况。当以这种方式初始化计数器时,仅当连续执行m次左右摆动面部的正确动作时,才确定目标对象50是活体。另一方面,在连续执行m次左右摆动面部的正确动作之前,不确定目标对象50是活体。注意,可以为计数器的初始化次数设置上限,并且在计数器的初始化次数达到上限的情况下,可以确定目标对象50不是活体。此外,可以为执行动作的时间设置时间限制,并且在时间限制内连续m次没有正确执行左右摆动面部的动作的情况下,可以确定目标对象50不是活体。
206.代替将面部指向右侧的动作和将面部指向左侧的动作作为组来对待,这些动作可以被单独计数。在这种情况下,将面部指向右侧的动作和将面部指向左侧的动作应该执行的次数(上述预定数量m)可以彼此相同或不同。在后一种情况下,例如,可以执行“要求三次将面部指向左侧的动作,以及要求两次将面部指向右侧的动作”等。
207.注意,在以这种方式多次执行左右摆动面部的动作的情况下,显示控制单元2020
可以使显示装置20显示已经正确执行动作的次数。此外,每当动作被执行时,指示关于动作是否被正确执行的确定结果的显示(诸如圆圈或ok的显示)可以显示在显示装置20上。
208.《第二示例实施例的第一修改示例》
209.在第二示例实施例的活体检测装置2000中,可以使显示装置20左右移动,同时视线固定在显示装置20上的特定位置(例如,图14中的十字标记等)处而不移动面部。图21是示出了第二示例实施例的第一修改示例的活体检测装置中的目标对象50的动作的图。同样在这种情况下,假设显示装置20的前方方向是参考方向(0
°
),面部方向和视线方向与图13所示的曲线图中类似地改变。因此,同样在本修改示例的活体检测装置2000中,针对多个捕获图像40中的每一个计算目标对象50的面部方向与视线方向之间的差异,并且可以基于该差异来确定目标对象50是否是活体。
210.用于确定目标对象50是否是活体的具体方法如上所述。然而,代替检测左右摆动面部的动作,活体检测装置2000检测左右摆动显示装置20的动作。注意,可以基于面部方向相对于显示装置20的变化来检测左右摆动显示装置20的动作。例如,可以通过确定相对于显示装置20的面部方向是否已经充分向左移动来确定显示装置20是否已经充分向右移动。类似地,通过确定相对于显示装置20的面部方向是否已经充分向右移动,可以确定显示装置20是否已经充分向左移动。
211.这里,在本修改示例的活体检测装置2000中,引导信息可以包括与第二示例实施例的情况不同的引导信息。具体地,活体检测装置2000使显示装置20显示提示左右摆动终端60的引导信息,而不是提示左右摆动面部的引导信息。此外,优选的是显示提示不要移动面部的引导信息。
212.图22是示出了第二示例实施例的第一修改示例的活体检测装置2000的引导信息的图。在该示例中,首先,显示画面100-1。画面100-1显示提示将终端60(显示装置20)保持在前方而不移动面部并且视线固定在显示装置20上的十字标记处的消息。
213.此后,显示画面100-2。画面100-2显示提示向左移动终端60而不移动面部并且视线固定在显示装置20上的十字标记处的消息。例如,响应于检测到目标对象50的视线方向和面部方向二者都指向相对于显示装置20的前方,显示画面100-2。
214.此后,显示画面100-3。画面100-3显示提示向右移动终端60而不移动面部并且视线固定在显示装置20上的十字标记处的消息。例如,响应于检测到终端60已经充分向左移动而没有移动面部并且视线固定在显示装置20上的十字标记处,显示画面100-3。关于终端60是否已经充分向左移动的确定可以通过例如确定面部方向是否已经充分指向右侧(确定面部方向是否已经变得等于或大于正阈值)来实现。
215.注意,在终端60重复左右移动的情况下,画面100-2被再次显示。例如,响应于检测到终端60已经充分向右移动而没有移动面部并且视线固定在显示装置20上的十字标记处,显示画面100-2。关于终端60是否已经充分向右移动的确定可以通过例如确定面部方向是否已经充分指向左侧(确定面部方向是否已经变得等于或小于负阈值)来实现。
216.《第二示例实施例的第二修改示例》
217.在第二示例实施例的活体检测装置2000中,当显示装置20和面部的取向固定时(不移动显示装置20,并且面部的取向保持指向显示装置20的前方),视线可以左右摆动。图23是示出了第二示例实施例的第二修改示例的活体检测装置2000中的目标对象50的动作
的图。
218.这种情况意味着在第二示例实施例的活体检测装置2000中以相反的方式处理视线方向和面部方向。也就是说,代替固定视线方向,面部方向被固定,并且代替左右摆动面部,左右摆动视线。此外,在引导信息中,在第二示例实施例的第二修改示例的活体检测装置2000中,针对面部方向执行与第二示例实施例的活体检测装置2000中针对视线方向执行的引导相同的引导。也就是说,代替用于固定视线方向的引导,显示用于固定面部方向的引导。此外,在第二示例实施例的第二修改示例的活体检测装置2000中,针对视线方向执行与第二示例实施例的活体检测装置2000中针对面部方向执行的引导相同的引导。也就是说,代替显示将面部方向指向前方或左侧或右侧的引导,显示将视线指向前方或左侧或右侧的引导。
219.图24是示出了第二示例实施例的第二修改示例的活体检测装置2000的引导信息的图。在该示例中,首先,显示画面110-1。画面110-1显示提示将视线指向显示装置20的前方而不移动面部的消息。
220.此后,显示画面110-2。在画面110-2上,显示提示向左移动视线而不移动面部的消息。例如,响应于检测到目标对象50的视线方向和面部方向二者都指向相对于显示装置20的前方,显示画面110-2。
221.此后,显示画面110-3。在画面110-3上,显示提示向右移动视线而不移动面部的消息。例如,响应于检测到在面部方向固定于前方的状态下视线已经充分向左移动(视线方向已经变得等于或小于负阈值),显示画面110-3。注意,在画面110-3上,由于在视线指向左侧的状态下执行观看,因此在左侧位置处显示向右箭头。
222.注意,在视线重复左右移动的情况下,画面110-2被再次显示。例如,响应于检测到在面部方向固定于前方的状态下视线已经充分向右移动(视线方向已经变得等于或大于正阈值),显示画面110-2。然而,由于在视线指向右侧的状态下执行观看,因此优选地在右侧位置处显示向左箭头。
223.《关于与第一示例实施例的组合》
224.第一示例实施例的活体检测装置2000和第二示例实施例的活体检测装置2000通过不同的方法执行活体检测。因此,优选的是,由第一示例实施例的活体检测装置2000进行的活体检测和由第二示例实施例(其可以是第一修改示例或第二修改示例)的活体检测装置2000进行的活体检测二者都对同一目标对象50执行。图25是示出了在顺序执行由第一示例实施例的活体检测装置2000进行的活体检测和由第二示例实施例的活体检测装置2000进行的活体检测的情况下的处理流程的流程图。在图25的示例中,在执行由第一示例实施例的活体检测装置2000进行的活体检测(图4的流程图中所示的一系列处理)之后,执行由第二示例实施例的活体检测装置2000进行的活体检测(图16的流程图中所示的一系列处理)。然而,在由第二示例实施例的活体检测装置2000执行活体检测之后,活体检测可以由第一示例实施例的活体检测装置2000执行。
225.例如,活体检测可以作为用户认证的一部分来执行。例如,作为用户认证的方法之一,存在一种用相机捕获用户的面部并且将该面部与预先登记的面部进行比较以确定该用户是否是登记用户的方法。此时,为了防止另一个人通过使用登记用户的照片等来假冒登记用户,优选的是确认由相机捕获的对象不是照片等,而是活体。因此,优选的是,除了通过
将目标对象50的图像和登记用户的图像进行比较来确认目标对象50是登记用户之外,还通过使用活体检测装置2000来确认目标对象50是活体(即,未执行使用照片、3d面具等的假冒)。注意,可以首先执行确认目标对象50是登记用户的处理或确认目标对象50是活体的处理,或者可以并行执行确认目标对象50是登记用户的处理和确认目标对象50是活体的处理。
226.《用于防止替换目标对象50的方法》
227.在通过多种方法执行活体检测的情况下,优选的是确保从开始到结束针对相同的目标对象50执行处理。例如,在由第一示例实施例的活体检测装置2000执行活体检测,然后由第一示例实施例的活体检测装置2000执行活体检测的情况下,从开始由第一示例实施例的活体检测装置2000进行的活体检测到完成由第二示例实施例的活体检测装置2000进行的活体检测,相同的目标对象50被设置为活体检测的目标。以这种方式,通过针对每种类型的用于实现活体检测的方法替换活体检测的目标,可以防止使用该方法难以防止的假冒手段。
228.例如,活体检测装置2000执行下述处理。首先,作为前提,活体检测装置2000执行两种或更多种类型的活体检测处理。例如,假设执行由第一示例实施例的活体检测装置2000执行的活体检测处理(下文中称为第一活体检测处理)和由第二示例实施例的活体检测装置2000执行的活体检测处理(下文中称为第二活体检测处理)。在这种情况下,从第一活体检测处理的开始(从图25中的s102的开始)到第二活体检测处理的完成(直到图25中的s208完成),活体检测装置2000与活体检测的处理并行地重复确定相机10是否连续捕获到相同的目标对象50。然后,在确定存在相机10没有连续捕获到相同目标对象50的可能性的情况下,活体检测装置2000结束活体检测处理。
229.例如,可以通过跟踪目标对象50来确定相机10是否连续捕获到相同的目标对象50。具体地,活体检测装置2000通过按时间序列分析由相机10生成的捕获图像40来跟踪目标对象50。活体检测装置2000基于追踪来重复确定目标对象50是否包括在捕获图像40中。然后,在一系列活体检测处理完成之前目标对象50不包括在捕获图像40中的情况下,活体检测装置2000确定相同的目标对象50没有被相机10连续捕获。另一方面,当目标对象50连续包括在捕获图像40中时,确定相同的目标对象50被相机10连续捕获。在跟踪时,将被搜索以检测目标对象50的捕获图像40中的区域限于先前检测的区域的附近。因此,具有检测目标对象50所需的处理负荷较小的优点。
230.在另一示例中,活体检测装置2000可以在活体检测处理开始时登记目标对象50的图像特征值,并且通过确认图像特征值连续地包括在捕获图像40中来确定目标对象50是否被相机10连续捕获。在这种情况下,在一系列活体检测处理开始之前(例如,在图25中的s102首先开始之前),活体检测装置2000从捕获图像40中检测目标对象50,并且登记目标对象50的图像特征值(将图像特征值放入存储装置中)。活体检测装置2000从此后获得的捕获图像40中检测登记的目标对象50的图像特征值。
231.从捕获图像40中检测目标对象50的图像特征值的处理可以对所有捕获图像40执行,或者可以对一些捕获图像40执行。在后一种情况下,例如,活体检测装置2000使用针对每个预定时间(每个预定编号)的捕获图像40来检测目标对象50的图像特征值。在另一示例中,响应于特定条件的满足,活体检测装置2000使用在该时间获得的捕获图像40来检测目
标对象50的图像特征值。在第一示例实施例的活体检测装置2000的情况下,特定条件是例如显示在显示装置20上的画面30改变。此外,在第二示例实施例的活体检测装置2000的情况下,特定条件是例如以下条件中的任何一个或多个:面部指向前方(面部方向变为0
°
)、面部指向左侧(面部方向变为等于或小于负阈值)、面部指向右侧(面部方向变为等于或大于正阈值)、以及面部正在移动。
232.在一系列活体检测处理完成之前没有从捕获图像40中检测到目标对象50的图像特征值的情况下,活体检测装置2000确定相同的目标对象50没有被相机10连续捕获。另一方面,在从捕获图像40中连续检测到目标对象50的图像特征值直到一系列活体检测处理完成的情况下,确定相同的目标对象50被相机10连续捕获。根据从捕获图像40中检测目标对象50的图像特征值的方法,即使当除了目标对象50之外的对象可以被相机10捕获时,也可以准确地确定目标对象50是否被相机10连续捕获。
233.在确定相同的目标对象50没有被相机10连续捕获的情况下,优选的是活体检测装置2000采取一些措施。例如,活体检测装置2000从头(例如,从图25中的s102)再次执行目标对象50的活体检测。此时,优选的是使显示装置20显示诸如“继续用相机10捕获您的图像”的消息,从而使用户认识到有必要继续用相机10捕获图像。在另一示例中,活体检测装置2000可以使显示装置20显示指示在确定相同的目标对象50没有被相机10连续捕获时执行多种类型的活体检测中的哪一种的信息。
234.此外,在活体检测处理的重试发生预定次数或更多次(它可以是一次)的情况下,活体检测处理可以不再被执行。此外,可以执行保护作为假冒目标的用户的账户的处理。例如,如上所述,假设活体检测作为用户认证的一部分来执行。在这种情况下,例如,假设人a试图假冒登记用户b。具体地,假设在当人a使相机10捕获用户b的照片时确定待认证的人是用户b之后,活体检测装置2000执行活体检测。然后,假设由于上述对目标对象50的跟踪等,活体检测的重试发生了预定次数或更多次。在这种情况下,例如,活体检测装置2000通过锁定用户b的账户或者向用户b的移动终端发送警告通知来保护用户b的账户。这使得可以更适当地防止假冒造成的损害。
235.注意,在从捕获图像40中检测到多个人脸的情况下,活体检测装置2000可以执行与在没有连续捕获相同目标对象50的情况下执行的处理类似的处理。
236.虽然上面已经参考示例实施例描述了本发明,但是本发明不限于上述示例实施例。在本发明的范围中,可以对本发明的配置和细节作出本领域技术人员可以理解的各种改变。
237.注意,在上述示例中,可以使用任何类型的非暂时性计算机可读介质来存储程序并且将该程序提供给计算机。非暂时性计算机可读介质包括任何类型的有形存储介质。非暂时性计算机可读介质的示例包括磁记录介质(例如,软盘、磁带或硬盘驱动器)、磁光记录介质(例如,磁光盘)、cd-rom、cd-r、cd-r/w和半导体存储器(例如,掩模rom、可编程rom(prom)、可擦除prom(eprom)、闪速rom或ram)。此外,可以使用任何类型的暂时性计算机可读介质将程序提供给计算机。暂时性计算机可读介质的示例包括电信号、光信号和电磁波。暂时性计算机可读介质可以通过诸如电线和光纤的有线通信线路或无线通信线路向计算机提供程序。
238.上述示例实施例中的一些或全部可以被描述为以下补充注释,但不限于以下。
239.(补充注释1)
240.一种存储由计算机执行的程序的计算机可读介质,所述程序使所述计算机执行:
241.显示控制步骤,使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同的显示的第二画面;
242.获取步骤,获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及
243.活体检测步骤,使用多个所述捕获图像来确定所述目标是否是活体,
244.其中,所述第一画面包括具有不同显示的至少两个区域。
245.(补充注释2)
246.根据补充注释1所述的计算机可读介质,其中,在所述第一画面中包括的所述多个区域中的至少两个区域包括:具有彼此不同颜色的显示;具有彼此不同亮度的显示;或者彼此不同的字符、符号或图形。
247.(补充注释3)
248.根据补充注释1或2所述的计算机可读介质,其中,在所述显示控制步骤中,基于所述显示装置和生成所述捕获图像的相机之间的位置关系来确定在所述第一画面中包括的所述多个区域的边界。
249.(补充注释4)
250.根据补充注释1或2所述的计算机可读介质,其中,在所述第一画面中包括的所述多个区域的边界由用户输入确定。
251.(补充注释5)
252.根据补充注释1至4中任一项所述的计算机可读介质,
253.其中,所述程序包括识别模型,所述识别模型被训练为响应于多个所述捕获图像的输入,输出指示所述捕获图像中示出的所述目标是否是活体的标签,以及
254.其中,在所述显示控制步骤中,通过将在所述获取步骤中获取的多个所述捕获图像输入到所述识别模型中并且从所述识别模型获得所述标签,确定所述目标是否是活体。
255.(补充注释6)
256.根据补充注释5所述的计算机可读介质,
257.其中,所述识别模型是使用正例的训练数据和负例的训练数据二者来训练的,以及
258.其中,所述正例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获真人的面部图像而获得的多个捕获图像;以及指示捕获的目标是活体的数据,以及
259.其中,所述负例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获人的面部图像而获得的多个捕获图像;以及指示捕获的目标不是活体的数据。
260.(补充注释7)
261.根据补充注释1至6中任一项所述的计算机可读介质,其中,在所述显示控制步骤中,确定所述显示装置周围的环境光的强度,并且当所述环境光的强度等于或小于阈值时,在所述显示装置上显示所述第一画面和所述第二画面。
262.(补充注释8)
263.根据补充注释7所述的计算机可读介质,其中,在所述显示控制步骤中,当所述环境光的强度大于所述阈值时,输出提示移动到所述环境光比当前强度弱的位置的消息。
264.(补充注释9)
265.根据补充注释1至8中任一项所述的计算机可读介质,其中,在所述显示控制步骤中,确定所述显示装置周围的环境光的强度,并且根据所述环境光的强度确定要在所述第一画面和所述第二画面中的至少一个中包括的显示。
266.(补充注释10)
267.根据补充注释1至9中任一项所述的计算机可读介质,执行:
268.第二显示控制步骤,使所述显示装置显示与视线方向相关的引导和与面部方向相关的引导;
269.第二获取步骤,获取通过用所述相机多次捕获所述目标而生成的捕获图像;以及
270.第二活体检测步骤,通过使用在所述捕获图像中的每一个中示出的所述目标的面部的图像来针对所述捕获图像中的每一个计算所述面部方向与视线方向之间的差异,并且基于所计算的差异来确定所述目标是否是活体,
271.其中,在所述第二显示控制步骤中,使所述显示装置显示提示在连续观看同一地方的同时左右摆动所述面部的引导。
272.(补充注释11)
273.根据补充注释10所述的计算机可读介质,其中,在所述第二显示控制步骤中:
274.在所述显示装置上显示提示将所述面部指向第一方向而不移动所述视线的引导;
275.确定所述目标的面部方向是否是所述第一方向;以及
276.当所述目标的面部方向是所述第一方向时,使所述显示装置显示提示将所述面部指向第二方向而不移动所述视线的引导。
277.(补充注释12)
278.根据补充注释10或11所述的计算机可读介质,其中,在所述第二显示控制步骤中,确定所述目标的面部摆动宽度的大小是否等于或大于阈值,并且当所述面部摆动宽度的大小不等于或大于所述阈值时,使所述显示装置显示提示更大程度地摆动所述面部的引导。
279.(补充注释13)
280.根据补充注释10至12中任一项所述的计算机可读介质,其中,在所述第二显示控制步骤中,确定所述目标的面部的移动速度是否等于或大于阈值,并且当所述面部的移动速度等于或小于所述阈值时,使所述显示装置显示提示更慢地移动所述面部的引导。
281.(补充注释14)
282.根据补充注释10至13中任一项所述的计算机可读介质,其中,在所述第二显示控制步骤中,确定所述目标的视线方向是否固定,并且当所述视线方向不固定时,使所述显示装置显示提示不移动所述视线方向的引导。
283.(补充注释15)
284.根据补充注释10至14中任一项所述的计算机可读介质,其中,在所述第二显示控制步骤中,使所述显示装置显示以下中的一个或多个:指示所述目标的面部方向的显示,指示所述目标应该将面部指向的方向的显示,指示所述目标的视线方向的显示,以及指示所
述目标应该将视线指向的方向的显示。
285.(补充注释16)
286.根据补充注释10至15中任一项所述的计算机可读介质,其中,通过使用在从开始在所述显示控制步骤中显示画面直到在所述第二活体检测步骤中执行活体检测的时间期间由所述相机生成的捕获图像,确定相同目标是否被所述相机连续捕获,以及
287.其中,在所述相同目标没有被连续捕获的情况下,从所述显示控制步骤再次执行处理。
288.(补充注释17)
289.根据补充注释16所述的计算机可读介质,
290.其中,通过跟踪所述目标,确定所述目标是否在所述捕获图像中的每一个中示出,以及
291.其中,在检测到未示出所述目标的捕获图像的情况下,确定所述相同目标没有被连续捕获。
292.(补充注释18)
293.根据补充注释16所述的计算机可读介质,
294.其中,从所述捕获图像中的每一个中检测所述目标的图像特征值,以及
295.其中,当检测到不包括所述目标的图像特征值的捕获图像时,确定所述相同目标没有被连续捕获。
296.(补充注释19)
297.一种活体检测装置,包括:
298.显示控制单元,被配置为使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同的显示的第二画面;
299.获取单元,被配置为获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及
300.活体检测单元,被配置为使用多个所述捕获图像来确定所述目标是否是活体,
301.其中,所述第一画面包括具有不同显示的至少两个区域。
302.(补充注释20)
303.根据补充注释19所述的活动性检测装置,其中,在所述第一画面中包括的所述多个区域中的至少两个区域包括:具有彼此不同颜色的显示;具有彼此不同亮度的显示;或者彼此不同的字符、符号或图形。
304.(补充注释21)
305.根据补充注释19或20所述的活体检测装置,其中,所述显示控制单元基于所述显示装置和生成所述捕获图像的相机之间的位置关系来确定在所述第一画面中包括的所述多个区域的边界。
306.(补充注释22)
307.根据补充注释19或20所述的活体检测装置,其中,在所述第一画面中包括的所述多个区域的边界由用户输入确定。
308.(补充注释23)
309.根据补充注释19至22中任一项所述的活体检测装置,包括识别模型,所述识别模
型被训练为响应于多个捕获图像的输入,输出指示所述捕获图像中示出的目标是否是活体的标签,
310.其中,所述显示控制单元通过将在所述获取步骤中获取的多个捕获图像输入到所述识别模型中并且从所述识别模型获得所述标签,确定所述目标是否是活体。
311.(补充注释24)
312.根据补充注释23所述的活体检测装置,
313.其中,所述识别模型是使用正例的训练数据和负例的训练数据二者来训练的,以及
314.其中,所述正例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获真人的面部图像而获得的多个捕获图像;以及指示捕获的目标是活体的数据,以及
315.其中,所述负例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获人的面部图像而获得的多个捕获图像;以及指示捕获的目标不是活体的数据。
316.(补充注释25)
317.根据补充注释19至24中任一项所述的活体检测装置,其中,所述显示控制单元确定所述显示装置周围的环境光的强度,并且当所述环境光的强度等于或小于阈值时,在所述显示装置上显示所述第一画面和所述第二画面。
318.(补充注释26)
319.根据补充注释25所述的活体检测装置,其中,所述显示控制单元在所述环境光的强度大于所述阈值时输出提示移动到所述环境光比当前强度弱的位置的消息。
320.(补充注释27)
321.根据补充注释19至26中任一项所述的活体检测装置,其中,所述显示控制单元确定所述显示装置周围的环境光的强度,并且根据所述环境光的强度确定要在所述第一画面和所述第二画面中的至少一个中包括的显示。
322.(补充注释28)
323.根据补充注释19至27中任一项所述的活体检测装置,执行:
324.第二显示控制单元,被配置为使所述显示装置显示与视线方向相关的引导和与面部方向相关的引导;
325.第二获取单元,被配置为获取通过用相机多次捕获目标而生成的捕获图像;以及
326.第二活体检测单元,被配置为通过使用在所述捕获图像中的每一个中示出的所述目标的面部的图像来针对所述捕获图像中的每一个计算面部方向与视线方向之间的差异,并且基于所计算的差异来确定所述目标是否是活体,
327.其中,所述第二显示控制单元使所述显示装置显示提示在连续观看同一地方的同时左右摆动面部的引导。
328.(补充注释29)
329.根据补充注释28所述的活体检测装置,其中,所述第二显示控制单元执行:
330.在所述显示装置上显示提示将面部指向第一方向而不移动视线的引导;
331.确定所述目标的面部方向是否是所述第一方向;以及
332.当所述目标的面部方向是所述第一方向时,使所述显示装置显示提示将所述面部指向第二方向而不移动所述视线的引导。
333.(补充注释30)
334.根据补充注释28或29所述的活体检测装置,其中,所述第二显示控制单元确定所述目标的面部摆动宽度的大小是否等于或大于阈值,并且当所述面部摆动宽度的大小不等于或大于所述阈值时,使所述显示装置显示提示更大程度地摆动所述面部的引导。
335.(补充注释31)
336.根据补充注释28至30中任一项所述的活体检测装置,其中,第二显示控制单元确定所述目标的面部的移动速度是否等于或大于阈值,并且当所述面部的移动速度等于或小于所述阈值时,使所述显示装置显示提示更慢地移动所述面部的引导。
337.(补充注释32)
338.根据补充注释28至31中任一项所述的活体检测装置,其中,所述第二显示控制单元确定所述目标的视线方向是否固定,并且当所述视线方向不固定时,使所述显示装置显示提示不移动所述视线方向的引导。
339.(补充注释33)
340.根据补充注释28至32中任一项所述的活体检测装置,其中,所述第二显示控制单元使所述显示装置显示以下中的一个或多个:指示所述目标的面部方向的显示,指示所述目标应该将面部指向的方向的显示,指示所述目标的视线方向的显示,以及指示所述目标应该将视线指向的方向的显示。
341.(补充注释34)
342.根据补充注释28至33中任一项所述的活体检查装置,其中,通过使用在从开始在显示控制步骤中显示画面直到在第二活体检测步骤中执行活体检测的时间期间由所述相机生成的捕获图像,确定相同目标是否被所述相机连续捕获,以及
343.其中,在所述相同目标没有被连续捕获的情况下,从所述显示控制单元再次执行处理。
344.(补充注释35)
345.根据补充注释34所述的活体检测装置,
346.其中,通过跟踪所述目标,确定所述目标是否在所述捕获图像中的每一个中示出,以及
347.其中,在检测到未示出所述目标的捕获图像的情况下,确定所述相同目标没有被连续捕获。
348.(补充注释36)
349.根据补充注释34所述的活体检测装置,
350.其中,从所述捕获图像中的每一个中检测所述目标的图像特征值,以及
351.其中,当检测到不包括所述目标的图像特征值的捕获图像时,确定所述相同目标没有被连续捕获。
352.(补充注释37)
353.一种由计算机执行的控制方法,包括:
354.显示控制步骤,使显示装置显示包括多个区域中的每一个区域中的显示的第一画
面和包括与所述第一画面的显示不同的显示的第二画面;
355.获取步骤,获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及
356.活体检测步骤,使用多个所述捕获图像来确定所述目标是否是活体,
357.其中,所述第一画面包括具有不同显示的至少两个区域。
358.(补充注释38)
359.根据补充注释37所述的控制方法,其中,在所述第一画面中包括的所述多个区域中的至少两个区域包括:具有彼此不同颜色的显示;具有彼此不同亮度的显示;或者彼此不同的字符、符号或图形。
360.(补充注释39)
361.根据补充注释37或38所述的控制方法,其中,在所述显示控制步骤中,基于所述显示装置和生成所述捕获图像的相机之间的位置关系来确定在所述第一画面中包括的所述多个区域的边界。
362.(补充注释40)
363.根据补充注释37或38所述的控制方法,其中,在所述第一画面中包括的所述多个区域的边界由用户输入确定。
364.(补充注释41)
365.根据补充注释37至40中任一项所述的控制方法,
366.其中,所述计算机包括识别模型,所述识别模型被训练为响应于多个捕获图像的输入,输出指示所述捕获图像中示出的目标是否是活体的标签,以及
367.其中,在所述显示控制步骤中,通过将在所述获取步骤中获取的多个所述捕获图像输入到所述识别模型中并且从所述识别模型获得所述标签,确定所述目标是否是活体。
368.(补充注释42)
369.根据补充注释41所述的控制方法,
370.其中,所述识别模型是使用正例的训练数据和负例的训练数据二者来训练的,以及
371.其中,所述正例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获真人的面部图像而获得的多个捕获图像;以及指示捕获的目标是活体的数据,以及
372.其中,所述负例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获人的面部图像而获得的多个捕获图像;以及指示捕获的目标不是活体的数据。
373.(补充注释43)
374.根据补充注释37至42中任一项所述的控制方法,其中,在所述显示控制步骤中,确定所述显示装置周围的环境光的强度,并且当所述环境光的强度等于或小于阈值时,在所述显示装置上显示所述第一画面和所述第二画面。
375.(补充注释44)
376.根据补充注释43所述的控制方法,其中,在所述显示控制步骤中,当所述环境光的强度大于所述阈值时,输出提示移动到所述环境光比当前强度弱的位置的消息。
377.(补充注释45)
378.根据补充注释37至44中任一项所述的控制方法,其中,在所述显示控制步骤中,确定所述显示装置周围的环境光的强度,并且根据所述环境光的强度确定要在所述第一画面和所述第二画面中的至少一个中包括的显示。
379.(补充注释46)
380.根据补充注释37至45中任一项所述的控制方法,包括:
381.第二显示控制步骤,使所述显示装置显示与视线方向相关的引导和与面部方向相关的引导;
382.第二获取步骤,获取通过用所述相机多次捕获所述目标而生成的捕获图像;以及
383.第二活体检测步骤,通过使用在所述捕获图像中的每一个中示出的所述目标的面部的图像来针对所述捕获图像中的每一个计算所述面部方向与视线方向之间的差异,并且基于所计算的差异来确定所述目标是否是活体,
384.其中,在所述第二显示控制步骤中,使所述显示装置显示提示在连续观看同一地方的同时左右摆动所述面部的引导。
385.(补充注释47)
386.根据补充注释46所述的控制方法,其中,在所述第二显示控制步骤中:
387.在所述显示装置上显示提示将所述面部指向第一方向而不移动所述视线的引导;
388.确定所述目标的面部方向是否是所述第一方向;以及
389.当所述目标的面部方向是所述第一方向时,使所述显示装置显示提示将所述面部指向第二方向而不移动所述视线的引导。
390.(补充注释48)
391.根据补充注释46或47所述的控制方法,其中,在所述第二显示控制步骤中,确定所述目标的面部摆动宽度的大小是否等于或大于阈值,并且当所述面部摆动宽度的大小不等于或大于所述阈值时,使所述显示装置显示提示更大程度地摆动所述面部的引导。
392.(补充注释49)
393.根据补充注释46至48中任一项所述的控制方法,其中,在所述第二显示控制步骤中,确定所述目标的面部的移动速度是否等于或大于阈值,并且当所述面部的移动速度等于或小于所述阈值时,使所述显示装置显示提示更慢地移动所述面部的引导。
394.(补充注释50)
395.根据补充注释46至49中任一项所述的控制方法,其中,在所述第二显示控制步骤中,确定所述目标的视线方向是否固定,并且当所述视线方向不固定时,使所述显示装置显示提示不移动所述视线方向的引导。
396.(补充注释51)
397.根据补充注释46至50中任一项所述的控制方法,其中,在所述第二显示控制步骤中,使所述显示装置显示以下中的一个或多个:指示所述目标的面部方向的显示,指示所述目标应该将面部指向的方向的显示,指示所述目标的视线方向的显示,以及指示所述目标应该将视线指向的方向的显示。
398.(补充注释52)
399.根据补充注释46至51中任一项所述的控制方法,其中,通过使用在从开始在显示
控制步骤中显示画面直到在第二活体检测步骤中执行活体检测的时间期间由所述相机生成的捕获图像,确定相同目标是否被所述相机连续捕获,以及
400.其中,在所述相同目标没有被连续捕获的情况下,从所述显示控制步骤再次执行处理。
401.(补充注释53)
402.根据补充注释52所述的控制方法,
403.其中,通过跟踪所述目标,确定所述目标是否在所述捕获图像中的每一个中示出,以及
404.其中,在检测到未示出所述目标的捕获图像的情况下,确定所述相同目标没有被连续捕获。
405.(补充注释54)
406.根据补充注释52所述的控制方法,
407.其中,从所述捕获图像中的每一个中检测所述目标的图像特征值,以及
408.其中,当检测到不包括所述目标的图像特征值的捕获图像时,确定所述相同目标没有被连续捕获。
409.附图标记列表
410.10相机
411.20显示装置
412.30画面
413.32区域
414.34边界线
415.40捕获图像
416.50目标对象
417.60终端
418.80、90、100、110画面
419.500计算机
420.502总线
421.504处理器
422.506存储器
423.508存储设备
424.510输入/输出接口
425.512网络接口
426.2000活体检测装置
427.2020显示控制单元
428.2040获取单元
429.2060活体检测单元
430.2080第二显示控制单元
431.2100第二获取单元
432.2120第二活体检测单元。

技术特征:
1.一种存储由计算机执行的程序的计算机可读介质,所述程序使所述计算机执行:显示控制步骤,使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同的显示的第二画面;获取步骤,获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及活体检测步骤,使用多个所述捕获图像来确定所述目标是否是活体,其中,所述第一画面包括具有不同显示的至少两个区域。2.根据权利要求1所述的计算机可读介质,其中,在所述第一画面中包括的所述多个区域中的至少两个区域包括:具有彼此不同颜色的显示;具有彼此不同亮度的显示;或者彼此不同的字符、符号或图形。3.根据权利要求1或2所述的计算机可读介质,其中,在所述显示控制步骤中,基于所述显示装置和生成所述捕获图像的相机之间的位置关系来确定在所述第一画面中包括的所述多个区域的边界。4.根据权利要求1或2所述的计算机可读介质,其中,在所述第一画面中包括的所述多个区域的边界由用户输入确定。5.根据权利要求1至4中任一项所述的计算机可读介质,其中,所述程序包括识别模型,所述识别模型被训练为响应于多个所述捕获图像的输入,输出指示所述捕获图像中示出的所述目标是否是活体的标签,以及其中,在所述显示控制步骤中,通过将在所述获取步骤中获取的多个所述捕获图像输入到所述识别模型中并且从所述识别模型获得所述标签,确定所述目标是否是活体。6.根据权利要求5所述的计算机可读介质,其中,所述识别模型是使用正例的训练数据和负例的训练数据二者来训练的,以及其中,所述正例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获真人的面部图像而获得的多个捕获图像;以及指示捕获的目标是活体的数据,以及其中,所述负例的训练数据包括:通过在显示所述第一画面和所述第二画面中的每一个的同时捕获人的面部图像而获得的多个捕获图像;以及指示捕获的目标不是活体的数据。7.根据权利要求1至6中任一项所述的计算机可读介质,其中,在所述显示控制步骤中,确定所述显示装置周围的环境光的强度,并且当所述环境光的强度等于或小于阈值时,在所述显示装置上显示所述第一画面和所述第二画面。8.根据权利要求7所述的计算机可读介质,其中,在所述显示控制步骤中,当所述环境光的强度大于所述阈值时,输出提示移动到所述环境光比当前强度弱的位置的消息。9.根据权利要求1至8中任一项所述的计算机可读介质,其中,在所述显示控制步骤中,确定所述显示装置周围的环境光的强度,并且根据所述环境光的强度确定要在所述第一画面和所述第二画面中的至少一个中包括的显示。10.根据权利要求1至9中任一项所述的计算机可读介质,执行:第二显示控制步骤,使所述显示装置显示与视线方向相关的引导和与面部方向相关的引导;
第二获取步骤,获取通过用所述相机多次捕获所述目标而生成的捕获图像;以及第二活体检测步骤,通过使用在所述捕获图像中的每一个中示出的所述目标的面部的图像来针对所述捕获图像中的每一个计算所述面部方向与视线方向之间的差异,并且基于所计算的差异来确定所述目标是否是活体,其中,在所述第二显示控制步骤中,使所述显示装置显示提示在连续观看同一地方的同时左右摆动所述面部的引导。11.根据权利要求10所述的计算机可读介质,其中,在所述第二显示控制步骤中:在所述显示装置上显示提示将所述面部指向第一方向而不移动所述视线的引导;确定所述目标的面部方向是否是所述第一方向;以及当所述目标的面部方向是所述第一方向时,使所述显示装置显示提示将所述面部指向第二方向而不移动所述视线的引导。12.根据权利要求10或11所述的计算机可读介质,其中,在所述第二显示控制步骤中,确定所述目标的面部摆动宽度的大小是否等于或大于阈值,并且当所述面部摆动宽度的大小不等于或大于所述阈值时,使所述显示装置显示提示更大程度地摆动所述面部的引导。13.根据权利要求10至12中任一项所述的计算机可读介质,其中,在所述第二显示控制步骤中,确定所述目标的面部的移动速度是否等于或大于阈值,并且当所述面部的移动速度等于或小于所述阈值时,使所述显示装置显示提示更慢地移动所述面部的引导。14.根据权利要求10至13中任一项所述的计算机可读介质,其中,在所述第二显示控制步骤中,确定所述目标的视线方向是否固定,并且当所述视线方向不固定时,使所述显示装置显示提示不移动所述视线方向的引导。15.根据权利要求10至14中任一项所述的计算机可读介质,其中,在所述第二显示控制步骤中,使所述显示装置显示以下中的一个或多个:指示所述目标的面部方向的显示,指示所述目标应该将所述面部指向的方向的显示,指示所述目标的视线方向的显示,以及指示所述目标应该将所述视线指向的方向的显示。16.根据权利要求10至15中任一项所述的计算机可读介质,其中,通过使用在从开始在所述显示控制步骤中显示画面直到在所述第二活体检测步骤中执行活体检测的时间期间由所述相机生成的捕获图像,确定相同目标是否被所述相机连续捕获,以及其中,在所述相同目标没有被连续捕获的情况下,从所述显示控制步骤再次执行处理。17.根据权利要求16所述的计算机可读介质,其中,通过跟踪所述目标,确定所述目标是否在所述捕获图像中的每一个中示出,以及其中,在检测到未示出所述目标的捕获图像的情况下,确定所述相同目标没有被连续捕获。18.根据权利要求16所述的计算机可读介质,其中,从所述捕获图像中的每一个中检测所述目标的图像特征值,以及其中,当检测到不包括所述目标的图像特征值的捕获图像时,确定所述相同目标没有被连续捕获。19.一种活体检测装置,包括:显示控制单元,被配置为使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同的显示的第二画面;
获取单元,被配置为获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及活体检测单元,被配置为使用多个所述捕获图像来确定所述目标是否是活体,其中,所述第一画面包括具有不同显示的至少两个区域。20.一种由计算机执行的控制方法,所述控制方法包括:显示控制步骤,使显示装置显示包括多个区域中的每一个区域中的显示的第一画面和包括与所述第一画面的显示不同的显示的第二画面;获取步骤,获取通过在显示所述第一画面和所述第二画面中的每一个的同时捕获目标而生成的多个捕获图像;以及活体检测步骤,使用多个所述捕获图像来确定所述目标是否是活体,其中,所述第一画面包括具有不同显示的至少两个区域。

技术总结
活体检测装置(2000)使显示装置(20)显示多个画面(30)。多个画面(30)中的至少一个包括多个区域(32)。多个区域(32)中的至少两个包括互不相同的显示内容。活体检测装置(2000)获取多个捕获图像(40)。捕获图像(40)是通过在显示画面(30)的同时借助于相机(10)捕获目标对象(50)的图像而生成的。活体检测装置(2000)通过使用多个捕获图像(40)来确定目标对象(50)是否是活体。否是活体。否是活体。


技术研发人员:高桥巧一 宫本孝道
受保护的技术使用者:日本电气株式会社
技术研发日:2020.10.09
技术公布日:2023/8/1
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐