CN108875509A - 活体检测方法、装置和系统及存储介质 - Google Patents
活体检测方法、装置和系统及存储介质 Download PDFInfo
- Publication number
- CN108875509A CN108875509A CN201711185030.4A CN201711185030A CN108875509A CN 108875509 A CN108875509 A CN 108875509A CN 201711185030 A CN201711185030 A CN 201711185030A CN 108875509 A CN108875509 A CN 108875509A
- Authority
- CN
- China
- Prior art keywords
- video
- fine motion
- motion information
- background
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本发明实施例提供一种活体检测方法、装置和系统以及存储介质。该方法包括:获取待检测对象的视频;从视频中选择至少两个视频帧;从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息;以及根据对象微动信息和背景微动信息判断待检测对象是否是活体。上述活体检测方法、装置和系统以及存储介质,在进行活体检测时,无需特殊硬件的辅助,也无需用户配合,因此能够部署于手机、电脑等条件受限的环境中。此外,上述活体检测方法的检测效率高、检测结果准确、用户体验好。
Description
技术领域
本发明涉及人脸识别领域,更具体地涉及一种活体检测方法、装置和系统以及存储介质。
背景技术
当前,人脸识别系统在很多场景获得了应用,如银行开户、支付验证、门禁管理等。随着互联网的发展,用户很容易从社交媒体等途径获取其他用户的照片信息。为防止用户利用照片等手段假冒他人身份,提升人脸识别系统的可靠性,在进行人脸识别时需要进行活体检测。所谓活体检测就是要确保进行身份验证的对象是生物活体,排除照片等非法验证行为。目前活体检测的方法较多,但是均有局限性,例如需要特殊的硬件设备,无法应用在手机和电脑端,用户体验差等。
发明内容
考虑到上述问题而提出了本发明。本发明提供了一种活体检测方法、装置和系统以及存储介质。
根据本发明一方面,提供了一种活体检测方法。该方法包括:获取待检测对象的视频;从视频中选择至少两个视频帧;从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息;以及根据对象微动信息和背景微动信息判断待检测对象是否是活体。
示例性地,从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息包括:对至少两个视频帧进行光流场计算,以获得整体光流场信息;对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;基于对象光流场信息确定对象微动信息;以及基于背景光流场信息确定背景微动信息。
示例性地,基于对象光流场信息确定对象微动信息包括:确定对象光流场信息为对象微动信息;基于背景光流场信息确定背景微动信息包括:确定背景光流场信息为背景微动信息。
示例性地,基于对象光流场信息确定对象微动信息包括:基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;确定待检测对象的光流场的统计特征和频率特征为对象微动信息;基于背景光流场信息确定背景微动信息包括:基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;确定视频背景的光流场的统计特征和频率特征为背景微动信息。
示例性地,对象区域包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。
示例性地,根据对象微动信息和背景微动信息判断待检测对象是否是活体包括:利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
示例性地,从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息以及根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤采用同一分类器实现。
示例性地,从视频中选择至少两个视频帧包括:从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧;或者从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧;或者从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
根据本发明另一方面,提供了一种活体检测装置,包括:获取模块,用于获取待检测对象的视频;选择模块,用于从所述视频中选择至少两个视频帧;提取模块,用于从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息;以及判断模块,用于根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体。
示例性地,提取模块包括:光流场计算子模块,用于对至少两个视频帧进行光流场计算,以获得整体光流场信息;对象检测子模块,用于对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;分割子模块,用于基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;对象微动信息确定子模块,用于基于对象光流场信息确定对象微动信息;以及背景微动信息确定子模块,用于基于背景光流场信息确定背景微动信息。
示例性地,对象微动信息确定子模块包括:第一确定单元,用于确定对象光流场信息为对象微动信息;背景微动信息确定子模块包括:第二确定单元,用于确定背景光流场信息为背景微动信息。
示例性地,对象微动信息确定子模块包括:第一特征计算单元,用于基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;第三确定单元,用于确定待检测对象的光流场的统计特征和频率特征为对象微动信息;背景微动信息确定子模块包括:第二特征计算单元,用于基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;第四确定单元,用于确定视频背景的光流场的统计特征和频率特征为背景微动信息。
示例性地,对象区域包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。
示例性地,判断模块包括:分类器处理子模块,用于利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
示例性地,提取模块以及判断模块采用同一分类器实现。
示例性地,选择模块包括:第一选择子模块,用于从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧;或者第二选择子模块,用于从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧;或者第三选择子模块,用于从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
根据本发明另一方面,提供了一种活体检测系统,包括处理器和存储器,其中,所述存储器中存储有计算机程序指令,所述计算机程序指令被所述处理器运行时用于执行以下步骤:获取待检测对象的视频;从视频中选择至少两个视频帧;从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息;以及根据对象微动信息和背景微动信息判断待检测对象是否是活体。
示例性地,所述计算机程序指令被所述处理器运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息的步骤包括:对至少两个视频帧进行光流场计算,以获得整体光流场信息;对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;基于对象光流场信息确定对象微动信息;以及基于背景光流场信息确定背景微动信息。
示例性地,所述计算机程序指令被所述处理器运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:确定对象光流场信息为对象微动信息;所述计算机程序指令被所述处理器运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:确定背景光流场信息为背景微动信息。
示例性地,所述计算机程序指令被所述处理器运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;确定待检测对象的光流场的统计特征和频率特征为对象微动信息;所述计算机程序指令被所述处理器运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;确定视频背景的光流场的统计特征和频率特征为背景微动信息。
示例性地,对象区域包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。
示例性地,所述计算机程序指令被所述处理器运行时所用于执行的根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤包括:利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
示例性地,所述计算机程序指令被所述处理器运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息以及根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤采用同一分类器实现。
示例性地,所述计算机程序指令被所述处理器运行时所用于执行的从视频中选择至少两个视频帧的步骤包括:从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧;或者从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧;或者从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
根据本发明另一方面,提供了一种存储介质,在所述存储介质上存储了程序指令,所述程序指令在运行时用于执行以下步骤:获取待检测对象的视频;从视频中选择至少两个视频帧;从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息;以及根据对象微动信息和背景微动信息判断待检测对象是否是活体。
示例性地,所述程序指令在运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息的步骤包括:对至少两个视频帧进行光流场计算,以获得整体光流场信息;对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;基于对象光流场信息确定对象微动信息;以及基于背景光流场信息确定背景微动信息。
示例性地,所述程序指令在运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:确定对象光流场信息为对象微动信息;所述程序指令在运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:确定背景光流场信息为背景微动信息。
示例性地,所述程序指令在运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;确定待检测对象的光流场的统计特征和频率特征为对象微动信息;所述程序指令在运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;确定视频背景的光流场的统计特征和频率特征为背景微动信息。
示例性地,对象区域包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。
示例性地,所述程序指令在运行时所用于执行的根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤包括:利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
示例性地,所述程序指令在运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息以及根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤采用同一分类器实现。
示例性地,所述程序指令在运行时所用于执行的从视频中选择至少两个视频帧的步骤包括:从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧;或者从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧;或者从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
根据本发明实施例的活体检测方法、装置和系统以及存储介质,在进行活体检测时,无需特殊硬件的辅助,也无需用户配合,因此能够部署于手机、电脑等条件受限的环境中。此外,根据本发明实施例的活体检测方法的检测效率高、检测结果准确、用户体验好。
附图说明
通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1示出用于实现根据本发明实施例的活体检测方法和装置的示例电子设备的示意性框图;
图2示出根据本发明一个实施例的活体检测方法的示意性流程图;
图3示出根据本发明一个实施例的活体检测流程的示意图;
图4示出根据本发明另一个实施例的活体检测流程的示意图;
图5示出了根据本发明一个实施例的活体检测装置的示意性框图;以及
图6示出了根据本发明一个实施例的活体检测系统的示意性框图。
具体实施方式
为了使得本发明的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。基于本发明中描述的本发明实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本发明的保护范围之内。
目前常见的活体检测方法有基于红外光的活体检测方法、基于深度信息的活体检测方法、基于用户行为的活体检测方法等。基于红外光的活体检测方法利用人的皮肤与照片人脸等攻击对象的光学特性不同来进行检测,这种方法需要利用特殊设备来收集红外信号,在手机、电脑等场景无法应用。基于深度信息的活体检测方法需要利用深度相机来接收深度信息,同样无法应用在手机和电脑端,需要的硬件条件较高。基于用户行为的活体检测方法往往需要用户做出一些随机指定的动作,如抬头、举手、说某一段话等,这种方法需要用户配合,并且识别这些特定的动作需要较复杂的技术,存在检测时间较长、结果不够准确等问题,用户体验较差。
为了解决现有的活体检测方法对特殊硬件存在依赖、用户体验差等缺陷,本发明提供了一种可以部署在任意平台的活体检测方案。根据本发明实施例的活体检测方案对特殊硬件没有要求,可以很好地应用于手机、电脑等硬件条件受限的环境中。根据本发明实施例的活体检测方案无需用户配合,检测速度快,检测结果准确,用户体验好。根据本发明实施例的活体检测方法可以应用于安全监控、银行业务、电子商务以及其他各类涉及活体检测的应用领域。
首先,参照图1来描述用于实现根据本发明实施例的活体检测方法和装置的示例电子设备100。
如图1所示,电子设备100包括一个或多个处理器102、一个或多个存储装置104、输入装置106、输出装置108、以及图像采集装置110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如用户)输出各种信息(例如图像和/或声音),并且可以包括显示器、扬声器等中的一个或多个。
所述图像采集装置110可以采集图像(包括视频帧),并且将所采集的图像存储在所述存储装置104中以供其它组件使用。图像采集装置110可以是摄像头。应当理解,图像采集装置110仅是示例,电子设备100可以不包括图像采集装置110。在这种情况下,可以利用其他具有图像采集能力的器件采集待处理图像,并将采集的图像发送给电子设备100。
示例性地,用于实现根据本发明实施例的活体检测方法和装置的示例电子设备可以在诸如个人计算机或远程服务器等的设备上实现。
下面,将参考图2描述根据本发明实施例的活体检测方法。图2示出根据本发明一个实施例的活体检测方法200的示意性流程图。如图2所示,活体检测方法200包括以下步骤。
在步骤S210,获取待检测对象的视频。
所述视频可以包括若干视频帧。视频可以是图像采集装置(例如摄像头)采集到的原始视频,也可以是对原始视频进行预处理之后获得的视频。
待检测对象可以是真人或攻击对象(例如照片人脸、3D人脸模型、面具等)。当用户为真人时,获取的是真人的视频,当用户利用照片等进行攻击时,获取的是照片人脸、3D人脸模型、面具等的视频。
视频可以由客户端设备(诸如包括摄像头的移动终端)发送到电子设备100以由电子设备100的处理器102进行活体检测,也可以由电子设备100包括的图像采集装置110采集并传送到处理器102进行活体检测。
在一个示例中,可以在获取完整的视频之后,再执行下述步骤S220,即从视频中选择视频帧。在另一个示例中,步骤S210和S220可以是同步执行的,即实时获取视频流,并实时地从获取的视频流中选择视频帧。
在步骤S220,从视频中选择至少两个视频帧。
所述至少两个视频帧可以根据需要选择,本发明不对此进行限制。
在一个示例中,步骤S220可以包括:从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧。在获取视频之后或获取视频的过程中,可以针对每个视频帧评估清晰度。清晰度的评估可以采用常规的图像清晰度评估方法实现,本文不赘述。可以对视频帧的清晰度进行排序,选择清晰度最高的几个视频帧作为至少两个视频帧。
在另一个示例中,步骤S220可以包括:从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧。在获取视频之后或获取视频的过程中,可以针对每个视频帧进行人脸检测,检测出每个视频帧中包含的人脸,并计算每个视频帧中包含人脸的置信度。示例性地,可以将每个视频帧分别输入训练好的卷积神经网络,由卷积神经网络输出人脸置信度。可以对视频帧的人脸置信度进行排序,选择人脸置信度最高的几个视频帧作为至少两个视频帧。
在又一个示例中,步骤S220可以包括:从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。例如,可以选择整个视频中的第十帧作为第三数目的视频帧中的第一帧,随后每隔五帧选出一个视频帧,直至选出的视频帧的数目达到第三数目为止。
上述第一数目、第二数目和第三数目中的任何两者可以相同或不同。
在步骤S230,从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息。
微动信息是指微小动作(或说微小运动)信息。视频背景是指视频中除待检测对象以外的背景部分。
用户在利用摄像头进行人脸识别时,由于呼吸、抖动等因素,人体(包括人脸和/或躯干)会有微小的动作,而背景基本会保持不变(在用户手持相机的情况下,视频中背景可能随着手的抖动而动,但与人体的运动模式仍有较大差异)。然而,照片中的人脸不具有微动作,且照片中的人脸与照片中的背景的运动模式差异较小,照片的运动多表现为整体的仿射变换,人体以及背景的运动模式的相关性比较高。因此,通过分析视频中人体与背景的运动模式的差异,可以判断出现在摄像头里的是真人还是照片。对于3D人脸模型、面具等其他攻击对象来说,原理也是类似的,同样可以利用攻击对象和背景之间的运动模式的差异与真人和背景之间的运动模式的差异不同来识别视频中采集到的是真人还是攻击对象。
由上可知,为了识别待检测对象是否是活体,可以提取待检测对象的对象微动信息以及视频背景的背景微动信息。要获知微动信息,至少需要两个视频帧,因此,在步骤S220中选择的是至少两个视频帧。
提取微动信息的方式可以有多种。示例性地,可以利用光流算法计算光流场信息,将光流场信息作为微动信息。示例性地,还可以将视频帧输入训练好的卷积神经网络,利用卷积神经网络自主学习并提取微动信息。微动信息的提取方式将在下文详细描述。
在步骤S240,根据对象微动信息和背景微动信息判断待检测对象是否是活体。
如上文所述,对于真人和攻击对象来说,它们与背景之间的运动模式的差异是不同的,因此,可以基于对象微动信息与背景微动信息之间的差异来判断待检测对象是否是活体。示例性地,可以利用训练好的分类器来实现步骤S240。分类器可以是神经网络、支持向量机(Support Vector Machine,SVM)或其他类似的分类模型。
本发明实施例提供的活体检测方法无需特殊硬件的辅助,也无需用户配合,能够在静默状态下短时间给出可靠的检测结果,易于部署在手机、电脑等条件受限的环境中,特别适合用于网站注册验证、支付验证等场景。此外,上述活体检测方法也同样可以应用于门禁管理系统、安防体系中,由于无需深度相机、红外传感器等额外硬件,因此能够降低系统的设计复杂度。此外,无交互的静默检测方式有利于提高检测效率,同时还可以提升用户体验。上述活体检测方法有利于提升相关的人脸识别系统的健壮性。
示例性地,根据本发明实施例的活体检测方法可以在具有存储器和处理器的设备、装置或者系统中实现。
根据本发明实施例的活体检测方法可以部署在人脸图像采集端处,例如,在安防应用领域,可以部署在门禁系统的图像采集端;在金融应用领域,可以部署在个人终端处,诸如智能电话、平板电脑、个人计算机等。
替代地,根据本发明实施例的活体检测方法还可以分布地部署在服务器端(或云端)和个人终端处。例如,在金融应用领域,可以在个人终端采集视频,个人终端将图像采集装置采集的视频传送给服务器端(或云端),然后服务器端(或云端)进行活体检测。
根据本发明实施例,步骤S230可以包括:对至少两个视频帧进行光流场计算,以获得整体光流场信息;对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;基于对象光流场信息确定对象微动信息;以及基于背景光流场信息确定背景微动信息。
图3示出根据本发明一个实施例的活体检测流程的示意图。如图3所示,在步骤一,获取视频。在步骤二,选择至少两个视频帧。为了分析微动模式,可以提取视频中的光流场信息。光流场信息是视频帧中各像素点的二维速度矢量。计算一个光流场需要两帧图像。示例性地,可以从视频中选取两个视频帧。在步骤三a,提取光流场信息。选取两个视频帧之后,可以计算光流场。计算光流场可以采用任何现有的或将来可能出现的光流算法实现,例如,farneback光流算法。在步骤三b,可以对两个视频帧分别进行对象检测,以确定对象区域和背景区域。可选地,对象区域可以包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。在对象区域包括人脸区域的情况下,对象检测可以包括人脸检测。在对象区域包括躯干区域的情况下,对象检测可以包括躯干检测。在步骤四,对整体光流场信息进行分割,以得到人脸区域和/或躯干区域、以及背景区域各自的光流场信息。最后,在步骤五,根据前述步骤获得的对象光流场信息和背景光流场信息进行分类,以获得关于待检测对象是活体还是非活体的分类结果。该分类结果可以是表示待检测对象是活体的置信度(或说分数),置信度越高,待检测对象是活体的可能性越大。
在图3所示的实施例中,将对象光流场信息视为对象微动信息并将背景光流场信息视为背景微动信息,然而,其仅是示例,对象微动信息和背景微动信息可以有其他的形式,其将在下文描述。
上面以基于两个视频帧计算一个光流场为例进行描述,然而,其仅是示例,本发明可以选择多于两个视频帧,基于每两个视频帧计算获得一个光流场的光流场信息,基于所有视频帧可以得到一个光流场序列的光流场信息,从而可以获得更好的活体检测效果。
根据本发明实施例,步骤S240可以包括:利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
在基于光流场信息确定微动信息的情况下,可以将获得的对象微动信息和背景微动信息输入分类器,获得用于表示待检测对象是否是活体的分类结果。如上文所述,分类器可以是神经网络、支持向量机或其他类似的分类模型。例如,分类器可以采用目前较为常见的LeNet、ResNet等实现。
分类器的训练过程如下:首先获取训练样本,训练样本可以包括针对真人采集的视频以及针对攻击对象(照片人脸、3D人脸模型、面具等)采集的视频。训练样本中将真人视频和攻击视频标注出来,真人视频作为正样本,攻击视频作为负样本。可以从真人视频的至少两个视频帧中提取对象微动信息和背景微动信息,将提取的信息输入分类器进行训练。同时,可以从攻击视频的至少两个视频帧中提取对象微动信息和背景微动信息,将提取的信息输入分类器进行训练。在训练过程中,可以采用随机梯度下降法(StochasticGradient Descent,SGD)、自适应矩估计(Adaptive Moment Estimation,Adam)方法等来优化分类器的网络参数。
根据本发明一个实施例,基于对象光流场信息确定对象微动信息可以包括:确定对象光流场信息为对象微动信息;基于背景光流场信息确定背景微动信息可以包括:确定背景光流场信息为背景微动信息。
如图3所示,可以将获得的对象光流场信息和背景光流场信息直接输入分类器,分类器输出用于表示待检测对象是否是活体的分类结果。
根据本发明另一个实施例,基于对象光流场信息确定对象微动信息可以包括:基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;确定待检测对象的光流场的统计特征和频率特征为对象微动信息;基于背景光流场信息确定背景微动信息可以包括:基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;确定视频背景的光流场的统计特征和频率特征为背景微动信息。
光流场的统计特征可以是,例如光流场的最大值、平均值、频数直方图(HIST)特征等。光流场的频率特征可以是,例如光流场的快速傅里叶变换(FFT)系数等。可选地,可以将待检测对象的光流场的统计特征和频率特征以及视频背景的光流场的统计特征和频率特征输入支持向量机进行处理,获得用于表示待检测对象是否是活体的分类结果。
根据本发明实施例,步骤S230以及步骤S240可以采用同一分类器实现。图4示出根据本发明另一个实施例的活体检测流程的示意图。本实施例与上面利用光流场分析微动模式的实施例不同,在本实施例中,直接根据至少两个视频帧进行分类。也就是说,令分类器自行学习出可以表征微动模式的特征。在本实施例中,获取视频以及选择至少两个视频帧的方式与上面利用光流场分析微动模式的实施例相同。本实施例中的分类器也可以采用神经网络实现,但是这里可能需要更加复杂的网络结构。
在本实施例中,可以通过设计分类器的网络结构使得分类器在中间部分能够提取对象微动信息和背景微动信息,例如由神经网络的中间层输出用于代表对象微动信息和背景微动信息的特征图(feature map),并且使得分类器的后续层能够基于提取的对象微动信息和背景微动信息计算获得用于表示待检测对象是否是活体的分类结果。由于现有的稠密光流场算法计算较慢,本实施例中通过使用分类器直接学习人体以及背景的微动信息,能够加快计算速度,从而能够进一步提高活体检测的速度。
根据本发明另一方面,提供一种活体检测装置。图5示出了根据本发明一个实施例的活体检测装置500的示意性框图。
如图5所示,根据本发明实施例的活体检测装置500包括获取模块510、选择模块520、提取模块530和判断模块540。所述各个模块可分别执行上文中结合图2-4描述的活体检测方法的各个步骤/功能。以下仅对该活体检测装置500的各部件的主要功能进行描述,而省略以上已经描述过的细节内容。
获取模块510用于获取待检测对象的视频。获取模块510可以由图1所示的电子设备中的处理器102运行存储装置104中存储的程序指令来实现。
选择模块520用于从所述视频中选择至少两个视频帧。选择模块520可以由图1所示的电子设备中的处理器102运行存储装置104中存储的程序指令来实现。
提取模块530用于从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息。提取模块530可以由图1所示的电子设备中的处理器102运行存储装置104中存储的程序指令来实现。
判断模块540用于根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体。判断模块540可以由图1所示的电子设备中的处理器102运行存储装置104中存储的程序指令来实现。
示例性地,提取模块530包括:光流场计算子模块,用于对至少两个视频帧进行光流场计算,以获得整体光流场信息;对象检测子模块,用于对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;分割子模块,用于基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;对象微动信息确定子模块,用于基于对象光流场信息确定对象微动信息;以及背景微动信息确定子模块,用于基于背景光流场信息确定背景微动信息。
示例性地,对象微动信息确定子模块包括:第一确定单元,用于确定对象光流场信息为对象微动信息;背景微动信息确定子模块包括:第二确定单元,用于确定背景光流场信息为背景微动信息。
示例性地,对象微动信息确定子模块包括:第一特征计算单元,用于基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;第三确定单元,用于确定待检测对象的光流场的统计特征和频率特征为对象微动信息;背景微动信息确定子模块包括:第二特征计算单元,用于基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;第四确定单元,用于确定视频背景的光流场的统计特征和频率特征为背景微动信息。
示例性地,对象区域包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。
示例性地,判断模块540包括:分类器处理子模块,用于利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
示例性地,提取模块530以及判断模块540采用同一分类器实现。
示例性地,选择模块520包括:第一选择子模块,用于从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧;或者第二选择子模块,用于从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧;或者第三选择子模块,用于从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
图6示出了根据本发明一个实施例的活体检测系统600的示意性框图。活体检测系统600包括图像采集装置610、存储装置620、以及处理器630。
图像采集装置610用于采集视频。图像采集装置610是可选的,活体检测系统600可以不包括图像采集装置610。在这种情况下,可以利用其他图像采集装置采集视频,并将采集的视频发送给活体检测系统600。
所述存储装置620存储用于实现根据本发明实施例的活体检测方法中的相应步骤的计算机程序指令。
所述处理器630用于运行所述存储装置620中存储的计算机程序指令,以执行根据本发明实施例的活体检测方法的相应步骤,并且用于实现根据本发明实施例的活体检测装置500中的获取模块510、选择模块520、提取模块530和判断模块540。
在一个实施例中,所述计算机程序指令被所述处理器630运行时用于执行以下步骤:获取待检测对象的视频;从视频中选择至少两个视频帧;从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息;以及根据对象微动信息和背景微动信息判断待检测对象是否是活体。
示例性地,所述计算机程序指令被所述处理器630运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息的步骤包括:对至少两个视频帧进行光流场计算,以获得整体光流场信息;对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;基于对象光流场信息确定对象微动信息;以及基于背景光流场信息确定背景微动信息。
示例性地,所述计算机程序指令被所述处理器630运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:确定对象光流场信息为对象微动信息;所述计算机程序指令被所述处理器630运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:确定背景光流场信息为背景微动信息。
示例性地,所述计算机程序指令被所述处理器630运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;确定待检测对象的光流场的统计特征和频率特征为对象微动信息;所述计算机程序指令被所述处理器630运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;确定视频背景的光流场的统计特征和频率特征为背景微动信息。
示例性地,对象区域包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。
示例性地,所述计算机程序指令被所述处理器630运行时所用于执行的根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤包括:利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
示例性地,所述计算机程序指令被所述处理器630运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息以及根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤采用同一分类器实现。
示例性地,所述计算机程序指令被所述处理器630运行时所用于执行的从视频中选择至少两个视频帧的步骤包括:从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧;或者从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧;或者从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
此外,根据本发明实施例,还提供了一种存储介质,在所述存储介质上存储了程序指令,在所述程序指令被计算机或处理器运行时用于执行本发明实施例的活体检测方法的相应步骤,并且用于实现根据本发明实施例的活体检测装置中的相应模块。所述存储介质例如可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、或者上述存储介质的任意组合。
在一个实施例中,所述程序指令在被计算机或处理器运行时可以使得计算机或处理器实现根据本发明实施例的活体检测装置的各个功能模块,并且/或者可以执行根据本发明实施例的活体检测方法。
在一个实施例中,所述程序指令在运行时用于执行以下步骤:获取待检测对象的视频;从视频中选择至少两个视频帧;从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息;以及根据对象微动信息和背景微动信息判断待检测对象是否是活体。
示例性地,所述程序指令在运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息的步骤包括:对至少两个视频帧进行光流场计算,以获得整体光流场信息;对至少两个视频帧进行对象检测,以确定至少两个视频帧中待检测对象所在的对象区域以及视频背景所在的背景区域;基于对象区域和背景区域的位置对整体光流场信息进行分割,以获得与待检测对象相关的对象光流场信息以及与视频背景相关的背景光流场信息;基于对象光流场信息确定对象微动信息;以及基于背景光流场信息确定背景微动信息。
示例性地,所述程序指令在运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:确定对象光流场信息为对象微动信息;所述程序指令在运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:确定背景光流场信息为背景微动信息。
示例性地,所述程序指令在运行时所用于执行的基于对象光流场信息确定对象微动信息的步骤包括:基于对象光流场信息计算待检测对象的光流场的统计特征和频率特征;确定待检测对象的光流场的统计特征和频率特征为对象微动信息;所述程序指令在运行时所用于执行的基于背景光流场信息确定背景微动信息的步骤包括:基于背景光流场信息计算视频背景的光流场的统计特征和频率特征;确定视频背景的光流场的统计特征和频率特征为背景微动信息。
示例性地,对象区域包括待检测对象的人脸所在的人脸区域和/或待检测对象的躯干所在的躯干区域。
示例性地,所述程序指令在运行时所用于执行的根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤包括:利用分类器处理对象微动信息和背景微动信息,以确定待检测对象是否是活体;其中,分类器是神经网络或支持向量机。
示例性地,所述程序指令在运行时所用于执行的从至少两个视频帧中提取待检测对象的对象微动信息和视频背景的背景微动信息以及根据对象微动信息和背景微动信息判断待检测对象是否是活体的步骤采用同一分类器实现。
示例性地,所述程序指令在运行时所用于执行的从视频中选择至少两个视频帧的步骤包括:从视频中选择清晰度最高的、第一数目的视频帧作为至少两个视频帧;或者从视频中选择人脸置信度最高的、第二数目的视频帧作为至少两个视频帧;或者从视频中选择第三数目的视频帧作为至少两个视频帧,其中,第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
根据本发明实施例的活体检测方案通过分析视频流中的微动模式,能够在短时间内区分是人类自然微动作还是照片人脸、3D人脸模型、面具等物体的微动作,因此可以有效地实现活体检测。上述活体检测方案能够广泛地应用于手机、电脑甚至嵌入式系统中。
根据本发明实施例的活体检测系统中的各模块可以通过根据本发明实施例的实施活体检测的电子设备的处理器运行在存储器中存储的计算机程序指令来实现,或者可以在根据本发明实施例的计算机程序产品的计算机可读存储介质中存储的计算机指令被计算机运行时实现。
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本发明的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的活体检测装置中的一些模块的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
以上所述,仅为本发明的具体实施方式或对具体实施方式的说明,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。本发明的保护范围应以权利要求的保护范围为准。
Claims (11)
1.一种活体检测方法,包括:
获取待检测对象的视频;
从所述视频中选择至少两个视频帧;
从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息;以及
根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体。
2.如权利要求1所述的方法,其中,
所述从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息包括:
对所述至少两个视频帧进行光流场计算,以获得整体光流场信息;
对所述至少两个视频帧进行对象检测,以确定所述至少两个视频帧中所述待检测对象所在的对象区域以及所述视频背景所在的背景区域;
基于所述对象区域和所述背景区域的位置对所述整体光流场信息进行分割,以获得与所述待检测对象相关的对象光流场信息以及与所述视频背景相关的背景光流场信息;
基于所述对象光流场信息确定所述对象微动信息;以及
基于所述背景光流场信息确定所述背景微动信息。
3.如权利要求2所述的方法,其中,
所述基于所述对象光流场信息确定所述对象微动信息包括:
确定所述对象光流场信息为所述对象微动信息;
所述基于所述背景光流场信息确定所述背景微动信息包括:
确定所述背景光流场信息为所述背景微动信息。
4.如权利要求2所述的方法,其中,
所述基于所述对象光流场信息确定所述对象微动信息包括:
基于所述对象光流场信息计算所述待检测对象的光流场的统计特征和频率特征;
确定所述待检测对象的光流场的统计特征和频率特征为所述对象微动信息;
所述基于所述背景光流场信息确定所述背景微动信息包括:
基于所述背景光流场信息计算所述视频背景的光流场的统计特征和频率特征;
确定所述视频背景的光流场的统计特征和频率特征为所述背景微动信息。
5.如权利要求2所述的方法,其中,所述对象区域包括所述待检测对象的人脸所在的人脸区域和/或所述待检测对象的躯干所在的躯干区域。
6.如权利要求2所述的方法,其中,所述根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体包括:
利用分类器处理所述对象微动信息和所述背景微动信息,以确定所述待检测对象是否是活体;
其中,所述分类器是神经网络或支持向量机。
7.如权利要求1所述的方法,其中,所述从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息以及所述根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体的步骤采用同一分类器实现。
8.如权利要求1至7中任一项所述的方法,其中,所述从所述视频中选择至少两个视频帧包括:
从所述视频中选择清晰度最高的、第一数目的视频帧作为所述至少两个视频帧;或者
从所述视频中选择人脸置信度最高的、第二数目的视频帧作为所述至少两个视频帧;或者
从所述视频中选择第三数目的视频帧作为所述至少两个视频帧,其中,所述第三数目的视频帧中的相邻视频帧之间具有预定时间间隔。
9.一种活体检测装置,包括:
获取模块,用于获取待检测对象的视频;
选择模块,用于从所述视频中选择至少两个视频帧;
提取模块,用于从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息;以及
判断模块,用于根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体。
10.一种活体检测系统,包括处理器和存储器,其中,所述存储器中存储有计算机程序指令,所述计算机程序指令被所述处理器运行时用于执行以下步骤:
获取待检测对象的视频;
从所述视频中选择至少两个视频帧;
从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息;以及
根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体。
11.一种存储介质,在所述存储介质上存储了程序指令,所述程序指令在运行时用于执行以下步骤:
获取待检测对象的视频;
从所述视频中选择至少两个视频帧;
从所述至少两个视频帧中提取所述待检测对象的对象微动信息和视频背景的背景微动信息;以及
根据所述对象微动信息和所述背景微动信息判断所述待检测对象是否是活体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711185030.4A CN108875509A (zh) | 2017-11-23 | 2017-11-23 | 活体检测方法、装置和系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711185030.4A CN108875509A (zh) | 2017-11-23 | 2017-11-23 | 活体检测方法、装置和系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108875509A true CN108875509A (zh) | 2018-11-23 |
Family
ID=64325473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711185030.4A Pending CN108875509A (zh) | 2017-11-23 | 2017-11-23 | 活体检测方法、装置和系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108875509A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815944A (zh) * | 2019-03-21 | 2019-05-28 | 娄奥林 | 一种针对人工智能对视频面部替换识别的防御方法 |
CN109977846A (zh) * | 2019-03-22 | 2019-07-05 | 中国科学院重庆绿色智能技术研究院 | 一种基于近红外单目摄像的活体检测方法及系统 |
CN111814589A (zh) * | 2020-06-18 | 2020-10-23 | 浙江大华技术股份有限公司 | 部位识别方法以及相关设备、装置 |
WO2021042375A1 (zh) * | 2019-09-06 | 2021-03-11 | 深圳市汇顶科技股份有限公司 | 人脸活体检测方法、芯片及电子设备 |
CN113095272A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101908140A (zh) * | 2010-07-29 | 2010-12-08 | 中山大学 | 一种在人脸识别中应用的活体检测方法 |
US20110188712A1 (en) * | 2010-02-04 | 2011-08-04 | Electronics And Telecommunications Research Institute | Method and apparatus for determining fake image |
US20160277397A1 (en) * | 2015-03-16 | 2016-09-22 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and information processing system |
WO2017139325A1 (en) * | 2016-02-09 | 2017-08-17 | Aware, Inc. | Face liveness detection using background/foreground motion analysis |
-
2017
- 2017-11-23 CN CN201711185030.4A patent/CN108875509A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110188712A1 (en) * | 2010-02-04 | 2011-08-04 | Electronics And Telecommunications Research Institute | Method and apparatus for determining fake image |
CN101908140A (zh) * | 2010-07-29 | 2010-12-08 | 中山大学 | 一种在人脸识别中应用的活体检测方法 |
US20160277397A1 (en) * | 2015-03-16 | 2016-09-22 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and information processing system |
WO2017139325A1 (en) * | 2016-02-09 | 2017-08-17 | Aware, Inc. | Face liveness detection using background/foreground motion analysis |
Non-Patent Citations (1)
Title |
---|
刘佳伟: "基于视频序列的特定行为检测研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815944A (zh) * | 2019-03-21 | 2019-05-28 | 娄奥林 | 一种针对人工智能对视频面部替换识别的防御方法 |
CN109977846A (zh) * | 2019-03-22 | 2019-07-05 | 中国科学院重庆绿色智能技术研究院 | 一种基于近红外单目摄像的活体检测方法及系统 |
WO2021042375A1 (zh) * | 2019-09-06 | 2021-03-11 | 深圳市汇顶科技股份有限公司 | 人脸活体检测方法、芯片及电子设备 |
CN111814589A (zh) * | 2020-06-18 | 2020-10-23 | 浙江大华技术股份有限公司 | 部位识别方法以及相关设备、装置 |
CN113095272A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
CN113095272B (zh) * | 2021-04-23 | 2024-03-29 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948408B (zh) | 活性测试方法和设备 | |
CN108875509A (zh) | 活体检测方法、装置和系统及存储介质 | |
CN107590473B (zh) | 一种人脸活体检测方法、介质和相关装置 | |
CN108875522A (zh) | 人脸聚类方法、装置和系统及存储介质 | |
CN106778525A (zh) | 身份认证方法和装置 | |
CN109829381A (zh) | 一种犬只识别管理方法、装置、系统及存储介质 | |
CN108875452A (zh) | 人脸识别方法、装置、系统和计算机可读介质 | |
CN105844206A (zh) | 身份认证方法及设备 | |
CN106919921B (zh) | 结合子空间学习与张量神经网络的步态识别方法及系统 | |
CN106203387A (zh) | 人脸验证方法及系统 | |
CN108932456A (zh) | 人脸识别方法、装置和系统及存储介质 | |
CN108875731A (zh) | 目标识别方法、装置、系统及存储介质 | |
CN105740808B (zh) | 人脸识别方法和装置 | |
CN108229375B (zh) | 用于检测人脸图像的方法和装置 | |
CN113033519B (zh) | 活体检测方法、估算网络处理方法、装置和计算机设备 | |
Dhiman | An innovative approach for face recognition using raspberry Pi | |
CN108875497B (zh) | 活体检测的方法、装置及计算机存储介质 | |
CN109241888A (zh) | 神经网络训练与对象识别方法、装置和系统及存储介质 | |
KR20150128510A (ko) | 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치 | |
CN115147874A (zh) | 用于生物特征信息伪造检测的方法和设备 | |
CN108171208A (zh) | 信息获取方法和装置 | |
CN109543635A (zh) | 活体检测方法、装置、系统、解锁方法、终端及存储介质 | |
CN108875549A (zh) | 图像识别方法、装置、系统及计算机存储介质 | |
US20220044014A1 (en) | Iris authentication device, iris authentication method and recording medium | |
CN108875500A (zh) | 行人再识别方法、装置、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181123 |
|
RJ01 | Rejection of invention patent application after publication |