CN114170690A - 活体识别和构建活体识别模型的方法、装置 - Google Patents

活体识别和构建活体识别模型的方法、装置 Download PDF

Info

Publication number
CN114170690A
CN114170690A CN202210131625.6A CN202210131625A CN114170690A CN 114170690 A CN114170690 A CN 114170690A CN 202210131625 A CN202210131625 A CN 202210131625A CN 114170690 A CN114170690 A CN 114170690A
Authority
CN
China
Prior art keywords
image
focal stack
feature
sequence
candidate image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210131625.6A
Other languages
English (en)
Inventor
王云龙
孙哲南
骆正权
任民
卫建泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202210131625.6A priority Critical patent/CN114170690A/zh
Publication of CN114170690A publication Critical patent/CN114170690A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Abstract

本公开涉及一种活体识别和构建活体识别模型的方法、装置,也应用于基于模型的计算机系统或者电子设备对生物特征进行真假体的识别检测场景。上述活体识别的方法包括:获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列;基于特征提取模型,对上述图像焦栈序列中的各个图像进行特征提取,以得到上述各个图像在同一个特征空间下的特征向量;分析上述各个图像的特征向量之间的差异性,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列;以及将上述特征差异性分布序列输入至预先训练好的活体识别模型,识别出上述待识别对象为活体生物特征还是非活体生物特征。具有辨识准确度高、操作简单以及应用方便的优点。

Description

活体识别和构建活体识别模型的方法、装置
技术领域
本公开涉及生物特征检测和识别技术领域以及人工智能领域,尤其涉及一种活体识别和构建活体识别模型的方法、装置。
背景技术
目前随着人工智能(AI)技术的发展,关于生物特征的识别技术越来越可靠,诸如人脸、虹膜、指纹、掌纹等生物特征用作电子设备(例如手机、计算机等)安全登录、安全支付等的重要验证手段。
由于关于上述生物特征的信息容易被获取,会存在各种形式的呈现攻击(Presentation Attack),有可能会影响生物特征识别系统的识别准确度。例如通过利用上述生物特征的某种伪像,例如包含人脸的照片、带有人脸图像的电子屏幕、人皮面具、3D头像模具、打印的虹膜图片或虹膜照片、合成指纹、掌纹照片等,甚至试图模仿真实用户的行为(例如步态,签名)来欺诈地访问生物识别系统。
发明内容
为了解决或者至少部分地解决以下技术问题:如何精准高效地来区分包含生物特征的真假体,本公开的实施例提供了一种活体识别和构建活体识别模型的方法、装置。
第一方面,本公开的实施例提供了一种活体识别的方法。上述活体识别的方法包括:获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列;基于特征提取模型,对上述图像焦栈序列中的各个图像进行特征提取,以得到上述各个图像在同一个特征空间下的特征向量;分析上述各个图像的特征向量之间的差异性,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列;以及将上述特征差异性分布序列输入至预先训练好的活体识别模型,识别出上述待识别对象为活体生物特征还是非活体生物特征。
根据本公开的实施例,分析上述各个图像的特征向量之间的差异性,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列,包括:在上述图像焦栈序列中选择其中的一个图像作为基准图像;计算上述图像焦栈序列中的上述基准图像与其余图像各自的特征向量之间的向量关系函数,上述向量关系函数用于表征上述其余图像中每个图像的特征向量与上述基准图像的特征向量之间的差异性;根据上述其余图像中每个图像的上述向量关系函数,生成特征差异性分布序列。
根据本公开的实施例,在上述图像焦栈序列中选择其中的一个图像作为基准图像,包括:确定上述图像焦栈序列中各个图像的聚焦程度;以及将上述图像焦栈序列中聚焦程度最好的图像确定为基准图像。
根据本公开的实施例,上述活体识别的方法中,上述向量关系函数包括:待确定差异性的两个向量之间的欧式距离;或者,待确定差异性的两个向量之间的余弦距离;或者,待确定差异性的两个向量之间的欧式距离和上述两个向量之间的余弦距离的加权和,其中上述欧式距离的权重系数和上述余弦距离的权重系数的加和为1。
根据本公开的实施例,获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列,包括:在同一观测点位,基于普通相机沿着焦点深度的方向进行多次光学变焦,在待识别对象符合预设清晰度的清晰对焦位置的前后方向拍摄一系列图像,得到一组聚焦于不同深度的图像焦栈序列;或者,在同一观测点位,基于光场相机进行数字重聚焦,在待识别对象符合预设清晰度的清晰对焦位置的前后方向拍摄一系列图像,得到一组聚焦于不同深度的图像焦栈序列;或者,接收从摄像装置传输的关于待识别对象的一组聚焦于不同深度的图像焦栈序列的数据,上述图像焦栈序列由上述摄像装置在同一观测点位拍摄得到。
根据本公开的实施例,上述活体识别模型通过以下步骤训练得到:获取候选图像数据,上述候选图像数据包括:具有生物特征的活体对象和非活体对象由同一观测点位拍摄得到的一组聚焦于不同深度的候选图像焦栈序列;基于训练用特征提取模型,对上述候选图像焦栈序列中的各个候选图像进行特征提取,以得到上述各个候选图像在同一个特征空间下的特征向量;分析上述各个候选图像的特征向量之间的差异性,得到关于上述候选图像焦栈序列的各个候选图像的特征差异性分布序列;以及将上述候选图像的特征差异性分布序列作为分类器模型的输入,上述分类器模型的输出为上述候选图像来源的对象为活体对象和非活体对象的预测概率,将上述候选图像数据来源的活体对象和非活体对象所对应的真实分类结果作为训练标签来训练上述分类器模型,训练完成的分类器模型为上述活体识别模型。
第二方面,本公开的实施例提供了一种构建活体识别模型的方法。上述构建活体识别模型的方法包括:获取候选图像数据,上述候选图像数据包括:具有生物特征的活体对象和非活体对象由同一观测点位拍摄得到的一组聚焦于不同深度的候选图像焦栈序列;基于训练用特征提取模型,对上述候选图像焦栈序列中的各个候选图像进行特征提取,以得到上述各个候选图像在同一个特征空间下的特征向量;分析上述各个候选图像的特征向量之间的差异性,得到关于上述候选图像焦栈序列的各个候选图像的特征差异性分布序列;以及将上述候选图像的特征差异性分布序列作为分类器模型的输入,上述分类器模型的输出为上述候选图像来源的对象为活体对象和非活体对象的预测概率,将上述候选图像数据来源的活体对象和非活体对象所对应的真实分类结果作为训练标签来训练上述分类器模型,训练完成的分类器模型为构建得到的活体识别模型。
根据本公开的实施例,分析上述各个候选图像的特征向量之间的差异性,得到关于上述候选图像焦栈序列的各个候选图像的特征差异性分布序列,包括:在上述候选图像焦栈序列中选择其中的一个候选图像作为基准候选图像;计算上述候选图像焦栈序列中的上述基准候选图像与其余候选图像各自的特征向量之间的向量关系函数,上述向量关系函数用于表征上述其余候选图像中每个候选图像的特征向量与上述基准候选图像的特征向量之间的差异性;根据上述其余候选图像中每个候选图像的上述向量关系函数,生成特征差异性分布序列。
根据本公开的实施例,在上述候选图像焦栈序列中选择其中的一个候选图像作为基准候选图像,包括:确定上述候选图像焦栈序列中各个候选图像的聚焦程度;以及将上述候选图像焦栈序列中聚焦程度最好的候选图像确定为基准候选图像。
根据本公开的实施例,上述构建活体识别模型的方法中,上述向量关系函数包括:待确定差异性的两个向量之间的欧式距离;或者,待确定差异性的两个向量之间的余弦距离;或者,待确定差异性的两个向量之间的欧式距离和上述两个向量之间的余弦距离的加权和,其中上述欧式距离的权重系数和上述余弦距离的权重系数的加和为1。
第三方面,本公开的实施例提供了一种活体识别的装置。上述装置包括:图像获取模块、特征提取模块、分析模块和识别模块。上述图像获取模块用于获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列。上述特征提取模块用于基于特征提取模型,对上述图像焦栈序列中的各个图像进行特征提取,以得到上述各个图像在同一个特征空间下的特征向量。上述分析模块用于分析上述各个图像的特征向量之间的差异性,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列。上述识别模块用于将上述特征差异性分布序列输入至预先训练好的活体识别模型,识别出上述待识别对象为活体生物特征还是非活体生物特征。
第四方面,本公开的实施例提供了一种电子设备。上述电子设备包括处理器、通信接口、存储器和通信总线,其中,处理器、通信接口和存储器通过通信总线完成相互间的通信;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序时,实现如上所述的活体识别的方法或构建活体识别模型的方法。
第五方面,本公开的实施例提供了一种计算机可读存储介质。上述计算机可读存储介质上存储有计算机程序,上述计算机程序被处理器执行时实现如上所述的活体识别的方法或构建活体识别模型的方法。
本公开实施例提供的上述技术方案与现有技术相比至少具有如下优点的部分或全部:
通过获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列,对上述图像焦栈序列中的各个图像进行特征提取得到的特征向量之间的差异性进行分析,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列;基于活体识别模型,将上述特征差异性分布序列作为输入,便可以输出得到上述待识别对象为活体生物特征还是非活体生物特征的识别结果;上述方法中无需设置额外的光源、结构光等硬件进行辅助,将图像焦栈序列中的各个图像的特征向量之间的差异性分布来作为区分真假体的关键要素,具有辨识准确度高、操作简单以及应用方便的优点,既能够方便迅速地采集/获取生物特征,又能够通过提取更高维度、更丰富的有效信息来快速准确地进行活体和非活体的识别检测,并且活体检测结果具有一定的可解释性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出了根据本公开实施例的活体识别的方法的流程图;
图2示意性示出了根据本公开实施例的步骤S130的详细实施流程图;
图3示意性示出了根据本公开实施例的活体识别的方法的详细实施过程图;
图4示意性示出了根据本公开实施例的训练活体识别模型的详细实施流程图;
图5示意性示出了根据本公开实施例的构建活体识别模型的方法的流程图;
图6示意性示出了根据本公开实施例的活体识别的装置的结构示意图;以及
图7示意性示出了本公开实施例提供的电子设备的结构框图。
具体实施方式
呈现攻击的方式大致可以分为:二维呈现攻击,包括:二维静态纸制与电子照片,二维动态图像、视频等;三维呈现攻击,包括:三维面具攻击和高精度的三维头模攻击等。各类型的攻击方式的攻击成本、检测的难易程度以及攻击的出现频率也存在很大差异。
在实现本公开构思时发现,针对各种类型的呈现攻击,有的方法需要通过附加额外的光源、结构光等硬件模块或设备来捕获活体(例如真实虹膜)和非活体(例如电子屏幕、照片或纸件上的虹膜等)的差别,这种方法需要附加额外的设备进行改造,复杂度高、采集效率低且无法便捷应用。
有的方法是采用常见的彩色或者灰度成像设备来对生物特征进行图像采集,得到生物特征图像之后基于特定算法模型来进行识别,例如在得到生物特征图像之后对图像进行特征提取,然后根据提取的特征差异来进行识别,基本都是训练二分类模型(一种机器学习模型)来实现真假体的区分;这类方法输入的真假体(活体和非活体)的判别信息有限,图像处理、特征提取和活体检测算法易受图像质量的影响。
在一些场景下,基于算法训练的活体检测方法对三维高仿真的假体攻击方式防御效果较差,如对于使用3D高仿面具的人脸假体攻击、使用义眼的虹膜假体攻击等的识别准确度较差。
有鉴于此,本公开提出了以下构思:将生物特征真假体在图像中边缘清晰程度、纹理变化、颜色分布等因素上的不同,反映在高维特征空间中就是特征相干性的不同分布模式,从而将图像焦栈序列中的各个图像的特征向量之间的差异性分布来作为区分真假体的关键要素。对应的,本公开的实施例提供了一种活体识别和构建活体识别模型的方法、装置,通过分析生物特征呈现攻击中真体和假体在焦栈序列图像特征在相干性(两个图像特征之间的相干性是指两个图像特征之间的关联关系,也可以将相干性描述为关联性、变化情况)上的差异,作为判别和检测假体攻击的线索和区分真假体依据,进行精准高效的生物特征呈现攻击的检测和真假体的识别。
在实际应用场景中,只需要使用普通相机光学变焦或者光场相机数字重聚焦,无需设置额外光源、结构光等硬件进行辅助,便可以产生一组聚焦在不同空间深度层面的图像构成图像焦栈序列,然后通过对图像焦栈序列中各个图像在特征空间的相干性进行分析,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列,进而基于上述特征差异性分布序列来进行生物特征活体检测。本公开实施例提供的方法具有辨识准确度高、操作简单以及应用方便的优点,既能够方便迅速地采集/获取生物特征,又能够通过提取更高维度、更丰富的有效信息来快速准确地进行活体和非活体的识别检测,并且活体检测结果具有一定的可解释性。
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
本公开的第一个示例性实施例提供了一种活体识别的方法。
图1示意性示出了根据本公开实施例的活体识别的方法的流程图。
参照图1所示,本公开实施例提供的活体识别的方法,包括以下步骤:S110~S140。
在步骤S110,获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列。
上述步骤S110中,待识别对象可以是包含生物特征的活体对象(真实对象)或非活体对象(介质承载的对象)。生物特征包括但不限于是:人脸、虹膜、指纹、掌纹等。
焦栈序列(Focal Stack)是指聚焦在不同深度平面处的一系列图像构成的序列,本公开的实施例中为了突出描述的图像对象,因此将图像构成的焦栈序列描述为图像焦栈序列,实际上也可以描述为焦栈序列。
例如,通过对光场相机拍摄的光场图像进行数字重聚焦,可以聚焦在不同的深度处,使位于不同深度物体清晰;也可以通过使用单反相机、工业相机、手机摄像头等成像设备手动多次调整镜头的焦距,或者相机自带的光学变焦功能等手段来获取焦栈序列。
焦栈序列中蕴含有拍摄对象的深度信息和三维空间立体结构,因为拍摄对象处在不同深度位置的部分会在焦栈序列图像中呈现出不同的聚焦程度,在最清晰的焦栈图像两侧会有一定程度的对称分布,即“模糊→清晰→模糊”的分布模式。
步骤S120,基于特征提取模型,对上述图像焦栈序列中的各个图像进行特征提取,以得到上述各个图像在同一个特征空间下的特征向量。
上述步骤S120中,特征提取模型可以是生物特征识别模型或者分类模型,如人脸、虹膜的识别模型,也可以是通用的深度学习模型,如ResNet模型、MobileNet模型等,主要的作用是提取图像焦栈序列中各个图像在同一模型映射空间的特征表达,具体为特征向量的形式。
步骤S130,分析上述各个图像的特征向量之间的差异性,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列。
由于包含生物特征的真假体(或者描述为活体和非活体)在三维立体空间结构、反射属性等方面的差异,是呈现攻击进行检测、真假体识别的本质依据。图像焦栈序列中聚焦程度不同的图像,可以在边缘清晰程度、纹理变化、颜色分布等因素上反映这些本质差异;通过特征提取模型对图像焦栈序列中各个图像进行特征提取,相当于对附带在图像中的边缘清晰程度、纹理变化、颜色分布等因素进行了处理和加工,形成了高维特征向量,而通过分析这些特征向量在特征空间中的差异性分布,形成相干性特征,即对应得到图像焦栈序列的各个图像的特征差异性分布序列,就可以将该特征差异性分布序列作为判别生物特征真假体的有效特征。
步骤S140,将上述特征差异性分布序列输入至预先训练好的活体识别模型,识别出上述待识别对象为活体生物特征还是非活体生物特征。
预先训练好的活体识别模型的参数是预先训练好的,例如该活体识别模块为分类器模型,该活体识别模型训练时的输入为训练样本(包括活体和非活体对象)对应的特征差异性分布序列,输出为活体和非活体的分类结果(例如可以是训练样本属于活体和非活体的概率),训练的标签为该训练样本的真实分类结果。
需要说明的是,在活体识别模型的训练过程中,训练样本对应的特征差异性分布序列可以同样按照上述步骤S110~S130所对应的执行逻辑来实现,区别在于:训练的场景下,输入是训练样本对应的特征差异性分布序列;实测的场景下,输入是实测样本(待识别对象)对应的特征差异性分布序列。
基于上述步骤S110~S140,通过获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列,对上述图像焦栈序列中的各个图像进行特征提取得到的特征向量之间的差异性进行分析,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列;基于活体识别模型,将上述特征差异性分布序列作为输入,便可以输出得到上述待识别对象为活体生物特征还是非活体生物特征的识别结果;上述方法中无需设置额外的光源、结构光等硬件进行辅助,将图像焦栈序列中的各个图像的特征向量之间的差异性分布来作为区分真假体的关键要素,具有辨识准确度高、操作简单以及应用方便的优点,既能够方便迅速地采集/获取生物特征,又能够通过提取更高维度、更丰富的有效信息来快速准确地进行活体和非活体的识别检测,并且活体检测结果具有一定的可解释性。
下面结合实施例来对上述各个步骤可选的实施方式进行描述。
基于本公开的实施例,步骤S110中获取图像焦栈序列的过程可以是通过变焦拍摄图像得到图像焦栈序列,也可以是接收摄像装置/模块传输的图像焦栈序列的数据。
例如,根据本公开的一种实施例,上述步骤S110中,获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列,包括:在同一观测点位,基于普通相机(例如单反相机、工业相机、手机摄像头等)沿着焦点深度的方向进行多次光学变焦,在待识别对象(例如包含人脸、虹膜、指纹、掌纹等的活体对象(真实人)或非活体对象(承载介质,例如屏幕、照片、纸件、3D模型等))符合预设清晰度的清晰对焦位置的前后方向(对应于拍摄焦距轴向方向)拍摄一系列图像,得到一组聚焦于不同深度的图像焦栈序列。上述普通相机区别于后续要描述的光场相机。
或者,根据本公开的另一种实施例,上述步骤S110中,获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列,包括:在同一观测点位,基于光场相机进行数字重聚焦,在待识别对象(例如包含人脸、虹膜、指纹、掌纹等的活体对象或非活体对象)符合预设清晰度的清晰对焦位置的前后方向(对应于拍摄焦距轴向方向)拍摄一系列图像,得到一组聚焦于不同深度的图像焦栈序列。
或者,根据本公开的又一种实施例,上述步骤S110中,获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列,包括:接收从摄像装置传输的关于待识别对象的一组聚焦于不同深度的图像焦栈序列的数据,上述图像焦栈序列由上述摄像装置在同一观测点位拍摄得到。
在一种示例性实施场景中,步骤S110~S140可以由带有摄像模块的电子设备执行,例如电子设备包括但不限于是带有摄像头的手机、带有摄像头的门禁设备、带有摄像头的监控设备、带有摄像头的支付设备(例如收银设备、移动支付设备等)、带有摄像头的涉密设备等,这样的实施场景下,带有摄像模块的电子设备能够对待识别对象进行拍摄来获取图像并即时进行数据处理,高效且准确地得到识别结果,并可以根据识别结果进行后续的响应,例如进行手机的登录验证通过、门禁打开、监控结果的实时显示、支付验证通过、涉密设备的登录验证通过等。
在另一种示例性实施场景中,步骤S110~S140也可以由不带有摄像模块的电子设备或者自身具有摄像模块但是不利用自身的摄像功能的电子设备来执行,该电子设备与外部摄像模块之间可以进行通信连接或电学连接,以实现数据传输和数据交互。例如电子设备包括但不限于是计算机、监控后台服务器、支付后台服务器、涉密监测后台服务器等,外部摄像模块为与上述计算机、监控后台服务器、支付后台服务器、涉密监测后台服务器等通信/电学连接的用于登录安全验证、支付安全验证、监控、拍摄等功能的摄像设备(例如为相机、附带有摄像模块的装置,例如可以是无人机、监控仪等)。这种实施场景下,由外部摄像模块先拍摄得到一组聚焦于不同深度的图像焦栈序列,然后将上述数据传输给电子设备,电子设备对获取到的图像焦栈序列的数据进行数据处理,以得到识别结果。这种实施场景可以是异步(获取之后才进行)处理的过程,也可以是同步处理(获取之后立即传输进行处理)的过程。
上述图像焦栈序列中的这组图像均是同一观测点位,只是聚焦程度不同,反映在图像的模糊程度、边缘锐利程度、颜色分布等因素上的不同。本公开的实施例中,由于是根据图像焦栈序列中各个图像的特征向量之间的差异性分布结果(具体为差异性分布序列)来作为真假体识别的关键因素,因此只需要在同一视角(相机位置不变化,且仅需要一个成像相机)通过光学变焦或者数字重聚焦等方式进行拍摄来获得一组图像焦栈序列即可,既不需要多个视角的繁琐处理,也不需要外部增设拍摄装置,容易实现且应用方便。
图2示意性示出了根据本公开实施例的步骤S130的详细实施流程图;图3示意性示出了根据本公开实施例的活体识别的方法的详细实施过程图。
本公开的实施例中,可以是对图像焦栈序列中的各个图像两两之间的特征向量的差异性进行分析。例如,参照图3所示,将上述图像焦栈序列表示为{I1,I2,I3,……,In},n表示图像焦栈序列中所包含的图像总个数/总张数,I1,I2,I3,……,In分别表示图像焦栈序列中的第1个图像、第2个图像、第3个图像、……、第n个图像;那么,针对图像焦栈序列中的每个图像共有n-1个差异性关系,差异性关系表示为Δ(Ij,Ii),i为当前图像的序号,i的取值为从1~n;j表示不同于当前图像的其他图像的序号,j的总个数为n-1,则从原则上说,关于上述图像焦栈序列的各个图像的特征差异性分布序列中包含的差异性分布数据最多有n×(n-1)个。
经过对特征差异性分布序列中所包含的数据进行变化所对应得到的识别结果进行实验探究可知,两两得到的n组差异性数据构成的序列和将不同清晰程度的图像作为基准数据对应的1组差异性数据相比而言,最清晰图像作为基准数据对应的1组差异性数据对应的分布序列作为输入,辨识效果比较好。尽管从实施方式而言,上述步骤S130中可以是对图像焦栈序列中的各个图像两两之间的特征向量的差异性进行分析,从而得到关于上述图像焦栈序列的各个图像的特征差异性分布序列,然而将图像焦栈序列中聚焦程度最好的图像确定为基准图像作为一种具有更优效果的实施方式。
参照图2和图3所示,在一些实施例中,上述步骤S130中,分析上述各个图像的特征向量之间的差异性,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列,包括以下步骤:S210、S220和S230。
在步骤S210,在上述图像焦栈序列中选择其中的一个图像作为基准图像。
原则上基准图像可以选择图像焦栈序列中的任意一个图像,从实现效果最优而言,由于基准图像携带的信息最为丰富,对应于高维特征的提取表征的基准最为适合,其设置目的为:为了让基准的特征向量最能表达图像中的纹理、颜色、边缘等特征分布,如果使用其他焦栈序列里的图像,其模糊程度可能与其他图像接近,因为存在焦栈序列“模糊→清晰→模糊”的这种变化,在最清晰的基准图像两侧会有一定的对称分布,这样的话,使用其他基准图像会产生一些歧义性,因此选择聚焦程度最好的图像作为基准图像。
相应的,在该优选的实施例中,上述步骤S210中,在上述图像焦栈序列中选择其中的一个图像作为基准图像,包括以下子步骤:
子步骤S211,确定上述图像焦栈序列中各个图像的聚焦程度;以及
子步骤S212,将上述图像焦栈序列中聚焦程度最好的图像确定为基准图像。
在子步骤S211,例如可以对图像焦栈序列中的每一张图像计算聚焦程度,例如,计算聚焦程度的函数为对焦评价函数 F focus_measure ( ),该对焦评价函数 Ffocus_measure( )具体可以采用灰度绝对变化函数、罗伯特梯度函数、拉普拉斯梯度函数等。
确定聚焦程度的计算过程可以表示为以下表达式:
{p1,p1,p1,……,pn}=F focus_measure ( {I1,I2,I3,……,In} ) (1),
其中,p1,p1,p1,……,pn分别对应表示图像I1,I2,I3,……,In各自的聚焦程度。
然后,在子步骤S212,从上述图像焦栈序列中选择出聚焦程度最好的图像,这张图像即为最清晰图像,这里采用I C 表示,C为最清晰图像对应的序号(也可以描述为索引值),参照图3所示,这里以包含5张图像的图像焦栈序列中最中间(第3张)图像为最清晰图像作为示例。
最清晰图像I C 对应的序号C满足以下表达式:
C=argmax( {p1,p1,p1,……,pn} ) (2),
其中,argmax()表示寻找具有最大评分所对应的参量,即为寻找聚焦程度最好的图像所对应的序号。
参照图3所示,除去基准图像之外的其余n-1张图像按照原先的排列顺序(亦即,索引顺序、序号的排列顺序)构成新的焦栈序列,这里表示为{I1′,I2′,I3′,……,In-1′}。
在步骤S220,计算上述图像焦栈序列中的上述基准图像与其余图像各自的特征向量之间的向量关系函数,上述向量关系函数用于表征上述其余图像中每个图像的特征向量与上述基准图像的特征向量之间的差异性。
在具体实施时,为了将其余图像的特征向量作为一个整体来与基准图像的特征向量进行运算,例如可以将其余图像中每个图像的特征向量作为行向量,各个特征向量的维度对应为列向量来构成特征矩阵。
例如,前述步骤S120中,基于特征提取模型关于上述基准图像和其余图像提取的特征向量分别表示为:
r C =F θ (I C )(3),
r k=F θ (Ik′),(4),
其中,公式(3)和(4)中,F θ ()表示特征提取函数(或者描述为特征提取模型的特征提取算法),得到的特征向量的维度表示为d,d为正整数,具体取值不做限定(在图3中以d为5进行示意,不限制保护范围),视特征提取模型而定;r C 表示基准图像的特征向量,r k表示其余图像中的第k个图像Ik′的特征向量。公式(4)中,k的取值为1,2,3,……,n-1,表示除去基准图像之外的其余n-1张图像的序号(索引)。
基于前面的描述可知,上述特征提取模型可以是现有的或者任意的能够进行特征提取的识别模型或者分类模型,如人脸、虹膜的识别模型,也可以是通用的深度学习模型,如ResNet模型、MobileNet模型等,主要的作用是抽取焦栈序列和最清晰图像在同一模型映射空间的特征表达,只要图像焦栈序列中的所有图像采用相同的特征提取模型进行特征提取,得到所有图像映射至同一个特征空间下的特征向量均符合要求。
那么,将其余图像中每个图像的特征向量{r 1r 2r 3,……,r n-1}作为行向量,各个特征向量的维度d对应为列向量来构成特征矩阵R,则特征矩阵R的维度为(n-1)×d。
接下来,计算图像焦栈序列中的上述基准图像与其余图像各自的特征向量之间的向量关系函数具体实现为:计算基准图像的特征向量r C 与特征矩阵R之间的向量关系函数。上述向量关系函数可以采用各种能够表征两个向量之间的关联关系的函数。
在一些实施例中,上述向量关系函数包括:待确定差异性的两个向量之间的欧式距离;或者,待确定差异性的两个向量之间的余弦距离;或者,待确定差异性的两个向量之间的欧式距离和上述两个向量之间的余弦距离的加权和,其中上述欧式距离的权重系数和上述余弦距离的权重系数的加和为1。
例如,这里以余弦距离作为示例,通过分析聚焦程度不同的图像映射成高维特征向量后,在高维特征空间中的距离作为相干性的依据。余弦距离越近,说明两张图像越相似;余弦距离越远,说明两张图像越不相似。生物特征真假体在图像中边缘清晰程度、纹理变化、颜色分布等因素上的不同,反映在高维特征空间中就是特征相干性的不同分布模式。例如电子设备(平板电脑、手机等)屏显人脸这种攻击方式,其三维空间结构几乎为平面,且屏幕对光线的吸收和反射与真实人脸大不相同,因此拍摄的图像聚焦程度不同时,纹理、颜色、边缘等会出现比较大的差别,这些差别映射到高维特征空间后,会在特征相干性上形成不同的分布模式,挖掘这些分布模式,就可以完成精准的真假体检测和识别。
计算聚焦程度最好的图像(也可以描述为最清晰图像)I C 的特征向量r C 与其余n-1张图像构成的新的焦栈序列{I1′,I2′,I3′,……,In-1′}中每一张图像的特征向量两两之间的余弦距离的过程如下:
参照图3所示,先对其余n-1个图像序列{I1′,I2′,I3′,……,In-1′}的特征矩阵R和最清晰图像I C 的特征向量r C 进行归一化处理,例如,可以对特征矩阵R按行进行L2范数归一化处理,得到行向量归一化后的特征矩阵R′;对最清晰图像的特征向量r C 进行L2范数归一化处理,得到归一化后的特征向量r C ′;
然后,对归一化后的特征矩阵R和最清晰图像的特征向量r C 进行余弦距离的计算,计算过程可以表示为以下表达式:
S n-1=r C ′×(R′)T(5),
f n-1=1-S n-1 (6),
其中,T表示矩阵的转置;S n-1表示余弦相似度,是一个n-1维的行向量(包含1行、n-1列的元素),具体取值表示为{S 1S 2S 3,……,S n-1};f n-1表示最清晰图像的特征向量与焦栈序列中每一张图像特征表达向量两两之间的余弦距离,也是一个n-1维的行向量,具体取值表示为{f 1f 2f 3,……,f n-1}。
在步骤S230,根据上述其余图像中每个图像的上述向量关系函数,生成特征差异性分布序列。
根据步骤S220计算得到的向量关系函数可以得到特征差异性分布序列,例如根据其余图像中每个图像与基准图像之间的余弦距离f n-1:{f 1f 2f 3,……,f n-1}得到特征差异性分布序列为:{f 1f 2f 3,……,f n-1}。
在一实施例中,参照图3所示,在步骤S230中,例如可以根据步骤S220得到的特征差异性分布序列来生成特征差异性分布曲线,其中将图像焦栈序列的序号(索引)作为横坐标,将向量关系函数对应于序号维度的取值作为纵坐标,在电子设备(例如为计算机)的显示界面展示出图像焦栈序列对应的特征差异性分布结果,由于包含生物特征的真假体样本在这条曲线上会呈现不同的形状,该特征差异性分布曲线展示的特征差异性分布序列和最后的识别结果可以展示出来供用户进行观察参考,有助于用户理解活体识别模型根据特征差异性分布序列识别出活体生物特征和非活体生物特征的动机,具有较好的解释性。
接着,在步骤S140中,将上述特征差异性分布序列{f 1f 2f 3,……,f n-1}输入至预先训练好的活体识别模型中,由该活体识别模型输出上述待识别对象为活体生物特征还是非活体生物特征(简称为真假体)的识别结果。
图4示意性示出了根据本公开实施例的训练活体识别模型的详细实施流程图。
根据本公开的实施例,在步骤S140中需要预先得到训练好的活体识别模型,在图4中示意了训练活体识别模型的步骤S400,具体而言,上述活体识别模型通过以下步骤训练得到:
步骤S401,获取候选图像数据,上述候选图像数据包括:具有生物特征的活体对象和非活体对象由同一观测点位拍摄得到的一组聚焦于不同深度的候选图像焦栈序列;
步骤S402,基于训练用特征提取模型,对上述候选图像焦栈序列中的各个候选图像进行特征提取,以得到上述各个候选图像在同一个特征空间下的特征向量;
需要说明的是,上述训练用特征提取模型与活体识别时采用的所述特征提取模型可以相同,也可以不同;
步骤S403,分析上述各个候选图像的特征向量之间的差异性,得到关于上述候选图像焦栈序列的各个候选图像的特征差异性分布序列;以及
步骤S404,将上述候选图像的特征差异性分布序列作为分类器模型的输入,上述分类器模型的输出为上述候选图像来源的对象为活体对象和非活体对象的预测概率,将上述候选图像数据来源的活体对象和非活体对象所对应的真实分类结果作为训练标签来训练上述分类器模型,训练完成的分类器模型为上述活体识别模型。
上述分类器模型例如为支持向量机(SVM)、多层感知器(MLP)等机器学习模型。
根据本公开的实施例,上述步骤S403中,分析上述各个候选图像的特征向量之间的差异性,得到关于上述候选图像焦栈序列的各个候选图像的特征差异性分布序列,包括以下步骤:
步骤S403a,在上述候选图像焦栈序列中选择其中的一个候选图像作为基准候选图像;
根据本公开的实施例,在上述候选图像焦栈序列中选择其中的一个候选图像作为基准候选图像,包括:确定上述候选图像焦栈序列中各个候选图像的聚焦程度;以及将上述候选图像焦栈序列中聚焦程度最好的候选图像确定为基准候选图像;
步骤S403b,计算上述候选图像焦栈序列中的上述基准候选图像与其余候选图像各自的特征向量之间的向量关系函数,上述向量关系函数用于表征上述其余候选图像中每个候选图像的特征向量与上述基准候选图像的特征向量之间的差异性;以及
步骤S403c,根据上述其余候选图像中每个候选图像的上述向量关系函数,生成特征差异性分布序列;
在一些实施例中,上述向量关系函数包括:待确定差异性的两个向量之间的欧式距离;或者,待确定差异性的两个向量之间的余弦距离;或者,待确定差异性的两个向量之间的欧式距离和上述两个向量之间的余弦距离的加权和,其中上述欧式距离的权重系数和上述余弦距离的权重系数的加和为1。
步骤S403a~S403c的具体执行逻辑和实施方式可以参照前述关于步骤S210~S230的执行逻辑,这里不再赘述。
本公开的第二个示例性实施例提供了一种构建活体识别模型的方法。
由于现有的活体识别的方式大多是基于常规的经训练得到的二分类器模型来根据输入的二维图像提取的特征进行真假体的识别检测,因此对应在采集图像和处理得到用于输入至二分类器模型的数据时,采用彩色相机或灰度相机拍摄得到的二维图像进行特征提取。而本公开中上述识别的方法创新性的给出了一种构建活体识别模型的新型方式,从而可以基于构建的活体识别模型来进行真假体的高效、快速识别,并且无需增加辅助的拍摄硬件设备。
图5示意性示出了根据本公开实施例的构建活体识别模型的方法的流程图。
根据本公开的实施例,参照图5所示,上述构建活体识别模型的方法包括以下步骤:
步骤S510,获取候选图像数据,上述候选图像数据包括:具有生物特征的活体对象和非活体对象由同一观测点位拍摄得到的一组聚焦于不同深度的候选图像焦栈序列;
步骤S520,基于训练用特征提取模型,对上述候选图像焦栈序列中的各个候选图像进行特征提取,以得到上述各个候选图像在同一个特征空间下的特征向量;
步骤S530,分析上述各个候选图像的特征向量之间的差异性,得到关于上述候选图像焦栈序列的各个候选图像的特征差异性分布序列;以及
步骤S540,将上述候选图像的特征差异性分布序列作为分类器模型的输入,上述分类器模型的输出为上述候选图像来源的对象为活体对象和非活体对象的预测概率,将上述候选图像数据来源的活体对象和非活体对象所对应的真实分类结果作为训练标签来训练上述分类器模型,训练完成的分类器模型为构建得到的活体识别模型。
上述步骤S510~S540的实施方式和细节可以参照前述关于步骤S400的描述,与第一个实施例相同的部分这里不再赘述。
本公开的第三个示例性实施例提供了一种活体识别的装置。
图6示意性示出了根据本公开实施例的活体识别的装置的结构示意图。
参照图6所示,本公开实施例提供的活体识别的装置600包括:图像获取模块610、特征提取模块620、分析模块630和识别模块640。
上述图像获取模块610用于获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列。例如,在一实施例中,上述图像获取模块610为附带于该装置600上的摄像头。或者,在另一实施例中,上述图像获取模块610可以是该装置600与外部摄像装置之间进行数据传输的模块,通过该图像获取模块610来从外部摄像装置获取图像焦栈序列。
上述特征提取模块620用于基于特征提取模型,对上述图像焦栈序列中的各个图像进行特征提取,以得到上述各个图像在同一个特征空间下的特征向量。
上述分析模块630用于分析上述各个图像的特征向量之间的差异性,得到关于上述图像焦栈序列的各个图像的特征差异性分布序列。
上述识别模块640用于将上述特征差异性分布序列输入至预先训练好的活体识别模型,识别出上述待识别对象为活体生物特征还是非活体生物特征。
上述实施例中,图像获取模块610、特征提取模块620、分析模块630和识别模块640中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。图像获取模块610、特征提取模块620、分析模块630和识别模块640中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,图像获取模块610、特征提取模块620、分析模块630和识别模块640中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
本公开的第四个示例性实施例提供了一种电子设备。
图7示意性示出了本公开实施例提供的电子设备的结构框图。
参照图7所示,本公开实施例提供的电子设备700包括处理器701、通信接口702、存储器703和通信总线704,其中,处理器701、通信接口702和存储器703通过通信总线704完成相互间的通信;存储器703,用于存放计算机程序;处理器701,用于执行存储器上所存放的程序时,实现如上所述的活体识别的方法或构建活体识别模型的方法。
本公开的第五个示例性实施例还提供了一种计算机可读存储介质。上述计算机可读存储介质上存储有计算机程序,上述计算机程序被处理器执行时实现如上所述的活体识别的方法或构建活体识别模型的方法。
该计算机可读存储介质可以是上述实施例中描述的设备/装置中所包含的;也可以是单独存在,而未装配入该设备/装置中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。

Claims (13)

1.一种活体识别的方法,其特征在于,包括:
获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列;
基于特征提取模型,对所述图像焦栈序列中的各个图像进行特征提取,以得到所述各个图像在同一个特征空间下的特征向量;
分析所述各个图像的特征向量之间的差异性,得到关于所述图像焦栈序列的各个图像的特征差异性分布序列;以及
将所述特征差异性分布序列输入至预先训练好的活体识别模型,识别出所述待识别对象为活体生物特征还是非活体生物特征。
2.根据权利要求1所述的方法,其特征在于,所述分析所述各个图像的特征向量之间的差异性,得到关于所述图像焦栈序列的各个图像的特征差异性分布序列,包括:
在所述图像焦栈序列中选择其中的一个图像作为基准图像;
计算所述图像焦栈序列中的所述基准图像与其余图像各自的特征向量之间的向量关系函数,所述向量关系函数用于表征所述其余图像中每个图像的特征向量与所述基准图像的特征向量之间的差异性;
根据所述其余图像中每个图像的所述向量关系函数,生成特征差异性分布序列。
3.根据权利要求2所述的方法,其特征在于,所述在所述图像焦栈序列中选择其中的一个图像作为基准图像,包括:
确定所述图像焦栈序列中各个图像的聚焦程度;以及
将所述图像焦栈序列中聚焦程度最好的图像确定为基准图像。
4.根据权利要求2所述的方法,其特征在于,所述向量关系函数包括:
待确定差异性的两个向量之间的欧式距离;或者,
待确定差异性的两个向量之间的余弦距离;或者,
待确定差异性的两个向量之间的欧式距离和所述两个向量之间的余弦距离的加权和,其中所述欧式距离的权重系数和所述余弦距离的权重系数的加和为1。
5.根据权利要求1所述的方法,其特征在于,所述获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列,包括:
在同一观测点位,基于普通相机沿着焦点深度的方向进行多次光学变焦,在待识别对象符合预设清晰度的清晰对焦位置的前后方向拍摄一系列图像,得到一组聚焦于不同深度的图像焦栈序列;或者,
在同一观测点位,基于光场相机进行数字重聚焦,在待识别对象符合预设清晰度的清晰对焦位置的前后方向拍摄一系列图像,得到一组聚焦于不同深度的图像焦栈序列;或者,
接收从摄像装置传输的关于待识别对象的一组聚焦于不同深度的图像焦栈序列的数据,所述图像焦栈序列由所述摄像装置在同一观测点位拍摄得到。
6.根据权利要求1所述的方法,其特征在于,所述活体识别模型通过以下步骤训练得到:
获取候选图像数据,所述候选图像数据包括:具有生物特征的活体对象和非活体对象由同一观测点位拍摄得到的一组聚焦于不同深度的候选图像焦栈序列;
基于训练用特征提取模型,对所述候选图像焦栈序列中的各个候选图像进行特征提取,以得到所述各个候选图像在同一个特征空间下的特征向量;
分析所述各个候选图像的特征向量之间的差异性,得到关于所述候选图像焦栈序列的各个候选图像的特征差异性分布序列;以及
将所述候选图像的特征差异性分布序列作为分类器模型的输入,所述分类器模型的输出为所述候选图像来源的对象为活体对象和非活体对象的预测概率,将所述候选图像数据来源的活体对象和非活体对象所对应的真实分类结果作为训练标签来训练所述分类器模型,训练完成的分类器模型为所述活体识别模型。
7.一种构建活体识别模型的方法,其特征在于,包括:
获取候选图像数据,所述候选图像数据包括:具有生物特征的活体对象和非活体对象由同一观测点位拍摄得到的一组聚焦于不同深度的候选图像焦栈序列;
基于训练用特征提取模型,对所述候选图像焦栈序列中的各个候选图像进行特征提取,以得到所述各个候选图像在同一个特征空间下的特征向量;
分析所述各个候选图像的特征向量之间的差异性,得到关于所述候选图像焦栈序列的各个候选图像的特征差异性分布序列;以及
将所述候选图像的特征差异性分布序列作为分类器模型的输入,所述分类器模型的输出为所述候选图像来源的对象为活体对象和非活体对象的预测概率,将所述候选图像数据来源的活体对象和非活体对象所对应的真实分类结果作为训练标签来训练所述分类器模型,训练完成的分类器模型为构建得到的活体识别模型。
8.根据权利要求7所述的方法,其特征在于,所述分析所述各个候选图像的特征向量之间的差异性,得到关于所述候选图像焦栈序列的各个候选图像的特征差异性分布序列,包括:
在所述候选图像焦栈序列中选择其中的一个候选图像作为基准候选图像;
计算所述候选图像焦栈序列中的所述基准候选图像与其余候选图像各自的特征向量之间的向量关系函数,所述向量关系函数用于表征所述其余候选图像中每个候选图像的特征向量与所述基准候选图像的特征向量之间的差异性;
根据所述其余候选图像中每个候选图像的所述向量关系函数,生成特征差异性分布序列。
9.根据权利要求8所述的方法,其特征在于,所述在所述候选图像焦栈序列中选择其中的一个候选图像作为基准候选图像,包括:
确定所述候选图像焦栈序列中各个候选图像的聚焦程度;以及
将所述候选图像焦栈序列中聚焦程度最好的候选图像确定为基准候选图像。
10.根据权利要求8所述的方法,其特征在于,所述向量关系函数包括:
待确定差异性的两个向量之间的欧式距离;或者,
待确定差异性的两个向量之间的余弦距离;或者,
待确定差异性的两个向量之间的欧式距离和所述两个向量之间的余弦距离的加权和,其中所述欧式距离的权重系数和所述余弦距离的权重系数的加和为1。
11.一种活体识别的装置,其特征在于,包括:
图像获取模块,用于获取待识别对象由同一观测点位拍摄得到的一组聚焦于不同深度的图像焦栈序列;
特征提取模块,用于基于特征提取模型,对所述图像焦栈序列中的各个图像进行特征提取,以得到所述各个图像在同一个特征空间下的特征向量;
分析模块,用于分析所述各个图像的特征向量之间的差异性,得到关于所述图像焦栈序列的各个图像的特征差异性分布序列;以及
识别模块,用于将所述特征差异性分布序列输入至预先训练好的活体识别模型,识别出所述待识别对象为活体生物特征还是非活体生物特征。
12.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器、通信接口和存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-10中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-10中任一项所述的方法。
CN202210131625.6A 2022-02-14 2022-02-14 活体识别和构建活体识别模型的方法、装置 Pending CN114170690A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210131625.6A CN114170690A (zh) 2022-02-14 2022-02-14 活体识别和构建活体识别模型的方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210131625.6A CN114170690A (zh) 2022-02-14 2022-02-14 活体识别和构建活体识别模型的方法、装置

Publications (1)

Publication Number Publication Date
CN114170690A true CN114170690A (zh) 2022-03-11

Family

ID=80489939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210131625.6A Pending CN114170690A (zh) 2022-02-14 2022-02-14 活体识别和构建活体识别模型的方法、装置

Country Status (1)

Country Link
CN (1) CN114170690A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926890A (zh) * 2022-07-20 2022-08-19 北京远鉴信息技术有限公司 一种人脸真伪的区分方法、装置、电子设备及存储介质
CN116543330A (zh) * 2023-04-13 2023-08-04 北京京东乾石科技有限公司 农作物信息存储方法、装置、电子设备和计算机可读介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080037835A1 (en) * 2006-06-02 2008-02-14 Korea Institute Of Science And Technology Iris recognition system and method using multifocus image sequence
CN105975926A (zh) * 2016-04-29 2016-09-28 中山大学 基于光场相机的人脸活体检测方法
CN107491775A (zh) * 2017-10-13 2017-12-19 理光图像技术(上海)有限公司 人脸活体检测方法、装置、存储介质及设备
CN109492455A (zh) * 2017-09-12 2019-03-19 中国移动通信有限公司研究院 活体对象检测及身份认证方法、介质、系统和相关装置
CN110516644A (zh) * 2019-08-30 2019-11-29 深圳前海微众银行股份有限公司 一种活体检测方法及装置
CN111339822A (zh) * 2017-07-17 2020-06-26 Oppo广东移动通信有限公司 活体检测方法及相关产品
CN111523438A (zh) * 2020-04-20 2020-08-11 支付宝实验室(新加坡)有限公司 一种活体识别方法、终端设备和电子设备
CN111914646A (zh) * 2020-07-01 2020-11-10 天津中科智能识别产业技术研究院有限公司 一种基于光场图像序列的双流融合网络虹膜活体检测方法
CN112507781A (zh) * 2020-10-21 2021-03-16 天津中科智能识别产业技术研究院有限公司 一种多维度多模态群体生物特征识别系统以及方法
US20210397817A1 (en) * 2018-10-12 2021-12-23 Hangzhou Hikvision Digital Technology Co., Ltd. Anti-counterfeiting face detection method, device and multi-lens camera

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080037835A1 (en) * 2006-06-02 2008-02-14 Korea Institute Of Science And Technology Iris recognition system and method using multifocus image sequence
CN105975926A (zh) * 2016-04-29 2016-09-28 中山大学 基于光场相机的人脸活体检测方法
CN111339822A (zh) * 2017-07-17 2020-06-26 Oppo广东移动通信有限公司 活体检测方法及相关产品
CN109492455A (zh) * 2017-09-12 2019-03-19 中国移动通信有限公司研究院 活体对象检测及身份认证方法、介质、系统和相关装置
CN107491775A (zh) * 2017-10-13 2017-12-19 理光图像技术(上海)有限公司 人脸活体检测方法、装置、存储介质及设备
US20210397817A1 (en) * 2018-10-12 2021-12-23 Hangzhou Hikvision Digital Technology Co., Ltd. Anti-counterfeiting face detection method, device and multi-lens camera
CN110516644A (zh) * 2019-08-30 2019-11-29 深圳前海微众银行股份有限公司 一种活体检测方法及装置
CN111523438A (zh) * 2020-04-20 2020-08-11 支付宝实验室(新加坡)有限公司 一种活体识别方法、终端设备和电子设备
CN111914646A (zh) * 2020-07-01 2020-11-10 天津中科智能识别产业技术研究院有限公司 一种基于光场图像序列的双流融合网络虹膜活体检测方法
CN112507781A (zh) * 2020-10-21 2021-03-16 天津中科智能识别产业技术研究院有限公司 一种多维度多模态群体生物特征识别系统以及方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926890A (zh) * 2022-07-20 2022-08-19 北京远鉴信息技术有限公司 一种人脸真伪的区分方法、装置、电子设备及存储介质
CN114926890B (zh) * 2022-07-20 2022-09-30 北京远鉴信息技术有限公司 一种人脸真伪的区分方法、装置、电子设备及存储介质
CN116543330A (zh) * 2023-04-13 2023-08-04 北京京东乾石科技有限公司 农作物信息存储方法、装置、电子设备和计算机可读介质

Similar Documents

Publication Publication Date Title
CN106897675B (zh) 双目视觉深度特征与表观特征相结合的人脸活体检测方法
JP4505733B2 (ja) テクストンを用いる対象物認識方法及び装置
CN112052831B (zh) 人脸检测的方法、装置和计算机存储介质
EP2676224B1 (en) Image quality assessment
WO2020134238A1 (zh) 活体检测方法、装置以及存储介质
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
Raghavendra et al. Exploring the usefulness of light field cameras for biometrics: An empirical study on face and iris recognition
US20060039600A1 (en) 3D object recognition
CN112036331B (zh) 活体检测模型的训练方法、装置、设备及存储介质
US11227149B2 (en) Method and apparatus with liveness detection and object recognition
JP6112801B2 (ja) 画像認識装置及び画像認識方法
CN114170690A (zh) 活体识别和构建活体识别模型的方法、装置
Ji et al. LFHOG: A discriminative descriptor for live face detection from light field image
CN111783748A (zh) 人脸识别方法、装置、电子设备及存储介质
CN108876835A (zh) 深度信息检测方法、装置和系统及存储介质
CN112232163B (zh) 指纹采集方法及装置、指纹比对方法及装置、设备
CN107766864B (zh) 提取特征的方法和装置、物体识别的方法和装置
Benlamoudi et al. Face antispoofing based on frame difference and multilevel representation
CN112016525A (zh) 非接触式指纹采集方法和装置
Wu et al. Single-shot face anti-spoofing for dual pixel camera
Nikitin et al. Face anti-spoofing with joint spoofing medium detection and eye blinking analysis
CN110363111B (zh) 基于镜头失真原理的人脸活体检测方法、装置及存储介质
Bresan et al. Facespoof buster: a presentation attack detector based on intrinsic image properties and deep learning
CN107480628B (zh) 一种人脸识别方法及装置
CN112308035A (zh) 图像检测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220311