CN111062333B - 活体的面部动态识别方法、系统、存储介质 - Google Patents
活体的面部动态识别方法、系统、存储介质 Download PDFInfo
- Publication number
- CN111062333B CN111062333B CN201911314457.9A CN201911314457A CN111062333B CN 111062333 B CN111062333 B CN 111062333B CN 201911314457 A CN201911314457 A CN 201911314457A CN 111062333 B CN111062333 B CN 111062333B
- Authority
- CN
- China
- Prior art keywords
- image
- face
- facial
- layer
- living body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000001815 facial effect Effects 0.000 claims abstract description 87
- 230000008921 facial expression Effects 0.000 claims abstract description 23
- 230000008859 change Effects 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000000605 extraction Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 210000000744 eyelid Anatomy 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000004397 blinking Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims 2
- 230000009471 action Effects 0.000 abstract description 4
- 230000000694 effects Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明属于面部识别领域,具体涉及一种活体的面部动态识别方法、系统、存储介质,旨在解决面部识别方法无法判断视频流中面部识别对象是否为活体的问题,本发明方法包括:从所采集的图像中提取面部所在区域,生成面部图像;提取面部特征标记,选择具有惟一性的特征作为固定量,将面部图像归一化到正面;将归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像;获取面部表情变化后的面部图像,提取局部的多个关键点,判断多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出匹配度最高的图像对应的信息。本发明通过面部识别、面部表情变化后的局部动作特征值比对,实现目标活性的动态检测。
Description
技术领域
本发明属于面部识别领域,具体涉及一种活体的面部动态识别方法、系统、存储介质。
背景技术
随着科技的快速发展以及社会信息化水平的不断提高,信息的安全性越来越重要。为了确保人们的信息安全,各种各样的身份识别技术应运而生。传统的个人身份识别方法有ID卡或密码等,会有泄露、盗窃和伪造的风险,安全程度不是很高。近年来,研究者们提出了一种利用人体的生理特征来识别用户身份的生物识别技术,以降低传统身份识别方法的风险。目前已经被广泛应用的生物识别技术有虹膜识别,指纹识别,掌纹识别,面部识别等。相对于其他的生物特征识别技术,面部识别是一种更直接、更方便、更友好、更容易被人们接受的识别方法,它具有主动性、非侵犯性和用户友好等许多优点,是一种很理想的身份验证手段,多年来一直受到许多研究者的关注。
面部识别方法总体分为传统的基于人工特征的模板匹配方法和基于数据驱动的端到端训练学习的方法。基于人工特征的模板匹配方法提前通过采集图像信息制作出一个原始的标准人脸模板,然后在检测人脸的时候,系统会将待检测人脸的相关数值进行匹配,可以轻易完成一定量的面部识别。基于数据驱动的端到端训练学习的方法通过多层、大型的神经网络自动学习到数据中的特征。两种方法各有其优势,但二者有一个共同的缺陷,即不能判断检测到的人脸是真实的人还是照片。面部识别方法如今已经在很多场景使用,比如移动支付,智能安防等,如果无法区分真人和照片的区别,将是十分危险的。
发明内容
为了解决现有技术中的上述问题,即为了解决现有面部识别方法无法判断视频流中面部识别对象是否为活体的问题,本发明的一方面,提出了一种活体的面部动态识别方法,用于视频流中面部对象的识别,包括以下步骤:
步骤S101,从所采集的图像中提取面部所在区域,生成面部图像;
步骤S102,提取所述面部图像的特征标记,选择具有惟一性的特征标记作为固定量,将其归一化到正面,并对归一化后的图像进行特征提取和字典建立;
步骤S103,将所述归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像;
步骤S104,获取面部表情变化后的面部图像,提取局部的多个关键点,判断所述多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出步骤S103中获取的匹配度最高的图像对应的信息。
在一些优选实施例中,步骤S104中“多个关键点之间的关系”为基于预设公式计算的第一特征值;所述预设判定规则为通过统计获取的对应面部图像中对应关键点计算得到的参考范围;所述对应面部图像为步骤S103中所述匹配度最高的图像对应面部表情变化后的面部图像。
在一些优选实施例中,步骤S104中“面部表情变化后的面部图像”为眨眼时闭眼状态的面部图像;
所述多个关键点包括位于一侧眼角的第一关健点p1、位于另一侧眼角的第四关健点p4、位于上眼皮下缘的第二关键点p2和第三关健点p3、位于下眼皮上缘的第五关键点p5和第六关健点p6。
在一些优选实施例中,计算第一特征值的预设公式为:
其中,EAR为第一特征值
在一些优选实施例中,所述预设判定规则为第一特征值EAR∈(0,0.1)。
在一些优选实施例中,步骤S101“从所采集的图像中提取面部所在区域,生成面部图像”,其方法为:
步骤S1011,基于面部区域识别模型,采用变长滑动窗口的方法从所采集的图像中提取面部所在区域;
步骤S1012,通过预设的分类器筛选所提取的面部所在区域,获得面部图像。
在一些优选实施例中,所述面部区域识别模型基于多层前馈的卷积神经网络构建;所述分类器基于深度神经网络构建。
本发明的另一方面,提出了一种活体的面部动态识别系统,包括面部检测模块、特征提取模块、面部对比模块、动态特征识别模块;
所述面部检测模块,配置为从所采集的图像中提取面部所在区域,生成面部图像;
所述特征提取模块,配置为提取所述面部图像的特征标记,选择具有惟一性的特征标记作为固定量,将其归一化到正面,并对归一化后的图像进行特征提取和字典建立;
所述面部对比模块,配置为将所述归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像;
所述动态特征识别模块,配置为获取面部表情变化后的面部图像,提取局部的多个关键点,判断所述多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出面部对比模块中获取的匹配度最高的图像对应的信息。
本发明的第三方面,提出了一种活体的面部动态识别系统,包括摄像装置、处理器、存储设备;处理器,适于执行各条程序;存储设备,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的活体的面部动态识别方法。
本发明的第四方面,提出了一种存储介质,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的活体的面部动态识别方法。
本发明的有益效果:
本发明通过视频流中的面部识别、面部表情变化后的局部动作特征值比对,实现了目标活性的动态检测。本发明通过多层前馈的卷积神经网络构建的面部区域识别模型进行面部区域的识别,并将识别后的面部区域通过基于深度神经网络构建的分类器进行分类,生成面部图像。基于生成的面部图像,提取面部标记并进行特征匹配,得到了匹配度最高的面部图像,提高了面部识别的精度。
将匹配度最高的面部图像作为待识别的面部图像,通过分析面部识别的对象的脸部表情变化后检测到的多个关键点之间的关系是否满足预设判定规则来判断是否是活体,实现了对目标活性的动态检测。同时,本发明算法简单、需要运行资源较少,适用于嵌入式系统中使用,具有较高的检测准确度和鲁棒性。
附图说明
图1是本发明一种实施例的活体的面部动态识别方法的流程示意图;
图2是本发明一种实施例的活体的面部动态识别系统的框架示意图;
图3是本发明一种实施例的基于变长滑动窗口方法获取面部区域的示意图;
图4是本发明一种实施例的基于人脸区域分类器进行分类的示意图;
图5是本发明一种实施例的人脸特征点的示意图;
图6是本发明一种实施例的面部图像归一化到正面的前后对照的示意图;
图7是本发明一种实施例的眼部动作变化对应特征值变化的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明的一种活体的面部动态识别方法,用于视频流中面部对象的识别,如图1所示,包括以下步骤:
步骤S101,从所采集的图像中提取面部所在区域,生成面部图像;
步骤S102,提取所述面部图像的特征标记,选择具有惟一性的特征标记作为固定量,将其归一化到正面,并对归一化后的图像进行特征提取和字典建立;
步骤S103,将所述归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像;
步骤S104,获取面部表情变化后的面部图像,提取局部的多个关键点,判断所述多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出步骤S103中获取的匹配度最高的图像对应的信息。
为了更清晰的对本发明活体的面部动态识别方法进行说明,下面结合附图对本发明方法一种实施例中各步骤进行展开详述。
本发明通过视频流中的面部识别、面部表情变化后的局部动作特征值的比对,进行面部对象识别和活体识别,面部识别的对象优选为人类,但也可以应用于动物的面部识别,为了更清晰的描述本发明技术方案,下述实施例中以人脸作为识别对象进行描述。
步骤S101,从所采集的图像中提取面部所在区域,生成面部图像。
本实施例中,主要通过面部区域识别模型和预设的分类器生成面部图像。具体步骤如下:
步骤S1011,基于面部区域识别模型,采用变长滑动窗口的方法从所采集的图像中提取面部所在区域;
基于面部区域识别模型,采用变长滑动窗口的方法从所采集的图像中提取面部所在区域,即依次获取指定滑动窗大小的局部区域图像,如图3所示,使用不同大小的滑动窗口来截取图像,归一化到统一大小之后输入到多层前馈的卷积神经网络,选择最好的窗口,即为最佳的面部所在区域。其中,图3中的NMS为非极大抑制,Global表示全局。
面部区域识别模型基于多层前馈的卷积神经网络构建。多层前馈的卷积神经网络的损失函数用来衡量此神经网络模型对数据的结构化表示程度,包括神经网络模型对面部区域的提取准确性等。多层前馈的卷积神经网络的每一层都被参数化为一些向量或者矩阵,每一层之后会使用一个非线性的激活函数,从而对每一层的输出进行非线性化。
步骤S1012,通过预设的分类器筛选所提取的面部所在区域,获得面部图像。
分类器基于深度神经网络构建,其网络结构如图4所示,包括输入层、卷积层、最大池化层、全连接层、输出层。输入层由一个3通道的12x12的图片构成;卷积层包含16个3x3卷积核,用于对输入图片进行特征抽取,卷积核的步长为1;最大池化层包括一个3x3的核,步长为2,用于降采样。
步骤S102,提取所述面部图像的特征标记,选择具有惟一性的特征标记作为固定量,将其归一化到正面,并对归一化后的图像进行特征提取和字典建立。
本实施例中所提取的面部特征标记为67个,如图5所示,其中数字为提取到的面部标记。优选具有惟一性的特征为眼角特征或鼻尖特征,如图中的实点表示的特征,也可以选择其他特征。
本实施例中将面部图像归一化到正面,是通过校正算法对输入的面部图像进行校正的,校正样例如图6所示。校正算法通过确定人的两个眼睛的位置以及鼻子的位置,计算旋转到正面的角度,将图像旋转对应角度,即可得到校正后的图像。
步骤S103,将所述归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像。
本实施例将归一化后的图像和数据库中已有图像进行特征匹配后,根据匹配的特征计算分值,得出可能的备选项,将分值最高的项作为匹配度最高的图像。
步骤S104,获取面部表情变化后的面部图像,提取局部的多个关键点,判断所述多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出步骤S103中获取的匹配度最高的图像对应的信息。
本实施例中,“多个关键点之间的关系”为基于预设公式计算的第一特征值,所述预设判定规则为通过统计获取的对应面部图像中对应关键点计算得到的参考范围;所述对应面部图像为步骤S103中所述匹配度最高的图像对应面部表情变化后的面部图像。
以人脸为例,如图7所示,“面部表情变化后的面部图像”采用眨眼时闭眼状态的面部图像;多个关键点包括位于一侧眼角的第一关健点p1、位于另一侧眼角的第四关健点p4、位于上眼皮下缘的第二关键点p2和第三关健点p3、位于下眼皮上缘的第五关键点p5和第六关健点p6。
计算第一特征值EAR,如公式(1)所示。
预先基于公式(1)测算出该面部对象眨眼时第一特征值EAR的数值,通过统计学的方法得到该数值对应范围小于0.1,因此可以设定预设判定规则为第一特征值EAR∈(0,0.1)。基于所测算的范围,只要计算的第一特征值EAR落入这个范围则判断当前面部对象为活体。
本实施例中“面部表情变化后的面部图像”采用眨眼时闭眼状态的面部图像,当然也可以采用其他局部动作进行判断,例如嘴部。
本发明第二实施例的一种活体的面部动态识别系统,如图2所示,包括面部检测模块100、特征提取模块200、面部对比模块300、动态特征识别模块400;
所述面部检测模块100,配置为从所采集的图像中提取面部所在区域,生成面部图像。
所述特征提取模块200,配置为提取所述面部图像的特征标记,选择具有惟一性的特征标记作为固定量,将其归一化到正面,并对归一化后的图像进行特征提取和字典建立。
所述面部对比模块300,配置为将所述归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像。
所述动态特征识别模块400,配置为获取面部表情变化后的面部图像,提取局部的多个关键点,判断所述多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出面部对比模块300中获取的匹配度最高的图像对应的信息。
所述技术领域的技术人员可以清楚的了解到,为描述的方便和简洁,上述描述的系统的具体的工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
面部检测模块、特征提取模块、面部对比模块的技术实现在现有技术中已经比较成熟,可以采用前述方法实施例中的对应过程,也可以采用其他现有技术来实现,在此不再赘述。
需要说明的是,上述实施例提供的活体的面部动态识别系统,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的活体的面部动态识别系统,包括摄像装置、处理器、存储设备;处理器,适于执行各条程序;存储设备,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的活体的面部动态识别方法。本实施例中,还包括用于存储人脸图像样本、特征值字典的数据库。
本发明第四实施例的一种存储介质,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的活体的面部动态识别方法。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的程序的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、单元及方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (5)
1.一种活体的面部动态识别方法,用于视频流中面部对象的识别,其特征在于,包括以下步骤:
步骤S101,从所采集的图像中提取面部所在区域,生成面部图像:
步骤S1011,基于面部区域识别模型,采用变长滑动窗口的方法从所采集的图像中提取面部所在区域;
步骤S1012,通过预设的分类器筛选所提取的面部所在区域,获得面部图像;
所述面部区域识别模型基于多层前馈的卷积神经网络构建,所述多层前馈的卷积神经网络的每一层都被参数化为向量或者矩阵,每一层之后会使用一个非线性的激活函数,从而对每一层的输出进行非线性化;所述分类器基于深度神经网络构建,包括依次连接的输入层、卷积层、最大池化层、全连接层、输出层;所述输入层由一个3通道的12x12的图片构成;卷积层包含16个3x3卷积核,用于对输入图片进行特征抽取,卷积核的步长为1;最大池化层包括一个3x3的核,步长为2,用于降采样;
步骤S102,提取所述面部图像的特征标记,选择具有惟一性的特征标记作为固定量,将其归一化到正面,并对归一化后的图像进行特征提取和字典建立;
步骤S103,将所述归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像;
步骤S104,获取面部表情变化后的面部图像,提取局部的多个关键点,判断所述多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出步骤S103中获取的匹配度最高的图像对应的信息;
其中,多个关键点之间的关系为基于预设公式计算的第一特征值;所述预设判定规则为通过统计获取的对应面部图像中对应关键点计算得到的参考范围;所述对应面部图像为所述匹配度最高的图像对应面部表情变化后的面部图像;面部表情变化后的面部图像为眨眼时闭眼状态的面部图像;所述多个关键点包括位于一侧眼角的第一关健点p1、位于另一侧眼角的第四关健点p4、位于上眼皮下缘的第二关键点p2和第三关健点p3、位于下眼皮上缘的第五关键点p5和第六关健点p6;
计算第一特征值的预设公式为:
其中,EAR为第一特征值。
2.根据权利要求1所述的活体的面部动态识别方法,其特征在于,所述预设判定规则为第一特征值EAR∈(0,0.1)。
3.一种活体的面部动态识别系统,其特征在于,该系统包括面部检测模块、特征提取模块、面部对比模块、动态特征识别模块;
所述面部检测模块,配置为从所采集的图像中提取面部所在区域,生成面部图像:
基于面部区域识别模型,采用变长滑动窗口的方法从所采集的图像中提取面部所在区域;
通过预设的分类器筛选所提取的面部所在区域,获得面部图像;
所述面部区域识别模型基于多层前馈的卷积神经网络构建,所述多层前馈的卷积神经网络的每一层都被参数化为向量或者矩阵,每一层之后会使用一个非线性的激活函数,从而对每一层的输出进行非线性化;所述分类器基于深度神经网络构建,包括依次连接的输入层、卷积层、最大池化层、全连接层、输出层;所述输入层由一个3通道的12x12的图片构成;卷积层包含16个3x3卷积核,用于对输入图片进行特征抽取,卷积核的步长为1;最大池化层包括一个3x3的核,步长为2,用于降采样;
所述特征提取模块,配置为提取所述面部图像的特征标记,选择具有惟一性的特征标记作为固定量,将其归一化到正面,并对归一化后的图像进行特征提取和字典建立;
所述面部对比模块,配置为将所述归一化后的图像和数据库中已有图像进行特征匹配,选择出匹配度最高的图像;
所述动态特征识别模块,配置为获取面部表情变化后的面部图像,提取局部的多个关键点,判断所述多个关键点之间的关系是否满足预设判定规则,如满足则判断视频流中面部对象为活体,并输出面部对比模块中获取的匹配度最高的图像对应的信息;
其中,多个关键点之间的关系为基于预设公式计算的第一特征值;所述预设判定规则为通过统计获取的对应面部图像中对应关键点计算得到的参考范围;所述对应面部图像为所述匹配度最高的图像对应面部表情变化后的面部图像;面部表情变化后的面部图像为眨眼时闭眼状态的面部图像;所述多个关键点包括位于一侧眼角的第一关健点p1、位于另一侧眼角的第四关健点p4、位于上眼皮下缘的第二关键点p2和第三关健点p3、位于下眼皮上缘的第五关键点p5和第六关健点p6;
计算第一特征值的预设公式为:
其中,EAR为第一特征值。
4.一种活体的面部动态识别系统,包括摄像装置、处理器、存储设备;处理器,适于执行各条程序;存储设备,适于存储多条程序;其特征在于,所述程序适于由处理器加载并执行以实现权利要求1-2任一项所述的活体的面部动态识别方法。
5.一种存储介质,其中存储有多条程序,其特征在于,所述程序适于由处理器加载并执行以实现权利要求1-2任一项所述的活体的面部动态识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911314457.9A CN111062333B (zh) | 2019-12-19 | 2019-12-19 | 活体的面部动态识别方法、系统、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911314457.9A CN111062333B (zh) | 2019-12-19 | 2019-12-19 | 活体的面部动态识别方法、系统、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111062333A CN111062333A (zh) | 2020-04-24 |
CN111062333B true CN111062333B (zh) | 2024-01-05 |
Family
ID=70301159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911314457.9A Active CN111062333B (zh) | 2019-12-19 | 2019-12-19 | 活体的面部动态识别方法、系统、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062333B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104142978A (zh) * | 2014-07-14 | 2014-11-12 | 重庆邮电大学 | 一种基于多特征和稀疏表示的图像检索系统及方法 |
CN109886244A (zh) * | 2019-03-01 | 2019-06-14 | 北京视甄智能科技有限公司 | 一种人脸识别活体检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633207B (zh) * | 2017-08-17 | 2018-10-12 | 平安科技(深圳)有限公司 | Au特征识别方法、装置及存储介质 |
-
2019
- 2019-12-19 CN CN201911314457.9A patent/CN111062333B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104142978A (zh) * | 2014-07-14 | 2014-11-12 | 重庆邮电大学 | 一种基于多特征和稀疏表示的图像检索系统及方法 |
CN109886244A (zh) * | 2019-03-01 | 2019-06-14 | 北京视甄智能科技有限公司 | 一种人脸识别活体检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111062333A (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2976049C (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
CN110326001B (zh) | 使用利用移动设备捕捉的图像执行基于指纹的用户认证的系统和方法 | |
US20190095701A1 (en) | Living-body detection method, device and storage medium | |
EP2677490B1 (en) | Authentication device, authentication program, and authentication method | |
CN106372611A (zh) | 基于手掌静脉特征的身份识别方法、系统及图像采集装置 | |
Saini et al. | Don’t just sign use brain too: A novel multimodal approach for user identification and verification | |
CN110119672A (zh) | 一种嵌入式疲劳状态检测系统及方法 | |
Das et al. | A new efficient and adaptive sclera recognition system | |
CN109670406B (zh) | 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法 | |
CN111222380B (zh) | 一种活体检测方法、装置、及其识别模型训练方法 | |
CN111178130A (zh) | 一种基于深度学习的人脸识别方法、系统和可读存储介质 | |
CN110929570B (zh) | 虹膜快速定位装置及其定位方法 | |
CN108875497A (zh) | 活体检测的方法、装置及计算机存储介质 | |
Lau et al. | Fuzzy logic decision fusion in a multimodal biometric system. | |
Kintonova et al. | Improvement of iris recognition technology for biometric identification of a person | |
Mehboob et al. | Dehff–a hybrid approach based on distinctively encoded fingerprint features for live fingerprint detection | |
CN111723762B (zh) | 人脸属性识别方法、装置、电子设备及存储介质 | |
Bhattacharya et al. | A portable biometrics system based on forehead subcutaneous vein pattern and periocular biometric pattern | |
CN111062333B (zh) | 活体的面部动态识别方法、系统、存储介质 | |
Amjed et al. | Noncircular iris segmentation based on weighted adaptive hough transform using smartphone database | |
Mohammad | Multi-Modal Ocular Recognition in Presence of Occlusion in Mobile Devices | |
KR101750107B1 (ko) | 사상 체질 판별을 위한 얼굴 영상 분석 방법 | |
US11842573B1 (en) | Methods and systems for enhancing liveness detection of image data | |
Sallam et al. | Iris recognition system using deep learning techniques | |
Devi et al. | Deep Learning for Iris Recognition: An Integration of Feature Extraction and Clustering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20231025 Address after: Room 633, Room 501, 5th Floor, Building 4, Yard 1, Yuxi 1st Street, Tongzhou District, Beijing, 101199 Applicant after: Beijing Haiguo Huachuangyun Technology Co.,Ltd. Address before: Room 819, No. 2-3 Zidong Road, Maqun Street, Qixia District, Nanjing City, Jiangsu Province, 210049 Applicant before: Kwakrypton thinking (Nanjing) Intelligent Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |