CN110348385B - 活体人脸识别方法和装置 - Google Patents

活体人脸识别方法和装置 Download PDF

Info

Publication number
CN110348385B
CN110348385B CN201910629026.5A CN201910629026A CN110348385B CN 110348385 B CN110348385 B CN 110348385B CN 201910629026 A CN201910629026 A CN 201910629026A CN 110348385 B CN110348385 B CN 110348385B
Authority
CN
China
Prior art keywords
living
face
combination
living body
heart rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910629026.5A
Other languages
English (en)
Other versions
CN110348385A (zh
Inventor
沈会良
黄成�
翁彦
韩万庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xiaoyang Software Co ltd
Original Assignee
Shenzhen Xiaoyang Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xiaoyang Software Co ltd filed Critical Shenzhen Xiaoyang Software Co ltd
Priority to CN201910629026.5A priority Critical patent/CN110348385B/zh
Publication of CN110348385A publication Critical patent/CN110348385A/zh
Application granted granted Critical
Publication of CN110348385B publication Critical patent/CN110348385B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种活体人脸识别方法和装置,属于人脸识别领域。所述方法包括:检测到视频中的待测人脸,选取N个监测点;对每个监测点,连续测量M帧的RBG中的G值,每帧内监测点的G值与其相邻多点的G值取平均后形成该监测点在该帧的颜色值,最终得到颜色值G[M][N];采用CNN学习得到模型,将G[M][N]输入模型得到第一判定结果;利用快速傅里叶变换或小波变换对G[M][N]进行运算基于血谱频率得到第二判定结果;判定结果组合后根据对应的识别概率或对应的心率确定是否为活体人脸。所述装置包括:检测模块、测量模块、第一判定模块、第二判定模块和识别模块。本发明能够提高活体人脸的识别率。

Description

活体人脸识别方法和装置
技术领域
本发明涉及人脸识别领域,特别涉及一种活体人脸识别方法和装置。
背景技术
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,通常也叫做人像识别、面部识别。
目前,常见的活体人脸识别普遍采用人脸的动作识别来确认是否为真实的人脸,例如,要求被检测者做指定动作,眨眼,旋转脑袋等等,如果能够按照要求正确执行指定动作,则确认为真实的人脸。但是,这种检测技术存在一个弊端,就是执行指定动作也是可以作假的,检测的结果会出现误判,即将一个非活体人脸识别为真实的活体人脸,从而导致识别率降低。
发明内容
本发明提供了一种活体人脸识别方法和装置,以解决上述技术问题。所述技术方案如下:
一方面,本发明提供了一种活体人脸识别方法,所述方法包括:
检测到视频中的待测人脸,在所述人脸的不同部位上选取N个监测点;
对于选取的每一个监测点,连续测量所述视频内M帧的RBG中的G值,将每帧内所述监测点的G值与其相邻多个点的G值取平均后形成所述监测点在该帧的颜色值,最终得到所述M帧内所述N个监测点的颜色值G[M][N];
采用卷积神经网络(Convolutional Neural Networks,CNN)进行人脸识别学习得到模型,将所述颜色值G[M][N]输入所述模型识别所述人脸是活体还是非活体,得到第一判定结果;
利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到所述人脸的血谱频率,与预设阈值比较后确定所述人脸是活体还是非活体,得到第二判定结果;
将所述第一判定结果与第二判定结果进行组合,查找预设的组合与识别概率的对应关系,找到所述组合对应的识别概率确定是否为活体人脸;或者,查找预设的组合与心率的对应关系,找到所述组合对应的心率确定是否为活体人脸。
可选地,所述采用卷积神经网络CNN进行人脸识别学习得到模型,将所述颜色值G[M][N]输入所述模型识别所述人脸是活体还是非活体,得到第一判定结果,包括:
采用卷积神经网络CNN学习指定个数以上的人脸监测点数据与真实人脸的对应关系,得到模型,并采用多个真实人脸数据测试后调整所述模型;
将所述颜色值G[M][N]输入调整后的所述模型得到一个向量的相似度,如果所述相似度大于指定的相似度阈值,则得到第一判定结果为活体人脸,如果所述相似度小于等于所述相似度阈值,则得到第一判定结果为非活体人脸。
可选地,所述利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到所述人脸的血谱频率,与预设阈值比较后确定所述人脸是活体还是非活体,得到第二判定结果,包括:
利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到每个监测点的波形频率级数,在每个频率级数中取最小频率得到N个频率;去掉所述N个频率中的最大值和最小值后取平均,得到所述人脸的血谱频率;
如果所述血谱频率小于第一阈值,则得到第二判定结果为活体人脸;如果所述血谱频率大于等于所述第一阈值且小于第二阈值,则得到第二判定结果为待定;如果所述血谱频率大于等于所述第二阈值,则得到第二判定结果为非活体人脸。
可选地,所述查找预设的组合与识别概率的对应关系,找到所述组合对应的识别概率确定是否为活体人脸,包括:
查找预设的组合与识别概率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的识别概率大于指定识别概率,确定所述人脸为活体人脸;如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的识别概率小于等于所述指定识别概率,确定所述人脸为非活体人脸。
可选地,所述查找预设的组合与心率的对应关系,找到所述组合对应的心率确定是否为活体人脸,包括:
查找预设的组合与心率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的心率为所述血谱频率,确定所述人脸为活体人脸;如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的心率未检测到,确定所述人脸为非活体人脸。
另一方面,本发明提供了一种活体人脸识别装置,所述装置包括:
检测模块,其配置成检测到视频中的待测人脸,在所述人脸的不同部位上选取N个监测点;
测量模块,其配置成对于选取的每一个监测点,连续测量所述视频内M帧的RBG中的G值,将每帧内所述监测点的G值与其相邻多个点的G值取平均后形成所述监测点在该帧的颜色值,最终得到所述M帧内所述N个监测点的颜色值G[M][N];
第一判定模块,其配置成采用卷积神经网络CNN进行人脸识别学习得到模型,将所述颜色值G[M][N]输入所述模型识别所述人脸是活体还是非活体,得到第一判定结果;
第二判定模块,其配置成利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到所述人脸的血谱频率,与预设阈值比较后确定所述人脸是活体还是非活体,得到第二判定结果;
识别模块,其配置成将所述第一判定结果与第二判定结果进行组合,查找预设的组合与识别概率的对应关系,找到所述组合对应的识别概率确定是否为活体人脸;或者,查找预设的组合与心率的对应关系,找到所述组合对应的心率确定是否为活体人脸。
可选地,所述第一判定模块具体配置成:
采用卷积神经网络CNN学习指定个数以上的人脸监测点数据与真实人脸的对应关系,得到模型,并采用多个真实人脸数据测试后调整所述模型;
将所述颜色值G[M][N]输入调整后的所述模型得到一个向量的相似度,如果所述相似度大于指定的相似度阈值,则得到第一判定结果为活体人脸,如果所述相似度小于等于所述相似度阈值,则得到第一判定结果为非活体人脸。
可选地,所述第二判定模块具体配置成:
利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到每个监测点的波形频率级数,在每个频率级数中取最小频率得到N个频率;去掉所述N个频率中的最大值和最小值后取平均,得到所述人脸的血谱频率;
如果所述血谱频率小于第一阈值,则得到第二判定结果为活体人脸;如果所述血谱频率大于等于所述第一阈值且小于第二阈值,则得到第二判定结果为待定;如果所述血谱频率大于等于所述第二阈值,则得到第二判定结果为非活体人脸。
可选地,所述识别模块具体配置成:
查找预设的组合与识别概率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的识别概率大于指定识别概率,确定所述人脸为活体人脸;如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的识别概率小于等于所述指定识别概率,确定所述人脸为非活体人脸。
可选地,所述识别模块具体配置成:
查找预设的组合与心率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的心率为所述血谱频率,确定所述人脸为活体人脸;如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的心率未检测到,确定所述人脸为非活体人脸。
另一方面,本发明还提供了一种计算设备,包括存储器、处理器和存储在所述存储器内并能由所述处理器运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如上所述的方法。
另一方面,本发明还提供了一种计算机可读存储介质,优选为非易失性可读存储介质,其内存储有计算机程序,所述计算机程序在由处理器执行时实现如上所述的方法。
另一方面,本发明还提供了一种计算机程序产品,包括计算机可读代码,当所述计算机可读代码由计算机设备执行时,导致所述计算机设备执行如上所述的方法。
本发明提供的技术方案带来的有益效果是:基于多个监测点的RBG中的G值进行测量,结合CNN深度学习及血谱频率对视频中的人脸进行识别,以确定是否为活体人脸,能够提高活体人脸的识别率,避免误判,克服了通过指定动作来识别人脸的技术缺陷。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的活体人脸识别方法流程图;
图2是本发明另一实施例提供的活体人脸识别方法流程图;
图3是本发明另一实施例提供的活体人脸识别装置结构图;
图4是本发明另一个实施例的计算设备结构图;
图5是本发明另一个实施例的计算机可读存储介质结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
参见图1,本发明一实施例提供了一种活体人脸识别方法,包括:
101:检测到视频中的待测人脸,在该人脸的不同部位上选取N个监测点;
102:对于选取的每一个监测点,连续测量该视频内M帧的RBG(Red Blue Green颜色值)中的G(Green)值,将每帧内该监测点的G值与其相邻多个点的G值取平均后形成该监测点在该帧的颜色值,最终得到该M帧内该N个监测点的颜色值G[M][N];
103:采用卷积神经网络CNN进行人脸识别学习得到模型,将该颜色值G[M][N]输入该模型识别该人脸是活体还是非活体,得到第一判定结果;
本实施例中,活体是指真实的人脸,非活体是指静态的人脸图片等。
104:利用快速傅里叶变换或小波变换对该颜色值G[M][N]进行运算,得到该人脸的血谱频率,与预设阈值比较后确定该人脸是活体还是非活体,得到第二判定结果;
105:将该第一判定结果与第二判定结果进行组合,查找预设的组合与识别概率的对应关系,找到该组合对应的识别概率确定是否为活体人脸;或者,查找预设的组合与心率的对应关系,找到该组合对应的心率确定是否为活体人脸。
本实施例中,可选的,上述采用卷积神经网络CNN进行人脸识别学习得到模型,将该颜色值G[M][N]输入该模型识别该人脸是活体还是非活体,得到第一判定结果,包括:
采用卷积神经网络CNN学习指定个数以上的人脸监测点数据与真实人脸的对应关系,得到模型,并采用多个真实人脸数据测试后调整该模型;
将该颜色值G[M][N]输入调整后的该模型得到一个向量的相似度,如果该相似度大于指定的相似度阈值,则得到第一判定结果为活体人脸,如果该相似度小于等于该相似度阈值,则得到第一判定结果为非活体人脸。
本实施例中,可选的,上述利用快速傅里叶变换或小波变换对该颜色值G[M][N]进行运算,得到该人脸的血谱频率,与预设阈值比较后确定该人脸是活体还是非活体,得到第二判定结果,包括:
利用快速傅里叶变换或小波变换对该颜色值G[M][N]进行运算,得到每个监测点的波形频率级数,在每个频率级数中取最小频率得到N个频率;去掉该N个频率中的最大值和最小值后取平均,得到该人脸的血谱频率;
如果该血谱频率小于第一阈值,则得到第二判定结果为活体人脸;如果该血谱频率大于等于该第一阈值且小于第二阈值,则得到第二判定结果为待定;如果该血谱频率大于等于该第二阈值,则得到第二判定结果为非活体人脸。
本实施例中,可选的,上述查找预设的组合与识别概率的对应关系,找到该组合对应的识别概率确定是否为活体人脸,包括:
查找预设的组合与识别概率的对应关系,如果该组合为活体与活体、活体与待定中的任一个,则对应的识别概率大于指定识别概率,确定该人脸为活体人脸;如果该组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的识别概率小于等于该指定识别概率,确定该人脸为非活体人脸。
本实施例中,可选的,上述查找预设的组合与心率的对应关系,找到该组合对应的心率确定是否为活体人脸,包括:
查找预设的组合与心率的对应关系,如果该组合为活体与活体、活体与待定中的任一个,则对应的心率为该血谱频率,确定该人脸为活体人脸;如果该组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的心率未检测到,确定该人脸为非活体人脸。
本实施例提供的上述方法,基于多个监测点的RBG中的G值进行测量,结合CNN深度学习及血谱频率对视频中的人脸进行识别,以确定是否为活体人脸,能够提高活体人脸的识别率,避免误判,克服了通过指定动作来识别人脸的技术缺陷。
参见图2,本发明另一实施例提供了一种活体人脸识别方法,包括:
201:检测到视频中的待测人脸,在该人脸的不同部位上选取N个监测点;
本实施例中,可选的,选取的监测点包含但不限于以下的一种或多种:额头中、额头左、额头右、左眼睛,右眼睛、人中、左脸颊、右脸颊、鼻头、下巴、嘴角等等。监测点的数量根据人脸识别的精度要求而确定,数量越多,精度越高,本实施例对此不做具体限定。例如,选取不少于10个监测点。
202:对于选取的每一个监测点,连续测量该视频内M帧的RBG中的G值,将每帧内该监测点的G值与其相邻多个点的G值取平均后形成该监测点在该帧的颜色值,最终得到该M帧内该N个监测点的颜色值G[M][N],然后执行203或205;
本实施例中,可选的,上述M帧可以根据需要指定,如指定200个连续的帧,或者指定5秒钟,每秒内包括30个帧,共计得到150个帧,取10个监测点的情况下,可以测量得到颜色值G[150][10]等等,本实施例对此不做具体限定。
其中,每个监测点的相邻多个点,可以根据需要选取,如选取上下左右四个相邻点,或者选取上下左右以及左上角、右上角、左下角和右下角共8个相邻点,本实施例对此不做具体限定。
203:采用卷积神经网络CNN学习指定个数以上的人脸监测点数据与真实人脸的对应关系,得到模型,并采用多个真实人脸数据测试后调整该模型;
其中,上述指定个数可以根据需要设定,如1000个以上的人脸监测点。用于测试的真实人脸数目也可以根据需要设定,如测试200个以上的真实人脸数据。
204:将该颜色值G[M][N]输入调整后的该模型得到一个向量的相似度,如果该相似度大于指定的相似度阈值,则得到第一判定结果为活体人脸,如果该相似度小于等于该相似度阈值,则得到第一判定结果为非活体人脸,然后执行207;
205:利用快速傅里叶变换或小波变换对该颜色值G[M][N]进行运算,得到每个监测点的波形频率级数,在每个频率级数中取最小频率得到N个频率;去掉该N个频率中的最大值和最小值后取平均,得到该人脸的血谱频率;
206:如果该血谱频率小于第一阈值,则得到第二判定结果为活体人脸;如果该血谱频率大于等于该第一阈值且小于第二阈值,则得到第二判定结果为待定;如果该血谱频率大于等于该第二阈值,则得到第二判定结果为非活体人脸;
207:将第一判定结果与第二判定结果进行组合,然后执行208或209;
208:查找预设的组合与识别概率的对应关系,如果该组合为活体与活体、活体与待定中的任一个,则对应的识别概率大于指定识别概率,确定该人脸为活体人脸;如果该组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的识别概率小于等于该指定识别概率,确定该人脸为非活体人脸,流程结束;
其中,指定识别概率可以根据需要设定,如50%或者60%等等,本实施例对此不做具体限定。
其中,预设的组合与识别概率的对应关系可以具体如下:活体与活体=>活体概率90%;活体与待定=>活体概率80%;活体与非活体=>活体概率50%;非活体与活体=>活体概率50%;非活体与待定=>活体概率40%;非活体与非活体=>活体概率10%,本实施例对此不做具体限定。
209:查找预设的组合与心率的对应关系,如果该组合为活体与活体、活体与待定中的任一个,则对应的心率为该血谱频率,确定该人脸为活体人脸;如果该组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的心率未检测到,确定该人脸为非活体人脸,流程结束。
本实施例提供的上述方法,基于多个监测点的RBG中的G值进行测量,结合CNN深度学习及血谱频率对视频中的人脸进行识别,以确定是否为活体人脸,能够提高活体人脸的识别率,避免误判,克服了通过指定动作来识别人脸的技术缺陷。
参见图3,本发明另一实施例还提供了一种活体人脸识别装置,包括:
检测模块301,其配置成检测到视频中的待测人脸,在该人脸的不同部位上选取N个监测点;
测量模块302,其配置成对于选取的每一个监测点,连续测量该视频内M帧的RBG中的G值,将每帧内该监测点的G值与其相邻多个点的G值取平均后形成该监测点在该帧的颜色值,最终得到该M帧内该N个监测点的颜色值G[M][N];
第一判定模块303,其配置成采用卷积神经网络CNN进行人脸识别学习得到模型,将该颜色值G[M][N]输入该模型识别该人脸是活体还是非活体,得到第一判定结果;
第二判定模块304,其配置成利用快速傅里叶变换或小波变换对该颜色值G[M][N]进行运算,得到该人脸的血谱频率,与预设阈值比较后确定该人脸是活体还是非活体,得到第二判定结果;
识别模块305,其配置成将该第一判定结果与第二判定结果进行组合,查找预设的组合与识别概率的对应关系,找到该组合对应的识别概率确定是否为活体人脸;或者,查找预设的组合与心率的对应关系,找到该组合对应的心率确定是否为活体人脸。
本实施例中,可选的,上述第一判定模块具体配置成:
采用卷积神经网络CNN学习指定个数以上的人脸监测点数据与真实人脸的对应关系,得到模型,并采用多个真实人脸数据测试后调整该模型;
将该颜色值G[M][N]输入调整后的该模型得到一个向量的相似度,如果该相似度大于指定的相似度阈值,则得到第一判定结果为活体人脸,如果该相似度小于等于该相似度阈值,则得到第一判定结果为非活体人脸。
本实施例中,可选的,上述第二判定模块具体配置成:
利用快速傅里叶变换或小波变换对该颜色值G[M][N]进行运算,得到每个监测点的波形频率级数,在每个频率级数中取最小频率得到N个频率;去掉该N个频率中的最大值和最小值后取平均,得到该人脸的血谱频率;
如果该血谱频率小于第一阈值,则得到第二判定结果为活体人脸;如果该血谱频率大于等于该第一阈值且小于第二阈值,则得到第二判定结果为待定;如果该血谱频率大于等于该第二阈值,则得到第二判定结果为非活体人脸。
本实施例中,可选的,上述识别模块具体配置成:
查找预设的组合与识别概率的对应关系,如果该组合为活体与活体、活体与待定中的任一个,则对应的识别概率大于指定识别概率,确定该人脸为活体人脸;如果该组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的识别概率小于等于该指定识别概率,确定该人脸为非活体人脸。
本实施例中,可选的,上述识别模块具体配置成:
查找预设的组合与心率的对应关系,如果该组合为活体与活体、活体与待定中的任一个,则对应的心率为该血谱频率,确定该人脸为活体人脸;如果该组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的心率未检测到,确定该人脸为非活体人脸。
本实施例提供的上述装置可以执行上述任一方法实施例中提供的方法,详细过程见方法实施例中的描述,此处不赘述。
本实施例提供的上述装置,基于多个监测点的RBG中的G值进行测量,结合CNN深度学习及血谱频率对视频中的人脸进行识别,以确定是否为活体人脸,能够提高活体人脸的识别率,避免误判,克服了通过指定动作来识别人脸的技术缺陷。
根据下文结合附图对本申请的具体实施例的详细描述,本领域技术人员将会更加明了本申请的上述以及其他目的、优点和特征。
本申请实施例还提供了一种计算设备,参照图4,该计算设备包括存储器1120、处理器1110和存储在所述存储器1120内并能由所述处理器1110运行的计算机程序,该计算机程序存储于存储器1120中的用于程序代码的空间1130,该计算机程序在由处理器1110执行时实现用于执行任一项根据本发明的方法步骤1131。
本申请实施例还提供了一种计算机可读存储介质。参照图5,该计算机可读存储介质包括用于程序代码的存储单元,该存储单元设置有用于执行根据本发明的方法步骤的程序1131′,该程序被处理器执行。
本申请实施例还提供了一种包含指令的计算机程序产品。当该计算机程序产品在计算机上运行时,使得计算机执行根据本发明的方法步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、获取其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令处理器完成,所述的程序可以存储于计算机可读存储介质中,所述存储介质是非短暂性(英文:non-transitory)介质,例如随机存取存储器,只读存储器,快闪存储器,硬盘,固态硬盘,磁带(英文:magnetic tape),软盘(英文:floppy disk),光盘(英文:optical disc)及其任意组合。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (6)

1.一种活体人脸识别方法,其特征在于,所述方法包括:
检测到视频中的待测人脸,在所述人脸的不同部位上选取N个监测点;
对于选取的每一个监测点,连续测量所述视频内M帧的RBG中的G值,将每帧内所述监测点的G值与其相邻多个点的G值取平均后形成所述监测点在该帧的颜色值,最终得到所述M帧内所述N个监测点的颜色值G[M][N];
采用卷积神经网络CNN进行人脸识别学习得到模型,将所述颜色值G[M][N]输入所述模型识别所述人脸是活体还是非活体,得到第一判定结果;
利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到所述人脸的血谱频率,与预设阈值比较后确定所述人脸是活体还是非活体,得到第二判定结果;
将所述第一判定结果与第二判定结果进行组合,查找预设的组合与识别概率的对应关系,找到所述组合对应的识别概率确定是否为活体人脸;或者,查找预设的组合与心率的对应关系,找到所述组合对应的心率确定是否为活体人脸;
所述采用卷积神经网络CNN进行人脸识别学习得到模型,将所述颜色值G[M][N]输入所述模型识别所述人脸是活体还是非活体,得到第一判定结果,包括:
采用卷积神经网络CNN学习指定个数以上的人脸监测点数据与真实人脸的对应关系,得到模型,并采用多个真实人脸数据测试后调整所述模型;
将所述颜色值G[M][N]输入调整后的所述模型得到一个向量的相似度,如果所述相似度大于指定的相似度阈值,则得到第一判定结果为活体人脸,如果所述相似度小于等于所述相似度阈值,则得到第一判定结果为非活体人脸;
所述利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到所述人脸的血谱频率,与预设阈值比较后确定所述人脸是活体还是非活体,得到第二判定结果,包括:
利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到每个监测点的波形频率级数,在每个频率级数中取最小频率得到N个频率;去掉所述N个频率中的最大值和最小值后取平均,得到所述人脸的血谱频率;
如果所述血谱频率小于第一阈值,则得到第二判定结果为活体人脸;如果所述血谱频率大于等于所述第一阈值且小于第二阈值,则得到第二判定结果为待定;如果所述血谱频率大于等于所述第二阈值,则得到第二判定结果为非活体人脸。
2.根据权利要求1所述的方法,其特征在于,所述查找预设的组合与识别概率的对应关系,找到所述组合对应的识别概率确定是否为活体人脸,包括:
查找预设的组合与识别概率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的识别概率大于指定识别概率,确定所述人脸为活体人脸;如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的识别概率小于等于所述指定识别概率,确定所述人脸为非活体人脸。
3.根据权利要求1所述的方法,其特征在于,所述查找预设的组合与心率的对应关系,找到所述组合对应的心率确定是否为活体人脸,包括:
查找预设的组合与心率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的心率为所述血谱频率,确定所述人脸为活体人脸;如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的心率未检测到,确定所述人脸为非活体人脸。
4.一种活体人脸识别装置,其特征在于,所述装置包括:
检测模块,其配置成检测到视频中的待测人脸,在所述人脸的不同部位上选取N个监测点;
测量模块,其配置成对于选取的每一个监测点,连续测量所述视频内M帧的RBG中的G值,将每帧内所述监测点的G值与其相邻多个点的G值取平均后形成所述监测点在该帧的颜色值,最终得到所述M帧内所述N个监测点的颜色值G[M][N];
第一判定模块,其配置成采用卷积神经网络CNN进行人脸识别学习得到模型,将所述颜色值G[M][N]输入所述模型识别所述人脸是活体还是非活体,得到第一判定结果;
第二判定模块,其配置成利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到所述人脸的血谱频率,与预设阈值比较后确定所述人脸是活体还是非活体,得到第二判定结果;
识别模块,其配置成将所述第一判定结果与第二判定结果进行组合,查找预设的组合与识别概率的对应关系,找到所述组合对应的识别概率确定是否为活体人脸;或者,查找预设的组合与心率的对应关系,找到所述组合对应的心率确定是否为活体人脸;
所述第一判定模块具体配置成:
采用卷积神经网络CNN学习指定个数以上的人脸监测点数据与真实人脸的对应关系,得到模型,并采用多个真实人脸数据测试后调整所述模型;
将所述颜色值G[M][N]输入调整后的所述模型得到一个向量的相似度,如果所述相似度大于指定的相似度阈值,则得到第一判定结果为活体人脸,如果所述相似度小于等于所述相似度阈值,则得到第一判定结果为非活体人脸;
所述第二判定模块具体配置成:
利用快速傅里叶变换或小波变换对所述颜色值G[M][N]进行运算,得到每个监测点的波形频率级数,在每个频率级数中取最小频率得到N个频率;去掉所述N个频率中的最大值和最小值后取平均,得到所述人脸的血谱频率;
如果所述血谱频率小于第一阈值,则得到第二判定结果为活体人脸;如果所述血谱频率大于等于所述第一阈值且小于第二阈值,则得到第二判定结果为待定;如果所述血谱频率大于等于所述第二阈值,则得到第二判定结果为非活体人脸。
5.根据权利要求4所述的装置,其特征在于,所述识别模块具体配置成:
查找预设的组合与识别概率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的识别概率大于指定识别概率,确定所述人脸为活体人脸;如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的识别概率小于等于所述指定识别概率,确定所述人脸为非活体人脸。
6.根据权利要求4所述的装置,其特征在于,所述识别模块具体配置成:
查找预设的组合与心率的对应关系,如果所述组合为活体与活体、活体与待定中的任一个,则对应的心率为所述血谱频率,确定所述人脸为活体人脸;
如果所述组合为活体与非活体、非活体与待定、非活体与非活体中的任一个,则对应的心率未检测到,确定所述人脸为非活体人脸。
CN201910629026.5A 2019-07-12 2019-07-12 活体人脸识别方法和装置 Active CN110348385B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910629026.5A CN110348385B (zh) 2019-07-12 2019-07-12 活体人脸识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910629026.5A CN110348385B (zh) 2019-07-12 2019-07-12 活体人脸识别方法和装置

Publications (2)

Publication Number Publication Date
CN110348385A CN110348385A (zh) 2019-10-18
CN110348385B true CN110348385B (zh) 2023-07-07

Family

ID=68176020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910629026.5A Active CN110348385B (zh) 2019-07-12 2019-07-12 活体人脸识别方法和装置

Country Status (1)

Country Link
CN (1) CN110348385B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI743593B (zh) * 2019-11-18 2021-10-21 緯創資通股份有限公司 活體臉部辨識系統與方法
CN111428577B (zh) * 2020-03-03 2022-05-03 电子科技大学 一种基于深度学习与视频放大技术的人脸活体判断方法
CN115424335B (zh) * 2022-11-03 2023-08-04 智慧眼科技股份有限公司 活体识别模型训练方法、活体识别方法及相关设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845395A (zh) * 2017-01-19 2017-06-13 北京飞搜科技有限公司 一种基于人脸识别进行活体检测的方法
CN107358157A (zh) * 2017-06-07 2017-11-17 阿里巴巴集团控股有限公司 一种人脸活体检测方法、装置以及电子设备
WO2018002275A1 (en) * 2016-06-30 2018-01-04 Koninklijke Philips N.V. Method and apparatus for face detection/recognition systems
CN108509857A (zh) * 2018-03-06 2018-09-07 达闼科技(北京)有限公司 人脸活体检测方法、电子设备和计算机程序产品
CN108549884A (zh) * 2018-06-15 2018-09-18 天地融科技股份有限公司 一种活体检测方法及装置
CN109190522A (zh) * 2018-08-17 2019-01-11 浙江捷尚视觉科技股份有限公司 一种基于红外相机的活体检测方法
CN109480808A (zh) * 2018-09-27 2019-03-19 深圳市君利信达科技有限公司 一种基于ppg的心率检测方法、系统、设备和存储介质
CN109549624A (zh) * 2018-11-04 2019-04-02 南京云思创智信息科技有限公司 一种基于深度学习的实时视频情感分析方法及系统
CN109670430A (zh) * 2018-12-11 2019-04-23 浙江大学 一种基于深度学习的多分类器融合的人脸活体识别方法
CN109784148A (zh) * 2018-12-06 2019-05-21 北京飞搜科技有限公司 活体检测方法及装置
CN109977867A (zh) * 2019-03-26 2019-07-05 厦门瑞为信息技术有限公司 一种基于机器学习多特征融合的红外活体检测方法
CN109993068A (zh) * 2019-03-11 2019-07-09 华南理工大学 一种基于心率和面部特征的非接触式的人类情感识别方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018002275A1 (en) * 2016-06-30 2018-01-04 Koninklijke Philips N.V. Method and apparatus for face detection/recognition systems
CN106845395A (zh) * 2017-01-19 2017-06-13 北京飞搜科技有限公司 一种基于人脸识别进行活体检测的方法
CN107358157A (zh) * 2017-06-07 2017-11-17 阿里巴巴集团控股有限公司 一种人脸活体检测方法、装置以及电子设备
CN108509857A (zh) * 2018-03-06 2018-09-07 达闼科技(北京)有限公司 人脸活体检测方法、电子设备和计算机程序产品
CN108549884A (zh) * 2018-06-15 2018-09-18 天地融科技股份有限公司 一种活体检测方法及装置
CN109190522A (zh) * 2018-08-17 2019-01-11 浙江捷尚视觉科技股份有限公司 一种基于红外相机的活体检测方法
CN109480808A (zh) * 2018-09-27 2019-03-19 深圳市君利信达科技有限公司 一种基于ppg的心率检测方法、系统、设备和存储介质
CN109549624A (zh) * 2018-11-04 2019-04-02 南京云思创智信息科技有限公司 一种基于深度学习的实时视频情感分析方法及系统
CN109784148A (zh) * 2018-12-06 2019-05-21 北京飞搜科技有限公司 活体检测方法及装置
CN109670430A (zh) * 2018-12-11 2019-04-23 浙江大学 一种基于深度学习的多分类器融合的人脸活体识别方法
CN109993068A (zh) * 2019-03-11 2019-07-09 华南理工大学 一种基于心率和面部特征的非接触式的人类情感识别方法
CN109977867A (zh) * 2019-03-26 2019-07-05 厦门瑞为信息技术有限公司 一种基于机器学习多特征融合的红外活体检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
人脸识别系统中的活体检测技术的研究;李冰;《万方数据》;20180929;全文 *
基于LabVIEW的人脸视频实时心率测量系统;汪赘等;《图像·编码与软件》;20170731;全文 *

Also Published As

Publication number Publication date
CN110348385A (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
JP6863408B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020151489A1 (zh) 基于面部识别的活体检测的方法、电子设备和存储介质
KR102641115B1 (ko) 객체 검출을 위한 영상 처리 방법 및 장치
US10740912B2 (en) Detection of humans in images using depth information
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
CN110348385B (zh) 活体人脸识别方法和装置
CN106557723B (zh) 一种带交互式活体检测的人脸身份认证系统及其方法
CN104123543B (zh) 一种基于人脸识别的眼球运动识别方法
CN107633237B (zh) 图像背景分割方法、装置、设备及介质
JP2020184331A (ja) ライブネス検査方法及び装置、顔認証方法及び装置
CN111444555B (zh) 一种测温信息显示方法、装置及终端设备
Cheong et al. A novel face detection algorithm using thermal imaging
JPWO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
CN111415339A (zh) 一种复杂纹理工业产品图像缺陷检测方法
Heusch et al. Remote blood pulse analysis for face presentation attack detection
CN112883762A (zh) 一种活体检测方法、装置、系统及存储介质
CN111222374A (zh) 测谎数据处理方法、装置、计算机设备和存储介质
Panetta et al. LQM: Localized quality measure for fingerprint image enhancement
CN116091963B (zh) 临床试验机构质量评估方法、装置、电子设备及存储介质
CN111767829B (zh) 一种活体检测方法、装置、系统及存储介质
CN110738149A (zh) 目标跟踪方法、终端及存储介质
CN114445898B (zh) 人脸活体检测方法、装置、设备、存储介质及程序产品
JP6495153B2 (ja) 同一性判定システム及び同一性判定方法
CN113554685A (zh) 遥感卫星运动目标检测方法、装置、电子设备及存储介质
JP2018033103A (ja) フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230609

Address after: Building 201, Phase 1, Tian'an Yungu Industrial Park, Gangtou Community, Bantian Street, Longgang District, Shenzhen City, Guangdong Province, 518129

Applicant after: Shenzhen Xiaoyang Software Co.,Ltd.

Address before: Room 1110, North Building, Industrial Research Institute, No. 1699, Zu Chongzhi Road, Kunshan City, Suzhou City, Jiangsu Province 215300

Applicant before: Suzhou Xiaoyang Software Technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant