CN107832714B - 活体鉴别方法、装置及存储设备 - Google Patents

活体鉴别方法、装置及存储设备 Download PDF

Info

Publication number
CN107832714B
CN107832714B CN201711120710.8A CN201711120710A CN107832714B CN 107832714 B CN107832714 B CN 107832714B CN 201711120710 A CN201711120710 A CN 201711120710A CN 107832714 B CN107832714 B CN 107832714B
Authority
CN
China
Prior art keywords
time section
identification object
mouth shape
image
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711120710.8A
Other languages
English (en)
Other versions
CN107832714A (zh
Inventor
倪辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201711120710.8A priority Critical patent/CN107832714B/zh
Publication of CN107832714A publication Critical patent/CN107832714A/zh
Application granted granted Critical
Publication of CN107832714B publication Critical patent/CN107832714B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明实施例提供了一种活体鉴别方法、装置及存储设备,其中,活体鉴别方法包括:提示鉴别对象对着屏幕吹气;采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型;根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体。本发明实施例能够提高活体鉴别的准确率。

Description

活体鉴别方法、装置及存储设备
技术领域
本发明实施例涉及生物特征识别领域,具体涉及一种活体鉴别方法、装置及存储设备。
背景技术
在生物特征识别系统中,为防止恶意者伪造和窃取他人的生物特征用于身份认证,生物特征识别系统需具有活体鉴别功能,即判断提交的生物特征是否来自有生命的个体。现有的活体鉴别方法,例如唇动检测、眨眼检测等,容易被视频播放攻击,导致鉴别的准确率不高。
发明内容
有鉴于此,本发明实施例提供了一种活体鉴别方法、装置及存储设备,能够提高活体鉴别的准确率。
本发明实施例提供的活体鉴别方法包括:
提示鉴别对象对着屏幕吹气;
采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;
采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型;
根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体。
本发明实施例提供的活体鉴别装置,包括:
提示单元,用于提示鉴别对象对着屏幕吹气;
第一识别单元,用于采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;
第二识别单元,用于采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型;
确定单元,用于根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体。
本发明实施例还提供了一种存储设备,所述存储设备用于储存多条指令,所述指令适于由处理器加载并执行如本发明实施例提供的活体鉴别方法。
本发明实施例中,通过提示鉴别对象吹气进行活体鉴别,同时利用所述鉴别对象的嘴型与对应时间区段(包括吹气时间区段和非吹气时间区段)的匹配度,确定所述鉴别对象是否为活体。如果鉴别对象为活体,则在吹气时间区段,鉴别对象将根据提示作出吹气的动作,对应地,鉴别对象的嘴型,将是与吹气时间区段匹配的吹气嘴型;在非吹气时间区段,鉴别对象不会作出吹气的动作,对应地,鉴别对象的嘴型,将是与非吹气时间区段匹配的不吹气嘴型。即如果鉴别对象为活体,鉴别对象的嘴型与对应时间区段的匹配度会比较高;而如果采用视频播放攻击,是无法做到鉴别对象的嘴型与对应时间区段高度匹配的。因此,本发明实施例提供的活体鉴别方法,可以有效地抵御视频播放攻击,提高活体鉴别的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例所提供的活体鉴别方法的一个应用场景示意图;
图2是本发明实施例所提供的活体鉴别方法的一个流程示意图;
图3a是本发明实施例所提供的活体鉴别方法的另一流程示意图;
图3b是本发明一实施例的声音波形示意图;
图3c本发发明一实施例的嘴型示意图;
图4是本发明实施例所提供的活体鉴别装置的一个结构示意图;
图5是本发明实施例所提供的活体鉴别装置的另一结构示意图;
图6是本发明实施例所提供的活体鉴别装置的另一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
由于现有的活体鉴别方法,无法抵御视频播放攻击,因而本发明实施例提供了一种活体鉴别方法、装置及存储设备,能够抵御视频播放攻击,提高活体鉴别的准确率。本发明实施例的活体鉴别方法可实施在活体鉴别装置中,活体鉴别装置具体可以集成在终端或其他可以进行音、视频处理的设备中。例如,以该活体鉴别装置集成在终端中为例,参见图1,终端可以提示鉴别对象对着屏幕吹气,具体的提示方法包括但不限于语音、文字、图片、视频提示等,然后采集鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型,所述嘴型包括吹气嘴型或不吹气嘴型;根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体。例如,当所述鉴别对象的嘴型与对应时间区段的匹配度大于某个阈值时,确定所述鉴别对象是否为活体。
以下将分别进行详细说明,以下各个实施例的描述先后顺序并不构成对具体实施先后顺序的限定。
如图2所示,本实施例的活体鉴别方法包括以下步骤:
步骤201、提示鉴别对象对着屏幕吹气;
具体的,例如,可以在需要对鉴别对象进行身份认证时,提示鉴别对象对着终端的屏幕吹气,提示方法包括但不限于语音提示、在屏幕上显示文字提示、在屏幕上显示图片提示、在屏幕上播放视频提示等。
步骤202、采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;
具体地,可以利用设备的麦克风采集鉴别对象的声音波形数据,识别时间区段的方法可如下:
先对采集的声音波形数据取绝对值,然后做高斯滤波平滑处理,以减小数据抖动,取声音波形数据的绝对值大于预设声波阈值的时间区段,作为吹气时间区段,取声音波形数据的绝对值小于或等于预设声波阈值的时间区段,作为非吹气时间区段。预设声波阈值可以是所采集的声音波形数据的绝对值中,最大值与最小值的平均值,当然预设声波阈值还可以根据实际情况自定义取值。
识别出的吹气时间区段可以有一个或多个,识别出的非吹气时间区段也可以有一个或多个,识别出的吹气时间区段与非吹气时间区段的数量可据具体的提示情况而定,即可以提示鉴别对象对着屏幕进行一次吹气,也可以提示鉴别对象对着屏幕进行多次吹气,此处不做具体限定。
步骤203、采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型;
具体地,可以利用设备的摄像头采集鉴别对象的视频数据。鉴别对象的声音波形数据和视频数据可以同步采集。例如。在提示鉴别对象对着屏幕吹气之后,可以同时开始采集鉴别对象的声音波形数据和视频数据,以使声音波形数据及视频数据在时间上,保持同步。
采集到鉴别对象的视频数据之后,可以结合步骤S202中识别到的时间区段,在所述吹气时间区段(可以是任意的一个或多个吹气时间区段),从所述视频数据中截取预设数量的包含所述鉴别对象的第一图像,在所述非吹气时间区段(可以是任意的一个或多个非吹气时间区段),从所述视频数据中截取预设数量的包含所述鉴别对象的第二图像。例如,从同一时刻开始,采集了10秒的声音波形数据和10秒的视频数据,根据声音波形数据识别出4~7秒的时间区段为吹气时间区段,其他为非吹气时间区段,则可以从4~7秒的视频数据中,截取N张包含鉴别对象的第一图像,从4~7秒以外的视频数据中,截取N张包含鉴别对象的第二图像,N为正整数。需要说明的是,本实施例的第一图像与第二图像,均为鉴别对象的图像,第一、第二仅为了区分不同时间区段采集的图像。
根据截取的图像可以识别出所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
根据截取的图像识别所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型的方法,具体可如下:
采用人脸检测法在截取的每帧图像中检测人脸区域。其中,人脸检测法是指采用一定的策略扫描确定所给定的图像中是否含有人脸,在确定含有人脸后,能够确定人脸在图像中的位置、大小、姿态等,人脸检测法可以包括但不限于基于主成分分析(PrincipalComponent Analysis,PCA)法、基于弹性模型的方法等,针对从视频中截取的每一帧图像,采用人脸检测法,可以准确地检测出人脸区域。
采用人脸配准法从检测到的人脸区域中定位嘴部区域。其中,人脸配准法是指采用一定的算法依据人脸的位置、大小、姿态清晰分辨出人脸的眼、鼻、嘴部等轮廓,人脸配准法可以包括但不限于lasso整脸回归配准算法、小波域算法等,针对每一帧图像中的人脸区域,采用人脸配准法可以准确定位嘴部区域。
根据定位从每帧图像中剪裁出嘴部区域图。具体地,根据定位,可以从每帧图像中剪裁出一幅嘴部区域图,例如,可以根据定位,从每帧第一图像中,剪裁出一幅嘴部区域图,根据定位,还可以从每帧第二图像中,剪裁出一幅嘴部区域图。
对每幅嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
具体地,对每幅嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型的方法,可如下:
计算每幅嘴部区域图的纹理特征,所述纹理特征包括局部二值模式LBP特征和/或梯度方向直方图HOG特征。LBP特征,可有效描述和度量图像局部的纹理信息,具备旋转不变性和灰度不变性等显著的优点,在本步骤中,可以采用LBP算法来计算每幅嘴部区域图的LBP特征。HOG特征,是一种在图像处理中,用于进行物体检测的特征描述子,在本步骤中,也可以采用HOG算法来计算每幅嘴部区域图的HOG特征。当然,所述纹理特征还可以包括诸如尺度不变特征变换SIFT特征等其他特征,因此,在本步骤中,还可以采用其他算法来计算每幅嘴部区域图的纹理特征。
采用预设分类算法对每幅嘴部区域图的纹理特征进行分类,得到嘴型识别结果,所述嘴型识别结果包括吹气嘴型或不吹气嘴型。所述预设分类算法可包括但不限于:贝叶斯算法、逻辑回归算法、支持向量机(Support Vector Machine,SVM)算法等。以SVM算法为例,可以将每幅嘴部区域图的纹理特征作为输入参数代入SVM算法分类器中,则SVM算法分类器可以输出分类结果,分类结果即吹气嘴型或不吹气嘴型。
步骤204、根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体。
具体确定方法可如下:
在所述预设数量的第一图像中,统计嘴部区域图的纹理特征被识别为吹气嘴型的图像所占的比值,记为第一比值;即统计吹气时间区段,吹气嘴型所占比例;
在所述预设数量的第二图像中,统计嘴部区域图的纹理特征被识别为不吹气嘴型的图像所占的比值,记为第二比值;即统计非吹气时间区段,不吹气嘴型所占比例;
取所述第一比值与第二比值的平均值,记为匹配度值;
判断所述匹配度值是否大于预设匹配度阈值,预设匹配度阈值小于等于1,具体取值可视实际需求自定义,例如预设匹配度阈值可以取0.9、0.95等;
若大于,则确定所述鉴别对象为活体,若不大于,则确定所述鉴别对象不是活体。
本实施例中,通过提示鉴别对象吹气进行活体鉴别,同时利用所述鉴别对象的嘴型与对应时间区段(包括吹气时间区段和非吹气时间区段)的匹配度,确定所述鉴别对象是否为活体。如果鉴别对象为活体,则在吹气时间区段,鉴别对象将根据提示作出吹气的动作,对应地,鉴别对象的嘴型,将是与吹气时间区段匹配的吹气嘴型;在非吹气时间区段,鉴别对象不会作出吹气的动作,对应地,鉴别对象的嘴型,将是与非吹气时间区段匹配的非吹气嘴型,即如果鉴别对象为活体,鉴别对象的嘴型与对应时间区段的匹配度会比较高。而如果采用视频播放攻击,是无法做到鉴别对象的嘴型与对应时间区段高度匹配的。因此,本实施例提供的活体鉴别方法,可以有效地抵御视频播放攻击,提高活体鉴别的准确率。
上述实施例描述的方法,本实施例将做进一步的详细说明,如图3a所示,本实施例的活体鉴别方法包括如下步骤:
步骤301、提示鉴别对象对着屏幕吹气;
具体的提示方法包括但不限于语音提示、在屏幕上显示文字提示、在屏幕上显示图片提示、在屏幕上播放视频提示等。
步骤302、采集鉴别对象的声音波形数据,并同步采集鉴别对象的视频数据;
具体地,可以利用设备的麦克风采集鉴别对象的声音波形数据,所采集的声音波形数据可如图3b所示,利用设备的摄像头采集鉴别对象的视频数据,可以同时开始采集鉴别对象的声音波形数据和视频数据,以使二者在采集时间上,保持同步。
步骤303、根据所述声音波形数据识别吹气时间区段和非吹气时间区段
具体地,可以先对采集的声音波形数据取绝对值,然后做高斯滤波平滑处理,以减小数据抖动,取声音波形数据的绝对值大于预设声波阈值的时间区段,作为吹气时间区段,取声音波形数据的绝对值小于或等于预设声波阈值的时间区段,作为非吹气时间区段。预设声波阈值可以是所采集的声音波形数据的绝对值中,最大值与最小值的平均值,当然预设声波阈值还可以根据实际情况自定义取值。
识别出的吹气时间区段可以有一个或多个,识别出的非吹气时间区段也可以有一个或多个,识别出的吹气时间区段与非吹气时间区段的数量可据具体的提示情况而定,即可以提示鉴别对象对着屏幕进行一次吹气,也可以提示鉴别对象对着屏幕进行多次吹气,此处不做具体限定。
步骤304、在吹气时间区段,从所述视频数据中截取预设数量的包含鉴别对象的第一图像,在非吹气时间区段,从所述视频数据中截取预设数量的包含鉴别对象的第二图像;
可以从任意的一个或多个吹气时间区段,截取预设数量的包含鉴别对象的第一图像;也可以从任意的一个或多个非吹气时间区段,截取预设数量的包含鉴别对象的第二图像。需要说明的是,本实施例的第一图像与第二图像,均为鉴别对象的图像,第一、第二仅为了区分不同时间区段采集的图像。
步骤305、从每帧图像中剪裁出嘴部区域图;
在剪裁之前,可以先对每帧图像进行人脸检测、人脸配准等处理,即在步骤305之前,还可以包括以下步骤:
采用人脸检测法在截取的每帧图像中检测人脸区域。其中,人脸检测法是指采用一定的策略扫描确定所给定的图像中是否含有人脸,在确定含有人脸后,能够确定人脸在图像中的位置、大小、姿态等,人脸检测法可以包括但不限于基于主成分分析(PrincipalComponent Analysis,PCA)法、基于弹性模型的方法等,针对从视频中截取的每一帧图像,采用人脸检测法,可以准确地检测出人脸区域。
采用人脸配准法从检测到的人脸区域中定位嘴部区域。其中,人脸配准法是指采用一定的算法依据人脸的位置、大小、姿态清晰分辨出人脸的眼、鼻、嘴部等轮廓,人脸配准法可以包括但不限于lasso整脸回归配准算法、小波域算法等,针对每一帧图像中的人脸区域,采用人脸配准法可以准确定位嘴部区域。
在剪裁时,可以根据定位从每帧图像中剪裁出嘴部区域图。具体地,根据定位,可以从每帧图像中剪裁出一幅嘴部区域图,例如,可以根据定位,从每帧第一图像中,剪裁出一幅嘴部区域图,根据定位,还可以从每帧第二图像中,剪裁出一幅嘴部区域图。
步骤306、采用预设分类算法对每幅嘴部区域图的纹理特征进行分类,得到嘴型识别结果,所述嘴型识别结果包括吹气嘴型或非吹气嘴型;
在执行步骤306之前,可以先计算每幅嘴部区域图的纹理特征,所述纹理特征包括局部二值模式LBP特征和/或梯度方向直方图HOG特征。LBP特征,可有效描述和度量图像局部的纹理信息,具备旋转不变性和灰度不变性等显著的优点,在本步骤中,可以采用LBP算法来计算每幅嘴部区域图的LBP特征。HOG特征,是一种在图像处理中,用于进行物体检测的特征描述子,在本步骤中,也可以采用HOG算法来计算每幅嘴部区域图的HOG特征。当然,所述纹理特征还可以包括诸如尺度不变特征变换SIFT特征等其他特征,因此,在本步骤中,还可以采用其他算法来计算每幅嘴部区域图的纹理特征。
计算出每幅嘴部区域图的纹理特征之后,可以采用预设分类算法对每帧嘴部区域图的纹理特征进行分类,得到嘴型识别结果,所述嘴型识别结果包括吹气嘴型或不吹气嘴型,所述吹气嘴型和不吹气嘴型可如图3c所示。所述预设分类算法可包括但不限于:贝叶斯算法、逻辑回归算法、支持向量机(Support Vector Machine,SVM)算法等。以SVM算法为例,可以将每帧嘴部区域图的纹理特征作为输入参数代入SVM算法分类器中,则SVM算法分类器可以输出分类结果,分类结果即吹气嘴型或不吹气嘴型。
步骤307、在预设数量的第一图像中,统计嘴部区域图的纹理特征被识别为吹气嘴型的图像所占的比值,记为第一比值;
即统计吹气时间区段,吹气嘴型所占比例。
步骤308、在所述预设数量的第二图像中,统计嘴部区域图的纹理特征被识别为非吹气嘴型的图像所占的比值,记为第二比值;
即统计非吹气时间区段,不吹气嘴型所占比例。
步骤309、取所述第一比值与第二比值的平均值,记为匹配度值;
步骤310、当匹配度值大于预设匹配度阈值时,确定所述鉴别对象为活体。
预设匹配度阈值小于等于1,具体取值可视实际需求自定义,例如预设匹配度阈值可以取0.9、0.95等。若匹配度值大于预设匹配度阈值时,则确定所述鉴别对象为活体,否则,确定所述鉴别对象不是活体。
本实施例中,通过提示鉴别对象吹气进行活体鉴别,同时利用所述鉴别对象的嘴型与对应时间区段(包括吹气时间区段和非吹气时间区段)的匹配度,确定所述鉴别对象是否为活体。如果鉴别对象为活体,则在吹气时间区段,鉴别对象将根据提示作出吹气的动作,对应地,鉴别对象的嘴型,将是与吹气时间区段匹配的吹气嘴型;在非吹气时间区段,鉴别对象不会作出吹气的动作,对应地,鉴别对象的嘴型,将是与非吹气时间区段匹配的非吹气嘴型,即如果鉴别对象为活体,鉴别对象的嘴型与对应时间区段的匹配度会比较高。而如果采用视频播放攻击,是无法做到鉴别对象的嘴型与对应时间区段高度匹配的。因此,本实施例提供的活体鉴别方法,可以有效地抵御视频播放攻击,提高活体鉴别的准确率。
为了更好地实施以上方法,本发明还提供了一种活体鉴别装置,如图4所示,本实施例的装置包括:提示单元401、第一识别单元402、第二识别单元403以及确定单元404,如下:
(1)提示单元401;
提示单元401,用于提示鉴别对象对着屏幕吹气。
具体实现中,例如,可以在需要对鉴别对象进行身份认证时,提示单元401提示鉴别对象对着终端的屏幕吹气,提示单元401可以采用语音提示、在屏幕上显示文字提示、在屏幕上显示图片提示、在屏幕上播放视频提示等提示方式进行提示。
(2)第一识别单元402;
第一识别单元402,用于采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段。
在一个具体的实施例中,如图5所示,所述第一识别单元402可以包括第一采集子单元4021、计算子单元4022以及获取子单元4023,如下:
第一采集子单元4021,可以利用设备的麦克风采集鉴别对象的声音波形数据;
计算子单元4022,可以对第一采集子单元采集的声音波形数据取绝对值,然后做高斯滤波平滑处理,以减小数据抖动;
获取子单元4023,用于取声音波形数据的绝对值大于预设声波阈值的时间区段,作为吹气时间区段,取声音波形数据的绝对值小于或等于预设声波阈值的时间区段,作为非吹气时间区段。预设声波阈值可以是所采集的声音波形数据的绝对值中,最大值与最小值的平均值,当然预设声波阈值还可以根据实际情况自定义取值。
第一识别单元402识别出的吹气时间区段可以有一个或多个,识别出的非吹气时间区段也可以有一个或多个,识别出的吹气时间区段以及非吹气时间区段的数量据提示单元401的具体提示情况而定,即提示单元401可以提示鉴别对象对着屏幕进行一次吹气,也可以提示鉴别对象对着屏幕进行多次吹气,此处不做具体限定。
(3)第二识别单元403;
第二识别单元403,用于采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型。
在一个具体的实施例中,如图5所示,第二识别单元403可以包括第二采集子单元4031、截取子单元4032以及识别子单元4033,如下:
第二采集子单元4031,可以利用设备的摄像头采集鉴别对象的视频数据。鉴别对象的声音波形数据和视频数据可以同步采集。例如。在提示单元401提示鉴别对象对着屏幕吹气之后,第一采集子单元4021和第二采集子单元4031可以同时开始采集鉴别对象的声音波形数据及视频数据,以使声音波形数据及视频数据在时间上,保持同步。
截取子单元4032,用于在第二采集子单元4031采集到鉴别对象的视频数据之后,结合获取子单元4023获取到的时间区段,在所述吹气时间区段(可以是任意的一个或多个吹气时间区段),从所述视频数据中截取预设数量的包含所述鉴别对象的第一图像,在所述非吹气时间区段(可以是任意的一个或多个非吹气时间区段),从所述视频数据中截取预设数量的包含所述鉴别对象的第二图像。例如,同时采集了10秒的声音波形数据和10秒的视频数据,根据声音波形数据识别出4~7秒的时间区段为吹气时间区段,其他为非吹气时间区段,则截取子单元4032可以从4~7秒的视频数据中,截取N张包含鉴别对象的第一图像,从4~7秒以外的视频数据中,截取N张包含鉴别对象的第二图像,N为正整数。需要说明的是,本实施例的第一图像与第二图像,均为鉴别对象的图像,第一、第二仅为了区分不同时间区段采集的图像。
识别子单元4033,用于根据截取的图像可以识别出所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
具体实现中,识别子单元4033又可以包括人脸检测子单元40331、人脸配准子单元40332、剪裁子单元40333及分类子单元40334,如下:
人脸检测子单元40331,用于采用人脸检测法在截取的每帧图像中检测人脸区域。其中,人脸检测法是指采用一定的策略扫描确定所给定的图像中是否含有人脸,在确定含有人脸后,能够确定人脸在图像中的位置、大小、姿态等,人脸检测法可以包括但不限于基于主成分分析(Principal Component Analysis,PCA)法、基于弹性模型的方法等,针对从视频中截取的每一帧图像,采用人脸检测法,可以准确地检测出人脸区域。
人脸配准子单元40332,可以采用人脸配准法从检测到的人脸区域中定位嘴部区域。其中,人脸配准法是指采用一定的算法依据人脸的位置、大小、姿态清晰分辨出人脸的眼、鼻、嘴部等轮廓,人脸配准法可以包括但不限于lasso整脸回归配准算法、小波域算法等,针对每一帧图像中的人脸区域,采用人脸配准法可以准确定位嘴部区域。
剪裁子单元40333,可以根据定位从每帧图像中剪裁出嘴部区域图。根据定位,可以从每帧图像中剪裁出一幅嘴部区域图,例如,可以根据定位,从每帧第一图像中,剪裁出一幅嘴部区域图,根据定位,还可以从每帧第二图像中,剪裁出一幅嘴部区域图。
分类子单元40334,可以对每幅嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
具体地,分类子单元40334可采用如下方法对每幅嘴部区域图的纹理特征进行识别:
计算每幅嘴部区域图的纹理特征,所述纹理特征包括局部二值模式LBP特征和/或梯度方向直方图HOG特征。LBP特征,可有效描述和度量图像局部的纹理信息,具备旋转不变性和灰度不变性等显著的优点,在本步骤中,可以采用LBP算法来计算每幅嘴部区域图的LBP特征。HOG特征,是一种在图像处理中,用于进行物体检测的特征描述子,在本步骤中,也可以采用HOG算法来计算每幅嘴部区域图的HOG特征。当然,所述纹理特征还可以包括诸如尺度不变特征变换SIFT特征等其他特征,因此,在本步骤中,还可以采用其他算法来计算每幅嘴部区域图的纹理特征。
采用预设分类算法对每帧嘴部区域图的纹理特征进行分类,得到嘴型识别结果,所述嘴型识别结果包括吹气嘴型或不吹气嘴型。所述预设分类算法可包括但不限于:贝叶斯算法、逻辑回归算法、支持向量机(Support Vector Machine,SVM)算法等。以SVM算法为例,可以将每帧嘴部区域图的纹理特征作为输入参数代入SVM算法分类器中,则SVM算法分类器可以输出分类结果,分类结果即吹气嘴型或不吹气嘴型。
(4)确定单元404;
确定单元404,用于根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体。
在一个具体的实施例中,如图5所示,所述确定单元404可以包括统计子单元4041、取均值子单元4042、判断子单元4043和确定子单元4044,如下:
统计子单元4041,用于在所述预设数量的第一图像中,统计嘴部区域图的纹理特征被识别为吹气嘴型的图像所占的比值,记为第一比值;即统计吹气时间区段,吹气嘴型所占比例;在所述预设数量的第二图像中,统计嘴部区域图的纹理特征被识别为不吹气嘴型的图像所占的比值,记为第二比值;即统计非吹气时间区段,不吹气嘴型所占比例;
取均值子单元4042,用于取所述第一比值与第二比值的平均值,记为匹配度值;
判断子单元4043,可以判断所述匹配度值是否大于预设匹配度阈值,预设匹配度阈值小于等于1,具体取值可视实际需求自定义,例如预设匹配度阈值可以取0.9、0.95等;
确定子单元4044,用于在所述匹配度值大于预设匹配度阈值时,确定所述鉴别对象为活体,否则,确定所述鉴别对象不是活体。
需要说明的是,上述实施例提供的活体鉴别装置在进行活体鉴别时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的活体鉴别装置与活体鉴别方法属于同一构思,其具体实现过程详见方法实施例,此处不再赘述。
本实施例中,通过提示单元提示鉴别对象吹气进行活体鉴别,同时由确定单元根据所述鉴别对象的嘴型与对应时间区段(包括吹气时间区段和非吹气时间区段)的匹配度,确定所述鉴别对象是否为活体。如果鉴别对象为活体,则在吹气时间区段,鉴别对象将根据提示作出吹气的动作,对应地,鉴别对象的嘴型将是与吹气时间区段匹配的吹气嘴型;在非吹气时间区段,鉴别对象不会作出吹气的动作,对应地,鉴别对象的嘴型将是与非吹气时间区段匹配的非吹气嘴型,即如果鉴别对象为活体,鉴别对象的嘴型与对应时间区段的匹配度会比较高。而如果采用视频播放攻击,是无法做到鉴别对象的嘴型与对应时间区段高度匹配的。因此,本实施例提供的活体鉴别装置,可以有效地抵御视频播放攻击,提高活体鉴别的准确率。
相应的,本发明实施例还提供了一种活体鉴别装置,如图6所示,该装置可以包括射频(RF,Radio Frequency)电路501、包括有一个或一个以上计算机可读存储介质的存储器502、输入单元503、显示单元504、传感器505、音频电路506、无线保真(WiFi,WirelessFidelity)模块507、包括有一个或者一个以上处理核心的处理器508、以及电源509等部件。本领域技术人员可以理解,图6中示出的装置结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路501可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器508处理;另外,将涉及上行的数据发送给基站。通常,RF电路501包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM,Subscriber Identity Module)卡、收发信机、耦合器、低噪声放大器(LNA,Low Noise Amplifier)、双工器等。此外,RF电路501还可以通过无线通信与网络和其他设备通信。所述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GSM,Global System of Mobile communication)、通用分组无线服务(GPRS,GeneralPacket Radio Service)、码分多址(CDMA,Code Division Multiple Access)、宽带码分多址(WCDMA,Wideband Code Division Multiple Access)、长期演进(LTE,Long TermEvolution)、电子邮件、短消息服务(SMS,Short Messaging Service)等。
存储器502可用于存储软件程序以及模块,处理器508通过运行存储在存储器502的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器502可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据装置的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器502可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器502还可以包括存储器控制器,以提供处理器508和输入单元503对存储器502的访问。
输入单元503可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,在一个具体的实施例中,输入单元503可包括触敏表面以及其他输入设备。触敏表面,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面上或在触敏表面附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器508,并能接收处理器508发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面。除了触敏表面,输入单元503还可以包括其他输入设备。具体地,其他输入设备可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元504可用于显示由用户输入的信息或提供给用户的信息以及终端的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元504可包括显示面板,可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-Emitting Diode)等形式来配置显示面板。进一步的,触敏表面可覆盖显示面板,当触敏表面检测到在其上或附近的触摸操作后,传送给处理器508以确定触摸事件的类型,随后处理器508根据触摸事件的类型在显示面板上提供相应的视觉输出。虽然在图6中,触敏表面与显示面板是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面与显示面板集成而实现输入和输出功能。
装置还可包括至少一种传感器505,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板的亮度,接近传感器可在装置移动到耳边时,关闭显示面板和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路506、扬声器,传声器可提供用户与终端之间的音频接口。音频电路506可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路506接收后转换为音频数据,再将音频数据输出处理器508处理后,经RF电路501以发送给比如另一装置,或者将音频数据输出至存储器502以便进一步处理。音频电路506还可能包括耳塞插孔,以提供外设耳机与装置的通信。
WiFi属于短距离无线传输技术,装置通过WiFi模块507可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图6示出了WiFi模块507,但是可以理解的是,其并不属于装置的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器508是装置的控制中心,利用各种接口和线路连接整个装置的各个部分,通过运行或执行存储在存储器502内的软件程序和/或模块,以及调用存储在存储器502内的数据,执行终端的各种功能和处理数据,从而对装置进行整体监控。可选的,处理器508可包括一个或多个处理核心;优选的,处理器508可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器508中。
装置还包括给各个部件供电的电源509(比如电池),优选的,电源可以通过电源管理系统与处理器508逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源509还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,装置还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,装置中的处理器508会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器502中,并由处理器508来运行存储在存储器502中的应用程序,从而实现各种功能:
提示鉴别对象对着屏幕吹气;
采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;
采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型;
根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体。
在一些实施例中,所述声音波形数据与所述视频数据可以同步采集。
在一些实施例中,在采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段时,处理器508用于执行以下步骤:
采集所述鉴别对象的声音波形数据;
对所述声音波形数据取绝对值;
取所述声音波形数据的绝对值大于预设声波阈值的时间区段,作为所述吹气时间区段,取所述声音波形数据的绝对值小于或等于所述预设声波阈值的时间区段,作为所述非吹气时间区段,所述预设声波阈值等于声音波形数据的绝对值中,最大值与最小值的平均值。
在一些实施例中,在采集所述鉴别对象的视频数据,根据所述鉴别对象的视频数据识别所述鉴别对象的嘴型时,处理器508用于执行以下步骤:
采集所述鉴别对象的视频数据;
在所述吹气时间区段,从所述视频数据中截取预设数量的包含所述鉴别对象的第一图像,在所述非吹气时间区段,从所述视频数据中截取预设数量的包含所述鉴别对象的第二图像;
根据截取的图像识别所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
在一些实施例中,在根据截取的图像识别所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型时,处理器508用于执行以下步骤:
采用人脸检测法在截取的每帧图像中检测人脸区域;
采用人脸配准法从检测到的人脸区域中定位嘴部区域;
根据定位从每帧图像中剪裁出嘴部区域图;
对每幅嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
在一些实施例中,在对每帧嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型时,处理器508用于执行以下步骤:
计算每幅嘴部区域图的纹理特征,所述纹理特征包括局部二值模式LBP特征和/或梯度方向直方图HOG特征;
采用预设分类算法对每幅嘴部区域图的纹理特征进行分类,得到嘴型识别结果,所述嘴型识别结果包括吹气嘴型或不吹气嘴型。
在一些实施例中,在根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体时,处理器508用于执行以下步骤:
在所述预设数量的第一图像中,统计嘴部区域图的纹理特征被识别为吹气嘴型的图像所占的比值,记为第一比值;
在所述预设数量的第二图像中,统计嘴部区域图的纹理特征被识别为不吹气嘴型的图像所占的比值,记为第二比值;
取所述第一比值与第二比值的平均值,记为匹配度值;
判断所述匹配度值是否大于预设匹配度阈值;
若大于,则确定所述鉴别对象为活体。
本实施例的活体鉴别装置,通过提示鉴别对象吹气进行活体鉴别,同时利用所述鉴别对象的嘴型与对应时间区段(包括吹气时间区段和非吹气时间区段)的匹配度,确定所述鉴别对象是否为活体。如果鉴别对象为活体,则在吹气时间区段,鉴别对象将根据提示作出吹气的动作,对应地,鉴别对象的嘴型将是与吹气时间区段匹配的吹气嘴型;在非吹气时间区段,鉴别对象不会作出吹气的动作,对应地,鉴别对象的嘴型将是与非吹气时间区段匹配的非吹气嘴型,即如果鉴别对象为活体,鉴别对象的嘴型与对应时间区段的匹配度会比较高。而如果采用视频播放攻击,是无法做到鉴别对象的嘴型与对应时间区段高度匹配的。因此,本实施例提供的活体鉴别装置,可以有效地抵御视频播放攻击,提高活体鉴别的准确率。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,RandomAccess Memory)、磁盘或光盘等。
以上对本发明实施例所提供的一种活体鉴别方法、装置及存储设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (13)

1.一种活体鉴别方法,其特征在于,包括:
提示鉴别对象对着屏幕吹气;
采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;
采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型;
根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体;
所述根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体,包括:
在第一图像中,统计嘴部区域图的纹理特征被识别为吹气嘴型的图像所占的比值,记为第一比值;
在第二图像中,统计嘴部区域图的纹理特征被识别为不吹气嘴型的图像所占的比值,记为第二比值;所述第一图像和所述第二图像均为预设数量的包含所述鉴别对象的图像;
取所述第一比值与所述第二比值的平均值,记为匹配度值;
判断所述匹配度值是否大于预设匹配度阈值;
若大于,则确定所述鉴别对象为活体。
2.根据权利要求1所述的方法,其特征在于,所述声音波形数据与所述视频数据同步采集。
3.根据权利要求2所述的方法,其特征在于,所述采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段,包括:
采集所述鉴别对象的声音波形数据;
对所述声音波形数据取绝对值;
取所述声音波形数据的绝对值大于预设声波阈值的时间区段,作为所述吹气时间区段,取所述声音波形数据的绝对值小于或等于所述预设声波阈值的时间区段,作为所述非吹气时间区段,所述预设声波阈值等于所述声音波形数据的绝对值中,最大值与最小值的平均值。
4.根据权利要求2或3所述的方法,其特征在于,所述采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型,包括:
采集所述鉴别对象的视频数据;
在所述吹气时间区段,从所述视频数据中截取所述第一图像,在所述非吹气时间区段,从所述视频数据中截取所述第二图像;
根据截取的图像识别所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
5.根据权利要求4所述的方法,其特征在于,所述根据截取的图像识别所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型,包括:
采用人脸检测法在截取的每帧图像中检测人脸区域;
采用人脸配准法从检测到的人脸区域中定位嘴部区域;
根据定位从每帧图像中剪裁出嘴部区域图;
对每幅嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
6.根据权利要求5所述的方法,其特征在于,所述对每帧嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型,包括:
计算每幅嘴部区域图的纹理特征,所述纹理特征包括局部二值模式LBP特征和/或梯度方向直方图HOG特征;
采用预设分类算法对每幅嘴部区域图的纹理特征进行分类,得到嘴型识别结果,所述嘴型识别结果包括吹气嘴型或不吹气嘴型。
7.一种活体鉴别装置,其特征在于,包括:
提示单元,用于提示鉴别对象对着屏幕吹气;
第一识别单元,用于采集所述鉴别对象的声音波形数据,根据所述声音波形数据识别吹气时间区段和非吹气时间区段;
第二识别单元,用于采集所述鉴别对象的视频数据,根据所述视频数据识别所述鉴别对象的嘴型;
确定单元,用于根据所述鉴别对象的嘴型与对应时间区段的匹配度,确定所述鉴别对象是否为活体;
所述确定单元包括:
统计子单元,用于在第一图像中,统计嘴部区域图的纹理特征被识别为吹气嘴型的图像所占的比值,记为第一比值;在第二图像中,统计嘴部区域图的纹理特征被识别为不吹气嘴型的图像所占的比值,记为第二比值;所述第一图像和所述第二图像均为预设数量的包含所述鉴别对象的图像;
取均值子单元,用于取所述第一比值与所述第二比值的平均值,记为匹配度值;
判断子单元,用于判断所述匹配度值是否大于预设匹配度阈值;
确定子单元,用于当所述匹配度值大于预设匹配度阈值时,确定所述鉴别对象为活体。
8.根据权利要求7所述的装置,其特征在于,所述第一识别单元采集的声音波形数据与所述第二识别单元采集的视频数据同步。
9.根据权利要求8所述的装置,其特征在于,所述第一识别单元包括:
第一采集子单元,用于采集所述鉴别对象的声音波形数据;
计算子单元,用于对所述声音波形数据取绝对值;
获取子单元,用于取所述声音波形数据的绝对值大于预设声波阈值的时间区段,作为所述吹气时间区段,取所述声音波形数据的绝对值小于或等于所述预设声波阈值的时间区段,作为所述非吹气时间区段,所述预设声波阈值等于声音波形数据的绝对值中,最大值与最小值的平均值。
10.根据权利要求8或9所述的装置,其特征在于,所述第二识别单元包括:
第二采集子单元,用于采集所述鉴别对象的视频数据;
截取子单元,用于在所述吹气时间区段,从所述视频数据中截取所述第一图像,在所述非吹气时间区段,从所述视频数据中截取所述第二图像;
识别子单元,用于根据截取的图像识别所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
11.根据权利要求10所述的装置,其特征在于,所述识别子单元包括:
人脸检测子单元,用于采用人脸检测法在截取的每帧图像中检测人脸区域;
人脸配准子单元,用于采用人脸配准法从检测到的人脸区域中定位嘴部区域;
剪裁子单元,用于根据定位从每帧图像中剪裁出嘴部区域图;
分类子单元,用于对每幅嘴部区域图的纹理特征进行识别,得到所述鉴别对象在所述吹气时间区段的嘴型,以及所述鉴别对象在所述非吹气时间区段的嘴型。
12.根据权利要求11所述的装置,其特征在于,
所述分类子单元具体用于,计算每幅嘴部区域图的纹理特征,所述纹理特征包括局部二值模式LBP特征和/或梯度方向直方图HOG特征;采用预设分类算法对每幅嘴部区域图的纹理特征进行分类,得到嘴型识别结果,所述嘴型识别结果包括吹气嘴型或不吹气嘴型。
13.一种存储设备,其特征在于,所述存储设备用于储存多条指令,所述指令适于由处理器加载并执行如权利要求1至5任一项所述的步骤。
CN201711120710.8A 2017-11-14 2017-11-14 活体鉴别方法、装置及存储设备 Active CN107832714B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711120710.8A CN107832714B (zh) 2017-11-14 2017-11-14 活体鉴别方法、装置及存储设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711120710.8A CN107832714B (zh) 2017-11-14 2017-11-14 活体鉴别方法、装置及存储设备

Publications (2)

Publication Number Publication Date
CN107832714A CN107832714A (zh) 2018-03-23
CN107832714B true CN107832714B (zh) 2020-07-07

Family

ID=61655234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711120710.8A Active CN107832714B (zh) 2017-11-14 2017-11-14 活体鉴别方法、装置及存储设备

Country Status (1)

Country Link
CN (1) CN107832714B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564095A (zh) * 2018-04-25 2018-09-21 河南科技大学 一种基于对比度局部二值模式的图像纹理分类方法
CN112711971A (zh) * 2019-10-25 2021-04-27 华为技术有限公司 终端消息处理方法及其图像识别方法、装置、介质和系统
CN112507798B (zh) * 2020-11-12 2024-02-23 度小满科技(北京)有限公司 活体检测方法、电子设备与存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780738A (zh) * 2012-10-17 2014-05-07 腾讯科技(深圳)有限公司 移动终端图像处理方法及移动终端
CN104680375A (zh) * 2015-02-28 2015-06-03 优化科技(苏州)有限公司 电子支付真人活体身份验证系统
CN104834900A (zh) * 2015-04-15 2015-08-12 常州飞寻视讯信息科技有限公司 一种联合声像信号进行活体检测的方法和系统
CN105450664A (zh) * 2015-12-29 2016-03-30 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN106599764A (zh) * 2015-10-20 2017-04-26 深圳市商汤科技有限公司 基于唇形特征的活体判断方法及设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120101372A1 (en) * 2010-10-25 2012-04-26 Fujifilm Corporation Diagnosis support apparatus, diagnosis support method, lesioned part detection apparatus, and lesioned part detection method
US9888382B2 (en) * 2014-10-01 2018-02-06 Washington Software, Inc. Mobile data communication using biometric encryption
CN106203235B (zh) * 2015-04-30 2020-06-30 腾讯科技(深圳)有限公司 活体鉴别方法和装置
CN105809101A (zh) * 2015-06-30 2016-07-27 维沃移动通信有限公司 一种眼白纹理识别方法及终端
TW201705031A (zh) * 2015-07-22 2017-02-01 Egalax_Empia Tech Inc 生物特徵辨識裝置
CN107193247A (zh) * 2017-06-05 2017-09-22 深圳市丰巨泰科电子有限公司 一种智慧酒店系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780738A (zh) * 2012-10-17 2014-05-07 腾讯科技(深圳)有限公司 移动终端图像处理方法及移动终端
CN104680375A (zh) * 2015-02-28 2015-06-03 优化科技(苏州)有限公司 电子支付真人活体身份验证系统
CN104834900A (zh) * 2015-04-15 2015-08-12 常州飞寻视讯信息科技有限公司 一种联合声像信号进行活体检测的方法和系统
CN106599764A (zh) * 2015-10-20 2017-04-26 深圳市商汤科技有限公司 基于唇形特征的活体判断方法及设备
CN105450664A (zh) * 2015-12-29 2016-03-30 腾讯科技(深圳)有限公司 一种信息处理方法及终端

Also Published As

Publication number Publication date
CN107832714A (zh) 2018-03-23

Similar Documents

Publication Publication Date Title
CN107944380B (zh) 身份识别方法、装置及存储设备
US10169639B2 (en) Method for fingerprint template update and terminal device
EP3396579B1 (en) Unlocking control method and mobile terminal
CN109346061B (zh) 音频检测方法、装置及存储介质
US11055547B2 (en) Unlocking control method and related products
WO2019020014A1 (zh) 解锁控制方法及相关产品
CN104852885B (zh) 一种进行验证码验证的方法、装置和系统
CN108022274B (zh) 图像处理方法、装置、计算机设备和计算机可读存储介质
CN108427873B (zh) 一种生物特征识别方法及移动终端
CN105989572B (zh) 图片处理方法及装置
US10607076B2 (en) Method for iris recognition and related products
CN107832714B (zh) 活体鉴别方法、装置及存储设备
WO2019015418A1 (zh) 解锁控制方法及相关产品
WO2019024718A1 (zh) 防伪处理方法、防伪处理装置及电子设备
WO2019011108A1 (zh) 虹膜识别方法及相关产品
WO2019019837A1 (zh) 生物识别方法及相关产品
CN107516070B (zh) 生物识别方法及相关产品
CN108932486B (zh) 指纹匹配方法、装置以及电子装置
CN107704173B (zh) 一种应用程序显示方法、终端和计算机可读存储介质
CN107895108B (zh) 一种操作管理方法和移动终端
US11302115B2 (en) Method for facial information preview and related products
CN108196713B (zh) 一种指纹命名方法、移动终端以及计算机可读存储介质
WO2019001253A1 (zh) 虹膜活体检测方法及相关产品
CN114140655A (zh) 图像分类方法、装置、存储介质及电子设备
CN110472520B (zh) 一种身份识别方法及移动终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant