CN110427828A - 人脸活体检测方法、装置及计算机可读存储介质 - Google Patents

人脸活体检测方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN110427828A
CN110427828A CN201910608993.3A CN201910608993A CN110427828A CN 110427828 A CN110427828 A CN 110427828A CN 201910608993 A CN201910608993 A CN 201910608993A CN 110427828 A CN110427828 A CN 110427828A
Authority
CN
China
Prior art keywords
picture
detected
sample
component information
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910608993.3A
Other languages
English (en)
Other versions
CN110427828B (zh
Inventor
罗胜寅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN201910608993.3A priority Critical patent/CN110427828B/zh
Publication of CN110427828A publication Critical patent/CN110427828A/zh
Application granted granted Critical
Publication of CN110427828B publication Critical patent/CN110427828B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人脸活体检测方法、装置及计算机可读存储介质,该方法包括如下步骤:S1步骤:对待检测图片进行处理作为卷积神经网络模型的输入。S2步骤:对待检测图片进行卷积获得卷积输出。S3步骤:将卷积输出输入分类模型进行分析以获得待检测图片的特征向量。S4步骤:从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本。S5步骤:将S4步骤中所确定的与所述待检测图片相匹配的图片样本的标签作为所述待检测图片的标签,得到待检测图片的检测结果。本发明使用单帧图片作为活体检测输入,简单易用,易于工业应用和旧项目的升级改造;利用特征分量提取和深度学习技术,提升了活体检测的准确率和速度。

Description

人脸活体检测方法、装置及计算机可读存储介质
技术领域
本发明涉及生物识别技术领域,尤其涉及一种人脸活体检测方法、装置及计算机可读存储介质。
背景技术
人脸识别是生物特征技术的一项热门的研究领域,与其他生物特征技术相比,人脸识别技术具有非接触性、友好性等优势。人脸识别系统已经在越来越多的场合进行使用,例如移动终端解锁系统、电脑开机登录系统、门禁系统。另外,人脸识别还应用在刑事侦查,监控系统等领域。但是,在人脸识别技术迅速发展的背后,存在着巨大的安全隐患。人脸识别系统可以判别人脸的真实身份,但是却无法判别摄像头前的人脸图像是来自合法用户还是非法用户。因为,非法用户可以使用合法用户的照片,视频,或者3D模型来欺骗人脸识别系统。国际知名的信息安全会议Black Hat指出,目前大部分的人脸识别系统都可以被一张彩色的打印照片所攻击。所以人脸识别技术目前还存在严重的安全隐患。针对上述人脸识别技术遇到的这一挑战,人脸活体检测技术应运而生。
现有的人脸活体检测方法有多种,例如:基于结构光和双目的活体检测方法,此方法虽然准确率高,但需要较高的硬件成本和技术要求,不利于工业应用和旧项目的改造升级。机器学习方法:有些传统机器学习方法采用HSV或YCRCB颜色空间输入,经过LBP(局部二值模式)后通过支持向量机SVM(Support Vector Machine)分类判断是否为活体,该方法虽然硬件成本和技术要求较低,但学习的特征不足,导致准确率不高。另外有些机器学习方法采用RGB颜色空间输入,经过卷积神经网络处理后得出真人和假人的分类概率进而判断是否为活体,但此方法的缺点是活体和非活体在RGB色彩空间上的区别不明显,不利于深度学习网络的训练和分析,且传统的二分类方法对活体和非活体检测的准确率较低。
发明内容
本发明提供一种人脸活体检测方法、装置及计算机可读存储介质,其主要目的在于将待检测图片(活体与非活体)的颜色空间上的Y和V分量分别做单独卷积,将CrCb和HS分量分别做较深的卷积,然后将网络模型融合来进行活体与非活体的检测,来提高活体检测的准确率和速度。
为实现上述目的,本发明提供一种人脸活体检测方法,该方法包括:
S1步骤:提取待检测图片的YCrCb和HSV颜色空间信息,作为卷积神经网络模型的输入;
S2步骤:利用卷积神经网络模型对待检测图片的YCrCb和HSV颜色空间信息进行卷积运算获得卷积输出结果;
S3步骤:将卷积输出结果输入至分类模型进行分析以获得待检测图片的特征向量;
S4步骤:获取预先存储在存储器中的多个图片样本,并根据所述待检测图片的特征向量,从预先获取的多个图片样本中确定出与所述待检测图片相匹配的图片样本,其中所述获取的每个图片样本分别具有标签,所述标签中包括是否有活体以及对应的场景标识;
S5步骤:将所确定的与所述待检测图片相匹配的图片样本的标签作为所述待检测图片的标签,得到待检测图片的检测结果。
进一步的,S1步骤包括:提取待检测图片的YCrCb和HSV颜色空间信息中的Y分量信息、CrCb分量信息、V分量信息和HS分量信息,分别记为图片Y分量信息、图片CrCb分量信息、图片V分量信息和图片HS分量信息,作为卷积神经网络模型的输入。
更进一步的,S2步骤包括:将所提取的图片Y分量信息、图片CrCb分量信息、图片V分量信息和图片HS分量信息分别输入预先训练好的第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型进行卷积,获得第一单层卷积输出、第一多层卷积输出、第二单层卷积输出和第二多层卷积输出。
更进一步的,S3步骤包括:将所获得的第一单层卷积输出、第一多层卷积输出、第二单层卷积输出和第二多层卷积输出结果作为分类模型的输入,其中所述分类模型为将所述第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型根据结合策略进行模型融合后获得的分类模型,所述分类模型进行分析获得图片分类输出作为所述待检测图片的特征向量,所述待检测图片的特征向量为对不同场景具有区分度的特征向量。
进一步的,在所述S1步骤之前,该方法还包括步骤:
针对不同的场景,分别获取所述每一个场景下的图片样本,每个图片样本分别具有标签;
训练所述每一个场景下的获取到的图片样本,得到所述卷积神经网络模型和分类模型,所述分类模型的输出为对不同场景具有区分度的特征向量。
更进一步的,训练获取到的各图片样本得到所述卷积神经网络模型和分类模型的步骤包括:
提取所述图片样本的YCrCb和HSV颜色空间信息中的Y分量信息、CrCb分量信息、V分量信息和HS分量信息,分别记为样本Y分量信息、样本CrCb分量信息、样本V分量信息和样本HS分量信息;
分别用所述样本Y分量信息、样本CrCb分量信息、样本V分量信息和样本HS分量信息,训练得到第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型;
将第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型的输出结果输入至分类模型,分类模型进行分析获得样本输出,所述样本输出为对不同场景具有区分度的特征向量,以便在进行活体检测时,根据所述分类模型确定出待检测图片的特征向量,并根据所述待检测图片的特征向量确定出与所述待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为所述待检测图片的标签。
进一步的,所述分类模型为线性回归模型。
此外,为实现上述目的,本发明还提供一种人脸活体检测装置,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的人脸活体检测程序,所述人脸活体检测程序被所述处理器执行时实现如上所述人脸活体检测方法的步骤。
进一步的,所述分类模型为线性回归模型。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有人脸活体检测程序,所述人脸活体检测程序可被一个或者多个处理器执行,以实现如上所述的人脸活体检测方法的步骤。
有益效果:
一、本发明使用单目单帧图片作为活体检测输入,简单易用,易于工业应用和旧项目的升级改造;二、通过对待检测图片的YCrCb和HSV颜色空间信息进行分量提取并根据分量特征的区别度大小分别进行单层或多层卷积,进而进行模型融合,提升了活体检测的准确率和速度。
附图说明
图1为本发明一实施例提供的人脸活体检测方法的流程示意图;
图2为本发明一实施例提供的人脸活体检测装置的内部结构示意图;
图3为本发明一实施例提供的人脸活体检测装置中人脸活体检测程序的模块示意图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种人脸活体检测方法。参照图1所示,为本发明一实施例提供的人脸活体检测方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,人脸活体检测方法包括:
S1步骤:提取待检测图片的YCrCb和HSV颜色空间信息,作为卷积神经网络模型的输入;,具体为:提取待检测图片的YCrCb和HSV颜色空间信息中的Y分量信息、CrCb分量信息、V分量信息和HS分量信息,分别记为图片Y分量信息、图片CrCb分量信息、图片V分量信息和图片HS分量信息,作为卷积神经网络模型的输入;
S2步骤:利用卷积神经网络模型对待检测图片的YCrCb和HSV颜色空间信息进行卷积运算获得卷积输出结果;,具体为:将S1步骤中所提取的图片Y分量信息、图片CrCb分量信息、图片V分量信息和图片HS分量信息分别输入预先训练好的第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型进行卷积,获得第一单层卷积输出、第一多层卷积输出、第二单层卷积输出和第二多层卷积输出;
S3步骤:将卷积输出结果输入至分类模型进行分析以获得待检测图片的特征向量;,具体为:将S2步骤中所获得的第一单层卷积输出、第一多层卷积输出、第二单层卷积输出和第二多层卷积输出作为分类模型的输入,其中所述分类模型为将所述第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型根据结合策略进行模型融合后获得的分类模型,所述分类模型进行分析获得图片分类输出作为所述待检测图片的特征向量,所述待检测图片的特征向量为对不同场景具有区分度的特征向量;
S4步骤:获取预先存储在存储器中的多个图片样本,并根据所述待检测图片的特征向量,从预先获取的多个图片样本中确定出与所述待检测图片相匹配的图片样本,其中所述获取的每个图片样本分别具有标签,所述标签中包括是否有活体以及对应的场景标识;
S5步骤:将所确定的与所述待检测图片相匹配的图片样本的标签作为所述待检测图片的标签,得到待检测图片的检测结果。。
进一步的,为了获得预先训练好的卷积神经网络模型和分类模型,所述S1步骤之前包括S0步骤:卷积神经网络模型训练和分类模型获得步骤,所述S0步骤包括:
S01步骤:针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景标识;
S02步骤:根据S01步骤中获取到的各图片样本,训练得到所述卷积神经网络模型和分类模型,所述分类模型的输出为对不同场景具有区分度的特征向量。
具体地,S02步骤包括:
S021步骤:提取所述图片样本的YCrCb和HSV颜色空间信息中的Y分量信息、CrCb分量信息、V分量信息和HS分量信息,分别记为样本Y分量信息、样本CrCb分量信息、样本V分量信息和样本HS分量信息;
S022步骤:分别用所述样本Y分量信息、样本CrCb分量信息、样本V分量信息和样本HS分量信息,训练得到第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型;
S023步骤:将S022步骤中第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型的输出结果输入分类模型,分类模型进行分析获得样本输出,所述样本输出为对不同场景具有区分度的特征向量,以便在进行活体检测时,根据所述分类模型确定出待检测图片的特征向量,并根据所述待检测图片的特征向量确定出与所述待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为所述待检测图片的标签。
因为活体和非活体在YCrCb和HSV颜色空间的区别较大,故在本实施例中,在对图片样本和待检测图片进行处理时,获取图片样本和待检测图片的YcrCb和HSV颜色空间的6维信息作为卷积神经网络模型的输入;并且活体和非活体在YCrCb和HSV颜色空间上的Y分量信息和V分量信息区别较小,而CrCb分量信息和HS分量信息有较大区别,因此将图片样本和待检测图片的YCrCb和HSV颜色空间上的Y分量信息和V分量信息做单层卷积,将CrCb分量信息和HS分量信息做多层的卷积,然后将网络模型融合,从而提高检测的准确率和效率。
优选的,为了提高检测的准确率,所述分类模型为线性回归模型。
因而,将所述第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型根据结合策略进行模型融合后获得分类模型的过程具体为:
建立线性回归模型LR(0),LR(1),其中,0代表假,1代表真;
四种卷积神经网络在训练时,样本进入每种卷积神经网络,都会得到该样本属于每一类的概率,每一个样本经过四种卷积神经网络之后变为K*I维的向量,其中K为卷积神经网络的个数,即4,I为类别个数即2,样本会对应K*I个概率值,当训练LR(0)时,若该样本属于0类时样本的真实概率值yn=1,否则yn=0,当训练LR(1)时,若该样本属于1类时yn=1,否则yn=0;
根据四种卷积神经网络预测的每一类的概率值和真实概率值,拟合一个线性回归模型,以调整模型对于每一类的预测权重。从而提高检测结果的准确率。
本发明还提供一种人脸活体检测装置。参照图2所示,为本发明一实施例提供的人脸活体检测装置的内部结构示意图。
在本实施例中,人脸活体检测装置1可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、便携计算机等终端设备。该人脸活体检测装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是人脸活体检测装置1的内部存储单元,例如该人脸活体检测装置1的硬盘。存储器11在另一些实施例中也可以是人脸活体检测装置1的外部存储设备,例如人脸活体检测装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括人脸活体检测装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于人脸活体检测装置1的应用软件及各类数据,例如人脸活体检测程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行人脸活体检测程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在人脸活体检测装置1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-14以及人脸活体检测程序01的人脸活体检测装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对人脸活体检测装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,存储器11中存储有人脸活体检测程序01;处理器12执行存储器11中存储的人脸活体检测程序01时实现如上人脸活体检测的方法步骤:
可选地,在其他实施例中,人脸活体检测程序01还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本发明,本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述人脸活体检测程序01在人脸活体检测装置1中的执行过程。
例如,参照图3所示,为本发明人脸活体检测装置1一实施例中的人脸活体检测程序01的程序模块示意图,该实施例中,人脸活体检测程序01可以被分割为卷积输入获取模块011、卷积输出获取模块012、特征向量获取模块013、图片样本匹配模块014和检测结果获取模块015,示例性地:
卷积输入获取模块011用于:对待检测图片进行处理作为卷积神经网络模型的输入。
卷积输出获取模块012用于:对待检测图片进行卷积获得卷积输出。
特征向量获取模块013用于:将卷积输出输入分类模型进行分析以获得待检测图片的特征向量。
图片样本匹配模块014用于:从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本。
检测结果获取模块015用于:将所确定的与所述待检测图片相匹配的图片样本的标签作为所述待检测图片的标签,得到待检测图片的检测结果。
上述卷积输入获取模块011、卷积输出获取模块012、特征向量获取模块013、图片样本匹配模块014和检测结果获取模块015等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有人脸活体检测程序,所述人脸活体检测程序可被一个或多个处理器执行,以实现人脸活体检测方法实施例中如上各步骤的操作。
本发明计算机可读存储介质具体实施方式与上述人脸活体检测装置和方法各实施例基本相同,在此不作累述。
本发明一种人脸活体检测方法、装置及计算机可读存储介质,将待检测图片(活体与非活体)的颜色空间上的Y分量信息和V分量信息分别做单独卷积,将CrCb分量信息和HS分量信息分别做较深的卷积,然后将网络模型融合来进行活体与非活体的检测,来提高活体检测的准确率和速度。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种人脸活体检测方法,其特征在于,所述方法包括如下步骤:
S1步骤:提取待检测图片的YCrCb和HSV颜色空间信息,作为卷积神经网络模型的输入;
S2步骤:利用卷积神经网络模型对待检测图片的YCrCb和HSV颜色空间信息进行卷积运算获得卷积输出结果;
S3步骤:将卷积输出结果输入至分类模型进行分析以获得待检测图片的特征向量;
S4步骤:获取预先存储在存储器中的多个图片样本,并根据所述待检测图片的特征向量,从获取的多个图片样本中确定出与所述待检测图片相匹配的图片样本,其中所述获取的每个图片样本分别具有标签,所述标签中包括是否有活体以及对应的场景标识;
S5步骤:将与所述待检测图片相匹配的图片样本的标签作为所述待检测图片的标签,得到待检测图片的检测结果。
2.如权利要求1所述的人脸活体检测方法,其特征在于,S1步骤包括:提取待检测图片的YCrCb和HSV颜色空间信息中的Y分量信息、CrCb分量信息、V分量信息和HS分量信息,分别记为图片Y分量信息、图片CrCb分量信息、图片V分量信息和图片HS分量信息,作为卷积神经网络模型的输入。
3.如权利要求2所述的人脸活体检测方法,其特征在于,S2步骤包括:将所提取的图片Y分量信息、图片CrCb分量信息、图片V分量信息和图片HS分量信息分别输入预先训练好的第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型进行卷积,获得第一单层卷积输出、第一多层卷积输出、第二单层卷积输出和第二多层卷积输出。
4.如权利要求3所述的人脸活体检测方法,其特征在于,S3步骤包括:将所获得的第一单层卷积输出、第一多层卷积输出、第二单层卷积输出和第二多层卷积输出结果作为分类模型的输入,其中所述分类模型为将所述第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型根据结合策略进行模型融合后获得的分类模型,所述分类模型进行分析获得图片分类输出作为所述待检测图片的特征向量,所述待检测图片的特征向量为对不同场景具有区分度的特征向量。
5.如权利要求1所述的人脸活体检测方法,其特征在于,在所述S1步骤之前,该方法还包括步骤:
针对不同的场景分别获取每一个场景下的图片样本,每个图片样本分别具有标签;
训练每一个场景下的图片样本得到所述卷积神经网络模型和分类模型,所述分类模型的输出为对不同场景具有区分度的特征向量。
6.如权利要求5所述的人脸活体检测方法,其特征在于,所述训练获取到的各图片样本得到所述卷积神经网络模型和分类模型的步骤包括:
提取所述图片样本的YCrCb和HSV颜色空间信息中的Y分量信息、CrCb分量信息、V分量信息和HS分量信息,分别记为样本Y分量信息、样本CrCb分量信息、样本V分量信息和样本HS分量信息;
分别用所述样本Y分量信息、样本CrCb分量信息、样本V分量信息和样本HS分量信息,训练得到第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型;
将第一单层卷积神经网络模型、第一多层卷积神经网络模型、第二单层卷积神经网络模型和第二多层卷积神经网络模型的输出结果输入至分类模型,分类模型进行分析获得样本输出,所述样本输出为对不同场景具有区分度的特征向量,以便在进行活体检测时,根据所述分类模型确定出待检测图片的特征向量,并根据所述待检测图片的特征向量确定出与所述待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为所述待检测图片的标签。
7.如权利要求1-6任一所述的人脸活体检测方法,其特征在于,所述分类模型为线性回归模型。
8.一种人脸活体检测装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的人脸活体检测程序,所述人脸活体检测程序被所述处理器执行时实现如权利要求1至6任一项所述人脸活体检测方法的步骤。
9.如权利要求8所述的人脸活体检测装置,其特征在于,所述分类模型为线性回归模型。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有人脸活体检测程序,所述人脸活体检测程序可被一个或者多个处理器执行,以实现如权利要求1至6中任一项所述的人脸活体检测方法的步骤。
CN201910608993.3A 2019-07-05 2019-07-05 人脸活体检测方法、装置及计算机可读存储介质 Active CN110427828B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910608993.3A CN110427828B (zh) 2019-07-05 2019-07-05 人脸活体检测方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910608993.3A CN110427828B (zh) 2019-07-05 2019-07-05 人脸活体检测方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110427828A true CN110427828A (zh) 2019-11-08
CN110427828B CN110427828B (zh) 2024-02-09

Family

ID=68410348

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910608993.3A Active CN110427828B (zh) 2019-07-05 2019-07-05 人脸活体检测方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110427828B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597885A (zh) * 2020-12-22 2021-04-02 北京华捷艾米科技有限公司 人脸活体检测方法、装置、电子设备及计算机存储介质
CN112949356A (zh) * 2019-12-10 2021-06-11 北京沃东天骏信息技术有限公司 活体检测的方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN106611160A (zh) * 2016-12-15 2017-05-03 中山大学 一种基于卷积神经网络的图像头发识别方法及其装置
CN107545241A (zh) * 2017-07-19 2018-01-05 百度在线网络技术(北京)有限公司 神经网络模型训练及活体检测方法、装置及存储介质
CN107992842A (zh) * 2017-12-13 2018-05-04 深圳云天励飞技术有限公司 活体检测方法、计算机装置及计算机可读存储介质
CN109101925A (zh) * 2018-08-14 2018-12-28 成都智汇脸卡科技有限公司 活体检测方法
CN109522798A (zh) * 2018-10-16 2019-03-26 平安科技(深圳)有限公司 基于活体识别的视频防伪方法、系统、装置及可存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN106611160A (zh) * 2016-12-15 2017-05-03 中山大学 一种基于卷积神经网络的图像头发识别方法及其装置
CN107545241A (zh) * 2017-07-19 2018-01-05 百度在线网络技术(北京)有限公司 神经网络模型训练及活体检测方法、装置及存储介质
CN107992842A (zh) * 2017-12-13 2018-05-04 深圳云天励飞技术有限公司 活体检测方法、计算机装置及计算机可读存储介质
WO2019114580A1 (zh) * 2017-12-13 2019-06-20 深圳励飞科技有限公司 活体检测方法、计算机装置及计算机可读存储介质
CN109101925A (zh) * 2018-08-14 2018-12-28 成都智汇脸卡科技有限公司 活体检测方法
CN109522798A (zh) * 2018-10-16 2019-03-26 平安科技(深圳)有限公司 基于活体识别的视频防伪方法、系统、装置及可存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949356A (zh) * 2019-12-10 2021-06-11 北京沃东天骏信息技术有限公司 活体检测的方法和装置
CN112597885A (zh) * 2020-12-22 2021-04-02 北京华捷艾米科技有限公司 人脸活体检测方法、装置、电子设备及计算机存储介质

Also Published As

Publication number Publication date
CN110427828B (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
CN107633204B (zh) 人脸遮挡检测方法、装置及存储介质
US10635946B2 (en) Eyeglass positioning method, apparatus and storage medium
CN107679447A (zh) 面部特征点检测方法、装置及存储介质
CN108229330A (zh) 人脸融合识别方法及装置、电子设备和存储介质
CN112215180B (zh) 一种活体检测方法及装置
CN110738101A (zh) 行为识别方法、装置及计算机可读存储介质
CN107111743A (zh) 使用渐进式眼睑跟踪的生命活性检测
CN110197146A (zh) 基于深度学习的人脸图像分析方法、电子装置及存储介质
CN112381775A (zh) 一种图像篡改检测方法、终端设备及存储介质
CN109670517A (zh) 目标检测方法、装置、电子设备和目标检测模型
CN109886222A (zh) 人脸识别方法、神经网络训练方法、装置及电子设备
CN114998934B (zh) 基于多模态智能感知和融合的换衣行人重识别和检索方法
CN114758362B (zh) 基于语义感知注意力和视觉屏蔽的换衣行人重识别方法
CN107633205A (zh) 嘴唇动作分析方法、装置及存储介质
CN107506738A (zh) 特征提取方法、图像识别方法、装置及电子设备
CN107194361A (zh) 二维姿势检测方法及装置
CN109389002A (zh) 活体检测方法及装置
CN109871751A (zh) 基于人脸表情识别的服务态度评估方法、装置及存储介质
CN108108711A (zh) 人脸布控方法、电子设备及存储介质
CN107944398A (zh) 基于深度特征联合表示图像集人脸识别方法、装置和介质
CN112633297A (zh) 目标对象的识别方法、装置、存储介质以及电子装置
CN108230536A (zh) 一种对光可变防伪标识识别方法及装置
Liu et al. Occlusion‐robust traffic sign detection via cascaded colour cubic feature
CN110427828A (zh) 人脸活体检测方法、装置及计算机可读存储介质
CN103748611B (zh) 使用图像取回关联信息的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant