CN109271863A - 人脸活体检测方法及装置 - Google Patents

人脸活体检测方法及装置 Download PDF

Info

Publication number
CN109271863A
CN109271863A CN201810930681.XA CN201810930681A CN109271863A CN 109271863 A CN109271863 A CN 109271863A CN 201810930681 A CN201810930681 A CN 201810930681A CN 109271863 A CN109271863 A CN 109271863A
Authority
CN
China
Prior art keywords
face
picture
information
detected
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810930681.XA
Other languages
English (en)
Other versions
CN109271863B (zh
Inventor
范晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201810930681.XA priority Critical patent/CN109271863B/zh
Publication of CN109271863A publication Critical patent/CN109271863A/zh
Application granted granted Critical
Publication of CN109271863B publication Critical patent/CN109271863B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本公开是关于人脸活体检测方法及装置。方法包括:对待检测人脸的视频流进行采样,得到两个以上的人脸图片;对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片;从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息;分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息;根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体。本公开能够提高活体检测的准确性,提高系统安全性。

Description

人脸活体检测方法及装置
技术领域
本公开涉及终端技术领域,尤其涉及人脸活体检测方法及装置。
背景技术
人脸识别是一种基于人的脸部特征信息进行身份识别的识别技术。随着技术进步,目前人脸识别技术已广泛于金融、公安、支付等领域。为了提高人脸识别的准确性和安全性,需要准确、高效地辨别待识别人脸是否为真实的人脸,因此,活体检测是人脸识别过程中一个重要的步骤,可以提高系统的安全性。
相关技术公开了一种视频人脸活体检测方法,具体包括:输入一个视频流;截取所述视频流,得到N个视频帧图片;对N个视频帧图片采用动态相关性模型算法建立N-1个动态模型;相位角模型选择,得到最终的单个动态降阶模型图片;对上述的动态降阶模型模型图片提取基于分割加权的LBP等价模式特征直方图;基于三种核函数的SVM分类,区分虚拟攻击和合法用户。
发明内容
为克服相关技术中存在的问题,本公开实施例提供一种人脸活体检测方法及装置。所述技术方案如下:
根据本公开实施例的第一方面,提供一种人脸活体检测方法,方法包括:
对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片;
从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息;
分别提取各所述归一化图片中除所述第一图片之外的其它图片的图片信息与所述第一图片的图片信息的图像差,将各所述图像差的均值确定为所述待检测人脸的动态信息;
根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体。
在一个实施例中,所述对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片,包括:
定位各所述人脸图片的人脸特征点;
根据各所述人脸图片的人脸特征点,对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片。
在一个实施例中,所述从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息,包括:
计算各所述归一化图片的图片信息的平均图像;
分别计算各所述归一化图片的图片信息与所述平均图像的差值;
将差值最小的归一化图片的图片信息确定为所述待检测人脸的静态信息。
在一个实施例中,所述根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体,包括:
合并所述待检测人脸的静态信息及动态信息,得到所述待检测人脸的人脸信息;
根据所述待检测人脸的人脸信息,使用深度学习网络判断所述待检测人脸是否为活体。
在一个实施例中,在所述对待检测人脸的视频流进行采样之前,所述方法还包括:
获取活体人脸的视频流、及非活体人脸的视频流;
根据所述活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息;
根据所述活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到所述深度学习网络。
在一个实施例中,所述图片信息的类型为红绿蓝RGB颜色空间或亮度色度HUV颜色空间。
根据本公开实施例的第二方面,提供一种人脸活体检测装置,包括:
采样模块,用于对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
归一化模块,用于对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片;
静态信息确定模块,用于从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息;
动态信息确定模块,用于分别提取各所述归一化图片中除所述第一图片之外的其它图片的图片信息与所述第一图片的图片信息的图像差,将各所述图像差的均值确定为所述待检测人脸的动态信息;
判断模块,用于根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体。
在一个实施例中,所述归一化模块,包括:
定位子模块,用于定位各所述人脸图片的人脸特征点;
归一化子模块,用于根据各所述人脸图片的人脸特征点,对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片。
在一个实施例中,所述静态信息确定模块,包括:
第一计算子模块,用于计算各所述归一化图片的图片信息的平均图像;
第二计算子模块,用于分别计算各所述归一化图片的图片信息与所述平均图像的差值;
确定子模块,用于将差值最小的归一化图片的图片信息确定为所述待检测人脸的静态信息。
在一个实施例中,所述判断模块,包括:
合并子模块,用于合并所述待检测人脸的静态信息及动态信息,得到所述待检测人脸的人脸信息;
判断子模块,用于根据所述待检测人脸的人脸信息,使用深度学习网络判断所述待检测人脸是否为活体。
在一个实施例中,所述装置还包括:
视频流获取模块,用于获取活体人脸的视频流、及非活体人脸的视频流;
提取模块,用于根据所述活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息;
训练模块,用于根据所述活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到所述深度学习网络。
根据本公开实施例的第三方面,提供一种人脸活体检测装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片;
从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息;
分别提取各所述归一化图片中除所述第一图片之外的其它图片的图片信息与所述第一图片的图片信息的图像差,将各所述图像差的均值确定为所述待检测人脸的动态信息;
根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述第一方面中任意一项所述方法实施例的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:该技术方案通过深度学习网络判断待检测人脸是否为活体。本公开实施例通过提取待检测人脸的静态信息及动态信息,并利用深度学习网络对待检测人脸的静态信息及动态信息进行融合,进而判断出待检测人脸是否为活体,充分挖掘并利用人脸图片中的信息,能够提高活体检测的准确性,提高系统安全性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的人脸活体检测方法的流程图。
图2是根据一示例性实施例示出的人脸活体检测方法的流程图。
图3是根据一示例性实施例示出的人脸活体检测方法的流程图。
图4是根据一示例性实施例示出的人脸活体检测装置的框图。
图5是根据一示例性实施例示出的人脸活体检测装置的框图。
图6是根据一示例性实施例示出的人脸活体检测装置的框图。
图7是根据一示例性实施例示出的人脸活体检测装置的框图。
图8是根据一示例性实施例示出的人脸活体检测装置的框图。
图9是根据一示例性实施例示出的人脸活体检测装置的框图。
图10是根据一示例性实施例示出的装置的框图。
图11是根据一示例性实施例示出的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
相关技术公开了一种视频人脸活体检测方法,具体包括:输入一个视频流;截取所述视频流,得到N个视频帧图片;对N个视频帧图片采用动态相关性模型算法建立N-1个动态模型;相位角模型选择,得到最终的单个动态降阶模型图片;对上述的动态降阶模型模型图片提取基于分割加权的LBP等价模式特征直方图;基于三种核函数的SVM分类,区分虚拟攻击和合法用户。可见,相关技术通过使用动态相关性模型对视频帧进行预处理,以捕获到人脸的动态变化。但是,相关技术仅仅基于动态信息进行视频人脸活体检测,并未对静态信息进行分析,活体检测的准确性较差。
为了解决上述问题,本公开实施例提供了一种人脸活体检测方法,方法包括:对待检测人脸的视频流进行采样,得到两个以上的人脸图片;对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片;从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息;分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息;根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体。本公开实施例通过提取待检测人脸的静态信息及动态信息,并利用深度学习网络对待检测人脸的静态信息及动态信息进行融合,进而判断出待检测人脸是否为活体,充分挖掘并利用人脸图片中的信息,能够提高活体检测的准确性,提高系统安全性。
图1是根据一示例性实施例示出的一种人脸活体检测方法的流程图;该方法的执行主体可以为终端,终端例如智能手机、平板电脑、相机等电子设备;如图1所示,该方法包括以下步骤101-105:
在步骤101中,对待检测人脸的视频流进行采样,得到两个以上的人脸图片。
示例的,终端在接收到人脸识别指令或人脸活体检测指令时,通过终端自身的摄像头、或与终端关联的摄像头获取待检测人脸的视频流;然后,通过对待检测人脸的视频流进行采样,得到两个以上的人脸图片。
在步骤102中,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片。
示例的,在各人脸图片中通常会包括人脸、人体其他部位、及背景,而人脸图片中人体其他部位及背景等与人脸无关的信息会影响人脸活体检测的效率。为了提高人脸活体检测的效率,可以通过对各人脸图片进行归一化处理,在各人脸图片对应的归一化图片中仅保留各人脸图片中的人脸信息。归一化处理就是将人脸图片经过人脸检测定位之后,转换成一个大小固定的人脸图像。例如,在各人脸图片中检测人脸,定位各人脸图片的人脸特征点;根据各人脸图片的人脸特征点,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片;为便于理解,假设归一化图片共有n个,将归一化图片记为Ii,i取值为1~n。
在步骤103中,从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息。
示例的,图片信息的类型为红绿蓝(RGB)颜色空间或亮度色度(HUV)颜色空间。
示例的,计算各归一化图片的图片信息的平均图像;分别计算各归一化图片的图片信息与平均图像的差值;获取差值最小的归一化图片作为第一图片,例如第一图片Is;将差值最小的归一化图片的图片信息确定为待检测人脸的静态信息。例如,将第一图片Is从RGB颜色空间转化到YUV颜色空间,将获取的YUV三通道的图像信息作为待检测人脸的静态信息Fs,其中,Fs=[Y,U,V]。
在步骤104中,分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息。
示例的,考虑到通过对待检测人脸的视频流进行采样得到的这些人脸图片中所包含的图片信息有很大的冗余性,因此,在挑选出第一图片之后,分别提取其它图片的图片信息与第一图片的图片信息的图像差,其它图片是指各归一化图片中除第一图片之外的归一化图片;例如,归一化图片Ii与第一图片Is的图像差Di=abs(Ii-Is)(abs表示求绝对值);然后,对各其它图片与第一图片Is的图像差进行融合,计算各图像差的均值,确定待检测人脸的动态信息Fd,其中,Fd=(D1+D2+…+Dn)/n。
在步骤105中,根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体。
示例的,通过合并待检测人脸的静态信息及动态信息,得到待检测人脸的人脸信息F,其中,F=[Fs Fd];根据待检测人脸的人脸信息,使用深度学习网络来融合人脸信息的各个通道的信息,判断待检测人脸是否为活体。
深度学习网络是提取特征和进行分类的强大工具,在计算机视觉的诸多领域取得了突破性的性能。深度学习网络可以包括卷积层、池化层、全连接层等基础网络结构。用来做融合的深度学习网络包括的每种基本结构有多个,底层的结构可以提取图像中的局部信息,高层的结构可以提取整体的信息。网络在提取特征的同时完成了对底层信息的融合。顶层的网络基于提取的高层特征,完成对输入信息的分类。在本公开实施例提供的技术方案中,从待检测人脸的多张人脸图片中,提取出待检测人脸的静态信息和动态信息,将静态信息和动态信息送入预先训练得到的深度学习网络中,由深度学习网络进行活体的判别分类,基于判别分类结果可以判别待检测人脸是否为活体。
本公开实施例提供的技术方案,通过提取待检测人脸的静态信息及动态信息,并利用深度学习网络对待检测人脸的静态信息及动态信息进行融合,进而判断出待检测人脸是否为活体,充分挖掘并利用人脸图片中的信息,能够提高活体检测的准确性,提高系统安全性。
图2是根据一示例性实施例示出的一种人脸活体检测方法的流程图。如图2所示,在图1所示实施例的基础上,本公开涉及的人脸活体检测方法可以包括以下步骤201-208:
在步骤201中,获取活体的视频流、及非活体人脸的视频流。
示例的,在使用深度学习网络判定待检测人脸是否为活体之前,需要采集一定数量的活体人脸的人脸图片和非活体人脸的人脸图片,来训练深度学习网络。
在步骤202中,根据活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息。
示例的,在训练阶段,分别采集一定数量的活体人脸的人脸图片和非活体人脸的人脸图片作为训练集;分别提取训练集中活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,利用提取的信息来训练深度学习网络。
在步骤203中,根据活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到深度学习网络。
在步骤204中,对待检测人脸的视频流进行采样,得到两个以上的人脸图片。
在步骤205中,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片。
在步骤206中,从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息。
在步骤207中,分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息。
在步骤208中,根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体。
本公开实施例提供的技术方案,通过提取待检测人脸的静态信息和动态信息共同进行人脸活体检测,使用训练得到的深度学习网络来融合待检测人脸的静态信息和动态信息,进行待检测人脸的活体判别分类,充分挖掘并利用人脸图片中的信息,能够提高活体检测的准确性。
图3是根据一示例性实施例示出的一种人脸活体检测方法的流程图。如图3所示,在图1所示实施例的基础上,本公开涉及的人脸活体检测方法可以包括以下步骤301-309:
在步骤301中,对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
在步骤302中,定位各人脸图片的人脸特征点。
在步骤303中,根据各人脸图片的人脸特征点,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片。
在步骤304中,计算各归一化图片的图片信息的平均图像。
在步骤305中,分别计算各归一化图片的图片信息与平均图像的差值。
在步骤306中,将差值最小的归一化图片的图片信息确定为待检测人脸的静态信息。
在步骤307中,分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息。
在步骤308中,合并待检测人脸的静态信息及动态信息,得到待检测人脸的人脸信息。
在步骤309中,根据待检测人脸的人脸信息,使用深度学习网络判断待检测人脸是否为活体。
本公开实施例提供的技术方案,在人脸验证过程中,从多帧的人脸数据中,提取待检测人脸的静态信息和动态信息;将待检测人脸的静态信息和动态信息通过深度学习网络进行融合,同时对待检测人脸是否是活体进行判别,可以大大提高人脸活体检测的准确性。
下述为本公开装置实施例,可以用于执行本公开方法实施例。
图4是根据一示例性实施例示出的一种人脸活体检测装置的框图;该装置可以采用各种方式来实施,例如在终端中实施装置的全部组件,或者,在终端侧以耦合的方式实施装置中的组件;该装置可以通过软件、硬件或者两者的结合实现上述本公开涉及的方法,如图4所示,该人脸活体检测装置包括:采样模块401、归一化模块402、静态信息确定模块403、动态信息确定模块404及判断模块405,其中:
采样模块401被配置为对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
归一化模块402被配置为对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片;
静态信息确定模块403被配置为从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息;
动态信息确定模块404被配置为分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息;
判断模块405被配置为根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体。
本公开实施例提供的装置能够用于执行图1所示实施例的技术方案,其执行方式和有益效果类似,此处不再赘述。
在一种可能的实施方式中,如图5所示,图4示出的人脸活体检测装置还可以包括把归一化模块402配置成包括:定位子模块501及归一化子模块502,其中:
定位子模块501被配置为定位各人脸图片的人脸特征点;
归一化子模块502被配置为根据各人脸图片的人脸特征点,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片。
在一种可能的实施方式中,如图6所示,图4示出的人脸活体检测装置还可以包括把静态信息确定模块403配置成包括:第一计算子模块601、第二计算子模块602及确定子模块603,其中:
第一计算子模块601被配置为计算各归一化图片的图片信息的平均图像;
第二计算子模块602被配置为分别计算各归一化图片的图片信息与平均图像的差值;
确定子模块603被配置为将差值最小的归一化图片的图片信息确定为待检测人脸的静态信息。
在一种可能的实施方式中,如图7所示,图4示出的人脸活体检测装置还可以包括把判断模块405配置成包括:合并子模块701及判断子模块702,其中:
合并子模块701被配置为合并待检测人脸的静态信息及动态信息,得到待检测人脸的人脸信息;
判断子模块702被配置为根据待检测人脸的人脸信息,使用深度学习网络判断待检测人脸是否为活体。
在一种可能的实施方式中,如图8所示,图4示出的人脸活体检测装置还可以包括:视频流获取模块801、提取模块802及训练模块803,其中:
视频流获取模块801被配置为获取活体人脸的视频流、及非活体人脸的视频流;
提取模块802被配置为根据活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息;
训练模块803被配置为根据活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到深度学习网络。
图9是根据一示例性实施例示出的一种人脸活体检测装置900的框图,人脸活体检测装置900适用于终端,人脸活体检测装置900包括:
处理器901;
用于存储处理器可执行指令的存储器902;
其中,处理器901被配置为:
对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片;
从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息;
分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息;
根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体。
在一个实施例中,上述处理器901还可被配置为:
定位各人脸图片的人脸特征点;
根据各人脸图片的人脸特征点,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片。
在一个实施例中,上述处理器901还可被配置为:
计算各归一化图片的图片信息的平均图像;
分别计算各归一化图片的图片信息与平均图像的差值;
将差值最小的归一化图片的图片信息确定为待检测人脸的静态信息。
在一个实施例中,上述处理器901还可被配置为:
合并待检测人脸的静态信息及动态信息,得到待检测人脸的人脸信息;
根据待检测人脸的人脸信息,使用深度学习网络判断待检测人脸是否为活体。
在一个实施例中,上述处理器901还可被配置为:
获取活体人脸的视频流、及非活体人脸的视频流;
根据活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息;
根据活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到深度学习网络。
在一个实施例中,上述处理器901还可被配置为:图片信息的类型为红绿蓝RGB颜色空间或亮度色度HUV颜色空间。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图10是根据一示例性实施例示出的一种装置的框图。例如,装置1000可以是相机、手机、平板电脑、或智能穿戴设备等电子设备。参照图10,装置1000可以包括以下一个或多个组件:处理组件1002,存储器1004,电源组件1006,多媒体组件1008,音频组件1010,输入/输出(I/O)接口1012,传感器组件1014,以及通信组件1016。
处理组件1002通常被配置为控制装置1000的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1002可以包括一个或多个处理器1020来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理组件1002可以包括多媒体模块,以方便多媒体组件1006和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在装置1000的操作。这些数据的示例包括用于在装置1000上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1006为装置1000的各种组件提供电力。电源组件1006可以包括电源管理系统,一个或多个电源,及其他与为装置1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在该装置1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。该触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与该触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1008包括一个前置摄像头和/或后置摄像头。当装置1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当装置1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件1010还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为装置1000提供各个方面的状态评估。例如,传感器组件1014可以检测到装置1000的打开/关闭状态,组件的相对定位,例如该组件为装置1000的显示器和小键盘,传感器组件1014还可以检测装置1000或装置1000一个组件的位置改变,用户与装置1000接触的存在或不存在,装置1000方位或加速/减速和装置1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1016被配置为便于装置1000和其他设备之间有线或无线方式的通信。装置1000可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,该通信组件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由装置1000的处理器1020执行以完成上述方法。例如,该非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图11是根据一示例性实施例示出的一种装置的框图。例如,装置1100可以被提供为一服务器。装置1100包括处理组件1102,其进一步包括一个或多个处理器,以及由存储器1103所代表的存储器资源,用于存储可由处理组件1102的执行的指令,例如应用程序。存储器1103中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1102被配置为执行指令,以执行上述方法。
装置1100还可以包括一个电源组件1106被配置为执行装置1100的电源管理,一个有线或无线网络接口1105被配置为将装置1100连接到网络,和一个输入输出(I/O)接口1108。装置1100可以操作基于存储在存储器1103的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
一种非临时性计算机可读存储介质,当存储介质中的指令由装置1000或装置1100的处理器执行时,使得装置1000或装置1100能够执行如下方法:
对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片;
从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息;
分别提取各归一化图片中除第一图片之外的其它图片的图片信息与第一图片的图片信息的图像差,将各图像差的均值确定为待检测人脸的动态信息;
根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体。
在一个实施例中,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片,包括:
定位各人脸图片的人脸特征点;
根据各人脸图片的人脸特征点,对各人脸图片进行归一化处理,得到各人脸图片对应的归一化图片。
在一个实施例中,从各归一化图片中选取第一图片,将第一图片的图片信息确定为待检测人脸的静态信息,包括:
计算各归一化图片的图片信息的平均图像;
分别计算各归一化图片的图片信息与平均图像的差值;
将差值最小的归一化图片的图片信息确定为待检测人脸的静态信息。
在一个实施例中,根据待检测人脸的静态信息及动态信息,通过深度学习网络判断待检测人脸是否为活体,包括:
合并待检测人脸的静态信息及动态信息,得到待检测人脸的人脸信息;
根据待检测人脸的人脸信息,使用深度学习网络判断待检测人脸是否为活体。
在一个实施例中,在对待检测人脸的视频流进行采样之前,方法还包括:
获取活体人脸的视频流、及非活体人脸的视频流;
根据活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息;
根据活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到深度学习网络。
在一个实施例中,图片信息的类型为RGB颜色空间或HUV颜色空间。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (13)

1.一种人脸活体检测方法,其特征在于,包括:
对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片;
从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息;
分别提取各所述归一化图片中除所述第一图片之外的其它图片的图片信息与所述第一图片的图片信息的图像差,将各所述图像差的均值确定为所述待检测人脸的动态信息;
根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体。
2.根据权利要求1所述的方法,其特征在于,所述对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片,包括:
定位各所述人脸图片的人脸特征点;
根据各所述人脸图片的人脸特征点,对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片。
3.根据权利要求1所述的方法,其特征在于,所述从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息,包括:
计算各所述归一化图片的图片信息的平均图像;
分别计算各所述归一化图片的图片信息与所述平均图像的差值;
将差值最小的归一化图片的图片信息确定为所述待检测人脸的静态信息。
4.根据权利要求1所述的方法,其特征在于,所述根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体,包括:
合并所述待检测人脸的静态信息及动态信息,得到所述待检测人脸的人脸信息;
根据所述待检测人脸的人脸信息,使用深度学习网络判断所述待检测人脸是否为活体。
5.根据权利要求1所述的方法,其特征在于,在所述对待检测人脸的视频流进行采样之前,所述方法还包括:
获取活体人脸的视频流、及非活体人脸的视频流;
根据所述活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息;
根据所述活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到所述深度学习网络。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述图片信息的类型为红绿蓝RGB颜色空间或亮度色度HUV颜色空间。
7.一种人脸活体检测装置,其特征在于,包括:
采样模块,用于对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
归一化模块,用于对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片;
静态信息确定模块,用于从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息;
动态信息确定模块,用于分别提取各所述归一化图片中除所述第一图片之外的其它图片的图片信息与所述第一图片的图片信息的图像差,将各所述图像差的均值确定为所述待检测人脸的动态信息;
判断模块,用于根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体。
8.根据权利要求7所述的装置,其特征在于,所述归一化模块,包括:
定位子模块,用于定位各所述人脸图片的人脸特征点;
归一化子模块,用于根据各所述人脸图片的人脸特征点,对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片。
9.根据权利要求7所述的装置,其特征在于,所述静态信息确定模块,包括:
第一计算子模块,用于计算各所述归一化图片的图片信息的平均图像;
第二计算子模块,用于分别计算各所述归一化图片的图片信息与所述平均图像的差值;
确定子模块,用于将差值最小的归一化图片的图片信息确定为所述待检测人脸的静态信息。
10.根据权利要求7所述的装置,其特征在于,所述判断模块,包括:
合并子模块,用于合并所述待检测人脸的静态信息及动态信息,得到所述待检测人脸的人脸信息;
判断子模块,用于根据所述待检测人脸的人脸信息,使用深度学习网络判断所述待检测人脸是否为活体。
11.根据权利要求7所述的装置,其特征在于,所述装置还包括:
视频流获取模块,用于获取活体人脸的视频流、及非活体人脸的视频流;
提取模块,用于根据所述活体人脸的视频流、及非活体人脸的视频流,分别提取活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息;
训练模块,用于根据所述活体人脸的静态信息和动态信息,及非活体人脸的静态信息和动态信息,训练得到所述深度学习网络。
12.一种人脸活体检测装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
对待检测人脸的视频流进行采样,得到两个以上的人脸图片;
对各所述人脸图片进行归一化处理,得到各所述人脸图片对应的归一化图片;
从各所述归一化图片中选取第一图片,将所述第一图片的图片信息确定为所述待检测人脸的静态信息;
分别提取各所述归一化图片中除所述第一图片之外的其它图片的图片信息与所述第一图片的图片信息的图像差,将各所述图像差的均值确定为所述待检测人脸的动态信息;
根据所述待检测人脸的静态信息及动态信息,通过深度学习网络判断所述待检测人脸是否为活体。
13.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-6中任一项所述方法的步骤。
CN201810930681.XA 2018-08-15 2018-08-15 人脸活体检测方法及装置 Active CN109271863B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810930681.XA CN109271863B (zh) 2018-08-15 2018-08-15 人脸活体检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810930681.XA CN109271863B (zh) 2018-08-15 2018-08-15 人脸活体检测方法及装置

Publications (2)

Publication Number Publication Date
CN109271863A true CN109271863A (zh) 2019-01-25
CN109271863B CN109271863B (zh) 2022-03-18

Family

ID=65153771

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810930681.XA Active CN109271863B (zh) 2018-08-15 2018-08-15 人脸活体检测方法及装置

Country Status (1)

Country Link
CN (1) CN109271863B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401127A (zh) * 2020-01-16 2020-07-10 创意信息技术股份有限公司 一种人脸活体检测联合判断方法
WO2020211396A1 (zh) * 2019-04-15 2020-10-22 深圳壹账通智能科技有限公司 静默式活体图片识别方法、装置、计算机设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN105320950A (zh) * 2015-11-23 2016-02-10 天津大学 一种视频人脸活体检测方法
US20170124394A1 (en) * 2015-11-02 2017-05-04 Fotonation Limited Iris liveness detection for mobile devices
CN107368769A (zh) * 2016-05-11 2017-11-21 北京市商汤科技开发有限公司 人脸活体检测方法、装置及电子设备
US20180060648A1 (en) * 2016-08-23 2018-03-01 Samsung Electronics Co., Ltd. Liveness test method and apparatus
CN107895155A (zh) * 2017-11-29 2018-04-10 五八有限公司 一种人脸识别方法及装置
CN108038456A (zh) * 2017-12-19 2018-05-15 中科视拓(北京)科技有限公司 一种人脸识别系统中的防欺骗方法
CN108388876A (zh) * 2018-03-13 2018-08-10 腾讯科技(深圳)有限公司 一种图像识别方法、装置以及相关设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
US20170124394A1 (en) * 2015-11-02 2017-05-04 Fotonation Limited Iris liveness detection for mobile devices
CN105320950A (zh) * 2015-11-23 2016-02-10 天津大学 一种视频人脸活体检测方法
CN107368769A (zh) * 2016-05-11 2017-11-21 北京市商汤科技开发有限公司 人脸活体检测方法、装置及电子设备
US20180060648A1 (en) * 2016-08-23 2018-03-01 Samsung Electronics Co., Ltd. Liveness test method and apparatus
CN107895155A (zh) * 2017-11-29 2018-04-10 五八有限公司 一种人脸识别方法及装置
CN108038456A (zh) * 2017-12-19 2018-05-15 中科视拓(北京)科技有限公司 一种人脸识别系统中的防欺骗方法
CN108388876A (zh) * 2018-03-13 2018-08-10 腾讯科技(深圳)有限公司 一种图像识别方法、装置以及相关设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020211396A1 (zh) * 2019-04-15 2020-10-22 深圳壹账通智能科技有限公司 静默式活体图片识别方法、装置、计算机设备和存储介质
CN111401127A (zh) * 2020-01-16 2020-07-10 创意信息技术股份有限公司 一种人脸活体检测联合判断方法

Also Published As

Publication number Publication date
CN109271863B (zh) 2022-03-18

Similar Documents

Publication Publication Date Title
CN108197586B (zh) 脸部识别方法和装置
CN105631403B (zh) 人脸识别方法及装置
US9652663B2 (en) Using facial data for device authentication or subject identification
WO2021031609A1 (zh) 活体检测方法及装置、电子设备和存储介质
US10007841B2 (en) Human face recognition method, apparatus and terminal
CN104850828B (zh) 人物识别方法及装置
WO2017181769A1 (zh) 一种人脸识别方法、装置和系统、设备、存储介质
CN106295511B (zh) 人脸跟踪方法及装置
CN105654039B (zh) 图像处理的方法和装置
CN106650575A (zh) 人脸检测方法及装置
KR20160088224A (ko) 객체 인식 방법 및 장치
CN105426730A (zh) 登录验证处理方法、装置及终端设备
CN104408404B (zh) 人脸识别方法及装置
CN106510164B (zh) 行李箱控制方法及装置
CN105678242B (zh) 手持证件模式下的对焦方法和装置
CN105528078B (zh) 控制电子设备的方法及装置
CN106384348B (zh) 监控图像的异常检测方法及装置
CN108197585A (zh) 脸部识别方法和装置
CN106971164A (zh) 脸型匹配方法及装置
TWI752105B (zh) 特徵圖像的獲取方法及獲取裝置、使用者認證方法
WO2019062347A1 (zh) 人脸识别方法及相关产品
CN104036240A (zh) 人脸特征点的定位方法和装置
CN107463903A (zh) 人脸关键点定位方法及装置
CN105138956B (zh) 人脸检测方法和装置
CN108154466A (zh) 图像处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant