CN112052831A - 人脸检测的方法、装置和计算机存储介质 - Google Patents
人脸检测的方法、装置和计算机存储介质 Download PDFInfo
- Publication number
- CN112052831A CN112052831A CN202011026208.2A CN202011026208A CN112052831A CN 112052831 A CN112052831 A CN 112052831A CN 202011026208 A CN202011026208 A CN 202011026208A CN 112052831 A CN112052831 A CN 112052831A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- face detection
- detection frame
- abscissa
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
根据本公开的示例实施例,提供了人脸检测的方法、装置和计算机存储介质,涉及人工智能领域,具体为计算机视觉、深度学习技术,可用于人脸识别。人脸检测的方法,包括:基于包括人脸的图像,确定图像中的多个人脸关键点;基于多个人脸关键点,分别确定第一人脸检测框和第二人脸检测框,第一人脸检测框覆盖多个人脸关键点并且第一人脸检测框的边界由多个人脸关键点中的至少一个人脸关键点界定,第一人脸检测框在第二人脸检测框之内;基于第一人脸检测框和第二人脸检测框,确定人脸的真实性。根据本公开的方案。可以准确地进行活体人脸检测。
Description
技术领域
本公开的实施例涉及人工智能领域,具体为计算机视觉、深度学习技术,可用于人脸识别,并且更具体地,涉及人脸检测的方法、装置和计算机存储介质。
背景技术
随着人脸技术广泛应用于交通、安防、金融等领域,假冒人脸攻击方式层出不穷。目前已知的假冒人脸攻击方式主要包含:照片攻击、不同材质纸张攻击、手机/Pad/电脑屏幕翻拍攻击、头模攻击等。人脸活体检测技术是面向人工智能领域的一项前沿技术,该技术以新型的3D传感器为依托,以深度学习技术为开发框架,旨在对人脸识别领域中,真实人脸和虚假人脸进行有效判断,从而抵抗非法虚假人脸对人脸识别系统的攻击。业界主要应用的可见光摄像头与近红外摄像头,对于金融验证、智能门锁等高风险领域仍存在安全性不足的问题。需要一种针对人脸识别的安全性更高的解决方案。
发明内容
根据本公开的实施例,提供了一种人脸检测的方案。
在本公开的第一方面中,提供了一种人脸检测的方法,包括:基于包括人脸的图像,确定图像中的多个人脸关键点;基于多个人脸关键点,分别确定第一人脸检测框和第二人脸检测框,第一人脸检测框覆盖多个人脸关键点并且第一人脸检测框的边界由多个人脸关键点中的至少一个人脸关键点界定,第一人脸检测框在第二人脸检测框之内;基于第一人脸检测框和第二人脸检测框,确定人脸的真实性。
在本公开的第二方面中,提供了一种人脸检测的装置,包括:第一关键点确定模块,被配置为于包括人脸的图像,确定图像中的多个人脸关键点;第一检测框确定模块,被配置为基于多个人脸关键点,分别确定第一人脸检测框和第二人脸检测框,第一人脸检测框覆盖多个人脸关键点并且第一人脸检测框的边界由多个人脸关键点中的至少一个人脸关键点界定,第一人脸检测框在第二人脸检测框之内;第一人脸识别模块,被配置为基于第一人脸检测框和第二人脸检测框,确定人脸的真实性。
在本公开的第三方面中,提供了一种电子设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开的第一方面的方法。
在本公开的第四方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标注表示相同或相似的元素,其中:
图1示出了本公开的多个实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的一些实施例的人脸检测的过程的流程图;
图3示出了根据本公开的一些实施例的双流多尺度人脸活体检测的过程的流程图;
图4示出了根据本公开的一些实施例的人脸关键点的示意图;以及;
图5示出了根据本公开的一些实施例的人脸检测的装置的示意性框图;以及
图6示出了能够实施本公开的多个实施例的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如以上提及的,需要一种针对人脸识别的安全性更高的解决方案。现有技术通过如下几种方式进行人脸检测。
(1)单一可见光摄像头采集RGB视频流或近红外摄像头采集近红外视频流,活体检测系统根据视频流或单帧图片来判断所拍摄人脸是否为真实人脸。该方案的缺点在于只采用单一摄像头传感器采集数据,可见光传感器在强光、暗光等光线复杂条件下成像质量下降,近红外传感器结合补光灯下可在夜晚下可成较清晰人像,相较于可见光传感器,成像与灰度图相近,人脸细节信息较少,该方法对于真实场景中人脸姿态过大或光照差异较大时鲁棒性较差,因此对于人脸活体检测系统准确率有不利影响。
(2)将可见光摄像头和近红外摄像头采集到的RGB视频流和近红外视频流均输入到活体检测系统,系统根据双模态信息综合判断所拍摄人脸是否为真实人脸。虽然采用双模态,但仅使用单尺度图像作为卷积神经网络的输入,对于复杂多样的攻击方式及样本泛化性有限。
(3)基于双目可见光摄像头采集人脸数据,基于三维结构重建人脸深度图进行人脸活体检测判断。真实人脸的3D信息与虚假的电子设备描述的人脸3D信息有很强的区分度。利用相机的多角度拍摄以及相机内部参数,重构出人脸关键点深度信息,根据关键点的深度信息进行有监督的人脸判定。该技术需要对相机内部参数进行标定,而相机内部参数的标定的准确性、拍摄不同图像的相机之间的旋转位移关系以及图像的质量对重构的人脸深度值有极大的影响,且在暗光等复杂光线场景下会导致重建人脸深度图出现偏差,因此该方法对活体检测的误检率较高。
根据本公开的实施例,提出了一种人脸检测的方案。该方案不同尺度大小的图像输入到双流卷积神经网络中进行人脸检测。在该方案中,首先确定多个人脸关键点,然后基于多个人脸关键点,确定不同尺度的图像。最后通过不同尺度图像的特征来进行人脸检测。
通过对不同尺度图像进行分析和检测,可以有效提升人脸活体检测系统准确率,从而提升人脸识别系统整体安全性与有效性。
以下参考附图来说明本公开的基本原理和若干示例实现。
图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。应当理解,图1所示出的环境100仅仅是示例性的,而不应当构成对本公开所描述的实现的功能和范围的任何限制。如图1所示,环境100包括传感器模块101、第一人脸检测框102-1、102-2(以下可以被统称为第一人脸检测框102)、第二人脸检测框103-1、103-2(以下可以被统称为第一人脸检测框103)、计算设备104和人脸105、照片攻击106、头模攻击107和真实人脸108。传感器模块101可以包括彩色(RGB)传感器、红外(IR)传感器和深度(Depth)传感器。人脸105可以是待检测人脸。虽然图示为三个分立的传感器,但应该理解也可以利用集成的传感器,本公开在此不做限制。
彩色(RGB)传感器、红外(IR)传感器和深度(Depth)传感器用于采集包括人脸105的彩色、红外和深度三种模态视频流或图像数据,以用于进行人脸活体检测。所采集的图像可以如图1中照片攻击106、头模攻击107和真实人脸108所示。彩色传感器也可以被称为可见光传感器,红外传感器可以为近红外传感器,本公开在此不做限制。或者也可以是视频中包含有人脸105某一帧图像等。彩色传感器、红外传感器和深度传感器可以被设置在同一位置或者可以被设置在不同位置,并且可以在拍摄图像或视频前基于是那个传感器的位置和其相应的内参和外参对三个传感器进行配准。
在一些实施例中,彩色传感器、红外传感器和深度传感器可以为具有一个或多个广角或者超广角的摄像头,这些摄像头能够捕获周围环境360度内的场景。
虽然仅图示了三个传感器,但可以理解,传感器的数目可以根据情况不同而增加或者减少,并且还可以存在其他的硬件设备和软件系统。硬件设备例如可以包括处理板卡、数据硬盘、近红外补光灯、触摸屏幕、蜂鸣器,电源接口、GPIO、SD-Card接口、RS232串口、USB接口、RJ45网口、Wi-Fi等外围接口。软件系统例如为包含Linux嵌入式操作系统软件。本公开对此不做限制。
传感器模块101可以通信地耦合到计算设备104。计算设备104可以获取传感器拍摄的视频或者图像以用于进行截帧、人脸区域确定、人脸关键点确定、归一化、人脸检测框确定、随机数据增强等图像处理,以用于进行活体人脸检测。这将在下文进一步详细阐述。计算设备104可以被嵌入在包括三个传感器的传感器模组中。计算设备104也可以是传感器模组外部的实体,并且可以经由无线网络与传感器模块101通信。计算设备104可以是任何具有计算能力的设备。作为非限制性示例,计算设备104可以是任意类型的固定计算设备、移动计算设备或便携式计算设备,包括但不限于台式计算机、膝上型计算机、笔记本计算机、上网本计算机、平板计算机、多媒体计算机、移动电话等;计算设备104的全部组件或一部分组件可以分布在云端。计算设备104至少包含处理器、存储器以及其他通常存在于通用计算机中的组件,以便实现计算、存储、通信、控制等功能。
在一个实施例中,计算设备104可以包括预先训练好的人脸检测神经网络、人脸关键点神经网络,人脸活体检测神经网络等。
计算设备104可以将人脸检测结果发送给支付系统、门禁系统以用于后续操作。
以下结合图2至图4来进一步描述详细的人脸检测的过程。图2图示了根据本公开的实施例的人脸检测的方法200的流程图。方法200可以由图1中的计算设备104来实施。为便于描述,将参照图1来描述方法200。
在框210,计算设备104基于包括人脸105的图像,确定图像中的多个人脸关键点。例如,计算设备104分别经由彩色传感器、红外传感器和深度传感器获取包括人脸105的彩色图像、红外图像和深度图像。计算设备104可以与传感器模块101通信,以获取图像或视频流。应当理解,可以采用本领域公知的网络技术(例如,蜂窝网络(例如第五代(5G)网络、长期演进(LTE)网络、第三代(3G)网络、码分多址(CDMA)网络等)、公共陆地移动网络(PLMN)、局域网(LAN)、广域网(WAN)、城域网(MAN)、电话网络(例如公共交换电话网(PSTN))、专用网络、自组织网络、内联网、因特网、基于光纤的网络等、和/或这些或其他类型的网络的组合)以建立计算设备104与传感器模块101的连接,在此不再详叙。
在一个实施例中,计算设备104首先基于上述获取的图像,确定图像中的人脸区域。例如,计算设备104可以采用人脸位置检测算法或预先训练的神经网络对人脸候选区域进行检测,分离出人脸区域。在一个示例中,计算设备104设置一个滑动窗口在图像中不断的滑动,滑动窗口每到一个位置便计算该位置处的特征,若特征值大于预设的阈值,则确定该区域是人脸区域。
在一个实施例中,计算设备104通过深度学习卷积网络提取图像中的人脸特征,根据不同尺度特征图进行人脸二分类以及框坐标回归,并根据人脸二分类得分排序确定最终人脸检测结果,并返回模型预测的人脸二分类得分以及人脸框坐标。
这样,通过过滤掉图像中不具有人脸的区域,可以从目标人脸图像中确定出人脸所在的区域,可以使得后续对人脸区域的处理更有针对性,有助于提高处理效率。
在一个实施例中,计算设备104可以预先对原始的图像依次进行图像灰度化处理、图像缩放处理以及直方图光线均衡化处理。通过图像灰度化处理将彩色的原始图像转换为灰度图像,通过图像缩放处理将图像缩小在一个合适的尺寸,提升图像检测的速度,通过直方图光线均衡化处理改善图像的对比度和亮度,以避免光线不足或光线过亮对后续检测的影响。
计算设备104然后基于人脸区域,确定所述图像中的多个人脸关键点。例如,计算设备104可以将上述粗预测的人脸区域的图像输入人脸关键点预测神经网络或者采用人脸关键点预测算法确定多个人脸关键点。如图4所示,人脸关键点是包括人脸各个部位对应的关键点,人脸关键点比如鼻尖、眼角(内眼角和外眼角等)、眉尖、嘴角等,在得到的带有人脸关键点的图像上,对各个人脸关键点都进行了标注,虽然图示了72个关键点,但这是只是示例性,关键点的数目可以变化。
在一个实施例中,计算设备104可以将人脸区域的图像输入至特征提取网络中,经过特征提取网络对人脸区域图像进行特征提取以确定关键点。特征提取网络可以是卷积神经网络(Convolutional Neural Network,CNN),卷积神经网络是一种深度前馈人工神经网络,已被广泛应用于图像识别技术领域中,卷积神经网络的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征;其二为特征映射层,特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性,并且在使用过程中还包括卷积层,用来识别位移、缩放及其他形式扭曲不变性的二维图形。
在框220,计算设备104基于多个人脸关键点,分别确定第一人脸检测框102和第二人脸检测框103,第一人脸检测102框覆盖多个人脸关键点并且第一人脸检测框102的边界由多个人脸关键点中的至少一个人脸关键点界定,第一人脸检测框102在第二人脸检测框103之内。例如,参考图4所示,第一人脸检测框可以是覆盖所有72个人脸关键点的最小框。由于如手机/打印照片的攻击,可以通过增大人脸框的范围发现手机和照片框来识别,可以通过将第一人脸检测框扩大数倍以检测其周围的环境。
计算设备104可以对不同图像,例如图1中的106、107和108进行处理,以分别确定第一人脸检测102-1、102-2和102-3,以及第二人脸检测框103-1、103-2和103-3。
在一个示例中,计算设备104可以首先基于多个人脸关键点,分别确定第一横坐标、第二横坐标、第一纵坐标和第二纵坐标,第一横坐标小于第一阈值横坐标,第二横坐标大于第二阈值横坐标,第一纵坐标小于第一阈值纵坐标,第二纵坐标大于第二阈值纵坐标。
在一个实施例中,计算设备104可以确定图像中的72个人脸关键点的坐标(x1,y1)…(x72,y72)中的最大横坐标、纵坐标和最小横坐标、纵坐标4个坐标点xmin,xmax,ymin,ymax。
然后计算设备104基于第一横坐标、第二横坐标、第一纵坐标和第二纵坐标,确定第一人脸检测框102。例如,计算设备104可以根据ymin与ymax之间的差,确定矩形人脸检测框的高度,根据xmin与xmax之间差,确定矩形人脸检测框的宽度,然后确定第一人脸检测框102。这仅仅是示例性的,还可以通过72个坐标点确定中心坐标点和半径来确定圆形检测框。或者确定精确人脸轮廓的多边形不规则检测框,本发明对此不做限制,任何覆盖所有人脸关键点的最小检测框都可以被应用。
最后计算设备104基于第一人脸检测框102扩大预定倍数,以确定第二人脸检测框103。例如,计算设备104可以将第一人脸检测框102的边界扩大2倍、3倍来确定第二人脸检测框103。可以根据需要和应用场景确定不同的倍数。
在框230,计算设备104基于第一人脸检测框102和第二人脸检测框103,确定人脸的真实性。例如,计算设备可以根据在220中确定的第一人脸检测102-1、102-2和102-3,以及第二人脸检测框103-1、103-2和103-3来验证不同的人脸图像的真实性。
在一个示例中,计算设备104首先获取第一人脸检测框102和第二人脸检测框103在图像中截取第一图像和第二图像。可以理解,第一图像基本上仅包括人脸105,其分辨度较高,可以通过其清晰地分析人脸的各种特征。第二图像包括人脸105周围的环境,可以通过其识别手机和照片框或者用于保持照片的人手或者设备。例如,计算设备104可以根据第一人脸检测框102截取人脸图像为第一图像,调整到尺寸224x224,然后再将第一人脸检测框102扩大三倍作为第二人脸检测框103再截取人脸和环境图像作为第二图像,然后调整到尺寸224x224。这里,尺寸仅仅是示例性的,还可以应用其他合适的尺寸以便于后续图像处理。
在一个实施例中,计算设备104然后可以对所确定的第一图像和第二图像进行归一化处理,以获取经归一化的第一图像和第二图像。例如,计算设备104对第一图像和第二图像的每一个像素依次进行归一化处理,计算设备可以将每个像素的像素值减128再除以256,使每个像素的像素值在[-0.5,0.5]之间。这里仅仅示出归一化的示例,其旨在减少图像处理的数据,提高效率,还可以应用未来开发的其他归一化方法。
在一个示例中,计算设备104还可以将归一化处理后的图像进行随机数据增强处理。例如,计算设备104可以将图像旋转5°,然后获取旋转后的图像作为附加数据进行后续处理。
然后计算设备104可以基于第一图像和第二图像,分别确定第一特征和第二特征。例如,计算设备104可以通过特征提取网络来确定特征。上述特征可以是反应人脸图像的特征向量表示,例如颜色特征、纹理特征、形状特征和空间关系特征等。当然该特征还可以是用于神经网络计算的或用于表示人脸信息的任何合适类型的特征。
最后计算设备104可以基于第一特征和第二特征,确定人脸的真实性。例如,计算设备104可以使用两个并行的MobileNet作为双流卷积神经网络的主干进行第一特征和第二特征的提取,其中第一特征反应人脸105的特征,第二特征反应人脸周围环境和人脸的特征及其对应关系的特征,在最后一层特征图上做全局平均池化操作后,经过一个双线性运算进行特征融合。双线性运算计算不同空间位置的外积,并对不同空间位置计算平均汇合以得到二阶特征。外积捕获了特征通道之间成对的相关关系,并且具有平移不变性。
在一个实施例中,计算设备104将卷积神经网络的最后一个卷积层的输出拉伸为特征矩阵x双线性模块的输入,将特征矩阵x的转置矩阵xT与特征矩阵x做外积得到二阶特征矩阵,然后将二阶特征矩阵重新拉伸的一维特征向量,再将特征向量经过符号平方根变换和L2标准化,最后经过全连接层和Softmax层进行图像分类,完成最终的活体检测分类。
计算设备104经过上述特征提取、特征融合和特征检测后,可以通过分析106中的手机边框以及照片的深度信息来确定其为手机照片攻击、通过分析107中的高分辨率的人脸图像来确定其为头模或者面具攻击,通还可以确定108为真实人脸。请注意,上述示例仅是示例性的,还可以存在其他情况,本公开不旨在限制。
本公开通过利用不同尺度大小的图像包含不同的攻击特征这一先验知识,将两种尺度的人脸图像输入到双流卷积神经网络中,然后对双流卷积神经网络的两个输出结果进行特征融合得到最终的分类结果,本发明考虑到复杂样本攻击的情况,大大提高了活体检测算法在考勤、门禁、安防、金融支付等诸多实际使用场景中的准确率和泛化性,有效提升人脸活体检测系统准确率,从而提升人脸识别系统整体安全性与有效性。
图3示出了根据本公开的一些实施例的双流多尺度人脸活体检测的过程的流程图。首先计算设备104获取包括人脸的图像。然后利用人脸区域检测301确定人脸区域。然后计算设备104利用人脸关键点检测法302通过人脸区域确定人脸关键点。接着计算设备104从上述确定的人脸关键点确定出第一人脸检测框内的图像303和第一人脸检测框内的图像304,并且分别输入两个并行的MobileNet进行特征提取。最后计算设备104通过双线性运算进行特征融合并且得到活体检测结果。其中详细过程参考上面关于图2的描述,在此不再赘述。
图5示出了根据本公开的一些实施例的人脸检测的装置的示意性框图。装置500可以被包括在图1的计算设备104中或者被实现为计算设备104。
如图5所示,装置500包括第一关键点确定模块510,被配置为于包括人脸的图像,确定图像中的多个人脸关键点;第一检测框确定模块520,被配置为基于多个人脸关键点,分别确定第一人脸检测框和第二人脸检测框,第一人脸检测框覆盖多个人脸关键点并且第一人脸检测框的边界由多个人脸关键点中的至少一个人脸关键点界定,第一人脸检测框在第二人脸检测框之内;第一人脸识别模块530,被配置为基于第一人脸检测框和第二人脸检测框,确定人脸的真实性。
在一个实施例中,第一关键点确定模块510可以包括:人脸区域确定模块,被配置为基于图像,确定图像中的人脸区域;以及第二关键点确定模块,被配置为基于人脸区域,确定图像中的多个人脸关键点。
在一个实施例中,多个人脸关键点具有横坐标和纵坐标,其中第一检测框确定模块520可以包括:坐标确定模块,被配置为基于多个人脸关键点,确定第一横坐标、第二横坐标、第一纵坐标和第二纵坐标,第一横坐标小于第一阈值横坐标,第二横坐标大于第二阈值横坐标,第一纵坐标小于第一阈值纵坐标,第二纵坐标大于第二阈值纵坐标;第二检测框确定模块,被配置为基于第一横坐标、第二横坐标、第一纵坐标和第二纵坐标,确定第一人脸检测框;以及第三检测框确定模块,被配置为将第一人脸检测框扩大预定倍数,以确定第二人脸检测框。
在一个实施例中,其中第一人脸识别模块530包括:人脸图像确定模块,被配置为获取第一人脸检测框和第二人脸检测框在图像中截取第一图像和第二图像;特征确定模块,被配置为基于第一图像和第二图像,分别确定第一特征和第二特征;以及第二人脸识别模块,被配置为基于第一特征和第二特征,确定人脸的真实性。
在一个实施例中,装置500还包括:归一化模块,被配置为对第一图像和第二图像进行归一化处理,以得到经归一化的第一图像和第二图像。
在一个实施例中,其中图像为彩色图像、红外图像和深度图像中的至少一种图像。
图6图示了可以用来实施本公开内容的实施例的示例设备600的示意性框图。例如,如图1所示的示例环境100中的计算设备104可以由设备600来实施。如图所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200,可由处理单元701执行。例如,在一些实施例中,方法200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序被加载到RAM 603并由CPU 601执行时,可以执行上文描述的方法200中的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施方式,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施方式。在不偏离所说明的各实施方式的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施方式的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文披露的各实施方式。
Claims (14)
1.一种人脸检测的方法,包括:
基于包括人脸的图像,确定所述图像中的多个人脸关键点;
基于所述多个人脸关键点,分别确定第一人脸检测框和第二人脸检测框,所述第一人脸检测框覆盖所述多个人脸关键点并且所述第一人脸检测框的边界由所述多个人脸关键点中的至少一个人脸关键点界定,所述第一人脸检测框在所述第二人脸检测框之内;
基于所述第一人脸检测框和所述第二人脸检测框,确定人脸的真实性。
2.根据权利要求1所述的方法,其中基于包括人脸图像,确定所述图像中的多个人脸关键点包括:
基于图像,确定所述图像中的人脸区域;以及
基于所述人脸区域,确定所述图像中的多个人脸关键点。
3.根据权利要求1所述的方法,所述多个人脸关键点具有横坐标和纵坐标,其中基于所述多个人脸关键点,分别确定第一人脸检测框和第二人脸检测框包括:
基于所述多个人脸关键点,确定第一横坐标、第二横坐标、第一纵坐标和第二纵坐标,所述第一横坐标小于第一阈值横坐标,所述第二横坐标大于第二阈值横坐标,所述第一纵坐标小于第一阈值纵坐标,所述第二纵坐标大于第二阈值纵坐标;
基于所述第一横坐标、所述第二横坐标、所述第一纵坐标和所述第二纵坐标,确定所述第一人脸检测框;以及
将所述第一人脸检测框扩大预定倍数,以确定所述第二人脸检测框。
4.根据权利要求1所述的方法,基于所述第一人脸检测框和所述第二人脸检测框,确定人脸的真实性包括:
获取所述第一人脸检测框和所述第二人脸检测框在所述图像中截取第一图像和第二图像;
基于所述第一图像和所述第二图像,分别确定第一特征和第二特征;以及
基于所述第一特征和所述第二特征,确定所述人脸的真实性。
5.根据权利要求4所述的方法,还包括:对所述第一图像和所述第二图像进行归一化处理,以得到经归一化的第一图像和第二图像。
6.根据权利要求1所述的方法,其中所述图像为彩色图像、红外图像和深度图像中的至少一种图像。
7.一种人脸检测的装置,包括:
第一关键点确定模块,被配置为于包括人脸的图像,确定所述图像中的多个人脸关键点;
第一检测框确定模块,被配置为基于所述多个人脸关键点,分别确定第一人脸检测框和第二人脸检测框,所述第一人脸检测框覆盖所述多个人脸关键点并且所述第一人脸检测框的边界由所述多个人脸关键点中的至少一个人脸关键点界定,所述第一人脸检测框在所述第二人脸检测框之内;
第一人脸识别模块,被配置为基于所述第一人脸检测框和所述第二人脸检测框,确定人脸的真实性。
8.根据权利要求7所述的装置,其中所述第一关键点确定模块包括:
人脸区域确定模块,被配置为基于图像,确定所述图像中的人脸区域;以及
第二关键点确定模块,被配置为基于所述人脸区域,确定所述图像中的多个人脸关键点。
9.根据权利要求7所述的装置,所述多个人脸关键点具有横坐标和纵坐标,其中所述第一检测框确定模块包括:
坐标确定模块,被配置为基于所述多个人脸关键点,确定第一横坐标、第二横坐标、第一纵坐标和第二纵坐标,所述第一横坐标小于第一阈值横坐标,所述第二横坐标大于第二阈值横坐标,所述第一纵坐标小于第一阈值纵坐标,所述第二纵坐标大于第二阈值纵坐标;
第二检测框确定模块,被配置为基于所述第一横坐标、所述第二横坐标、所述第一纵坐标和所述第二纵坐标,确定所述第一人脸检测框;以及
第三检测框确定模块,被配置为将所述第一人脸检测框扩大预定倍数,以确定所述第二人脸检测框。
10.根据权利要求7所述的装置,其中所述第一人脸识别模块包括:
人脸图像确定模块,被配置为获取所述第一人脸检测框和所述第二人脸检测框在所述图像中截取第一图像和第二图像;
特征确定模块,被配置为基于所述第一图像和所述第二图像,分别确定第一特征和第二特征;以及
第二人脸识别模块,被配置为基于所述第一特征和所述第二特征,确定所述人脸的真实性。
11.根据权利要求10所述的装置,还包括:归一化模块,被配置为对所述第一图像和所述第二图像进行归一化处理,以得到经归一化的第一图像和第二图像。
12.根据权利要求7所述的装置,其中所述图像为彩色图像、红外图像和深度图像中的至少一种图像。
13.一种电子设备,所述设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一项所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011026208.2A CN112052831B (zh) | 2020-09-25 | 2020-09-25 | 人脸检测的方法、装置和计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011026208.2A CN112052831B (zh) | 2020-09-25 | 2020-09-25 | 人脸检测的方法、装置和计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112052831A true CN112052831A (zh) | 2020-12-08 |
CN112052831B CN112052831B (zh) | 2023-08-08 |
Family
ID=73604845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011026208.2A Active CN112052831B (zh) | 2020-09-25 | 2020-09-25 | 人脸检测的方法、装置和计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112052831B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200174A (zh) * | 2020-12-09 | 2021-01-08 | 上海齐感电子信息科技有限公司 | 人脸框检测方法及模块和活体人脸验证方法及系统 |
CN112488064A (zh) * | 2020-12-18 | 2021-03-12 | 平安科技(深圳)有限公司 | 一种人脸追踪方法、系统、终端及存储介质 |
CN113158991A (zh) * | 2021-05-21 | 2021-07-23 | 南通大学 | 一种嵌入式智能人脸检测与跟踪系统 |
CN113177468A (zh) * | 2021-04-27 | 2021-07-27 | 北京百度网讯科技有限公司 | 人体行为检测方法、装置、电子设备及存储介质 |
CN113255512A (zh) * | 2021-05-21 | 2021-08-13 | 北京百度网讯科技有限公司 | 用于活体识别的方法、装置、设备以及存储介质 |
CN113657317A (zh) * | 2021-08-23 | 2021-11-16 | 上海明略人工智能(集团)有限公司 | 一种货物位置识别方法、系统、电子设备及存储介质 |
CN113778233A (zh) * | 2021-09-16 | 2021-12-10 | 广东魅视科技股份有限公司 | 一种操控显示设备的方法、装置及可读介质 |
CN113792643A (zh) * | 2021-09-10 | 2021-12-14 | 武汉理工大学 | 活体人脸识别方法及系统 |
CN114140852A (zh) * | 2021-12-01 | 2022-03-04 | 北京百度网讯科技有限公司 | 图像检测方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210393A (zh) * | 2019-05-31 | 2019-09-06 | 百度在线网络技术(北京)有限公司 | 人脸图像的检测方法和装置 |
CN110765924A (zh) * | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种活体检测方法、装置以及计算机可读存储介质 |
-
2020
- 2020-09-25 CN CN202011026208.2A patent/CN112052831B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210393A (zh) * | 2019-05-31 | 2019-09-06 | 百度在线网络技术(北京)有限公司 | 人脸图像的检测方法和装置 |
CN110765924A (zh) * | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种活体检测方法、装置以及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
公安部第三研究所: "《多摄像机协同关注目标检测跟踪技术》", 30 June 2017 * |
吴永斌等: "学生宿舍人脸识别考勤系统设计", 《软件导刊》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200174A (zh) * | 2020-12-09 | 2021-01-08 | 上海齐感电子信息科技有限公司 | 人脸框检测方法及模块和活体人脸验证方法及系统 |
CN113486834B (zh) * | 2020-12-09 | 2024-03-19 | 上海齐感电子信息科技有限公司 | 确认有效人脸区域及活体人脸验证方法 |
CN113486834A (zh) * | 2020-12-09 | 2021-10-08 | 上海齐感电子信息科技有限公司 | 确认有效人脸区域及活体人脸验证方法 |
CN112488064A (zh) * | 2020-12-18 | 2021-03-12 | 平安科技(深圳)有限公司 | 一种人脸追踪方法、系统、终端及存储介质 |
CN112488064B (zh) * | 2020-12-18 | 2023-12-22 | 平安科技(深圳)有限公司 | 一种人脸追踪方法、系统、终端及存储介质 |
CN113177468A (zh) * | 2021-04-27 | 2021-07-27 | 北京百度网讯科技有限公司 | 人体行为检测方法、装置、电子设备及存储介质 |
CN113177468B (zh) * | 2021-04-27 | 2023-10-27 | 北京百度网讯科技有限公司 | 人体行为检测方法、装置、电子设备及存储介质 |
CN113255512B (zh) * | 2021-05-21 | 2023-07-28 | 北京百度网讯科技有限公司 | 用于活体识别的方法、装置、设备以及存储介质 |
CN113158991B (zh) * | 2021-05-21 | 2021-12-24 | 南通大学 | 一种嵌入式智能人脸检测与跟踪系统 |
CN113255512A (zh) * | 2021-05-21 | 2021-08-13 | 北京百度网讯科技有限公司 | 用于活体识别的方法、装置、设备以及存储介质 |
CN113158991A (zh) * | 2021-05-21 | 2021-07-23 | 南通大学 | 一种嵌入式智能人脸检测与跟踪系统 |
CN113657317A (zh) * | 2021-08-23 | 2021-11-16 | 上海明略人工智能(集团)有限公司 | 一种货物位置识别方法、系统、电子设备及存储介质 |
CN113792643A (zh) * | 2021-09-10 | 2021-12-14 | 武汉理工大学 | 活体人脸识别方法及系统 |
CN113778233B (zh) * | 2021-09-16 | 2022-04-05 | 广东魅视科技股份有限公司 | 一种操控显示设备的方法、装置及可读介质 |
CN113778233A (zh) * | 2021-09-16 | 2021-12-10 | 广东魅视科技股份有限公司 | 一种操控显示设备的方法、装置及可读介质 |
CN114140852A (zh) * | 2021-12-01 | 2022-03-04 | 北京百度网讯科技有限公司 | 图像检测方法和装置 |
CN114140852B (zh) * | 2021-12-01 | 2023-09-29 | 北京百度网讯科技有限公司 | 图像检测方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112052831B (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112052831B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
US11783639B2 (en) | Liveness test method and apparatus | |
US12062251B2 (en) | Device and method with image matching | |
US12014571B2 (en) | Method and apparatus with liveness verification | |
JP4755202B2 (ja) | 顔特徴の検出方法 | |
CN112052830B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
CN109086718A (zh) | 活体检测方法、装置、计算机设备及存储介质 | |
WO2020134238A1 (zh) | 活体检测方法、装置以及存储介质 | |
WO2021137946A1 (en) | Forgery detection of face image | |
US11625954B2 (en) | Method and apparatus with liveness testing | |
US11227149B2 (en) | Method and apparatus with liveness detection and object recognition | |
CN112215180A (zh) | 一种活体检测方法及装置 | |
CN109583304A (zh) | 一种基于结构光模组的快速3d人脸点云生成方法及装置 | |
CN108416291B (zh) | 人脸检测识别方法、装置和系统 | |
CN112052832A (zh) | 人脸检测的方法、装置和计算机存储介质 | |
Biswas et al. | A new perceptual hashing method for verification and identity classification of occluded faces | |
Liu et al. | Iris recognition in visible spectrum based on multi-layer analogous convolution and collaborative representation | |
CN113128428A (zh) | 基于深度图预测的活体检测方法和相关设备 | |
Lin et al. | Face detection based on skin color segmentation and SVM classification | |
CN111191549A (zh) | 一种两级人脸防伪检测方法 | |
CN112380966B (zh) | 基于特征点重投影的单眼虹膜匹配方法 | |
CN113963391A (zh) | 基于双目摄像头的静默活体检测方法及系统 | |
CN113901423B (zh) | 一种基于人脸识别的智能安防设备控制方法和系统 | |
US20230038006A1 (en) | Method and apparatus for detecting object in image | |
Nasrollahi | A Computer Vision Story on Video Sequences:: From Face Detection to Face Super-Resolution using Face Quality Assessment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |