CN113033409A - 人脸活体检测方法与装置、存储介质、电子设备 - Google Patents

人脸活体检测方法与装置、存储介质、电子设备 Download PDF

Info

Publication number
CN113033409A
CN113033409A CN202110325197.6A CN202110325197A CN113033409A CN 113033409 A CN113033409 A CN 113033409A CN 202110325197 A CN202110325197 A CN 202110325197A CN 113033409 A CN113033409 A CN 113033409A
Authority
CN
China
Prior art keywords
face
living body
detection method
aligned
living
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110325197.6A
Other languages
English (en)
Inventor
安占福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN202110325197.6A priority Critical patent/CN113033409A/zh
Publication of CN113033409A publication Critical patent/CN113033409A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人脸活体检测方法与装置、计算机可读存储介质、电子设备,其中,人脸活体检测方法包括以下步骤:确定对齐的人脸图像;将对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数;对多个人脸识别参数进行融合计算,获得融合计算结果;根据融合计算结果检测当前人脸是否为活体人脸。由此,该人脸活体检测方法能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。

Description

人脸活体检测方法与装置、存储介质、电子设备
技术领域
本领域涉及信息识别技术领域,尤其涉及一种人脸活体检测方法、一种计算机可读存储介质、一种电子设备和一种人脸活体检测装置。
背景技术
在当今的信息时代中,个人信息非常重要,并且随着指纹识别和人脸识别等识别技术的日渐成熟,人们的生活也越来越方便。其中,人脸活体识别主要是指判断输入的人脸图像是真实人脸还是假的人脸,假的人脸主要指打印的照片、视频回放、3D仿真面具等。目前,人脸活体检测具有很重要的实际意义,比如闸机、快递柜、人脸考勤机、软件登录等,如果没有人脸活体检测功能,用户将可以使用照片、视频回放、或者3D面具等攻击系统,这将造成非常严重的后果。
在相关技术中,人脸活体检测主要分为两种:配合式人脸活体检测和静默式人脸活体检测。其中,第一种方法配合式人脸活体检测就是需要用户配合软件或者系统做出一些预先定义的动作,比如左右摇头、上下点头、眨眼等动作,目前很多应用程序的人脸登录功能就是采用配合式人脸活体检测。然而,这种活体检测方法有自身的缺陷,用户配合需要花费大约5-20s不等的时间,这很难用于一些实时性要求比较高的场景下,比如闸机或者快递柜等环境下,这种情况下,需要软件或者系统快速的判断用户是否真人,并且用户一般不愿意浪费时间做一些动作。第二种人脸活体检测方法就是静默式活体检测,即不需要用户配合系统做出固定的动作,这种方法使用方便、实时性高。然而,静默式活体检测也有自身的缺点:准确性低,在一些准确性要求高的场景下面临着挑战。因此,研究者提出了使用RGB图像、深度图像、红外图像相互结合的方式来提高提高静默式人脸活体检测的准确性。这种方法确实能够有效的提升人脸活体检测的性能,然而一般情况下,获取深度图像和红外图像比较困难,都需要专门的深度摄像头和红外摄像头。目前,市面上的深度摄像头和红外摄像头一般都比较昂贵,需要几千甚至几万,这对于一些要求成本低的产品形成了挑战,比如闸机或者快递柜等。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的第一个目的在于提出一种人脸活体检测方法,能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
本发明的第二个目的在于提出一种计算机可读存储介质。
本发明的第三个目的在于提出一种电子设备。
本发明的第四个目的在于提出一种人脸活体检测装置。
为达上述目的,本发明第一方面实施例提出了一种人脸活体检测方法,该方法包括以下步骤:确定对齐的人脸图像;将所述对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数;对所述多个人脸识别参数进行融合计算,获得融合计算结果;根据所述融合计算结果检测当前人脸是否为活体人脸。
本发明实施例的人脸活体检测方法首先确定对齐的人脸图像,然后将该对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数,再对该获取到的多个人脸识别参数进行融合以并进行计算,以获得融合计算结果,从而可以根据该融合计算结果检测当前人脸是否为活体人脸。由此,该人脸活体检测方法能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
另外,根据本发明上述实施例的人脸活体检测方法还可以具有如下附加技术特征:
在本发明的一些实施例中,所述多个人脸识别参数包括人脸清晰度信息、人脸角度信息和人脸活体初步识别信息。
在本发明的一些实施例中,将所述对齐的人脸图像输入多任务深度模型进行识别包括:采用基础网络结构对所述对齐的人脸图像进行深度学习,获得人脸特征信息;对所述人脸特征信息进行第一卷积计算以获得第一卷积计算结果,并对所述第一卷积计算结果进行第二卷积计算以获得所述人脸清晰度信息,以及对所述第一卷积计算结果进行第三卷积计算以获得所述人脸活体初步识别信息;对所述人脸特征信息进行第四卷积计算以获得所述人脸角度信息。
在本发明的一些实施例中,根据以下公式对所述多个人脸识别参数进行融合计算:Score=S_face+W1*S_quality+W2*S_angle,其中,Score表示所述融合计算结果,S_face表示所述人脸活体初步识别信息所对应的人脸是否活体的置信度,S_quality表示人脸清晰度的分数,S_angle表示人脸角度信息,W1和W2表示权重系数。
在本发明的一些实施例中,所述权重系数W1和W2均为负值。
在本发明的一些实施例中,所述权重系数W1和W2根据所述多任务深度模型学习确定。
在本发明的一些实施例中,确定对齐的人脸图像,包括:获取人脸图像;对所述人脸图像进行预处理,获得所述对齐的人脸图像。
在本发明的一些实施例中,对所述人脸图像进行预处理,包括:对所述人脸图像进行特征点检测,并根据检测到的特征点进行人脸对齐,以获得所述对齐的人脸图像。
在本发明的一些实施例中,在对所述人脸图像进行预处理之前,还包括:根据所述人脸图像进行人脸检测,以确定所述人脸图像的大小满足预设标准。
在本发明的一些实施例中,通过RGB摄像头获取所述人脸图像。
为达上述目的,本发明第二方面实施例提出了一种计算机可读存储介质,其上存储有人脸活体检测程序,该人脸活体检测程序被处理器执行时实现如上述实施例所述的人脸活体检测方法。
根据本发明实施例的计算机可读存储介质,处理器执行存储在该存储介质上的人脸活体检测程序,能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
为达上述目的,本发明第三方面实施例提出了一种电子设备,该电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的人脸活体检测程序,所述处理器执行所述人脸活体检测程序时,实现如上述实施例所述的人脸活体检测方法。
本发明实施例的电子设备包括存储器和处理器,处理器执行存储在存储器上的人脸活体检测程序,能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
为达上述目的,本发明实施例第四方面实施例提出了一种人脸活体检测装置,该人脸活体检测装置包括确定模块,用于确定对齐的人脸图像;识别模块,用于将所述对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数;融合计算模块,用于对所述多个人脸识别参数进行融合计算,获得融合计算结果;人脸活体检测模块,用于根据所述融合计算结果检测当前人脸是否为活体人脸。
本发明实施例的人脸活体检测装置包括确定模块、识别模块、融合计算模块和人脸活体检测模块,其中,先利用确定模块确定人脸图像是否完成对齐,如果对齐了,则通过识别模块将该已经对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数,再利用融合计算模块对多个人脸识别参数进行融合计算以获得融合计算结果,然后根据该融合计算结果利用人脸活体检测模块检测当前人脸是否为活体人脸。由此,本实施例的人脸活体检测装置能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1是本发明一个实施例的人脸活体检测方法的流程图;
图2是本发明另一个实施例的人脸预处理方法的流程图;
图3是本发明又一个实施例的多任务深度模型方法的流程图;
图4是本发明实施例的电子设备的结构框图;
图5是本发明实施例的人脸活体检测装置的结构框图;
图6是本发明一个具体实施例的多任务深度模型方法的流程图;
图7是本发明另一个具体实施例的多任务深度模型方法的流程图;
图8是本发明又一个具体实施例的多任务深度模型方法的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的人脸活体检测方法与装置、计算机可读存储介质、电子设备。
图1是本发明一个实施例的人脸活体检测方法的流程图。
如图1所示,本发明提出了一种人脸活体检测方法,该人脸活体检测方法包括以下步骤:
S10,确定对齐的人脸图像。
首先,在人脸识别的过程中,需要确保当前所识别的人脸处于识别区域中,以闸机为例,用户在通过闸机时,需要调整自己的脸部处于安装在闸机上的摄像头的拍摄区域中,并且,由于用户的体貌特征也各不相同,高矮胖瘦的用户在经过同一个闸机时所处的位置的也不相同,所以在获取用户人脸信息之前需要先确定当前的人脸图像已经完成对齐。
在本发明的一些实施例中,如图2所述,确定对齐的人脸图像可以包括以下步骤:S201,获取人脸图像。S202,对人脸图像进行预处理,获得对齐的人脸图像。
具体地,为了提高人脸识别速度,使得获取人脸图像的摄像头能够较快的识别到对齐的人脸图像,该实施例可以先获取人脸图像,然后对人脸图像进行预处理,以获得对齐的人脸图像。在该实施例中,对人脸图像进行预处理可以包括对人脸图像进行特征点检测,然后根据检测到的特征点进行人脸对齐,以获得对齐的人脸图像。具体地,对人脸图像进行特征点检测可以对人脸图像的五官是否齐全进行检测,同时检测是否该人脸图像包含了用户的整张脸,例如是否包含了下巴部分、额头部分等,具体地,可以通过色差检测人脸图像与背景图像之间的距离是否满足预设距离,以确定当前人脸图像是否包含了用户的整张脸。
需要说明的是,本实施例可以通过RGB摄像头获取人脸图像,从而大大降低摄像头的成本,使得该人脸活体检测方法适用范围更广,并且,在该实施例中,在对人脸图像进行预处理之前,还可以先根据人脸图像进行人脸检测,以确定人脸图像的大小满足预设标准。
具体地,可以预先设置一个阈值,然后将RGB摄像头所获取到的人脸图像的大小与该阈值进行比较,从而确定当前人脸图像的大小是否满足预设标准。可以理解的是,如果当前人脸图像的大小满足预设标准,则可以当前的人脸图像进行预处理,否则,则不对当前的人脸图像进行预处理并提醒用户通过调整位置进行适应。
S20,将对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数。
具体地,在确定对齐的人脸图像之后,则对该人脸图像进行识别,本实施例通过多任务深度模型对人脸图像进行识别,可以理解的是,通过该多任务深度模型对人脸图像进行识别之后可以获得的人脸识别参数包括人脸清晰度信息、人脸角度信息和人脸活体初步识别信息。
可以理解的是,在获得人脸清晰度信息之后,可以将其与预设清晰度进行比较以判定当前对齐的人脸图像是否满足要求,同理的,人脸角度信息和人脸活体初步识别信息分别可以与其各自所设定的阈值进行比较,进而确定当前所获取到的多个人脸识别参数是否满足要求,如果不满足,则可以提示无法进行后续步骤并重新返回上一步骤,即获取对齐的人脸图像。
在本发明的一个具体实施例中,如图3所示,通过多任务深度模型对人脸图像进行识别包括:
S301,采用基础网络结构对对齐的人脸图像进行深度学习,获得人脸特征信息。
具体地,该实施例中的基础网络可以采用经典的Resnet网络或者Mobilenet网络作为Backbone网络,当然,用户可以结合使用环境等参数选择不同的基础网络。在经过基础网络结构处理后可以得到当前人脸图像中的人脸特征信息。
S302,对人脸特征信息进行第一卷积计算以获得第一卷积计算结果,并对第一卷积计算结果进行第二卷积计算以获得人脸清晰度信息,以及对第一卷积计算结果进行第三卷积计算以获得人脸活体初步识别信息。S303,对人脸特征信息进行第四卷积计算以获得人脸角度信息。
具体地,如图6所示,在人脸图像经过基础网络结构深度学习之后,可以利用第一卷积模块对人脸特征信息进行计算以得到第一卷积计算结果,然后再分别通过第二卷积模块和第三卷积模块对第一卷积计算计算结果进行计算,以得到人脸清晰度信息和人脸活体初步识别信息,其中,人脸清晰度信息可以包括清晰和模糊两个结果,人脸活体初步识别信息可以包括活体和攻击两个结果,其中,攻击表示该人脸是非活体的,如照片等。在该实施例中,还利用第四卷积模块对人脸特征信息进行第四卷积计算以获得人脸角度信息,其中人脸角度信息可以包括正常角度、中等角度和大角度,可以理解的,不同角度分别设置有不同的阈值进行比较。需要说明的是,在网络训练的过程中,上述四个卷积模块的损失函数可以采用直接相加的方法获得。
更具体地,如图7所示,在该实施例中,以Backbone网络选择Resnet18网络为例进行描述,其中,对齐人脸大小为112×112×3,经过Resnet18网络进行处理之后,特征层则可以转换成7×7×512格式,之后再进行第一卷积模块、第二卷积模块、第三卷积模块和第四卷积模块进行处理,并根据不同的卷积模块输出不同的人脸信息,需要说明的是,在第二卷积模块、第三卷积模块和第四卷积模块处理之后,还可以进行自适应平均池化处理,以进一步提高处理结果的准确度。并且,需要说明的是,每个卷积模块中都设置有向量卷积运算conv、批量标准化处理模块BN(Batch Normalization)和修正线性单元Relu(RectifiedLinear Unit)。进一步地,通过试验验证可知,如图8所示,对于不同任务,其分支接入的位置可以进行适当的调整。
S30,对多个人脸识别参数进行融合计算,获得融合计算结果。
具体地,在获得多个人脸识别参数之后,则可以对该多个人脸识别参数进行融合计算,在融合过程中,可以对人脸大小进行判断、人脸清晰度进行判断和人脸角度进行估计,因为在真实场景下,摄像头所采集的人脸都会满足上述的三个条件,而如果人脸图像中的人脸是假的人脸,例如是打印的照片或者视频回放等,则一般不会满足,所以可以从一定程度上达到排除非活体人脸的要求。
在本发明的一个实施例中,可以根据以下公式对多个人脸识别参数进行融合计算:Score=S_face+W1*S_quality+W2*S_angle,其中,Score表示融合计算结果,S_face表示人脸活体初步识别信息所对应的人脸是否为活体的置信度,S_quality表示人脸清晰度的分数,S_angle表示人脸角度信息,W1和W2表示权重系数。权重系数W1和W2可根据多任务深度模型训练学习获得。
具体地,在得到人脸清晰度分数、人脸角度融合分数之后,在网络后面接入权重模块,比如连接一层全连接层(FC,Fully Connected layer),此层主要学习融合系数,即权重系数。
具体地,全连接层(FC)需要学习的参数主要包含人脸清晰度权重系数,学习到的人脸清晰度越低,即人脸越模糊,网络学习的权重越小;人脸越清晰,网络学习的权重越大,可以理解的是,当人脸图像越清晰时,学习到的权重越接近于0。
更具体地,全连接层(FC)需要学习的参数还包含人脸角度权重系数,此系数主要包含三个参数(正常角度、中等角度、大角度),模型进行融合得到一个人脸角度权重。当人脸角度越大时,学习到的权重越小;人脸角度越小时,学习到的权重越大,可以理解的是,当人脸角度越小时,学习到的权重越接近于0。
具体地,由上述公式可知,融合计算结果Score充分考虑了多任务深度模型、人脸活体初步识别信息、人脸清晰度信息和人脸角度信息,提高了融合计算结果Score的准确度,并且,在该实施例中,可以通过设置一个预设值用于与该融合计算结果Score进行比较,从而进一步地通过比较结果判断当前人脸图像中的人脸是否为活体人脸。
S40,根据融合计算结果检测当前人脸是否为活体人脸。
具体地,在得到融合计算结果Score后与预设值进行比较,如果该融合计算结果Score大于预设值,则表示当前人脸为活体人脸;如果该融合计算结果Score小于预设值,则表示当前人脸为非活体人脸。其中,如果确定当前人脸为活体人脸,则可以进行下一步人脸图像的应用,如人脸识别等;而如果确定当前人脸为非活体人脸,则可以发出警示信息进行提醒。
综上,本发明实施例的人脸活体检测方法能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
进一步地,本发明提出了一种计算机可读存储介质,其上存储有人脸活体检测程序,该人脸活体检测程序被处理器执行时实现如上述实施例中的人脸活体检测方法。
本发明实施例的计算机可读存储介质,处理器执行存储在该存储介质上的人脸活体检测程序,能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
图4是本发明实施例的电子设备的结构框图。
进一步地,如图4所示,本发明提出了一种电子设备10,该电子设备10包括存储器11、处理器12及存储在存储器11上并可在处理器12上运行的人脸活体检测程序,处理器12执行人脸活体检测程序时,实现如上述实施例中的人脸活体检测方法。
本发明实施例的电子设备包括存储器和处理器,处理器执行存储在存储器上的人脸活体检测程序,能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
图5是本发明实施例的人脸活体检测装置的结构框图。
进一步地,如图5所示,本发明提出了一种人脸活体检测装置100,该检测装置100包括确定模块101、识别模块102、融合计算模块103和人脸活体检测模块104,其中,确定模块101用于确定对齐的人脸图像;识别模块102用于将对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数;融合计算模块103用于对多个人脸识别参数进行融合计算,获得融合计算结果;人脸活体检测模块104用于根据融合计算结果检测当前人脸是否为活体人脸。
具体地,参见图5,人脸活体检测装置100包括有确定模块101、识别模块102、融合计算模块103和人脸活体检测模块104,
首先,在人脸识别的过程中,需要确保当前所识别的人脸处于识别区域中,以闸机为例,用户在通过闸机时,需要调整自己的脸部处于安装在闸机上的摄像头的拍摄区域中,并且,由于用户的体貌特征也各不相同,高矮胖瘦的用户在经过同一个闸机时所处的位置的也不相同,所以在获取用户人脸信息之前需要先利用确定模块101确定当前的人脸图像已经完成对齐。
在确定对齐的人脸图像之后,则可以利用识别模块102对该人脸图像进行识别,本实施例通过多任务深度模型对人脸图像进行识别,可以理解的是,通过该多任务深度模型对人脸图像进行识别之后可以获得的人脸识别参数包括人脸清晰度信息、人脸角度信息和人脸活体初步识别信息。可以理解的是,在获得人脸清晰度信息之后,可以将其与预设清晰度进行比较以判定当前对齐的人脸图像是否满足要求,同理的,人脸角度信息和人脸活体初步识别信息分别可以与其各自所设定的阈值进行比较,进而确定当前所获取到的多个人脸识别参数是否满足要求,如果不满足,则可以提示无法进行后续步骤并重新返回上一步骤,即利用确定模块101确定对齐的人脸图像。
在识别模块102获得多个人脸识别参数之后,则可以利用融合计算模块103对该多个人脸识别参数进行融合计算以得到融合计算结果,在融合过程中,可以利用人脸活体检测模块104根据融合计算结果对人脸大小进行判断、对人脸清晰度进行判断和对人脸角度进行估计,进而判断当前人脸是否为活体人脸。因为在真实场景下,摄像头所采集的人脸都会满足上述的三个条件,而如果人脸图像中的人脸是假的人脸,例如是打印的照片或者视频回放等,则一般不会满足,所以可以从一定程度上达到排除非活体人脸的要求。在通过融合计算模块103得到融合计算结果后人脸活体检测模块104还可以将其与预设值进行比较,如果该融合计算结果大于预设值,则表示当前人脸为活体人脸;如果该融合计算结果小于预设值,则表示当前人脸为非活体人脸。其中,如果确定当前人脸为活体人脸,则可以进行下一步人脸图像的应用,如人脸识别等;而如果确定当前人脸为非活体人脸,则可以发出警示信息进行提醒。
在本发明的一些实施例中,识别模块102还用于:采用基础网络结构对对齐的人脸图像进行深度学习,获得人脸特征信息;对人脸特征信息进行第一卷积计算以获得第一卷积计算结果,并对第一卷积计算结果进行第二卷积计算以获得人脸清晰度信息,以及对第一卷积计算结果进行第三卷积计算以获得人脸活体初步识别信息;对人脸特征信息进行第四卷积计算以获得人脸角度信息。
在本发明的一些实施例中,融合计算模块103根据以下公式对多个人脸识别参数进行融合计算:Score=S_face+W1*S_quality+W2*S_angle,其中,Score表示融合计算结果,S_face表示人脸活体初步识别信息所对应的人脸是否活体的置信度,S_quality表示人脸清晰度的分数,S_angle表示人脸角度信息,W1和W2表示权重系数。
在本发明的一些实施例中,权重系数W1和W2均为负值。
在本发明的一些实施例中,权重系数W1和W2根据多任务深度模型确定。
在本发明的一些实施例中,确定模块101还用于:获取人脸图像;对人脸图像进行预处理,获得对齐的人脸图像。
在本发明的一些实施例中,确定模块101对人脸图像进行预处理包括:对人脸图像进行特征点检测,并根据检测到的特征点进行人脸对齐,以获得对齐的人脸图像。
在本发明的一些实施例中,确定模块101在对人脸图像进行预处理之前,还包括:根据人脸图像进行人脸检测,以确定人脸图像的大小满足预设标准。
在本发明的一些实施例中,通过RGB摄像头获取人脸图像。
需要说明的是,本发明实施例的人脸活体检测装置的具体实施方式可以参见上述实施例中的人脸活体检测方法的具体实施方式,在此不再赘述。
综上,本发明实施例的人脸活体检测装置能够在不增加成本的前提下,准确实时地检测当前人脸图像是否为活体,有效提高用户的体验度。
需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,本发明实施例中所使用的“第一”、“第二”等术语,仅用于描述目的,而不可以理解为指示或者暗示相对重要性,或者隐含指明本实施例中所指示的技术特征数量。由此,本发明实施例中限定有“第一”、“第二”等术语的特征,可以明确或者隐含地表示该实施例中包括至少一个该特征。在本发明的描述中,词语“多个”的含义是至少两个或者两个及以上,例如两个、三个、四个等,除非实施例中另有明确具体的限定。
在本发明中,除非实施例中另有明确的相关规定或者限定,否则实施例中出现的术语“安装”、“相连”、“连接”和“固定”等应做广义理解,例如,连接可以是固定连接,也可以是可拆卸连接,或成一体,可以理解的,也可以是机械连接、电连接等;当然,还可以是直接相连,或者通过中间媒介进行间接连接,或者可以是两个元件内部的连通,或者两个元件的相互作用关系。对于本领域的普通技术人员而言,能够根据具体的实施情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (11)

1.一种人脸活体检测方法,其特征在于,包括:
确定对齐的人脸图像;
将所述对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数,其中,所述多个人脸识别参数包括人脸清晰度信息、人脸角度信息和人脸活体初步识别信息;
对所述多个人脸识别参数进行融合计算,获得融合计算结果;
根据所述融合计算结果检测当前人脸是否为活体人脸。
2.如权利要求1所述的人脸活体检测方法,其特征在于,将所述对齐的人脸图像输入多任务深度模型进行识别,包括:
采用基础网络结构对所述对齐的人脸图像进行深度学习,获得人脸特征信息;
对所述人脸特征信息进行第一卷积计算以获得第一卷积计算结果,并对所述第一卷积计算结果进行第二卷积计算以获得所述人脸清晰度信息,以及对所述第一卷积计算结果进行第三卷积计算以获得所述人脸活体初步识别信息;
对所述人脸特征信息进行第四卷积计算以获得所述人脸角度信息。
3.如权利要求1所述的人脸活体检测方法,其特征在于,根据以下公式对所述多个人脸识别参数进行融合计算:
Score=S_face+W1*S_quality+W2*S_angle,
其中,Score表示所述融合计算结果,S_face表示所述人脸活体初步识别信息所对应的人脸是否活体的置信度,S_quality表示人脸清晰度的分数,S_angle表示人脸角度信息,W1和W2表示权重系数。
4.如权利要求3所述的人脸活体检测方法,其特征在于,所述权重系数W1和W2均为负值。
5.如权利要求1-4中任一项所述的人脸活体检测方法,其特征在于,确定对齐的人脸图像,包括:
获取人脸图像;
对所述人脸图像进行预处理,获得所述对齐的人脸图像。
6.如权利要求5所述的人脸活体检测方法,其特征在于,对所述人脸图像进行预处理,包括:
对所述人脸图像进行特征点检测,并根据检测到的特征点进行人脸对齐,以获得所述对齐的人脸图像。
7.如权利要求5所述的人脸活体检测方法,其特征在于,在对所述人脸图像进行预处理之前,还包括:
根据所述人脸图像进行人脸检测,以确定所述人脸图像的大小满足预设标准。
8.如权利要求5所述的人脸活体检测方法,其特征在于,通过RGB摄像头获取所述人脸图像。
9.一种计算机可读存储介质,其特征在于,其上存储有人脸活体检测程序,该人脸活体检测程序被处理器执行时实现如权利要求1-8中任一项所述的人脸活体检测方法。
10.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的人脸活体检测程序,所述处理器执行所述人脸活体检测程序时,实现如权利要求1-8中任一项所述的人脸活体检测方法。
11.一种人脸活体检测装置,其特征在于,包括:
确定模块,用于确定对齐的人脸图像;
识别模块,用于将所述对齐的人脸图像输入多任务深度模型进行识别,以获得多个人脸识别参数;
融合计算模块,用于对所述多个人脸识别参数进行融合计算,获得融合计算结果;
人脸活体检测模块,用于根据所述融合计算结果检测当前人脸是否为活体人脸。
CN202110325197.6A 2021-03-26 2021-03-26 人脸活体检测方法与装置、存储介质、电子设备 Pending CN113033409A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110325197.6A CN113033409A (zh) 2021-03-26 2021-03-26 人脸活体检测方法与装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110325197.6A CN113033409A (zh) 2021-03-26 2021-03-26 人脸活体检测方法与装置、存储介质、电子设备

Publications (1)

Publication Number Publication Date
CN113033409A true CN113033409A (zh) 2021-06-25

Family

ID=76474121

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110325197.6A Pending CN113033409A (zh) 2021-03-26 2021-03-26 人脸活体检测方法与装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN113033409A (zh)

Similar Documents

Publication Publication Date Title
WO2018188453A1 (zh) 人脸区域的确定方法、存储介质、计算机设备
US8385645B2 (en) Object detecting device, imaging apparatus, object detecting method, and program
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
US7925093B2 (en) Image recognition apparatus
CN107633237B (zh) 图像背景分割方法、装置、设备及介质
KR20190098858A (ko) 딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치
JP2005056387A (ja) 画像処理装置、撮像装置、画像処理方法
CN112562159B (zh) 一种门禁控制方法、装置、计算机设备和存储介质
CN111860055A (zh) 人脸静默活体检测方法、装置、可读存储介质及设备
JP4978227B2 (ja) 画像検出装置
CN111639582B (zh) 活体检测方法及设备
CN111898571A (zh) 动作识别系统及方法
CN112613471B (zh) 人脸活体检测方法、装置及计算机可读存储介质
CN111723762B (zh) 人脸属性识别方法、装置、电子设备及存储介质
JP4011426B2 (ja) 顔検出装置、顔検出方法および顔検出プログラム
CN109409322B (zh) 活体检测方法、装置及人脸识别方法和人脸检测系统
CN111191549A (zh) 一种两级人脸防伪检测方法
CN113033409A (zh) 人脸活体检测方法与装置、存储介质、电子设备
CN111767829B (zh) 一种活体检测方法、装置、系统及存储介质
CN115171189A (zh) 一种疲劳检测方法、装置、设备和存储介质
JP2022019339A (ja) 情報処理装置、情報処理方法及びプログラム
KR102669584B1 (ko) 반려동물 생체정보 검출 방법 및 장치
US20240196086A1 (en) Method and apparatus for detecting best shot in long-range face recognition system
US8525897B2 (en) Device and method for predicting photographing timing
Ptucha et al. Facial pose estimation using a symmetrical feature model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination