CN113553928A - 一种人脸活体检测方法、系统和计算机设备 - Google Patents

一种人脸活体检测方法、系统和计算机设备 Download PDF

Info

Publication number
CN113553928A
CN113553928A CN202110791803.3A CN202110791803A CN113553928A CN 113553928 A CN113553928 A CN 113553928A CN 202110791803 A CN202110791803 A CN 202110791803A CN 113553928 A CN113553928 A CN 113553928A
Authority
CN
China
Prior art keywords
face
face key
key point
point
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110791803.3A
Other languages
English (en)
Other versions
CN113553928B (zh
Inventor
张帅
袁嘉言
王汉超
贾宝芝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Ruiwei Information Technology Co ltd
Original Assignee
Xiamen Ruiwei Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Ruiwei Information Technology Co ltd filed Critical Xiamen Ruiwei Information Technology Co ltd
Priority to CN202110791803.3A priority Critical patent/CN113553928B/zh
Publication of CN113553928A publication Critical patent/CN113553928A/zh
Application granted granted Critical
Publication of CN113553928B publication Critical patent/CN113553928B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人脸活体检测方法、系统和计算机设备,方法包括:获取待分析数据;使用预先训练好的人脸检测模型和关键点检测模型进行人脸关键点检测;根据检测到的人脸关键点位置,确定大人脸框位置以及六个局部人脸位置,然后构建网络预测输入;使用预先训练好的基于注意力机制的多局部特征输入网络进行推理预测,获取预测结果输出;判断推理结果于阈值,确定测试数据是否为活体人脸。本发明能够针对照片、面具及仿真度极高的头部模型,极大幅度的提高人脸识别系统的抗攻击性能,从而让人脸识别系统的安全级别得到质的提升。

Description

一种人脸活体检测方法、系统和计算机设备
【技术领域】
本发明属于人脸检测技术领域,具体是指一种人脸活体检测方法、系统和计算机设备。
【背景技术】
目前,人脸识别系统越来越多地应用于通行、安防、移动端登录等领域中需要身份验证的场景,例如门禁系统、智慧城市、手机解锁和应用程序账户登录等场景。在这些需要高安全级别的应用中,在确保被验证者的人脸相似度符合数据库中存储的底库数据之前,最重要的是先要确定验证者是一个活体人脸。也就是说,人脸识别系统需要能够防范攻击者使用照片、面具及仿真度极高的头部模型具等方式的攻击。这是在现实生活场景中,一套完整的人脸识别系统中必要的环节。
要想解决上述问题,需要在进行人脸识别前,先进行活体检测,其目的是判断获取到的数据是否是真人。目前市场上的技术产品还没有特别成熟的能够防范上述各种攻击手法的方案。
【发明内容】
本发明所要解决的技术问题在于提供一种人脸活体检测方法、装置及计算机设备,通过检测被试者的全局及多局部重点特征综合分析方式,从而可以有效地防范照片、面具及仿真度极高的头部模型的攻击。
第一方面,本发明提供例如一种基于注意力机制的多局部特征融合的人脸活体检测方法,包括如下步骤:
步骤1:获取待分析数据:
通过摄像头获取被摄体的图像数据;
步骤2:进行人脸关键点检测:
使用预先训练好的人脸检测模型及106点人脸关键点检测模型,进行精准快速的人脸检测并定位106点人脸关键点;
步骤3:构建网络预测输入数据:
根据检测到的人脸关键点位置,将人脸至少划分出七个区域,包括:完整人脸框、上额头局部框、左眼眶、右眼眶、左耳框、右耳框、鼻子及嘴部框;
根据获取到的人脸框位置以及106点人脸关键点坐标,确定所述七个区域的具体位置信息,通过进行一系列的归一化操作,完成网络预测输入构建;
步骤4:进行网络推理,获取预测结果:
使用预先训练好的基于注意力机制的整体人脸数据结合特定六个重点信息区域的预测模型,将上一步构建好的数据输入给该模型,通过网络推理,获取网络输出作为推理数据是否为活体的置信度;
步骤5:判断是否为活体人脸:
根据上一步输出的结果,判断推理数据与预设阈值,确定测试数据是否为活体人脸。
进一步地,所述步骤3中的确定完整人脸位置及六个局部人脸位置,具体包括:
设定S401表示基于人脸关键点的选取的人脸框的示意位置,
S402表示基于人脸关键点的选取的上额头局部框的示意位置,
S403表示基于人脸关键点的选取的左眼眶的示意位置,
S404表示基于人脸关键点的选取的右眼眶的示意位置,
S405表示基于人脸关键点的选取的左耳框的示意位置,
S406表示基于人脸关键点的选取的右耳框的示意位置,
S407表示基于人脸关键点的选取的鼻子及嘴部框的示意位置;
其中S401、S403、S404、S405、S406、S407均为正方形,S402为长方形,计算顺序为S401、S403、S404、S405、S406、S407和S402,具体包括
步骤a、S401的选取方法为:以人脸关键点53和人脸关键点54两点连线的中点,作为人脸框中心点;
计算方式为S401_x=(53_x+54_x)/2,S401_y=(53_y+54_y)/2;
宽高首先取人脸关键点33和人脸关键点1在横轴方向坐标差以及人脸关键点17和计算出的中心点S401在纵轴方向的坐标差的最大值,然后乘以放大比例系数1.5后得到宽高值;
计算方式为S401_w=S401_h=1.5*max((33_x–1_x),(17_y–S401_y));
步骤b、S403的选取方法为:以人脸关键点40和人脸关键点69两点连线的中点,作为左眼眶中心点;
计算方式为S403_x=(40_x+69_x)/2,S403_y=(40_y+69_y)/2;
宽高首先取人脸关键点71和人脸关键点67在横轴方向坐标差以及人脸关键点73和人脸关键点36在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S403_w=S403_h=2.0*max((71_x–67_x),(73_y–36_y));
步骤c、S404的选取方法为:以人脸关键点50和人脸关键点78两点连线的中点,作为有眼眶中心点;
计算方式为S404_x=(50_x+78_x)/2,S404_y=(50_y+78_y)/2;
宽高首先取人脸关键点80和人脸关键点76在横轴方向坐标差以及人脸关键点82和人脸关键点45在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S404_w=S404_h=2.0*max((80_x–76_x),(82_y–45_y));
步骤d、S405的选取方法为:以人脸关键点3为中心点,作为左耳框的中心点;
计算方式为S405_x=3_x,S405_y=3_y;
宽高首先取人脸关键点105和人脸关键点2在横轴方向坐标差以及人脸关键点5和人脸关键点1在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S405_w=S405_h=2.0*max((105_x–2_x),(5_y–1_y));
步骤e、S406的选取方法为:以人脸关键点31为中心点,作为右耳框的中心点;
计算方式为S406_x=31_x,S406_y=31_y;
宽高首先取人脸关键点32和人脸关键点106在横轴方向坐标差以及人脸关键点29和人脸关键点33在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S406_w=S406_h=2.0*max((32_x–106_x),(29_y–33_y));
步骤f、S407的选取方法为:以人脸关键点61和人脸关键点88两点连线的中点,作为鼻子及嘴巴框的中心点;
计算方式为S407_x=(61_x+88_x)/2,S407_y=(61_y+88_y)/2;
宽高首先取人脸关键点103和人脸关键点55在横轴方向坐标差以及人脸关键点91和人脸关键点85在纵轴方向的坐标差的最大值,然后乘以放大比例系数1.5后得到宽高值;
计算方式为S407_w=S407_h=1.5*max((103_x–55_x),(91_y–85_y));
步骤g、S402的选取方法为:以人脸关键点52为中心,点88的对称点作为S402的中心点,作为额头框中心点;
计算方式为S402_x=2*52_x–88_x,S402_y=2*52_y–88_y;
S402的宽取S404右边缘到S403左边缘作为宽;
计算方式为S402_w=(S404_x+S404_w/2)–(S403_x–S403_w/2);
S402的高取S403的高和S404的高均值的一半;
计算方式为S402_h=(S403_h+S404_h)/2)/2。
第二方面,本发明提供例如一种基于注意力机制的多局部特征融合的人脸活体检测系统,用于实现如第一方面所述的方法,具体包括:数据获取模块、人脸关键点检测模块、多局部处理模块和活体检测模块;
所述数据获取模块,用于通过摄像头获取被摄体的图像数据;
人脸关键点检测模块,用于使用预先训练好的人脸检测模型及106点人脸关键点检测模型,进行精准快速的人脸检测并定位106点人脸关键点;
多局部处理模块,用于使用至少一个完整人脸框区域以及六个局部区域共七个位置的数据在进行归一化整合后,作为活体网络的输入数据,将构建好的数据送入预先训练好的基于注意力机制的多局部特征融合活体识别分类器中;
活体检测模块,用于判定测试数据是否为活体。
第三方面,本发明提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,该程序被处理器执行时实现如第一方面所述的方法。
本发明的优点在于:
1、本发明是一种基于注意力机制的多局部特征融合活体识别方法、系统和计算机设备,能够针对照片、面具及仿真度极高的头部模型,极大幅度的提高人脸识别系统的抗攻击性能,从而让人脸识别系统的安全级别得到质的提升;
2、本发明是一种基于注意力机制的多局部特征融合活体识别方法、系统和计算机设备,可在移动端设备上实现约50ms的快速活体检测,提高人脸识别系统的流畅性,从而提高用户体验感受。
【附图说明】
下面参照附图结合实施例对本发明作进一步的描述。
图1是本发明的实施例一方法的流程示意图。
图2是本发明的实施例一方法中的基于人脸特征点的局部特征选取方法示意图。
图3是本发明的实施例一方法中的基于人脸特征点的人脸局部示意图。
图4是本发明的实施例二系统的功能性框图。
图5是本发明的实施例三计算机设备的结构示意图.
【具体实施方式】
实施例一:
本实施例提供了一种人脸活体检测方法,如图1所示,具体包括如下步骤:
步骤S1:获取待分析数据:
分析数据采集装置为能够获取被摄体的图像数据的摄像头,如门禁系统的摄像头,手机的前后摄像头等;
步骤S2:基于获取到的待分析数据,进行人脸检测:
使用预先训练好的人脸检测器(诸如retinaface)来预测待分析数据中人脸在待分析图像中的位置,这里可以使用网络公开的人脸数据集(WIDER Face、VGG face2、MS-Celeb-1Md等)训练一个人脸检测模型,用于进行人脸检测;
步骤S3:根据预先训练好的的人脸检测模型进行人脸检测,判断是否检测到人脸,如果预测结果待分析数据种没有人脸,则返回步骤S1步骤,重新获取待分析数据;如果检测到人脸,则转入步骤S4;
步骤S4:根据步骤S3中检测到的人脸位置,在原始数据上依据人脸检测预先训练好的模型监测到的人脸位置,将原始数据按照人脸框外扩一倍进行抠图,这样整个头部都在图内,然后使用预先训练好的人脸关键点检测模型进行预测人脸106点,这里可以使用网络公开的人脸关键点数据集LaPa-Dataset训练一个人脸关键点预测模型,用于进行人脸关键点的预测;
步骤S5:根据监测到的人脸及关键点位置,通过预先设定好策略,选取完整人脸位置及六个局部人脸位置,构建下一步网络预测需要的数据。使用一个大人脸框区域以及六个局部区域共七个位置的数据在进行归一化整合后,作为活体网络的输入数据;
其中,所述选取完整人脸位置及六个局部人脸位置(基于注意力机制的多局部特征融合活体识别分类器),如图2所示,具体包括:
S401表示基于人脸关键点的选取的人脸框的示意位置,
S402表示基于人脸关键点的选取的上额头局部框的示意位置,
S403表示基于人脸关键点的选取的左眼眶的示意位置,
S404表示基于人脸关键点的选取的右眼眶的示意位置,
S405表示基于人脸关键点的选取的左耳框的示意位置,
S406表示基于人脸关键点的选取的右耳框的示意位置,
S407表示基于人脸关键点的选取的鼻子及嘴部框的示意位置。
其中S401、S403、S404、S405、S406、S407均为正方形,S402为长方形。计算顺序为S401、S403、S404、S405、S406、S407和S402。下面来讲解各个框的位置选择方法:
为了方便说明与理解,每个框的位置,用一个中心点以及对应的宽高表示。
步骤a、S401的一种选取方法为:以人脸关键点53和人脸关键点54两点连线的中点,作为人脸框中心点。
计算方式为S401_x=(53_x+54_x)/2,S401_y=(53_y+54_y)/2;
宽高首先取人脸关键点33和人脸关键点1在横轴方向坐标差以及人脸关键点17和计算出的中心点S401在纵轴方向的坐标差的最大值,然后乘以放大比例系数1.5后得到宽高值。
计算方式为S401_w=S401_h=1.5*max((33_x–1_x),(17_y–S401_y));
步骤b、S403的一种选取方法为:以人脸关键点40和人脸关键点69两点连线的中点,作为左眼眶中心点。
计算方式为S403_x=(40_x+69_x)/2,S403_y=(40_y+69_y)/2;
宽高首先取人脸关键点71和人脸关键点67在横轴方向坐标差以及人脸关键点73和人脸关键点36在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值。
计算方式为S403_w=S403_h=2.0*max((71_x–67_x),(73_y–36_y));
步骤c、S404的一种选取方法为:以人脸关键点50和人脸关键点78两点连线的中点,作为有眼眶中心点。
计算方式为S404_x=(50_x+78_x)/2,S404_y=(50_y+78_y)/2;
宽高首先取人脸关键点80人脸关键点76在横轴方向坐标差以及人脸关键点82和人脸关键点45在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值。
计算方式为S404_w=S404_h=2.0*max((80_x–76_x),(82_y–45_y));
步骤d、S405的一种选取方法为:以人脸关键点3为中心点,作为左耳框的中心点。
计算方式为S405_x=3_x,S405_y=3_y;
宽高首先取人脸关键点105和人脸关键点2在横轴方向坐标差以及人脸关键点5和人脸关键点1在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值。
计算方式为S405_w=S405_h=2.0*max((105_x–2_x),(5_y–1_y));
步骤e、S406的一种选取方法为:以人脸关键点31为中心点,作为右耳框的中心点。
计算方式为S406_x=31_x,S406_y=31_y;
宽高首先取人脸关键点32和人脸关键点106在横轴方向坐标差以及人脸关键点29和人脸关键点33在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值。
计算方式为S406_w=S406_h=2.0*max((32_x–106_x),(29_y–33_y));
步骤f、S407的一种选取方法为:以人脸关键点61和人脸关键点88两点连线的中点,作为鼻子及嘴巴框的中心点。
计算方式为S407_x=(61_x+88_x)/2,S407_y=(61_y+88_y)/2;
宽高首先取人脸关键点103和人脸关键点55在横轴方向坐标差以及人脸关键点91和人脸关键点85在纵轴方向的坐标差的最大值,然后乘以放大比例系数1.5后得到宽高值。
计算方式为S407_w=S407_h=1.5*max((103_x–55_x),(91_y–85_y));
步骤g、S402的一种选取方法为:以人脸关键点52为中心,点88的对称点作为S402的中心点,作为额头框中心点。
计算方式为S402_x=2*52_x–88_x,S402_y=2*52_y–88_y;
S402的宽取S404右边缘到S403左边缘作为宽。
计算方式为S402_w=(S404_x+S404_w/2)–(S403_x–S403_w/2);
S402的高取S403的高和S404的高均值的一半。
计算方式为S402_h=(S403_h+S404_h)/2)/2;
如图3所示,待测试数据基于人脸关键点位置计算出来的完整人脸框以及局部框在原始数据上显示出来的示意图,S501表示人脸框的示意位置,S502表示上额头局部框的示意位置,S503表示左眼眶的示意位置,S504表示右眼眶的示意位置,S505表示左耳框的示意位置,S506表示右耳框的示意位置,S507表示鼻子及嘴部框的示意位置。在将各自框内数据选取出来后,经过归一化流程后,作为预先训练好的基于注意力机制的多局部特征融合活体模型的输入数据,用于该模型进行预测输入数据是否为活体;
步骤S6:通过步骤S5中构建好的输入数据,作为预先训练好的活体识别分类器的输入,将步骤S5中构建好的输入数据送入预先训练好的基于注意力机制的多局部特征融合活体识别分类器中;
经过分析发现,活体检测算法关注的区域位置,并在构建网络输入数据的时候,就增加对应区域,提高模型对这些局部特征的注意力,能够大幅度提升活体算法的效果。基于注意力机制的多局部特征融合活体分类器的训练过程是离线的,通过事先收集好的真人和各种攻击数据进行训练,模型输出的结果是判断为真人的得分;
步骤S7:基于步骤S6中获取的预测得分结果,根据设定的适当的阈值,如果获取的预测得分结果大于预设的阈值,则表示该测试数据为活体,否则则表示该测试数据为非活体数据。关于阈值的设定,可根据与训练模型效果,应用结成后的策略以及使用场景对活体数据的宽容度,来进行适当的调整;
本实施例中,选取0.45阈值作为预设阈值,如果得分超过该阈值则转入步骤S8,反之则转入步骤S9;
步骤S8:预测待分析数据为活体数据;
步骤S9:预测待分析数据为非活体数据。
基于同一发明构思,本发明申请还提供了与实施例一中的方法对应的系统,详见实施例二。
实施例二:
本发明提供了一种人脸活体检测系统,如图4所示,包括:
活体检测系统20,包括:数据获取模块21、人脸关键点检测模块22、多局部处理模块23和活体检测模块24。所述数据获取模块21、人脸关键点检测模块22、多局部处理模块23以及活体检测模块24,可以由诸如硬件(例如摄像头、服务器、专用计算机或CPU、GPU、ASIC以及各种专用集成电路等)、软件、硬件以及它们的任意可行的组合配置。
数据获取模块21,用于获取被摄体的图像数据;
人脸关键点检测模块22,用于进行人脸及关键点检测;
多局部处理模块23,用于使用一个大人脸框区域以及六个局部区域共七个位置的数据在进行归一化整合后,作为活体网络的输入数据,将构建好的数据送入预先训练好的基于注意力机制的多局部特征融合活体识别分类器中;
活体检测模块24,用于判定测试数据是否为活体。
具体地,视频数据获取模块21用于获取视频数据,所述视频数据获取模块21可以是包括能够获取被摄体的视频数据的RGB摄像机的视频采集装置,也可以是包括能够获取被摄体的深度信息的深度相机(深度摄像机)的视频采集装置。视频数据获取模块21可以与其后的待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24物理上分离,或者物理上位于同一位置甚至位于同一机壳内部。在所述视频数据获取模块21与其后的待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24物理上分离的情况下,所述视频数据获取模块21进一步经由有线或者无线方式将所述视频采集装置获取的深度视频数据发送给其后的模块。在所述视频数据获取模块21与其后的待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24物理上位于同一位置甚至位于同一机壳内部的情况下,所述视频数据获取模块21经由内部总线将所述视频采集装置获取的深度视频数据发送给其后的模块。所述视频数据可以是RGB彩色视频数据或者包括深度信息的RGBD视频数据。在经由有线或者无线方式或者经由内部总线发送所述视频数据之前,可以将其预定格式进行编码和压缩为视频数据包,以减少发送需要占用的通信量和带宽。
由于本发明实施例二所介绍的系统,为实施本发明实施例一的方法所采用的装置,故而基于本发明实施例一所介绍的方法,本领域所属人员能够了解该装置的具体结构及变形,故而在此不再赘述。凡是本发明实施例一的方法所采用的系统都属于本发明所欲保护的范围。
基于同一发明构思,本申请提供了实施例一对应的计算机设备,详见实施例三。
实施例三:
本发明提供了一种计算机计备,如图5所示,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,该程序被处理器执行时实现如实施例一所述的方法。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机设备。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本发明的较佳实施用例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换以及改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种人脸活体检测方法,其特征在于:包括如下步骤:
步骤1:获取待分析数据:
通过摄像头获取被摄体的图像数据;
步骤2:进行人脸关键点检测:
使用预先训练好的人脸检测模型及106点人脸关键点检测模型,进行精准快速的人脸检测并定位106点人脸关键点;
步骤3:构建网络预测输入数据:
根据检测到的人脸关键点位置,将人脸至少划分出七个区域,包括:完整人脸框、上额头局部框、左眼眶、右眼眶、左耳框、右耳框、鼻子及嘴部框;
根据获取到的人脸框位置以及106点人脸关键点坐标,确定所述七个区域的具体位置信息,通过进行一系列的归一化操作,完成网络预测输入构建;
步骤4:进行网络推理,获取预测结果:
使用预先训练好的基于注意力机制的整体人脸数据结合特定六个重点信息区域的预测模型,将上一步构建好的数据输入给该模型,通过网络推理,获取网络输出作为推理数据是否为活体的置信度;
步骤5:判断是否为活体人脸:
根据上一步输出的结果,判断推理数据与预设阈值,确定测试数据是否为活体人脸。
2.如权利要求1所述的一种人脸活体检测方法,其特征在于:所述步骤3中的确定完整人脸框及及六个局部框位置信息,具体包括:
设定S401表示基于人脸关键点的选取的人脸框的示意位置,
S402表示基于人脸关键点的选取的上额头局部框的示意位置,
S403表示基于人脸关键点的选取的左眼眶的示意位置,
S404表示基于人脸关键点的选取的右眼眶的示意位置,
S405表示基于人脸关键点的选取的左耳框的示意位置,
S406表示基于人脸关键点的选取的右耳框的示意位置,
S407表示基于人脸关键点的选取的鼻子及嘴部框的示意位置;
其中S401、S403、S404、S405、S406、S407均为正方形,S402为长方形,计算顺序为S401、S403、S404、S405、S406、S407和S402,具体包括
步骤a、S401的选取方法为:以人脸关键点53和人脸关键点54两点连线的中点,作为人脸框中心点;
计算方式为S401_x=(53_x+54_x)/2,S401_y=(53_y+54_y)/2;
宽高首先取人脸关键点33和人脸关键点1在横轴方向坐标差以及人脸关键点17和计算出的中心点S401在纵轴方向的坐标差的最大值,然后乘以放大比例系数1.5后得到宽高值;
计算方式为S401_w=S401_h=1.5*max((33_x–1_x),(17_y–S401_y));
步骤b、S403的选取方法为:以人脸关键点40和人脸关键点69两点连线的中点,作为左眼眶中心点;
计算方式为S403_x=(40_x+69_x)/2,S403_y=(40_y+69_y)/2;
宽高首先取人脸关键点71和人脸关键点67在横轴方向坐标差以及人脸关键点73和人脸关键点36在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S403_w=S403_h=2.0*max((71_x–67_x),(73_y–36_y));
步骤c、S404的选取方法为:以人脸关键点50和人脸关键点78两点连线的中点,作为有眼眶中心点;
计算方式为S404_x=(50_x+78_x)/2,S404_y=(50_y+78_y)/2;
宽高首先取人脸关键点80和人脸关键点76在横轴方向坐标差以及人脸关键点82和人脸关键点45在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S404_w=S404_h=2.0*max((80_x–76_x),(82_y–45_y));
步骤d、S405的选取方法为:以人脸关键点3为中心点,作为左耳框的中心点;
计算方式为S405_x=3_x,S405_y=3_y;
宽高首先取人脸关键点105和人脸关键点2在横轴方向坐标差以及人脸关键点5和人脸关键点1在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S405_w=S405_h=2.0*max((105_x–2_x),(5_y–1_y));
步骤e、S406的选取方法为:以人脸关键点31为中心点,作为右耳框的中心点;
计算方式为S406_x=31_x,S406_y=31_y;
宽高首先取人脸关键点32和人脸关键点106在横轴方向坐标差以及人脸关键点29和人脸关键点33在纵轴方向的坐标差的最大值,然后乘以放大比例系数2.0后得到宽高值;
计算方式为S406_w=S406_h=2.0*max((32_x–106_x),(29_y–33_y));
步骤f、S407的选取方法为:以人脸关键点61和人脸关键点88两点连线的中点,作为鼻子及嘴巴框的中心点;
计算方式为S407_x=(61_x+88_x)/2,S407_y=(61_y+88_y)/2;
宽高首先取人脸关键点103和人脸关键点55在横轴方向坐标差以及人脸关键点91和人脸关键点85在纵轴方向的坐标差的最大值,然后乘以放大比例系数1.5后得到宽高值;
计算方式为S407_w=S407_h=1.5*max((103_x–55_x),(91_y–85_y));
步骤g、S402的选取方法为:以人脸关键点52为中心,点88的对称点作为S402的中心点,作为额头框中心点;
计算方式为S402_x=2*52_x–88_x,S402_y=2*52_y–88_y;
S402的宽取S404右边缘到S403左边缘作为宽;
计算方式为S402_w=(S404_x+S404_w/2)–(S403_x–S403_w/2);
S402的高取S403的高和S404的高均值的一半;
计算方式为S402_h=(S403_h+S404_h)/2)/2。
3.一种人脸活体检测系统,其特征在于:包括:数据获取模块、人脸关键点检测模块、多局部处理模块和活体检测模块;
所述数据获取模块,用于通过摄像头获取被摄体的图像数据;
人脸关键点检测模块,用于使用预先训练好的人脸检测模型及106点人脸关键点检测模型,进行精准快速的人脸检测并定位106点人脸关键点;
多局部处理模块,用于使用至少一个完整人脸框区域以及六个局部区域共七个位置的数据在进行归一化整合后,作为活体网络的输入数据,将构建好的数据送入预先训练好的基于注意力机制的多局部特征融合活体识别分类器中;
活体检测模块,用于判定测试数据是否为活体。
4.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,其特征在于:该程序被处理器执行时实现如权利要求1至2任一项所述的一种人脸活体检测方法。
CN202110791803.3A 2021-07-13 2021-07-13 一种人脸活体检测方法、系统和计算机设备 Active CN113553928B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110791803.3A CN113553928B (zh) 2021-07-13 2021-07-13 一种人脸活体检测方法、系统和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110791803.3A CN113553928B (zh) 2021-07-13 2021-07-13 一种人脸活体检测方法、系统和计算机设备

Publications (2)

Publication Number Publication Date
CN113553928A true CN113553928A (zh) 2021-10-26
CN113553928B CN113553928B (zh) 2024-03-22

Family

ID=78131732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110791803.3A Active CN113553928B (zh) 2021-07-13 2021-07-13 一种人脸活体检测方法、系统和计算机设备

Country Status (1)

Country Link
CN (1) CN113553928B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117349810A (zh) * 2023-10-16 2024-01-05 广东省中山市质量技术监督标准与编码所 一种多级身份认证方法、终端及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492551A (zh) * 2018-10-25 2019-03-19 腾讯科技(深圳)有限公司 活体检测方法、装置及应用活体检测方法的相关系统
CN111680588A (zh) * 2020-05-26 2020-09-18 广州多益网络股份有限公司 一种基于可见光和红外光的人脸闸机活体检测方法
CN111797677A (zh) * 2020-05-13 2020-10-20 南京中科道置智能科技有限公司 一种基于面部虹膜识别和热成像技术的人脸识别活体检测方法
CN112699857A (zh) * 2021-03-24 2021-04-23 北京远鉴信息技术有限公司 基于人脸姿态的活体验证方法、装置及电子设备
WO2021082635A1 (zh) * 2019-10-29 2021-05-06 深圳云天励飞技术股份有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492551A (zh) * 2018-10-25 2019-03-19 腾讯科技(深圳)有限公司 活体检测方法、装置及应用活体检测方法的相关系统
WO2021082635A1 (zh) * 2019-10-29 2021-05-06 深圳云天励飞技术股份有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备
CN111797677A (zh) * 2020-05-13 2020-10-20 南京中科道置智能科技有限公司 一种基于面部虹膜识别和热成像技术的人脸识别活体检测方法
CN111680588A (zh) * 2020-05-26 2020-09-18 广州多益网络股份有限公司 一种基于可见光和红外光的人脸闸机活体检测方法
CN112699857A (zh) * 2021-03-24 2021-04-23 北京远鉴信息技术有限公司 基于人脸姿态的活体验证方法、装置及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117349810A (zh) * 2023-10-16 2024-01-05 广东省中山市质量技术监督标准与编码所 一种多级身份认证方法、终端及介质

Also Published As

Publication number Publication date
CN113553928B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN109446981B (zh) 一种脸部活体检测、身份认证方法及装置
CN105740775B (zh) 一种三维人脸活体识别方法及其装置
US7305106B2 (en) Object detection apparatus, object detection method and recording medium
CN109299658B (zh) 脸部检测方法、脸部图像渲染方法、装置及存储介质
CN111178249A (zh) 人脸比对的方法、装置、计算机设备及存储介质
CN111414858B (zh) 人脸识别方法、目标图像的确定方法、装置和电子系统
CN109948439B (zh) 一种活体检测方法、系统及终端设备
CN111104833A (zh) 用于活体检验的方法和装置,存储介质和电子设备
CN112800825A (zh) 基于关键点的关联方法、系统及介质
CN112633221A (zh) 一种人脸方向的检测方法及相关装置
CN114894337B (zh) 一种用于室外人脸识别测温方法及装置
CN113553928B (zh) 一种人脸活体检测方法、系统和计算机设备
CN111881740A (zh) 人脸识别方法、装置、电子设备及介质
CN112446254A (zh) 人脸追踪的方法及相关装置
CN111310720A (zh) 基于图度量学习的行人重识别方法及系统
JP7264308B2 (ja) 二次元顔画像の2つ以上の入力に基づいて三次元顔モデルを適応的に構築するためのシステムおよび方法
CN111813995A (zh) 一种基于时空关系的行人提取物品行为检测方法及系统
CN115690934A (zh) 基于批量人脸识别的师生考勤打卡方法及装置
CN113052815B (zh) 图像清晰度确定方法及装置、存储介质和电子设备
CN115410257A (zh) 图像保护方法及相关设备
CN109886084A (zh) 基于陀螺仪的人脸认证方法、电子设备及存储介质
CN111144240B (zh) 图像处理方法及相关设备
CN114038045A (zh) 一种跨模态人脸识别模型构建方法、装置及电子设备
CN111091089B (zh) 一种人脸图像处理方法、装置、电子设备及存储介质
CN110956098B (zh) 图像处理方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant