CN110852704B - 基于密集微小人脸识别的考勤方法、系统、设备及介质 - Google Patents
基于密集微小人脸识别的考勤方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN110852704B CN110852704B CN201911004656.XA CN201911004656A CN110852704B CN 110852704 B CN110852704 B CN 110852704B CN 201911004656 A CN201911004656 A CN 201911004656A CN 110852704 B CN110852704 B CN 110852704B
- Authority
- CN
- China
- Prior art keywords
- face
- features
- scanning
- person
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/109—Time management, e.g. calendars, reminders, meetings or time accounting
- G06Q10/1091—Recording time for administrative or management purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Operations Research (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Educational Administration (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种基于密集微小人脸识别的考勤方法、系统、设备及介质,所述方法包括:根据预设扫描次数,获取每次扫描的目标区域的人脸数据;利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征;将人脸深度特征与数据库的深度特征进行比对,获得识别结果;根据每次扫描的识别结果,生成目标区域的考勤记录。本发明可以消除微小人脸特征描述符由于旋转、偏移所产生的影响,在微小人脸区域保留充分的特征细节,更精准快速地提取脸部特征,因此密集微小人脸识别精度较高且可满足多人脸同时识别的需求。
Description
技术领域
本发明涉及一种基于密集微小人脸识别的考勤方法、系统、设备及介质,属于计算机视觉技术领域。
背景技术
考勤是人力资源管理重要内容,是保证工作人员能够自觉遵守劳动纪律以及工作时间的管理手段。近年来,随着大数据与人工智能的迅速发展,IC卡、指纹识别与人脸识别等考勤方法由于其统计精度高,速度快,节省人力等优点,已逐步取代了传统的人工考勤。IC卡与指纹考勤大多一次只能对一个身份进行认证,人脸识别作为考勤的新兴技术,为考勤系统的发展提供更大的空间和可能性。
人脸识别属于计算机视觉的范畴,特指计算机利用分析比较人脸视觉特征信息自动进行身份鉴别的“智能”技术。其研究范围包含图像采集、人脸检测、人脸对齐、特征表示等过程。近些年来随着深度卷积神经网络D-CNN(Deep-Convolution Neural Network)的引入,人脸识别的准确率得以跨越式提升。但由于光照环境、姿态遮挡、年龄变化、图像质量等难题,人脸识别仍是计算机视觉研究的热点。
2014年提出的DeepFace算法使用深度学习框架,重新研究了人脸的对齐和表示步骤,有效地克服以往人脸对齐方法的缺点和局限性。FaceNet算法,重新设计人脸图像的相似性度量,实现人脸识别,身份验证等任务,这些方法侧重于基于图像特征进行人脸识别,这些较为经典的人脸识别方法侧重单人脸识别,对密集微小人脸识别的准确率不高。
综上所述,传统的IC卡签到、指纹识别、人脸识别等考勤方法,虽然识别精度很高,但大多只能实现一次对一个身份的认证,不能同时对多个身份进行认证,效率较为低下。随着Fisherface、Deepface、FaceNet、Arcface等人脸识别算法的提出,针对图像中单一人脸识别技术经过多年的研究已日趋成熟。但人群密集环境下的微小人脸识别的研究仍偏少。由于图像中存在的人脸较多且微小不清晰,人脸检测难度提高且识别精度大大降低,无法满足应用场景的高效需求。且视频流中的人脸识别相比于图像人脸识别,其工作量要大得多,因此如何提高密集微小人脸识别的效率是需要解决的关键问题。
发明内容
有鉴于此,本发明提供了一种基于密集微小人脸识别的考勤方法、系统、设备及介质,其针对密集环境下人脸采集的特殊性,利用密集微小人脸检测的方法框定人脸框,并且利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,以消除微小人脸特征描述符由于旋转、偏移所产生的影响,在微小人脸区域保留充分的特征细节,更精准快速地提取脸部特征,因此密集微小人脸识别精度较高且可满足多人脸同时识别的需求。
本发明的第一个目的在于提供一种基于密集微小人脸识别的考勤方法。
本发明的第二个目的在于提供一种基于密集微小人脸识别的考勤系统。
本发明的第三个目的在于提供一种计算机设备。
本发明的第四个目的在于提供一种存储介质。
本发明的第一个目的可以通过采取如下技术方案达到:
一种基于密集微小人脸识别的考勤方法,所述方法包括:
根据预设扫描次数,获取每次扫描的目标区域的人脸数据;
利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;
利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征;
将人脸深度特征与数据库的深度特征进行比对,获得识别结果;
根据每次扫描的识别结果,生成目标区域的考勤记录。
进一步的,所述利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框,具体包括:
利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像;
利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征;
针对高维映射特征,利用边界框多次回归框定人脸区域;
利用非最大抑制的方法,对框定的人脸区域进行迭代,若框定的人脸区域非最大且不符合人脸特征,则消除该框定的人脸区域,继续框定人脸区域,直到框定的人脸区域最大且符合人脸特征时,返回人脸框的坐标及其大小。
进一步的,所述利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征,具体包括:
利用标定模型对框定的人脸框中的人脸进行预处理;
利用训练好的深度残差网络对预处理后的人脸进行特征提取,获得高维映射特征,将该高维映射特征作为人脸深度特征。
进一步的,所述对框定的人脸框中的人脸进行预处理包括对框定的人脸框中的人脸进行对齐,具体为:
运用集成回归树算法,估计框定的人脸框中人脸关键点初始位置,经过多次迭代,使人脸的多个关键点准确地落在脸部的各个部位上。
进一步的,所述将人脸深度特征与数据库的深度特征进行比对,获得识别结果,具体包括:
将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值;
判断最小匹配值是否小于预设阈值;
若最小匹配值小于预设阈值,则获得匹配成功的识别结果;
若最小匹配值大于或等于预设阈值,则获得匹配失败的识别结果。
进一步的,所述将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值,具体为:
将人脸深度特征和数据库的深度特征映射到欧几里德空间,计算人脸深度特征与数据库的深度特征之间的欧氏距离,将欧氏距离最小值作为最小匹配值。
进一步的,所述根据每次扫描的识别结果,生成目标区域的考勤记录,具体包括:
若第一次扫描的识别结果指出某个人员在目标区域内,则判断该人员为准时出勤;
若每次扫描都没有某个人员的识别结果,则判断该人员为缺勤;
若第一次扫描没有某个人员的识别结果,且最后一次扫描的识别结果指出该人员在目标区域内,则判断该人员为迟到;
若第一次扫描的识别结果指出某个人员在目标区域内,且最后一次扫描没有该人员的识别结果,则判断该人员为早退;
若第一次扫描和最后一次扫描的识别结果指出某个人员在目标区域内,且第一次扫描和最后一次扫描之间至少有一次扫描没有该人员的识别结果,则判断该人员为暂离;
根据判断得到的各个人员的考勤情况,生成目标区域的考勤记录。
本发明的第二个目的可以通过采取如下技术方案达到:
一种基于密集微小人脸识别的考勤系统,所述系统包括:
获取模块,用于根据预设扫描次数,获取每次扫描的目标区域的人脸数据;
检测模块,用于利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;
提取模块,用于利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征;
识别模块,用于将人脸深度特征与数据库的深度特征进行比对,获得识别结果;
生成模块,用于根据每次扫描的识别结果,生成目标区域的考勤记录。
本发明的第三个目的可以通过采取如下技术方案达到:
一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的考勤方法。
本发明的第四个目的可以通过采取如下技术方案达到:
一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的考勤方法。
本发明相对于现有技术具有如下的有益效果:
1、本发明综合运用机器学习、计算机视觉等相关技术结合实时视频大数据,构建基于实时视频的密集微小人脸识别框架,在密集微小人脸识别框架中,利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框,然后利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征,可以消除微小人脸特征描述符由于旋转、偏移所产生的影响,更精准快速地提取脸部特征,因此密集微小人脸识别精度较高且可满足多人脸同时识别的需求。
2、本发明利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像,堆叠层数图像可以极大地保留人脸特征细节,并利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征,然后利用边界框多次回归框定人脸区域,对框定的人脸区域进行迭代,直到框定的人脸区域最大且符合人脸特征时,得到人脸框的坐标及其大小,此时得到的人脸框能够满足后续深度特征提取的需求。
3、本发明在对框定的人脸框中的人脸进行对齐,运用集成回归树算法,估计框定的人脸框中人脸关键点初始位置,经过多次迭代,使人脸的多个关键点准确地落在脸部的各个部位上,有效且极大地保留人脸特征,以便更精确地对人脸特征进行提取。
4、本发明设计特征空间上距离度量来计算人脸的相似性,即通过将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值,将最小匹配值与预设阈值进行比较得到识别结果,从而实现密集微小人脸的识别。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例1的基于密集微小人脸识别的考勤方法的流程图。
图2为本发明实施例1的人脸检测的流程图。
图3为本发明实施例1的人脸深度特征提取的流程图。
图4为本发明实施例1的人脸识别的流程图。
图5为本发明实施例2的基于密集微小人脸识别的考勤系统的结构框图。
图6为本发明实施例2的检测模块的结构框图。
图7为本发明实施例2的提取模块的结构框图。
图8为本发明实施例2的识别模块的结构框图。
图9为本发明实施例3的计算机设备的结构框图。
图10为本发明实施例3的计算机设备安装的课堂考勤软件的人脸识别主程序模块的框架图。
图11为本发明实施例3的接口实体关联关系图。
图12为本发明实施例3的课堂考勤软件的用户界面图。
图13为本发明实施例3的课堂考勤软件的启动考勤原理图。
图14为本发明实施例3的课堂考勤软件的停止考勤原理图。
图15为本发明实施例3的课堂考勤软件生成的考勤记录图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
如图1所示,本实施例提供了一种基于密集微小人脸识别的考勤方法,该方法包括以下步骤:
S101、根据预设扫描次数,获取每次扫描的目标区域的人脸数据。
本实施例应用于学校的课堂考勤中,即目标区域为课堂,课堂上的人员为学生,考虑到一节课时长为四十分钟,从上课铃响开始为第一次扫描,之后每隔五分钟扫描一次,即任意两次相邻的扫描之间的时间间隔相同,因此预设扫描次数为八次,获取每次扫描的课堂的人脸数据,该人脸数据为通过摄像头扫描采集得到的视频流数据。可以理解的是,本实施例的目标区域还可以是会议室等。
S102、利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框。
本实施例利用密集微小人脸检测的方法对目标区域的人脸数据进行检测,具体利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框。
如图2所示,该步骤S102具体包括:
S1021、利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像。
具体地,针对目标区域的人脸数据中的同一人脸图像,按照不同的分辨率(即不同尺度缩放,如缩放分别为0.25倍、0.5倍、1倍、1.5倍和2倍)进行堆叠,如面积大(像素长*高)的放在下面,以此类推,即可生成堆叠层数图像,本实施例所生成的堆叠层数图像为类似金字塔形状的图像,极大地保留人脸特征细节。
S1022、利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征。
本实施例的深度残差网络(ResNet)为ResNet-101,训练参数由ResNet-101在lfw数据集上训练的hr_res101.mat转为mat2tf.pkl提供;利用低维映射高维的方法从关键点信息中获取人脸的128维特征向量,即获得高维映射特征。
S1023、针对高维映射特征,利用边界框多次回归框定人脸区域。
S1024、利用非最大抑制的方法,对框定的人脸区域进行迭代,若框定的人脸区域非最大且不符合人脸特征,则消除该框定的人脸区域,返回步骤S1023继续框定人脸区域,直到框定的人脸区域最大且符合人脸特征时,返回人脸框的坐标及其大小。
S103、利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征。
本实施例利用基于C++编程语言的dlib库对上对框定的人脸框进行特征提取,如图3所示,该步骤S103具体包括:
S1031、利用标定(landmark)模型对框定的人脸框中的人脸进行预处理。
对框定的人脸框中的人脸进行预处理主要是对齐算法,即对框定的人脸框中的人脸进行对齐,具体为:
运用集成回归树(Ensemble of Regression Trees,简称ERT)算法,估计框定的人脸框中人脸关键点初始位置,经过多次迭代,使人脸的多个关键点准确地落在脸部的各个部位上,有效且极大地保留人脸特征,以便更精确地对人脸特征进行提取;其中关键点有68个,脸部的各个部位包括脸部的嘴角、上唇、鼻子、前额等部位。
S1032、利用训练好的深度残差网络对预处理后的人脸进行特征提取,获得高维映射特征,将该高维映射特征作为人脸深度特征。
具体地,利用深度残差网络(ResNet-101)对预处理后的人脸进行特征提取,同样也是利用低维映射高维的方法从关键点信息中获取人脸的128维特征向量,即获得高维映射特征,将该高维映射特征作为人脸深度特征,主要糅合了颜色特征、纹理特征、形状特征、空间关系特征等。
S104、将人脸深度特征与数据库的深度特征进行比对,获得识别结果。
如图4所示,该步骤S104具体包括:
S1041、将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值。
具体地,将人脸深度特征和数据库的深度特征映射到欧几里德空间,计算人脸深度特征与数据库的深度特征之间的欧氏距离,将欧氏距离最小值作为最小匹配值;其中,数据库的深度特征带有标签。
S1042、判断最小匹配值是否小于预设阈值。
本实施例的预设阈值为用以排除错误识别情况的阈值,若最小匹配值小于预设阈值,则进入步骤S1043,若小于预设阈值大于或等于预设阈值,则进入步骤S1044。
S1043、获得匹配成功的识别结果,即识别的人脸对应的人员在目标区域内,由于匹配成功,返回数据库的深度特征对应的标签。
S1044、获得匹配失败的识别结果,即识别的人脸不是目标区域的人员,由于匹配失败,返回other。
S105、根据每次扫描的识别结果,生成目标区域的考勤记录。
根据每次扫描的识别结果,可以判断得到如下目标区域中各个人员的考勤情况:
A、若第一次扫描的识别结果指出某个人员在目标区域内,则判断该人员为准时出勤。
B、若每次扫描都没有某个人员的识别结果,则判断该人员为缺勤。
C、若第一次扫描没有某个人员的识别结果,且最后一次扫描的识别结果指出该人员在目标区域内,则判断该人员为迟到。
由于预设扫描次数为八次,最后一次扫描的识别结果指出该人员在目标区域内有以下七种情况:
1)第二次至第八次扫描的识别结果指出该人员在目标区域内。
2)第二次扫描没有该人员的识别结果,第三次至第八次扫描的识别结果指出该人员在目标区域内。
3)第二次和第三次扫描没有该人员的识别结果,第四次至第八次扫描的识别结果指出该人员在目标区域内。
4)第二次至第四次扫描没有该人员的识别结果,第五次至第八次扫描的识别结果指出该人员在目标区域内。
5)第二次至第五次扫描没有该人员的识别结果,第六次至第八次扫描的识别结果指出该人员在目标区域内。
6)第二次至第六次扫描没有该人员的识别结果,第七次和第八次扫描的识别结果指出该人员在目标区域内。
7)第二次至第七次扫描没有该人员的识别结果,第八次扫描的识别结果指出该人员在目标区域内。
D、若第一次扫描的识别结果指出某个人员在目标区域内,且最后一次扫描没有该人员的识别结果,则判断该人员为早退。
由于预设扫描次数为八次,最后一次扫描没有该人员的识别结果有以下七种情况:
1)第二次至第八次扫描没有该人员的识别结果。
2)第二次的识别结果指出某个人员在目标区域内,第三次至第八次扫描没有该人员的识别结果。
3)第二次和第三次的识别结果指出某个人员在目标区域内,第四次至第八次扫描没有该人员的识别结果。
4)第二次至第四次的识别结果指出某个人员在目标区域内,第五次至第八次扫描没有该人员的识别结果。
5)第二次至第五次的识别结果指出某个人员在目标区域内,第六次至第八次扫描没有该人员的识别结果。
6)第二次至第六次的识别结果指出某个人员在目标区域内,第七次和第八次扫描没有该人员的识别结果。
7)第二次至第七次的识别结果指出某个人员在目标区域内,第八次扫描没有该人员的识别结果。
E、若第一次扫描和最后一次扫描的识别结果指出某个人员在目标区域内,且第一次扫描和最后一次扫描之间至少有一次扫描没有该人员的识别结果,则判断该人员为暂离。
由于预设扫描次数为八次,第一次扫描和最后一次扫描之间有六次扫描,这六次扫描至少有一次扫描没有该人员的识别结果,例如第二次扫描没有该人员的识别结果、第三次扫描没有该人员的识别结果、第二次和第三次扫描没有该人员的识别结果、第五次至第七次扫描没有该人员的识别结果等等。
根据上述A~E判断得到的各个人员的考勤情况,生成目标区域的考勤记录。
本领域技术人员可以理解,实现上述实施例的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,相应的程序可以存储于计算机可读存储介质中。
应当注意,尽管在附图中以特定顺序描述了上述实施例的方法操作,但是这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
实施例2:
如图5所示,本实施例提供了一种基于密集微小人脸识别的考勤系统,该系统包括获取模块501、检测模块502、提取模块503、识别模块504和生成模块505,各个模块的具体功能如下:
所述获取模块501,用于根据预设扫描次数,获取每次扫描的目标区域的人脸数据。
所述检测模块502,用于利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框。
所述提取模块503,用于利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征。
所述识别模块504,用于将人脸深度特征与数据库的深度特征进行比对,获得识别结果。
所述生成模块505,用于根据每次扫描的识别结果,生成目标区域的考勤记录。
进一步地,所述检测模块502如图6所示,具体包括:
生成单元5021,用于利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像。
第一提取单元5022,用于利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征。
框定单元5023,用于针对高维映射特征,利用边界框多次回归框定人脸区域。
迭代单元5024,用于利用非最大抑制的方法,对框定的人脸区域进行迭代,若框定的人脸区域非最大且不符合人脸特征,则消除该框定的人脸区域,继续框定人脸区域,直到框定的人脸区域最大且符合人脸特征时,返回人脸框的坐标及其大小。
进一步地,所述提取模块503如图7所示,具体包括:
预处理单元5031,用于利用标定模型对框定的人脸框中的人脸进行预处理。
第二提取单元5032,用于利用训练好的深度残差网络对预处理后的人脸进行特征提取,获得高维映射特征,将该高维映射特征作为人脸深度特征。
进一步的,所述识别模块504如图8所示,具体包括:
比对单元5041,用于将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值。
判断单元5042,用于判断最小匹配值是否小于预设阈值。
第一获取单元5043,用于若最小匹配值小于预设阈值,则获得匹配成功的识别结果。
第二获取单元5044,用于若最小匹配值大于或等于预设阈值,则获得匹配失败的识别结果。
本实施例中各个模块的具体实现可以参见上述实施例1,在此不再一一赘述;需要说明的是,本实施例提供的系统仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
实施例3:
本实施例提供了一种计算机设备,该计算机设备为计算机,如图9所示,其通过系统总线901连接的处理器902、存储器、输入装置903、显示器904和网络接口905,该处理器用于提供计算和控制能力,该存储器包括非易失性存储介质906和内存储器907,该非易失性存储介质906存储有操作系统、计算机程序和数据库,该内存储器907为非易失性存储介质中的操作系统和计算机程序的运行提供环境,处理器902执行存储器存储的计算机程序时,实现上述实施例1的考勤方法,如下:
根据预设扫描次数,获取每次扫描的目标区域的人脸数据;
利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;
利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征;
将人脸深度特征与数据库的深度特征进行比对,获得识别结果;
根据每次扫描的识别结果,生成目标区域的考勤记录。
进一步地,所述利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框,具体包括:
利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像;
利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征;
针对高维映射特征,利用边界框多次回归框定人脸区域;
利用非最大抑制的方法,对框定的人脸区域进行迭代,若框定的人脸区域非最大且不符合人脸特征,则消除该框定的人脸区域,继续框定人脸区域,直到框定的人脸区域最大且符合人脸特征时,返回人脸框的坐标及其大小。
进一步地,所述利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征,具体包括:
利用标定模型对框定的人脸框中的人脸进行预处理;
利用训练好的深度残差网络对预处理后的人脸进行特征提取,获得高维映射特征,将该高维映射特征作为人脸深度特征。
进一步地,所述对框定的人脸框中的人脸进行预处理包括对框定的人脸框中的人脸进行对齐,具体为:
运用集成回归树算法,估计框定的人脸框中人脸关键点初始位置,经过多次迭代,使人脸的多个关键点准确地落在脸部的各个部位上。
进一步地,所述将人脸深度特征与数据库的深度特征进行比对,获得识别结果,具体包括:
将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值;
判断最小匹配值是否小于预设阈值;
若最小匹配值小于预设阈值,则获得匹配成功的识别结果;
若最小匹配值大于或等于预设阈值,则获得匹配失败的识别结果。
进一步地,所述将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值,具体为:
将人脸深度特征和数据库的深度特征映射到欧几里德空间,计算人脸深度特征与数据库的深度特征之间的欧氏距离,将欧氏距离最小值作为最小匹配值。
进一步地,所述根据每次扫描的识别结果,生成目标区域的考勤记录,具体包括:
若第一次扫描的识别结果指出某个人员在目标区域内,则判断该人员为准时出勤;
若每次扫描都没有某个人员的识别结果,则判断该人员为缺勤;
若第一次扫描没有某个人员的识别结果,且最后一次扫描的识别结果指出该人员在目标区域内,则判断该人员为迟到;
若第一次扫描的识别结果指出某个人员在目标区域内,且最后一次扫描没有该人员的识别结果,则判断该人员为早退;
若第一次扫描和最后一次扫描的识别结果指出某个人员在目标区域内,且第一次扫描和最后一次扫描之间至少有一次扫描没有该人员的识别结果,则判断该人员为暂离;
根据判断得到的各个人员的考勤情况,生成目标区域的考勤记录。
本实施例的计算机设备上可以安装能够实现上述考勤方法的课堂考勤软件,包括人脸识别主程序模块和考勤模块,其中人脸识别主程序模块如图10所示,包括算法单元、接口单元和界面设计单元。
算法单元包括人脸检测子单元和人脸识别子单元,其中人脸检测子单元可以实现的功能是:利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;人脸识别子单元可以实现的功能是:利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征;将人脸深度特征与数据库的深度特征进行比对,获得识别结果。
接口单元以Mysql数据库来存储考勤及人脸特征信息,其中对于实体对象的结构关系如下,每一位学生都属于一个班级,每一个班级都有多个学生;每一节课程都对应一个班级,每一个班级都对应多节课程,每一个学生都对应多个考勤状态,每一个考勤状态都对应一个学生,每一个考勤状态都对应一节课程,每一节课程都对应多个考勤状态,每一个用户都可以安排多节课程,每一节课程都对应一个用户;细分学生实体,包含了学生自增长ID、学生姓名、学生学号、预存人脸图片、人脸特征及创建时间;细分班级实体,包含了班级自增长ID、班级名称、班级人数、及创建时间与修改时间;细分课程实体,包含了课程自增长ID、课程号、课程名称、课程时间、课程进行的教室、创建时间及修改时间;还有考勤状态实体和考勤表实体等,如图11所示,为接口实体关联关系图。
界面设计单元使用了Pyqt5作为基础库,运用designer对界面按钮及事件进行设计,实现用户自定义抓拍的延时和选择课程功能,利用多线程编程并行解决视频关键帧截取预处理、调用数据库以及运行多人脸实时识别算法。
本实施例的课堂考勤软件的用户界面如图12所示,用户在用户界面可以自定义抓拍的延时和选择课程,填写完这些配置信息之后,点击启动提交信息到后台;如图13所示,在后台,主界面线程会新建一个线程执行“截取视频帧——人脸识别——保存考勤状态”的流程;如图14所示,用户在软件运行时,点击停止会终止算法线程,而且会新建一个线程执行生成考勤记录,如图15所示。
实施例4:
本实施例提供了一种存储介质,该存储介质为计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时,实现上述实施例1的考勤方法,如下:
根据预设扫描次数,获取每次扫描的目标区域的人脸数据;
利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;
利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征;
将人脸深度特征与数据库的深度特征进行比对,获得识别结果;
根据每次扫描的识别结果,生成目标区域的考勤记录。
进一步地,所述利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框,具体包括:
利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像;
利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征;
针对高维映射特征,利用边界框多次回归框定人脸区域;
利用非最大抑制的方法,对框定的人脸区域进行迭代,若框定的人脸区域非最大且不符合人脸特征,则消除该框定的人脸区域,继续框定人脸区域,直到框定的人脸区域最大且符合人脸特征时,返回人脸框的坐标及其大小。
进一步地,所述利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征,具体包括:
利用标定模型对框定的人脸框中的人脸进行预处理;
利用训练好的深度残差网络对预处理后的人脸进行特征提取,获得高维映射特征,将该高维映射特征作为人脸深度特征。
进一步地,所述对框定的人脸框中的人脸进行预处理包括对框定的人脸框中的人脸进行对齐,具体为:
运用集成回归树算法,估计框定的人脸框中人脸关键点初始位置,经过多次迭代,使人脸的多个关键点准确地落在脸部的各个部位上。
进一步地,所述将人脸深度特征与数据库的深度特征进行比对,获得识别结果,具体包括:
将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值;
判断最小匹配值是否小于预设阈值;
若最小匹配值小于预设阈值,则获得匹配成功的识别结果;
若最小匹配值大于或等于预设阈值,则获得匹配失败的识别结果。
进一步地,所述将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值,具体为:
将人脸深度特征和数据库的深度特征映射到欧几里德空间,计算人脸深度特征与数据库的深度特征之间的欧氏距离,将欧氏距离最小值作为最小匹配值。
进一步地,所述根据每次扫描的识别结果,生成目标区域的考勤记录,具体包括:
若第一次扫描的识别结果指出某个人员在目标区域内,则判断该人员为准时出勤;
若每次扫描都没有某个人员的识别结果,则判断该人员为缺勤;
若第一次扫描没有某个人员的识别结果,且最后一次扫描的识别结果指出该人员在目标区域内,则判断该人员为迟到;
若第一次扫描的识别结果指出某个人员在目标区域内,且最后一次扫描没有该人员的识别结果,则判断该人员为早退;
若第一次扫描和最后一次扫描的识别结果指出某个人员在目标区域内,且第一次扫描和最后一次扫描之间至少有一次扫描没有该人员的识别结果,则判断该人员为暂离;
根据判断得到的各个人员的考勤情况,生成目标区域的考勤记录。
本实施例中所述的存储介质可以是磁盘、光盘、计算机存储器、随机存取存储器(RAM,Random Access Memory)、U盘、移动硬盘等介质。
综上所述,本发明综合运用机器学习、计算机视觉等相关技术结合实时视频大数据,构建基于实时视频的密集微小人脸识别框架,在密集微小人脸识别框架中,利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框,然后利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征,可以消除微小人脸特征描述符由于旋转、偏移所产生的影响,更精准快速地提取脸部特征,因此密集微小人脸识别精度较高且可满足多人脸同时识别的需求。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明构思加以等同替换或改变,都属于本发明专利的保护范围。
Claims (7)
1.一种基于密集微小人脸识别的考勤方法,其特征在于,所述方法包括:
根据预设扫描次数,获取每次扫描的目标区域的人脸数据;
利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;
利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征;
将人脸深度特征与数据库的深度特征进行比对,获得识别结果;
根据每次扫描的识别结果,生成目标区域的考勤记录;
所述利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框,具体包括:
利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像;
利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征;
针对高维映射特征,利用边界框多次回归框定人脸区域;
利用非最大抑制的方法,对框定的人脸区域进行迭代,若框定的人脸区域非最大且不符合人脸特征,则消除该框定的人脸区域,继续框定人脸区域,直到框定的人脸区域最大且符合人脸特征时,返回人脸框的坐标及其大小;
所述利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征,具体包括:
利用标定模型对框定的人脸框中的人脸进行预处理;
利用训练好的深度残差网络对预处理后的人脸进行特征提取,获得高维映射特征,将该高维映射特征作为人脸深度特征;
所述根据每次扫描的识别结果,生成目标区域的考勤记录,具体包括:
若第一次扫描的识别结果指出某个人员在目标区域内,则判断该人员为准时出勤;
若每次扫描都没有某个人员的识别结果,则判断该人员为缺勤;
若第一次扫描没有某个人员的识别结果,且最后一次扫描的识别结果指出该人员在目标区域内,则判断该人员为迟到;
若第一次扫描的识别结果指出某个人员在目标区域内,且最后一次扫描没有该人员的识别结果,则判断该人员为早退;
若第一次扫描和最后一次扫描的识别结果指出某个人员在目标区域内,且第一次扫描和最后一次扫描之间至少有一次扫描没有该人员的识别结果,则判断该人员为暂离;
根据判断得到的各个人员的考勤情况,生成目标区域的考勤记录。
2.根据权利要求1所述的考勤方法,其特征在于,所述对框定的人脸框中的人脸进行预处理包括对框定的人脸框中的人脸进行对齐,具体为:
运用集成回归树算法,估计框定的人脸框中人脸关键点初始位置,经过多次迭代,使人脸的多个关键点准确地落在脸部的各个部位上。
3.根据权利要求1所述的考勤方法,其特征在于,所述将人脸深度特征与数据库的深度特征进行比对,获得识别结果,具体包括:
将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值;
判断最小匹配值是否小于预设阈值;
若最小匹配值小于预设阈值,则获得匹配成功的识别结果;
若最小匹配值大于或等于预设阈值,则获得匹配失败的识别结果。
4.根据权利要求3所述的考勤方法,其特征在于,所述将人脸深度特征与数据库的深度特征进行欧氏距离的比对,选取最小匹配值,具体为:
将人脸深度特征和数据库的深度特征映射到欧几里德空间,计算人脸深度特征与数据库的深度特征之间的欧氏距离,将欧氏距离最小值作为最小匹配值。
5.一种基于密集微小人脸识别的考勤系统,其特征在于,所述系统包括:
获取模块,用于根据预设扫描次数,获取每次扫描的目标区域的人脸数据;
检测模块,用于利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框;
提取模块,用于利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征;
识别模块,用于将人脸深度特征与数据库的深度特征进行比对,获得识别结果;
生成模块,用于根据每次扫描的识别结果,生成目标区域的考勤记录;
所述利用创建的图像金字塔和训练好的深度残差网络对目标区域的人脸数据进行检测,以框定人脸框,具体包括:
利用创建的图像金字塔对目标区域的人脸数据进行不同分辨率的近似类比,生成堆叠层数图像;
利用训练好的深度残差网络对堆叠层数图像中人脸特征进行提取,获得高维映射特征;
针对高维映射特征,利用边界框多次回归框定人脸区域;
利用非最大抑制的方法,对框定的人脸区域进行迭代,若框定的人脸区域非最大且不符合人脸特征,则消除该框定的人脸区域,继续框定人脸区域,直到框定的人脸区域最大且符合人脸特征时,返回人脸框的坐标及其大小;
所述利用标定模型和训练好的深度残差网络对框定的人脸框进行特征提取,得到人脸深度特征,具体包括:
利用标定模型对框定的人脸框中的人脸进行预处理;
利用训练好的深度残差网络对预处理后的人脸进行特征提取,获得高维映射特征,将该高维映射特征作为人脸深度特征;
所述根据每次扫描的识别结果,生成目标区域的考勤记录,具体包括:
若第一次扫描的识别结果指出某个人员在目标区域内,则判断该人员为准时出勤;
若每次扫描都没有某个人员的识别结果,则判断该人员为缺勤;
若第一次扫描没有某个人员的识别结果,且最后一次扫描的识别结果指出该人员在目标区域内,则判断该人员为迟到;
若第一次扫描的识别结果指出某个人员在目标区域内,且最后一次扫描没有该人员的识别结果,则判断该人员为早退;
若第一次扫描和最后一次扫描的识别结果指出某个人员在目标区域内,且第一次扫描和最后一次扫描之间至少有一次扫描没有该人员的识别结果,则判断该人员为暂离;
根据判断得到的各个人员的考勤情况,生成目标区域的考勤记录。
6.一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现权利要求1-4任一项所述的考勤方法。
7.一种存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1-4任一项所述的考勤方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911004656.XA CN110852704B (zh) | 2019-10-22 | 2019-10-22 | 基于密集微小人脸识别的考勤方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911004656.XA CN110852704B (zh) | 2019-10-22 | 2019-10-22 | 基于密集微小人脸识别的考勤方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110852704A CN110852704A (zh) | 2020-02-28 |
CN110852704B true CN110852704B (zh) | 2023-04-25 |
Family
ID=69597136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911004656.XA Active CN110852704B (zh) | 2019-10-22 | 2019-10-22 | 基于密集微小人脸识别的考勤方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110852704B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111462384A (zh) * | 2020-04-29 | 2020-07-28 | 杭州电子科技大学 | 一种基于树莓派和嵌入式系统的小型门禁系统 |
CN111832405A (zh) * | 2020-06-05 | 2020-10-27 | 天津大学 | 一种基于hog和深度残差网络的人脸识别方法 |
CN112001219B (zh) * | 2020-06-19 | 2024-02-09 | 国家电网有限公司技术学院分公司 | 一种多角度多人脸识别考勤方法及系统 |
CN112069995B (zh) * | 2020-09-04 | 2024-02-27 | 西安西图之光智能科技有限公司 | 一种深度域人脸稠密特征提取方法、系统和存储介质 |
CN112991671A (zh) * | 2021-02-03 | 2021-06-18 | 云南大学 | 一种基于深度学习的智能安防系统及用于智能安防系统的深度学习方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426875A (zh) * | 2015-12-18 | 2016-03-23 | 武汉科技大学 | 一种基于深度卷积神经网络的人脸识别方法和考勤系统 |
CN106204779A (zh) * | 2016-06-30 | 2016-12-07 | 陕西师范大学 | 基于多人脸数据采集策略和深度学习的课堂考勤方法 |
CN106204780A (zh) * | 2016-07-04 | 2016-12-07 | 武汉理工大学 | 一种基于深度学习和云服务的人脸识别考勤系统及方法 |
-
2019
- 2019-10-22 CN CN201911004656.XA patent/CN110852704B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426875A (zh) * | 2015-12-18 | 2016-03-23 | 武汉科技大学 | 一种基于深度卷积神经网络的人脸识别方法和考勤系统 |
CN106204779A (zh) * | 2016-06-30 | 2016-12-07 | 陕西师范大学 | 基于多人脸数据采集策略和深度学习的课堂考勤方法 |
CN106204780A (zh) * | 2016-07-04 | 2016-12-07 | 武汉理工大学 | 一种基于深度学习和云服务的人脸识别考勤系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110852704A (zh) | 2020-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110852704B (zh) | 基于密集微小人脸识别的考勤方法、系统、设备及介质 | |
CN110852703B (zh) | 基于侧脸多特征融合人脸识别的考勤方法、系统、设备及介质 | |
US11928800B2 (en) | Image coordinate system transformation method and apparatus, device, and storage medium | |
Xu et al. | Microexpression identification and categorization using a facial dynamics map | |
CN110728255B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
US11403874B2 (en) | Virtual avatar generation method and apparatus for generating virtual avatar including user selected face property, and storage medium | |
CN106780906B (zh) | 一种基于深度卷积神经网络的人证合一识别方法及系统 | |
CN105518744B (zh) | 行人再识别方法及设备 | |
CN111652974B (zh) | 三维人脸模型的构建方法、装置、设备及存储介质 | |
CN104778481A (zh) | 一种大规模人脸模式分析样本库的构建方法和装置 | |
WO2022252642A1 (zh) | 基于视频图像的行为姿态检测方法、装置、设备及介质 | |
JP2022133378A (ja) | 顔生体検出方法、装置、電子機器、及び記憶媒体 | |
WO2023045183A1 (zh) | 图像处理 | |
Haji et al. | Real time face recognition system (RTFRS) | |
JPWO2013122009A1 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
WO2020019457A1 (zh) | 用户指令匹配方法、装置、计算机设备及存储介质 | |
Winter et al. | Demystifying face-recognition with locally interpretable boosted features (libf) | |
Gupta et al. | HaarCascade and LBPH Algorithms in Face Recognition Analysis | |
Geetha et al. | 3D face recognition using Hadoop | |
Fu et al. | Rotation invariant multi-view color face detection based on skin color and Adaboost algorithm | |
Logronio et al. | Age Range Classification Through Facial Recognition Using Keras Model | |
Reddy et al. | Facial Recognition Enhancement Using Deep Learning Techniques | |
CN114038045A (zh) | 一种跨模态人脸识别模型构建方法、装置及电子设备 | |
Salman et al. | Facial images improvement in the LBPH algorithm using the histogram equalization method | |
CN112183422A (zh) | 一种基于时空特征的人脸活体检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |