CN112418190A - 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器 - Google Patents
移动端医学防护遮蔽人脸识别方法、装置、系统及服务器 Download PDFInfo
- Publication number
- CN112418190A CN112418190A CN202110082008.7A CN202110082008A CN112418190A CN 112418190 A CN112418190 A CN 112418190A CN 202110082008 A CN202110082008 A CN 202110082008A CN 112418190 A CN112418190 A CN 112418190A
- Authority
- CN
- China
- Prior art keywords
- feature
- face
- characteristic
- mobile terminal
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Image Analysis (AREA)
Abstract
本发明具体涉及移动端医学防护遮蔽人脸识别方法、装置、系统及服务器,能够通过训练预设人眼关键点模型对样本人脸全局图像集进行人脸关键点检测得到样本人脸局部图像集,采用样本人脸局部图像集训练针对服务端的医学防护遮蔽人脸识别模型,并结合知识蒸馏算法训练针对移动端的医学防护遮蔽人脸识别模型,将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至移动端,从而通过移动端以及训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别以确定待识别人脸的身份信息。如此,能够尽可能减少口罩对待识别人脸的识别准确性的影响,从而在无需待识别对象摘下口罩的前提下提高人脸识别的准确性。
Description
技术领域
本发明实施例涉及图像识别技术领域,具体涉及一种移动端医学防护遮蔽人脸识别方法、装置、系统及服务器。
背景技术
随着科技的发展,人脸识别技术已经应用到诸多领域。现目前针对整张人脸的识别技术较为成熟,然而在一些重大公共卫生事件的常态化防护时期,待识别对象可能会佩戴口罩,如果采用针对整张人脸的识别技术进行人脸识别,由于口罩遮挡的问题,可能会极大地降低识别准确率,如果让待识别对象摘下口罩进行人脸识别,可能会增加传染风险。
发明内容
有鉴于此,本发明实施例提供了一种移动端医学防护遮蔽人脸识别方法、装置、系统及服务器,通过知识蒸馏算法以及训练完成的针对服务端的医学防护遮蔽人脸识别模型来训练针对移动端的医学防护遮蔽人脸识别模型,能够尽可能减少口罩对待识别人脸的识别准确性的影响,从而在无需待识别对象摘下口罩的前提下提高人脸识别的准确性。此外,针对移动端的医学防护遮蔽人脸识别模型的参数量相对于针对服务端的医学防护遮蔽人脸识别模型的参数量有所减少,因而在将针对移动端的医学防护遮蔽人脸识别模型部署在移动端时,还可以确保移动端的人脸识别的实时性。
本发明实施例提供了一种移动端医学防护遮蔽人脸识别方法,应用于与移动端通信的服务器,所述移动端医学防护遮蔽人脸识别方法包括:
获取样本人脸关键点图像集以及样本人脸全局图像集;
采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集;
采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型;
基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;
将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息。
在一种可替换的实施方式中,采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型,包括:
采用所述样本人脸局部图像集对预设的针对服务端的医学防护遮蔽人脸识别模型进行迭代训练,在采用第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型对测试集进行识别所得到的识别准确率大于设定准确率的情况下,将第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型确定为训练完成的针对服务端的医学防护遮蔽人脸识别模型;其中,i为正整数。
在一种可替换的实施方式中,基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,包括:
基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;其中,所述预设损失函数为:
Loss=-λlogPs f1+(1-λ)KL(Pt F1/T,Ps f1/T)+max(||f1-f2||2 2-||F1-F2||2 2,0)-min(||f1-f3||2 2-||F1-F3||2 2,0);
式中:
f1、F1分别是第一识别对象对应的第一人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f2、F2分别是第一识别对象对应的第二人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f3、F3分别是第二识别对象对应的人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
λ的取值范围为[0,1];
-logPs f1为交叉熵损失函数;
Ps f1为针对移动端的医学防护遮蔽人脸识别模型s的特征f1经过加性角度间隔网络和softmax公式处理之后得到的概率分布;
Pt F1为针对服务端的医学防护遮蔽人脸识别模型t的特征F1加性角度间隔网络和softmax公式处理之后得到的概率分布;
T为蒸馏温度;
KL(Pt F1/T,Ps f1/T)表示两个概率分布的KL离散度;
max(||f1-f2||2 2-||F1-F2||2 2,0)为||f1-f2||2 2-||F1-F2||2 2和0中的最大值;
min(||f1-f3||2 2-||F1-F3||2 2,0)为||f1-f3||2 2-||F1-F3||2 2和0中的最小值;
||f1-f2||2 2为f1-f2的范数的平方;
||F1-F2||2 2为F1-F2的范数的平方;
||f1-f3||2 2为f1-f3的范数的平方;
||F1-F3||2 2为F1-F3的范数的平方;
其中,基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,包括:
当第j次训练之后,所述预设损失函数的取值位于设定数值区间时,将第j次训练之后得到的针对移动端的医学防护遮蔽人脸识别模型确定为训练完成的针对移动端的医学防护遮蔽人脸识别模型。
在一种可替换的实施方式中,通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集,包括:
针对所述样本人脸全局图像集中的每张样本人脸全局图像,获取该张样本人脸全局图像的像素点位置分布信息以及各像素点特征;
在基于所述像素点位置分布信息确定出该张样本人脸全局图像中包含有口罩像素区域的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域;其中,在该张样本人脸全局图像的当前非口罩像素区域对应包含有多个像素点特征的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合;根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重为上述特征融合获得的像素点融合特征设置特征划分标签,并根据所述特征划分标签将所述像素点融合特征划分到所述口罩像素区域;
基于该张样本人脸全局图像对应的口罩像素区域中的目标像素点特征确定样本人脸局部图像,并将确定出的样本人脸局部图像进行整合得到样本人脸局部图像集;其中,所述样本人脸局部图像为样本口罩人脸图像;
其中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域包括:
计算该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;
分别判断各皮尔森相关性系数是否达到第一设定系数阈值,并将皮尔森相关性系数达到第一设定系数阈值的非口罩像素区域对应的像素点特征划分到所述口罩像素区域;其中,所述像素点特征的特征描述信息为:根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重统计出的像素点特征和特征划分标签的匹配结果;
其中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合包括:
计算该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;针对该张样本人脸全局图像的当前非口罩像素区域对应的一个像素点特征而言,将该像素点特征和与其特征描述信息之间的皮尔森相关性系数达到第二设定系数阈值的所有像素点特征进行特征融合得到一组像素点融合特征。
在一种可替换的实施方式中,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息,包括:
使所述移动端基于所述训练完成的针对移动端的医学防护遮蔽人脸识别模型提取待识别人脸的目标区域对应的待识别特征;其中,所述目标区域是所述待识别人脸未被口罩覆盖的区域;
获取所述移动端上传的所述待识别特征;
在预设数据库中查找与所述待识别特征匹配的目标身份信息,将所述目标身份信息确定为所述待识别人脸的身份信息。
在一种可替换的实施方式中,在预设数据库中查找与所述待识别特征匹配的目标身份信息,包括:
对所述待识别特征进行特征拆分,得到多个特征片段;获取多个特征片段的片段位置描述信息,以及所述多个特征片段在当前识别时段之前的n个连续识别时段对应的n个潜在特征内容集合,其中,每一识别时段的潜在特征内容集合包括所述特征片段在多个身份标签类别下的潜在特征内容;
分别获取各特征片段的n个潜在特征内容集合中每一潜在特征内容集合对应的特征置信度误差集合;其中,每一特征置信度误差集合包括所述特征片段在多个身份标签类别下的特征置信度误差,每一特征置信度误差表示一个身份标签类别下实时特征置信度与延时特征置信度之间的比较结果;
利用已训练的特征置信度修正模型,根据各特征片段的片段位置描述信息与n个潜在特征内容集合对应的n个特征置信度误差集合,获取各特征片段在当前识别时段的特征置信度误差;其中,所述特征置信度修正模型是利用多个模型训练样本训练得到的,每一模型训练样本包括一个特征片段的片段位置描述信息以及n+1个连续识别时段的特征置信度误差集合;所述特征置信度误差表示特征片段的实时特征置信度与延时特征置信度之间的比较结果;
通过各特征片段在当前识别时段的特征置信度误差分别对各特征片段的实时特征置信度进行修正;根据各特征片段修正后的实时特征置信度,从所述多个特征片段中确定目标特征片段,根据所述目标特征片段对所述待识别特征进行特征补全,得到用于进行身份匹配的待匹配特征;
在预设数据库中查找与所述待匹配特征的余弦距离最小的预存身份特征,并确定与所述预存身份特征的绑定身份信息为所述待识别特征匹配的目标身份信息;
其中,所述特征置信度修正模型是通过如下训练过程训练得到的:从模型训练样本库中获取设定数量的模型训练样本;通过获取的模型训练样本,按照设定的训练参数对所述特征置信度修正模型进行多次训练,每一次训练过程包括如下步骤:
根据所述片段位置描述信息以及n+1个连续识别时段中前n个识别时段的特征置信度误差集合,通过所述特征置信度修正模型,获取每一模型训练样本的特征片段在第n+1个识别时段的特征置信度误差;
根据所述模型训练样本的特征片段在第n+1个识别时段的特征置信度误差,与所述模型训练样本中第n+1个识别时段的特征置信度误差集合,获取所述特征置信度修正模型的模型评价指标;
根据所述模型评价指标确定是否继续对所述特征置信度修正模型进行训练;若确定继续对所述特征置信度修正模型进行训练,则对所述特征置信度修正模型的模型参数进行调整,并通过调整后的所述特征置信度修正模型继续下一次训练过程;
其中,所述特征置信度修正模型包括特征时效性处理层和特征热度处理层,则针对每一特征片段,利用特征置信度修正模型获取特征置信度误差,包括:
根据所述n个特征置信度误差集合,通过所述特征时效性处理层获取特征片段的特征时效性指标;
根据所述片段位置描述信息,通过所述特征热度处理层获取特征片段的特征热度指标;
基于所述特征时效性处理层和所述特征热度处理层的模型影响因子,根据所述特征时效性指标和所述特征热度指标得到在当前识别时段的特征置信度误差。
本发明实施例还提供了一种移动端医学防护遮蔽人脸识别装置,应用于与移动端通信的服务器,所述的移动端医学防护遮蔽人脸识别装置包括:
图像获取模块,用于获取样本人脸关键点图像集以及样本人脸全局图像集;
图像处理模块,用于采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集;
第一训练模块,用于采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型;
第二训练模块,用于基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;
人脸识别模块,用于将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息。
本发明实施例还提供了一种移动端医学防护遮蔽人脸识别系统,包括互相之间通信的服务器和移动端;
所述服务器获取样本人脸关键点图像集以及样本人脸全局图像集;采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集;采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型;基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端;
所述移动端基于所述训练完成的针对移动端的医学防护遮蔽人脸识别模型提取待识别人脸的目标区域对应的待识别特征;其中,所述目标区域是所述待识别人脸未被口罩覆盖的区域;
所述服务器获取所述移动端上传的所述待识别特征;在预设数据库中查找与所述待识别特征匹配的目标身份信息,将所述目标身份信息确定为所述待识别人脸的身份信息。
本发明实施例还提供了一种服务器,包括处理器、通信总线和存储器;所述处理器和所述存储器通过所述通信总线通信,所述处理器从所述存储器中读取计算机程序并运行,以实现上述的方法。
本发明实施例还提供了一种可读存储介质,其上存储有计算机程序,所述计算机程序在运行时执行上述的方法。
本发明实施例提供的移动端医学防护遮蔽人脸识别方法、装置、系统及服务器具有以下技术效果:首先采用样本人脸关键点图像集训练预设人眼关键点模型得到训练好的人眼关键点模型并对样本人脸全局图像集进行人脸关键点检测得到样本人脸局部图像集,其次采用样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型得到训练完成的针对服务端的医学防护遮蔽人脸识别模型并基于知识蒸馏算法以及训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,这样,可以将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至移动端,从而通过移动端以及训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于识别结果确定待识别人脸的身份信息。
如此设计,能够尽可能减少口罩对待识别人脸的识别准确性的影响,从而在无需待识别对象摘下口罩的前提下提高人脸识别的准确性。此外,针对移动端的医学防护遮蔽人脸识别模型的参数量相对于针对服务端的医学防护遮蔽人脸识别模型的参数量有所减少,因而在将针对移动端的医学防护遮蔽人脸识别模型部署在移动端时,还可以确保移动端的人脸识别的实时性。
在后面的描述中,将部分地陈述其他的特征。在检查后面内容和附图时,本领域的技术人员将部分地发现这些特征,或者可以通过生产或运用了解到这些特征。通过实践或使用后面所述详细示例中列出的方法、工具和组合的各个方面,当前申请中的特征可以被实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例所提供的一种服务器的方框示意图。
图2为本发明实施例所提供的一种移动端医学防护遮蔽人脸识别方法的流程图。
图3为样本人脸全局图像的示意图。
图4为样本人脸局部图像的示意图。
图5为本发明实施例所提供的一种移动端医学防护遮蔽人脸识别装置的框图。
图6为本发明实施例所提供的一种移动端医学防护遮蔽人脸识别系统的架构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例只是本发明的一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上现有技术中的方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本发明实施例针对上述问题所提出的解决方案,都应该是发明人在本发明过程中对本发明做出的贡献。
基于上述研究,本发明实施例提供了一种移动端医学防护遮蔽人脸识别方法、装置、系统及服务器。
图1示出了本发明实施例所提供的一种服务器10的方框示意图。本发明实施例中的服务器10可以为具有数据存储、传输、处理功能的服务端,如图1所示,服务器10包括:存储器11、处理器12、通信总线13和移动端医学防护遮蔽人脸识别装置20。
存储器11、处理器12和通信总线13之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件互相之间可以通过一条或多条通讯总线或信号线实现电性连接。存储器11中存储有移动端医学防护遮蔽人脸识别装置20,所述移动端医学防护遮蔽人脸识别装置20包括至少一个可以软件或固件(firmware)的形式储存于所述存储器11中的软件功能模块,所述处理器12通过运行存储在存储器11内的软件程序以及模块,例如本发明实施例中的移动端医学防护遮蔽人脸识别装置20,从而执行各种功能应用以及数据处理,即实现本发明实施例中的移动端医学防护遮蔽人脸识别方法。
其中,所述存储器11可以是,但不限于,随机存取存储器(RandomAccessMemory,RAM),只读存储器(ReadOnlyMemory,ROM),可编程只读存储器(ProgrammableRead-OnlyMemory,PROM),可擦除只读存储器(ErasableProgrammableRead-OnlyMemory,EPROM),电可擦除只读存储器(ElectricErasableProgrammableRead-OnlyMemory,EEPROM)等。其中,存储器11用于存储程序,所述处理器12在接收到执行指令后,执行所述程序。
所述处理器12可能是一种集成电路芯片,具有数据的处理能力。上述的处理器12可以是通用处理器,包括中央处理器(CentralProcessingUnit,CPU)、网络处理器(networPProcessor,nP)等。可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
通信总线13用于通过网络生成服务器10与其他通信终端设备之间的通信连接,实现网络信号及数据的收发操作。上述网络信号可包括无线信号或者有线信号。
可以理解,图1所示的结构仅为示意,服务器10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
本发明实施例还提供了一种可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在运行时实现上述的方法。
图2示出了本发明实施例所提供的一种移动端医学防护遮蔽人脸识别方法的流程图。所述移动端医学防护遮蔽人脸识别方法有关的流程所定义的方法步骤应用于服务器10,可以由所述处理器12实现,所述移动端医学防护遮蔽人脸识别方法包括以下步骤S21-步骤S25所描述的内容。
步骤S21,获取样本人脸关键点图像集以及样本人脸全局图像集。
在本实施例中,样本人脸关键点图像可以是人脸眼部区域对应的图像集,样本人脸全局图像可以是整张人脸图像,如图3所示。
步骤S22,采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集。
在本实施例中,预设人眼关键点模型可以是缩小版的神经网络模型(VisualGeometry Group Network,VGG),其训练方式在此不作赘述。样本人脸局部图像可以是对整张人脸图像剪裁之后的局部人脸图像,如图4所示。然而,发明人在实际应用时发现,如果直接按照图像比例对整张人脸图像进行剪裁,可能会丢失一些相对关键的非口罩覆盖的图像区域,因此,为了尽可能精准地识别得到样本人脸局部图像,步骤S22所描述的通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集,可以通过以下步骤S221-步骤S223得到。
步骤S221,针对所述样本人脸全局图像集中的每张样本人脸全局图像,获取该张样本人脸全局图像的像素点位置分布信息以及各像素点特征。
在本实施例中,像素点位置分布信息可以用于描述样本人脸全局图像中的不同像素点之间的相对位置情况,而像素点特征则可以用于表征像素点的灰度信息、色坐标信息等,在此不作限定。
步骤S222,在基于所述像素点位置分布信息确定出该张样本人脸全局图像中包含有口罩像素区域的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域;其中,在该张样本人脸全局图像的当前非口罩像素区域对应包含有多个像素点特征的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合;根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重为上述特征融合获得的像素点融合特征设置特征划分标签,并根据所述特征划分标签将所述像素点融合特征划分到所述口罩像素区域。
在本实施例中,口罩像素区域和非口罩像素区域是不规则的区域,特征识别权重用于表征像素点特征的特征识别度,特征识别权重越高,像素点特征的特征识别度越大,所包含的信息的区分度越大。特征划分标签用于表征像素点融合特征的区域调整优先级,根据所述特征划分标签将所述像素点融合特征划分到所述口罩像素区域可以是:将特征划分标签对应的区域调整优先级按照降序排列所对应的部分像素点融合特征划分到所述口罩像素区域。
在一些可能的实施例中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域可以通过以下步骤实现:计算该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;分别判断各皮尔森相关性系数是否达到第一设定系数阈值,并将皮尔森相关性系数达到第一设定系数阈值的非口罩像素区域对应的像素点特征划分到所述口罩像素区域;其中,所述像素点特征的特征描述信息为:根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重统计出的像素点特征和特征划分标签的匹配结果。
在一些可能的实施例中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合包括:计算该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;针对该张样本人脸全局图像的当前非口罩像素区域对应的一个像素点特征而言,将该像素点特征和与其特征描述信息之间的皮尔森相关性系数达到第二设定系数阈值的所有像素点特征进行特征融合得到一组像素点融合特征。
步骤S223,基于该张样本人脸全局图像对应的口罩像素区域中的目标像素点特征确定样本人脸局部图像,并将确定出的样本人脸局部图像进行整合得到样本人脸局部图像集;其中,所述样本人脸局部图像为样本口罩人脸图像。
如此设计,基于上述步骤S221-步骤S223所描述的内容,能够实现对口罩像素区域和非口罩像素区域中的像素点特征的重新划分,这样可以将不规则的口罩像素区域和非口罩像素区域考虑在内,从而避免直接按照图像比例对整张人脸图像进行剪裁造成相对关键的非口罩覆盖的图像区域的丢失,这样可以尽可能精准地识别得到样本人脸局部图像。
步骤S23,采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型。
在本实施例中,针对服务端的医学防护遮蔽人脸识别模型可以理解为参数量较大的网络(可以理解为大网络),进一步地,采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型,包括:采用所述样本人脸局部图像集对预设的针对服务端的医学防护遮蔽人脸识别模型进行迭代训练,在采用第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型对测试集进行识别所得到的识别准确率大于设定准确率的情况下,将第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型确定为训练完成的针对服务端的医学防护遮蔽人脸识别模型;其中,i为正整数。在本实施例中,设定准确率可以是99.2%~99.9,进一步地,设定准确率可以选择为99.83%。
步骤S24,基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型。
在本实施例中,针对移动端的医学防护遮蔽人脸识别模型可以理解为参数量较小的网络(可以理解为小网络),进一步地,基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,可以通过以下方式实现:基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型。
在本实施例中,所述预设损失函数为:
Loss=-λlogPs f1+(1-λ)KL(Pt F1/T,Ps f1/T)+max(||f1-f2||2 2-||F1-F2||2 2,0)-min(||f1-f3||2 2-||F1-F3||2 2,0);
式中:
f1、F1分别是第一识别对象对应的第一人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f2、F2分别是第一识别对象对应的第二人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f3、F3分别是第二识别对象对应的人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
λ的取值范围为[0,1];
-logPs f1为交叉熵损失函数;
Ps f1为针对移动端的医学防护遮蔽人脸识别模型s的特征f1经过加性角度间隔网络和softmax公式处理之后得到的概率分布;
Pt F1为针对服务端的医学防护遮蔽人脸识别模型t的特征F1加性角度间隔网络和softmax公式处理之后得到的概率分布;
T为蒸馏温度;
KL(Pt F1/T,Ps f1/T)表示两个概率分布的KL离散度;
max(||f1-f2||2 2-||F1-F2||2 2,0)为||f1-f2||2 2-||F1-F2||2 2和0中的最大值;
min(||f1-f3||2 2-||F1-F3||2 2,0)为||f1-f3||2 2-||F1-F3||2 2和0中的最小值;
||f1-f2||2 2为f1-f2的范数的平方;
||F1-F2||2 2为F1-F2的范数的平方;
||f1-f3||2 2为f1-f3的范数的平方;
||F1-F3||2 2为F1-F3的范数的平方。
在实际实施过程中,交叉熵损失函数是为了保证小网络在口罩人脸识别结果上尽量不犯错,KL离散度是为了保证小网络预测的概率分布和大网络预测的概率分布尽量一样。
进一步地,max(||f1-f2||2 2-||F1-F2||2 2,0)是为了保证小网络的同类特征之间的欧式距离尽量不要大于大网络,-min(||f1-f3||2 2-||F1-F3||2 2,0)是为了保证小网络的异类特征之间的欧式距离尽量不要小于大网络。
进一步地,基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,包括:当第j次训练之后,所述预设损失函数的取值位于设定数值区间时,将第j次训练之后得到的针对移动端的医学防护遮蔽人脸识别模型确定为训练完成的针对移动端的医学防护遮蔽人脸识别模型,可以理解,设定数值区间可以是趋近于0的区间,例如可以是[0.001,0.002],还可以是[0.0001,0.0002],在此不作限定。在一些示例中,针对移动端的医学防护遮蔽人脸识别模型的训练终止条件可以是损失函数loss趋近于0。
步骤S25,将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息。
在本实施例中,移动端可以是手机、平板电脑、笔记本电脑或者其他便携式终端,在此不作限定。身份信息可以是待识别人脸对应的姓名信息、身份证号信息、住址信息和公司信息等,在此不作限定。
在实际实施过程中,确定身份信息的方式是移动端和服务器协作完成的,移动端负责采集对应的待识别特征,服务器负责对待识别特征进行后续的识别处理并将识别结果返回给移动端,为实现这一目的,步骤S25所描述的通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息,可以包括以下内容:使所述移动端基于所述训练完成的针对移动端的医学防护遮蔽人脸识别模型提取待识别人脸的目标区域对应的待识别特征;其中,所述目标区域是所述待识别人脸未被口罩覆盖的区域;获取所述移动端上传的所述待识别特征;在预设数据库中查找与所述待识别特征匹配的目标身份信息,将所述目标身份信息确定为所述待识别人脸的身份信息。
在一些示例中,发明人发现,为了确保身份识别的精准性,需要对待识别特征进行进一步的挖掘,为实现这一目的,上述内容中的在预设数据库中查找与所述待识别特征匹配的目标身份信息,可以包括以下步骤S251-步骤S255所描述的内容。
步骤S251,对所述待识别特征进行特征拆分,得到多个特征片段;获取多个特征片段的片段位置描述信息,以及所述多个特征片段在当前识别时段之前的n个连续识别时段对应的n个潜在特征内容集合,其中,每一识别时段的潜在特征内容集合包括所述特征片段在多个身份标签类别下的潜在特征内容。
步骤S252,分别获取各特征片段的n个潜在特征内容集合中每一潜在特征内容集合对应的特征置信度误差集合;其中,每一特征置信度误差集合包括所述特征片段在多个身份标签类别下的特征置信度误差,每一特征置信度误差表示一个身份标签类别下实时特征置信度与延时特征置信度之间的比较结果。
步骤S253,利用已训练的特征置信度修正模型,根据各特征片段的片段位置描述信息与n个潜在特征内容集合对应的n个特征置信度误差集合,获取各特征片段在当前识别时段的特征置信度误差;其中,所述特征置信度修正模型是利用多个模型训练样本训练得到的,每一模型训练样本包括一个特征片段的片段位置描述信息以及n+1个连续识别时段的特征置信度误差集合;所述特征置信度误差表示特征片段的实时特征置信度与延时特征置信度之间的比较结果。
在本实施例中,特征置信度修正模型可以是机器学习模型,其功能是用于获取各特征片段在当前识别时段的特征置信度误差,该机器学习模型的功能可以通过预先训练得到。进一步地,所述特征置信度修正模型是通过如下训练过程训练得到的:从模型训练样本库中获取设定数量的模型训练样本;通过获取的模型训练样本,按照设定的训练参数对所述特征置信度修正模型进行多次训练,每一次训练过程包括如下步骤:根据所述片段位置描述信息以及n+1个连续识别时段中前n个识别时段的特征置信度误差集合,通过所述特征置信度修正模型,获取每一模型训练样本的特征片段在第n+1个识别时段的特征置信度误差;根据所述模型训练样本的特征片段在第n+1个识别时段的特征置信度误差,与所述模型训练样本中第n+1个识别时段的特征置信度误差集合,获取所述特征置信度修正模型的模型评价指标;根据所述模型评价指标确定是否继续对所述特征置信度修正模型进行训练;若确定继续对所述特征置信度修正模型进行训练,则对所述特征置信度修正模型的模型参数进行调整,并通过调整后的所述特征置信度修正模型继续下一次训练过程。
在本实施例中,所述特征置信度修正模型包括特征时效性处理层和特征热度处理层,则针对每一特征片段,利用特征置信度修正模型获取特征置信度误差,包括:根据所述n个特征置信度误差集合,通过所述特征时效性处理层获取特征片段的特征时效性指标;根据所述片段位置描述信息,通过所述特征热度处理层获取特征片段的特征热度指标;基于所述特征时效性处理层和所述特征热度处理层的模型影响因子,根据所述特征时效性指标和所述特征热度指标得到在当前识别时段的特征置信度误差。
步骤S254,通过各特征片段在当前识别时段的特征置信度误差分别对各特征片段的实时特征置信度进行修正;根据各特征片段修正后的实时特征置信度,从所述多个特征片段中确定目标特征片段,根据所述目标特征片段对所述待识别特征进行特征补全,得到用于进行身份匹配的待匹配特征。
步骤S255,在预设数据库中查找与所述待匹配特征的余弦距离最小的预存身份特征,并确定与所述预存身份特征的绑定身份信息为所述待识别特征匹配的目标身份信息。
这样一来,通过实施上述步骤S251-步骤S255,能够对待识别特征进行进一步的挖掘,从而对对待识别特征进行特征补全,得到用于进行身份匹配的待匹配特征,进而基于待匹配特征确定待识别特征匹配的目标身份信息,如此,能够尽可能确保身份识别的精准性。
基于上述同样的发明构思,还提供了如图5所示的移动端医学防护遮蔽人脸识别装置20,所述的移动端医学防护遮蔽人脸识别装置至少包括以下功能模块。
图像获取模块21,用于获取样本人脸关键点图像集以及样本人脸全局图像集。
图像处理模块22,用于采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集。
其中,图像处理模块22进一步用于:针对所述样本人脸全局图像集中的每张样本人脸全局图像,获取该张样本人脸全局图像的像素点位置分布信息以及各像素点特征;
在基于所述像素点位置分布信息确定出该张样本人脸全局图像中包含有口罩像素区域的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域;其中,在该张样本人脸全局图像的当前非口罩像素区域对应包含有多个像素点特征的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合;根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重为上述特征融合获得的像素点融合特征设置特征划分标签,并根据所述特征划分标签将所述像素点融合特征划分到所述口罩像素区域;
基于该张样本人脸全局图像对应的口罩像素区域中的目标像素点特征确定样本人脸局部图像,并将确定出的样本人脸局部图像进行整合得到样本人脸局部图像集;其中,所述样本人脸局部图像为样本口罩人脸图像;
其中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域包括:
计算该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;
分别判断各皮尔森相关性系数是否达到第一设定系数阈值,并将皮尔森相关性系数达到第一设定系数阈值的非口罩像素区域对应的像素点特征划分到所述口罩像素区域;其中,所述像素点特征的特征描述信息为:根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重统计出的像素点特征和特征划分标签的匹配结果;
其中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合包括:
计算该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;针对该张样本人脸全局图像的当前非口罩像素区域对应的一个像素点特征而言,将该像素点特征和与其特征描述信息之间的皮尔森相关性系数达到第二设定系数阈值的所有像素点特征进行特征融合得到一组像素点融合特征。
第一训练模块23,用于采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型。
其中,第一训练模块23进一步用于:采用所述样本人脸局部图像集对预设的针对服务端的医学防护遮蔽人脸识别模型进行迭代训练,在采用第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型对测试集进行识别所得到的识别准确率大于设定准确率的情况下,将第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型确定为训练完成的针对服务端的医学防护遮蔽人脸识别模型;其中,i为正整数。
第二训练模块24,用于基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型。
其中,第二训练模块24进一步用于:
基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;其中,所述预设损失函数为:
Loss=-λlogPs f1+(1-λ)KL(Pt F1/T,Ps f1/T)+max(||f1-f2||2 2-||F1-F2||2 2,0)-min(||f1-f3||2 2-||F1-F3||2 2,0);
式中:
f1、F1分别是第一识别对象对应的第一人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f2、F2分别是第一识别对象对应的第二人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f3、F3分别是第二识别对象对应的人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
λ的取值范围为[0,1];
-logPs f1为交叉熵损失函数;
Ps f1为针对移动端的医学防护遮蔽人脸识别模型s的特征f1经过加性角度间隔网络和softmax公式处理之后得到的概率分布;
Pt F1为针对服务端的医学防护遮蔽人脸识别模型t的特征F1加性角度间隔网络和softmax公式处理之后得到的概率分布;
T为蒸馏温度;
KL(Pt F1/T,Ps f1/T)表示两个概率分布的KL离散度;
其中,基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,包括:
当第j次训练之后,所述预设损失函数的取值位于设定数值区间时,将第j次训练之后得到的针对移动端的医学防护遮蔽人脸识别模型确定为训练完成的针对移动端的医学防护遮蔽人脸识别模型。
人脸识别模块25,用于将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息。
其中,人脸识别模块25,进一步用于:
使所述移动端基于所述训练完成的针对移动端的医学防护遮蔽人脸识别模型提取待识别人脸的目标区域对应的待识别特征;其中,所述目标区域是所述待识别人脸未被口罩覆盖的区域;
获取所述移动端上传的所述待识别特征;
在预设数据库中查找与所述待识别特征匹配的目标身份信息,将所述目标身份信息确定为所述待识别人脸的身份信息。
其中,人脸识别模块25,进一步用于:
对所述待识别特征进行特征拆分,得到多个特征片段;获取多个特征片段的片段位置描述信息,以及所述多个特征片段在当前识别时段之前的n个连续识别时段对应的n个潜在特征内容集合,其中,每一识别时段的潜在特征内容集合包括所述特征片段在多个身份标签类别下的潜在特征内容;
分别获取各特征片段的n个潜在特征内容集合中每一潜在特征内容集合对应的特征置信度误差集合;其中,每一特征置信度误差集合包括所述特征片段在多个身份标签类别下的特征置信度误差,每一特征置信度误差表示一个身份标签类别下实时特征置信度与延时特征置信度之间的比较结果;
利用已训练的特征置信度修正模型,根据各特征片段的片段位置描述信息与n个潜在特征内容集合对应的n个特征置信度误差集合,获取各特征片段在当前识别时段的特征置信度误差;其中,所述特征置信度修正模型是利用多个模型训练样本训练得到的,每一模型训练样本包括一个特征片段的片段位置描述信息以及n+1个连续识别时段的特征置信度误差集合;所述特征置信度误差表示特征片段的实时特征置信度与延时特征置信度之间的比较结果;
通过各特征片段在当前识别时段的特征置信度误差分别对各特征片段的实时特征置信度进行修正;根据各特征片段修正后的实时特征置信度,从所述多个特征片段中确定目标特征片段,根据所述目标特征片段对所述待识别特征进行特征补全,得到用于进行身份匹配的待匹配特征;
在预设数据库中查找与所述待匹配特征的余弦距离最小的预存身份特征,并确定与所述预存身份特征的绑定身份信息为所述待识别特征匹配的目标身份信息;
其中,所述特征置信度修正模型是通过如下训练过程训练得到的:从模型训练样本库中获取设定数量的模型训练样本;通过获取的模型训练样本,按照设定的训练参数对所述特征置信度修正模型进行多次训练,每一次训练过程包括如下步骤:
根据所述片段位置描述信息以及n+1个连续识别时段中前n个识别时段的特征置信度误差集合,通过所述特征置信度修正模型,获取每一模型训练样本的特征片段在第n+1个识别时段的特征置信度误差;
根据所述模型训练样本的特征片段在第n+1个识别时段的特征置信度误差,与所述模型训练样本中第n+1个识别时段的特征置信度误差集合,获取所述特征置信度修正模型的模型评价指标;
根据所述模型评价指标确定是否继续对所述特征置信度修正模型进行训练;若确定继续对所述特征置信度修正模型进行训练,则对所述特征置信度修正模型的模型参数进行调整,并通过调整后的所述特征置信度修正模型继续下一次训练过程;
其中,所述特征置信度修正模型包括特征时效性处理层和特征热度处理层,则针对每一特征片段,利用特征置信度修正模型获取特征置信度误差,包括:
根据所述n个特征置信度误差集合,通过所述特征时效性处理层获取特征片段的特征时效性指标;
根据所述片段位置描述信息,通过所述特征热度处理层获取特征片段的特征热度指标;
基于所述特征时效性处理层和所述特征热度处理层的模型影响因子,根据所述特征时效性指标和所述特征热度指标得到在当前识别时段的特征置信度误差。
基于上述同样的发明构思,请结合参阅图6,提供了一种移动端医学防护遮蔽人脸识别系统60,该系统包括互相之间通信的服务器10和移动端30;
所述服务器10获取样本人脸关键点图像集以及样本人脸全局图像集;采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集;采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型;基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端30;
所述移动端30基于所述训练完成的针对移动端的医学防护遮蔽人脸识别模型提取待识别人脸的目标区域对应的待识别特征;其中,所述目标区域是所述待识别人脸未被口罩覆盖的区域;
所述服务器10获取所述移动端30上传的所述待识别特征;在预设数据库中查找与所述待识别特征匹配的目标身份信息,将所述目标身份信息确定为所述待识别人脸的身份信息。
上述系统的进一步实施方式可以参阅对图2所示的方法的说明,因此在此不作更多说明。
在本发明实施例所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器10,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种移动端医学防护遮蔽人脸识别方法,其特征在于,应用于与移动端通信的服务器,所述移动端医学防护遮蔽人脸识别方法包括:
获取样本人脸关键点图像集以及样本人脸全局图像集;
采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集;
采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型;
基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;
将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息。
2.根据权利要求1所述的移动端医学防护遮蔽人脸识别方法,其特征在于,采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型,包括:
采用所述样本人脸局部图像集对预设的针对服务端的医学防护遮蔽人脸识别模型进行迭代训练,在采用第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型对测试集进行识别所得到的识别准确率大于设定准确率的情况下,将第i次训练之后的针对服务端的医学防护遮蔽人脸识别模型确定为训练完成的针对服务端的医学防护遮蔽人脸识别模型;其中,i为正整数。
3.根据权利要求1所述的移动端医学防护遮蔽人脸识别方法,其特征在于,基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,包括:
基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;其中,所述预设损失函数为:
Loss=-λlogPs f1+(1-λ)KL(Pt F1/T,Ps f1/T)+max(||f1-f2||2 2-||F1-F2||2 2,0)-min(||f1-f3||2 2-||F1-F3||2 2,0);
式中:
f1、F1分别是第一识别对象对应的第一人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f2、F2分别是第一识别对象对应的第二人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
f3、F3分别是第二识别对象对应的人脸图像在针对移动端的医学防护遮蔽人脸识别模型和针对服务端的医学防护遮蔽人脸识别模型中的特征;
λ的取值范围为[0,1];
-logPs f1为交叉熵损失函数;
Ps f1为针对移动端的医学防护遮蔽人脸识别模型s的特征f1经过加性角度间隔网络和softmax公式处理之后得到的概率分布;
Pt F1为针对服务端的医学防护遮蔽人脸识别模型t的特征F1加性角度间隔网络和softmax公式处理之后得到的概率分布;
T为蒸馏温度;
KL(Pt F1/T,Ps f1/T)表示两个概率分布的KL离散度;
max(||f1-f2||2 2-||F1-F2||2 2,0)为||f1-f2||2 2-||F1-F2||2 2和0中的最大值;
min(||f1-f3||2 2-||F1-F3||2 2,0)为||f1-f3||2 2-||F1-F3||2 2和0中的最小值;
||f1-f2||2 2为f1-f2的范数的平方;
||F1-F2||2 2为F1-F2的范数的平方;
||f1-f3||2 2为f1-f3的范数的平方;
||F1-F3||2 2为F1-F3的范数的平方;
其中,基于预设损失函数以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型,包括:
当第j次训练之后,所述预设损失函数的取值位于设定数值区间时,将第j次训练之后得到的针对移动端的医学防护遮蔽人脸识别模型确定为训练完成的针对移动端的医学防护遮蔽人脸识别模型。
4.根据权利要求1所述的移动端医学防护遮蔽人脸识别方法,其特征在于,通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集,包括:
针对所述样本人脸全局图像集中的每张样本人脸全局图像,获取该张样本人脸全局图像的像素点位置分布信息以及各像素点特征;
在基于所述像素点位置分布信息确定出该张样本人脸全局图像中包含有口罩像素区域的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域;其中,在该张样本人脸全局图像的当前非口罩像素区域对应包含有多个像素点特征的情况下,根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合;根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重为上述特征融合获得的像素点融合特征设置特征划分标签,并根据所述特征划分标签将所述像素点融合特征划分到所述口罩像素区域;
基于该张样本人脸全局图像对应的口罩像素区域中的目标像素点特征确定样本人脸局部图像,并将确定出的样本人脸局部图像进行整合得到样本人脸局部图像集;其中,所述样本人脸局部图像为样本口罩人脸图像;
其中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征之间的特征关联度,并将该张样本人脸全局图像的非口罩像素区域对应的与口罩像素区域对应的像素点特征关联的像素点特征划分到所述口罩像素区域包括:
计算该张样本人脸全局图像的非口罩像素区域对应的各像素点特征与该张样本人脸全局图像的口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;
分别判断各皮尔森相关性系数是否达到第一设定系数阈值,并将皮尔森相关性系数达到第一设定系数阈值的非口罩像素区域对应的像素点特征划分到所述口罩像素区域;其中,所述像素点特征的特征描述信息为:根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重统计出的像素点特征和特征划分标签的匹配结果;
其中,所述根据该张样本人脸全局图像的口罩像素区域对应的像素点特征及其特征识别权重确定该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征之间的特征关联度,并根据所述各像素点特征之间的特征关联度对当前非口罩像素区域对应的各像素点特征进行特征融合包括:
计算该张样本人脸全局图像的当前非口罩像素区域对应的各像素点特征的特征描述信息之间的皮尔森相关性系数;针对该张样本人脸全局图像的当前非口罩像素区域对应的一个像素点特征而言,将该像素点特征和与其特征描述信息之间的皮尔森相关性系数达到第二设定系数阈值的所有像素点特征进行特征融合得到一组像素点融合特征。
5.根据权利要求1所述的移动端医学防护遮蔽人脸识别方法,其特征在于,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息,包括:
使所述移动端基于所述训练完成的针对移动端的医学防护遮蔽人脸识别模型提取待识别人脸的目标区域对应的待识别特征;其中,所述目标区域是所述待识别人脸未被口罩覆盖的区域;
获取所述移动端上传的所述待识别特征;
在预设数据库中查找与所述待识别特征匹配的目标身份信息,将所述目标身份信息确定为所述待识别人脸的身份信息。
6.根据权利要求5所述的移动端医学防护遮蔽人脸识别方法,其特征在于,在预设数据库中查找与所述待识别特征匹配的目标身份信息,包括:
对所述待识别特征进行特征拆分,得到多个特征片段;获取多个特征片段的片段位置描述信息,以及所述多个特征片段在当前识别时段之前的n个连续识别时段对应的n个潜在特征内容集合,其中,每一识别时段的潜在特征内容集合包括所述特征片段在多个身份标签类别下的潜在特征内容;
分别获取各特征片段的n个潜在特征内容集合中每一潜在特征内容集合对应的特征置信度误差集合;其中,每一特征置信度误差集合包括所述特征片段在多个身份标签类别下的特征置信度误差,每一特征置信度误差表示一个身份标签类别下实时特征置信度与延时特征置信度之间的比较结果;
利用已训练的特征置信度修正模型,根据各特征片段的片段位置描述信息与n个潜在特征内容集合对应的n个特征置信度误差集合,获取各特征片段在当前识别时段的特征置信度误差;其中,所述特征置信度修正模型是利用多个模型训练样本训练得到的,每一模型训练样本包括一个特征片段的片段位置描述信息以及n+1个连续识别时段的特征置信度误差集合;所述特征置信度误差表示特征片段的实时特征置信度与延时特征置信度之间的比较结果;
通过各特征片段在当前识别时段的特征置信度误差分别对各特征片段的实时特征置信度进行修正;根据各特征片段修正后的实时特征置信度,从所述多个特征片段中确定目标特征片段,根据所述目标特征片段对所述待识别特征进行特征补全,得到用于进行身份匹配的待匹配特征;
在预设数据库中查找与所述待匹配特征的余弦距离最小的预存身份特征,并确定与所述预存身份特征的绑定身份信息为所述待识别特征匹配的目标身份信息;
其中,所述特征置信度修正模型是通过如下训练过程训练得到的:从模型训练样本库中获取设定数量的模型训练样本;通过获取的模型训练样本,按照设定的训练参数对所述特征置信度修正模型进行多次训练,每一次训练过程包括如下步骤:
根据所述片段位置描述信息以及n+1个连续识别时段中前n个识别时段的特征置信度误差集合,通过所述特征置信度修正模型,获取每一模型训练样本的特征片段在第n+1个识别时段的特征置信度误差;
根据所述模型训练样本的特征片段在第n+1个识别时段的特征置信度误差,与所述模型训练样本中第n+1个识别时段的特征置信度误差集合,获取所述特征置信度修正模型的模型评价指标;
根据所述模型评价指标确定是否继续对所述特征置信度修正模型进行训练;若确定继续对所述特征置信度修正模型进行训练,则对所述特征置信度修正模型的模型参数进行调整,并通过调整后的所述特征置信度修正模型继续下一次训练过程;
其中,所述特征置信度修正模型包括特征时效性处理层和特征热度处理层,则针对每一特征片段,利用特征置信度修正模型获取特征置信度误差,包括:
根据所述n个特征置信度误差集合,通过所述特征时效性处理层获取特征片段的特征时效性指标;
根据所述片段位置描述信息,通过所述特征热度处理层获取特征片段的特征热度指标;
基于所述特征时效性处理层和所述特征热度处理层的模型影响因子,根据所述特征时效性指标和所述特征热度指标得到在当前识别时段的特征置信度误差。
7.一种移动端医学防护遮蔽人脸识别装置,其特征在于,应用于与移动端通信的服务器,所述的移动端医学防护遮蔽人脸识别装置包括:
图像获取模块,用于获取样本人脸关键点图像集以及样本人脸全局图像集;
图像处理模块,用于采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集;
第一训练模块,用于采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型;
第二训练模块,用于基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;
人脸识别模块,用于将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端,通过所述移动端以及所述训练完成的针对移动端的医学防护遮蔽人脸识别模型对待识别人脸进行识别得到识别结果,并基于所述识别结果确定所述待识别人脸的身份信息。
8.一种移动端医学防护遮蔽人脸识别系统,其特征在于,包括互相之间通信的服务器和移动端;
所述服务器获取样本人脸关键点图像集以及样本人脸全局图像集;采用所述样本人脸关键点图像集训练预设人眼关键点模型,得到训练好的人眼关键点模型;通过所述训练好的人眼关键点模型对所述样本人脸全局图像集进行人脸关键点检测,得到样本人脸局部图像集;采用所述样本人脸局部图像集训练预设的针对服务端的医学防护遮蔽人脸识别模型,得到训练完成的针对服务端的医学防护遮蔽人脸识别模型;基于知识蒸馏算法以及所述训练完成的针对服务端的医学防护遮蔽人脸识别模型训练预设的针对移动端的医学防护遮蔽人脸识别模型,得到训练完成的针对移动端的医学防护遮蔽人脸识别模型;将训练完成的针对移动端的医学防护遮蔽人脸识别模型下发至所述移动端;
所述移动端基于所述训练完成的针对移动端的医学防护遮蔽人脸识别模型提取待识别人脸的目标区域对应的待识别特征;其中,所述目标区域是所述待识别人脸未被口罩覆盖的区域;
所述服务器获取所述移动端上传的所述待识别特征;在预设数据库中查找与所述待识别特征匹配的目标身份信息,将所述目标身份信息确定为所述待识别人脸的身份信息。
9.一种服务器,其特征在于,包括处理器、通信总线和存储器;所述处理器和所述存储器通过所述通信总线通信,所述处理器从所述存储器中读取计算机程序并运行,以实现权利要求1-6任一项所述的移动端医学防护遮蔽人脸识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110082008.7A CN112418190B (zh) | 2021-01-21 | 2021-01-21 | 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110082008.7A CN112418190B (zh) | 2021-01-21 | 2021-01-21 | 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112418190A true CN112418190A (zh) | 2021-02-26 |
CN112418190B CN112418190B (zh) | 2021-04-02 |
Family
ID=74783055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110082008.7A Active CN112418190B (zh) | 2021-01-21 | 2021-01-21 | 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112418190B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024057446A1 (ja) * | 2022-09-14 | 2024-03-21 | 日本電気株式会社 | 映像処理システム、映像処理装置および映像処理方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992148A (zh) * | 2015-06-18 | 2015-10-21 | 江南大学 | 基于随机森林的atm终端部分遮挡人脸关键点检测方法 |
CN107633204A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
CN107679450A (zh) * | 2017-08-25 | 2018-02-09 | 珠海多智科技有限公司 | 基于深度学习的遮挡条件下人脸识别方法 |
US20180211101A1 (en) * | 2016-03-09 | 2018-07-26 | International Business Machines Corporation | Face detection, representation, and recognition |
US20180268203A1 (en) * | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Face recognition system for face recognition in unlabeled videos with domain adversarial learning and knowledge distillation |
CN110472730A (zh) * | 2019-08-07 | 2019-11-19 | 交叉信息核心技术研究院(西安)有限公司 | 一种卷积神经网络的自蒸馏训练方法和可伸缩动态预测方法 |
CN111553333A (zh) * | 2020-07-10 | 2020-08-18 | 支付宝(杭州)信息技术有限公司 | 人脸图像识别模型训练方法、识别方法、装置和电子设备 |
CN111783605A (zh) * | 2020-06-24 | 2020-10-16 | 北京百度网讯科技有限公司 | 一种人脸图像识别方法、装置、设备及存储介质 |
CN111931628A (zh) * | 2020-08-04 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 人脸识别模型的训练方法、装置及相关设备 |
CN112149601A (zh) * | 2020-09-30 | 2020-12-29 | 北京澎思科技有限公司 | 兼容遮挡的面部属性识别方法、装置和电子设备 |
CN112200108A (zh) * | 2020-10-16 | 2021-01-08 | 深圳市华付信息技术有限公司 | 一种口罩人脸识别方法 |
CN112232205A (zh) * | 2020-10-16 | 2021-01-15 | 中科智云科技有限公司 | 移动端cpu实时多功能人脸检测方法 |
-
2021
- 2021-01-21 CN CN202110082008.7A patent/CN112418190B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992148A (zh) * | 2015-06-18 | 2015-10-21 | 江南大学 | 基于随机森林的atm终端部分遮挡人脸关键点检测方法 |
US20180211101A1 (en) * | 2016-03-09 | 2018-07-26 | International Business Machines Corporation | Face detection, representation, and recognition |
US20180268203A1 (en) * | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Face recognition system for face recognition in unlabeled videos with domain adversarial learning and knowledge distillation |
CN107633204A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
CN107679450A (zh) * | 2017-08-25 | 2018-02-09 | 珠海多智科技有限公司 | 基于深度学习的遮挡条件下人脸识别方法 |
CN110472730A (zh) * | 2019-08-07 | 2019-11-19 | 交叉信息核心技术研究院(西安)有限公司 | 一种卷积神经网络的自蒸馏训练方法和可伸缩动态预测方法 |
CN111783605A (zh) * | 2020-06-24 | 2020-10-16 | 北京百度网讯科技有限公司 | 一种人脸图像识别方法、装置、设备及存储介质 |
CN111553333A (zh) * | 2020-07-10 | 2020-08-18 | 支付宝(杭州)信息技术有限公司 | 人脸图像识别模型训练方法、识别方法、装置和电子设备 |
CN111931628A (zh) * | 2020-08-04 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 人脸识别模型的训练方法、装置及相关设备 |
CN112149601A (zh) * | 2020-09-30 | 2020-12-29 | 北京澎思科技有限公司 | 兼容遮挡的面部属性识别方法、装置和电子设备 |
CN112200108A (zh) * | 2020-10-16 | 2021-01-08 | 深圳市华付信息技术有限公司 | 一种口罩人脸识别方法 |
CN112232205A (zh) * | 2020-10-16 | 2021-01-15 | 中科智云科技有限公司 | 移动端cpu实时多功能人脸检测方法 |
Non-Patent Citations (4)
Title |
---|
CHENYU LI 等: "Look Through Masks: Towards Masked Face Recognition with De-Occlusion Distillation", 《POSTER SESSION E2: EMOTIONAL AND SOCIAL SIGNALS IN MULTIMEDIA & MEDIA INTERPRETATION》 * |
DMITRY NEKHAEV 等: "Margin Based Knowledge Distillation for Mobile Face Recognition", 《TWELFTH INTERNATIONAL CONFERENCE ON MACHINE VISION(ICMV 2019)》 * |
FRANCESCO GUZZI 等: "Distillation of a CNN for a high accuracy mobile face recognition system", 《MIPRO 2019》 * |
魏彪 等: "基于移动端的高效人脸识别算法", 《现代计算机(专业版)》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024057446A1 (ja) * | 2022-09-14 | 2024-03-21 | 日本電気株式会社 | 映像処理システム、映像処理装置および映像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112418190B (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109525595B (zh) | 一种基于时间流特征的黑产账号识别方法及设备 | |
CN110598686B (zh) | 发票的识别方法、系统、电子设备和介质 | |
CN110689043A (zh) | 一种基于多重注意力机制的车辆细粒度识别方法及装置 | |
CN110929203B (zh) | 异常用户的识别方法、装置、设备及存储介质 | |
CN112200081A (zh) | 异常行为识别方法、装置、电子设备及存储介质 | |
CN112487495B (zh) | 基于大数据和云计算的数据处理方法及大数据服务器 | |
CN112418190B (zh) | 移动端医学防护遮蔽人脸识别方法、装置、系统及服务器 | |
CN112597978B (zh) | 指纹匹配方法、装置、电子设备及存储介质 | |
CN112348006A (zh) | 一种无人机信号识别方法、系统、介质及设备 | |
CN114359787A (zh) | 目标属性识别方法、装置、计算机设备及存储介质 | |
CN111373393A (zh) | 图像检索方法和装置以及图像库的生成方法和装置 | |
CN114465678A (zh) | 一种基于深度学习的复杂活动wifi感知方法 | |
CN110674480A (zh) | 行为数据处理方法、装置、设备及可读存储介质 | |
CN112288050B (zh) | 一种异常行为识别方法、识别装置、终端设备及存储介质 | |
CN112163019B (zh) | 基于区块链的可信电子批记录处理方法及区块链服务平台 | |
CN112866295B (zh) | 一种大数据防爬虫处理方法及云平台系统 | |
CN115734072A (zh) | 一种工业自动化设备的物联网集中监控方法及装置 | |
CN115393616A (zh) | 目标跟踪方法、装置、设备以及存储介质 | |
CN112433558B (zh) | 一种时钟源转换分配方法及系统 | |
CN109871723B (zh) | 图像融合信息的处理方法及系统 | |
CN113837091A (zh) | 识别方法、装置、电子设备及计算机可读存储介质 | |
CN114332860A (zh) | 自然交互条件事件相关脑电标记方法、装置、介质、设备 | |
CN113626461B (zh) | 信息查找方法、终端设备及计算机可读存储介质 | |
CN114743120B (zh) | 一种基于图像识别的路边车辆非法占道检测方法及系统 | |
CN115424353B (zh) | 基于ai模型的业务用户特征识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |