CN111626235A - 一种人脸识别神经网络的训练方法及装置 - Google Patents
一种人脸识别神经网络的训练方法及装置 Download PDFInfo
- Publication number
- CN111626235A CN111626235A CN202010474139.5A CN202010474139A CN111626235A CN 111626235 A CN111626235 A CN 111626235A CN 202010474139 A CN202010474139 A CN 202010474139A CN 111626235 A CN111626235 A CN 111626235A
- Authority
- CN
- China
- Prior art keywords
- face
- class
- sub
- face class
- loss value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种人脸识别神经网络的训练方法及装置,可以根据各人脸类别中心,获得用于约束不同的人脸类别样本的类间间隔的第一子损失值,根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值,根据第一子损失值和第二子损失值确定损失函数的总损失值,根据总损失值是否满足预设要求来确定是否对当前的人脸识别神经网络中的模型参数进行迭代更新。本发明可以有效提高人脸识别神经网络的人脸识别准确度。
Description
技术领域
本发明涉及图像识别领域,尤其涉及一种人脸识别神经网络的训练方法及装置。
背景技术
随着图像识别技术的发展,人脸识别技术不断提高。
当前,人脸识别神经网络是一项处于发展中的人脸识别技术。在进行人脸识别的过程中,人脸识别神经网络可以从待识别的目标人脸图像中提取出相应的人脸特征向量,将提取出的人脸特征向量与已存储在数据库中的多种类别的人脸图像的人脸特征向量进行相似度计算,根据相似度计算结果来确定目标人脸图像中人脸的身份信息。
其中,数据库中存储的多种类别的人脸图像的人脸特征向量也是由人脸识别神经网络从相应的人脸图像中提取获得。人脸识别神经网络需确保存储在数据库中的多种类别的人脸图像的类内间隔较小、类间间隔较大,以保证人脸识别的准确度。
但是,现有的人脸识别神经网络存储在数据库中的多种类别的人脸图像的类间间隔较小,导致人脸识别的准确度较低。
发明内容
鉴于上述问题,本发明提供一种克服上述问题或者至少部分地解决上述问题的人脸识别神经网络的训练方法及装置,技术方案如下:
一种人脸识别神经网络的训练方法,所述方法包括:
从人脸识别神经网络中获得训练样本的各个人脸类别中心,所述训练样本包括至少两个人脸类别样本的图像;
将各个所述人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得所述第一子损失函数输出的第一子损失值;
根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值;
根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值;
判断所述损失函数的总损失值是否满足预设要求,若是,结束对当前的人脸识别神经网络中的模型参数的调整;否则,对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,返回所述从人脸识别神经网络中获得训练样本的各个人脸类别中心的步骤。
可选的,所述将各个所述人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得所述第一子损失函数输出的第一子损失值,包括:
对于获得的所述各个人脸类别中心中的两个人脸类别中心:将该两个人脸类别中心输入至
中,获得该两个人脸类别中心之间的余弦相似度,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi,j是编号为i的人脸类别样本的人脸类别中心与编号为j的人脸类别样本的人脸类别中心之间的余弦相似度;
根据获得的各所述余弦相似度确定第一子损失值。
可选的,所述根据获得的各所述余弦相似度确定第一子损失值,包括:
对于所述各个人脸类别中心中的任一人脸类别中心:在该人脸类别中心与其它人脸类别中心的各余弦相似度中确定最大值,该最大值为
,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值;
根据各所述最大值确定第一子损失值。
可选的,所述根据各所述最大值确定第一子损失值,包括:
将确定的各所述最大值输入至
,确定第一子损失值,其中:i为人脸类别样本的编号,C是所述训练样本中人脸类别样本的总数,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值,Mo为所述第一子损失值。
可选的,所述第二子损失函数为:
其中,C是所述训练样本中人脸类别样本的总数,i是人脸类别样本的编号,n为所述训练样本中人脸图像的编号,yn是编号为n的人脸图像所属的人脸类别样本的编号;1(yn==i)为一个运算公式,若yn的值为i,则1(yn==i)的结果为1,否则,1(yn==i)的结果为0;xn为编号为n的人脸图像的特征向量,pyn(xn)为xn归属于人脸类别样本yn的后验概率,Ln是第二子损失值。
可选的,所述pyn(xn)为:
其中,n为所述训练样本中人脸图像的编号,xn是编号为n的人脸图像的特征向量,m为常量超参数,yn是编号为n的人脸图像所属的人脸类别样本的编号,θyn为xn与间的夹角,是编号为yn的人脸类别样本的人脸类别中心,C为训练样本中人脸类别样本的总数,j为人脸类别样本的编号,θj为xn与wj间的夹角,wj是编号为j的人脸类别样本的人脸类别中心,pyn(xn)为xn属于人脸类别样本yn的后验概率。
可选的,所述根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值,包括:
将所述第一子损失值乘以第一实数以获得第三子损失值;
将所述第二子损失值乘以第二实数以获得第四子损失值;
将所述第三子损失值与所述第四子损失值相加所得的值确定为损失函数的总损失值。
一种人脸识别神经网络的训练装置,所述装置包括:第一获得单元、第二获得单元、第一确定单元、第二确定单元、判断单元、停止调整单元和调整单元,其中:
所述第一获得单元,用于从人脸识别神经网络中获得训练样本的各个人脸类别中心,所述训练样本包括至少两个人脸类别样本的图像;
所述第二获得单元,用于将各个所述人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得所述第一子损失函数输出的第一子损失值;
所述第一确定单元,用于根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值;
所述第二确定单元,用于根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值;
所述判断单元,用于判断所述损失函数的总损失值是否满足预设要求,若是触发所述停止调整单元,否则触发所述调整单元;
所述停止调整单元,用于结束对当前的人脸识别神经网络中的模型参数的调整;
所述调整单元,用于对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,触发所述第一获得单元。
可选的,所述第二获得单元具体包括:第三获得单元和第三确定单元,其中:
所述第三获得单元,用于对于获得的所述各个人脸类别中心中的两个人脸类别中心:将该两个人脸类别中心输入至
中,获得该两个人脸类别中心之间的余弦相似度,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi,j是编号为i的人脸类别样本的人脸类别中心与编号为j的人脸类别样本的人脸类别中心之间的余弦相似度;
所述第三确定单元,用于根据获得的各所述余弦相似度确定第一子损失值。
可选的,所述第三确定单元具体包括:第四确定单元和第五确定单元,其中:
所述第四确定单元,用于对于所述各个人脸类别中心中的任一人脸类别中心:在该人脸类别中心与其它人脸类别中心的各余弦相似度中确定最大值,该最大值为
,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值;
所述第五确定单元,用于根据各所述最大值确定第一子损失值。
可选的,所述第五确定单元,具体用于:
将确定的各所述最大值输入至
,确定第一子损失值,其中:i为人脸类别样本的编号,C是所述训练样本中人脸类别样本的总数,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值,Mo为所述第一子损失值。
可选的,所述第二子损失函数为:
其中,C是所述训练样本中人脸类别样本的总数,i是人脸类别样本的编号,n为所述训练样本中人脸图像的编号,yn是编号为n的人脸图像所属的人脸类别样本的编号;1(yn==i)为一个运算公式,若yn的值为i,则1(yn==i)的结果为1,否则,1(yn==i)的结果为0;xn为编号为n的人脸图像的特征向量,pyn(xn)为xn归属于人脸类别样本yn的后验概率,Ln是第二子损失值。
可选的,所述pyn(xn)为:
其中,n为所述训练样本中人脸图像的编号,xn是编号为n的人脸图像的特征向量,m为常量超参数,yn是编号为n的人脸图像所属的人脸类别样本的编号,θyn为xn与间的夹角,是编号为yn的人脸类别样本的人脸类别中心,C为训练样本中人脸类别样本的总数,j为人脸类别样本的编号,θj为xn与wj间的夹角,wj是编号为j的人脸类别样本的人脸类别中心,pyn(xn)为xn属于人脸类别样本yn的后验概率。
可选的,所述第二确定单元,具体包括:第六确定单元、第七确定单元和第四获得单元,其中:
所述第六确定单元,用于将所述第一子损失值乘以第一实数以获得第三子损失值;
所述第七确定单元,用于将所述第二子损失值乘以第二实数以获得第四子损失值;
所述第四获得单元,用于将所述第三子损失值与所述第四子损失值相加所得的值确定为损失函数的总损失值。
本发明提出的人脸识别神经网络的训练方法及装置,可以从人脸识别神经网络中获得训练样本的各个人脸类别中心,训练样本包括至少两个人脸类别样本的图像,将各个人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得第一子损失函数输出的第一子损失值,根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值,根据第一子损失值和第二子损失值确定损失函数的总损失值,判断损失函数的总损失值是否满足预设要求,若是,结束对当前的人脸识别神经网络中的模型参数的调整;否则,对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,返回所述从人脸识别神经网络中获得训练样本的各个人脸类别中心的步骤。该方法可以使得训练好的人脸识别神经网络在提取待识别的目标人脸图像的人脸向量特征时,可以增大目标人脸图像与上述数据存储空间中不同的人脸类别样本的人脸图像间的人脸向量特征的差异,从而可以降低目标人脸图像被识别为错误的人脸类别样本的误识别率,也可以减小目标人脸图像与上述数据存储空间中相同的人脸类别样本的人脸图像间的人脸向量特征的差异,有效提高人脸识别准确度。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1示出了本发明实施例提供的一种人脸识别神经网络的训练方法的流程图;
图2示出了本发明实施例提供的另一种人脸识别神经网络的训练方法的流程图;
图3示出了本发明实施例提供的另一种人脸识别神经网络的训练装置的流程图;
图4示出了本发明实施例提供的另一种人脸识别神经网络的训练装置的流程图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
如图1所示,本实施例提出了一种人脸识别神经网络的训练方法,该方法可以包括以下步骤:
S10、从人脸识别神经网络中获得训练样本的各个人脸类别中心,所述训练样本包括至少两个人脸类别样本的图像;
其中,本实施例中的人脸识别神经网络可以处于待训练状态。本发明对于人脸识别神经网络所处的具体训练阶段不做限定,比如,人脸识别神经网络可以是未曾训练过的人脸识别神经网络,也可以是已开始训练而处于训练过程中的人脸识别神经网络,也可以是已训练好的、需再次进行训练的人脸识别神经网络。
具体的,本发明可以将训练样本中的各人脸类别的图像输入至人脸识别神经网络中,来获得各个人脸类别中心。
其中,如果人脸识别神经网络未曾训练过,本发明可以该人脸识别神经网络先行进行均匀分布初始化,之后再将训练样本中的各人脸类别的图像输入至人脸识别神经网络中,来获得初始化的各个人脸类别中心。
其中,本发明对于人脸识别神经网络的具体类型不做限定,比如,人脸识别神经网络可以是卷积神经网络。需要说明的是,本发明对于人脸识别神经网络所使用的主干网络结构的具体类型不做限定,比如,当人脸识别神经网络为卷积神经网络时,其主干网络结构可以是Mobilenet结构,或Resnet结构,或Densenet结构。
其中,训练样本可以包括多个人脸类别样本的人脸图像,比如上万个人脸图像。每个人脸类别样本的人脸图像均可以是一个具有相应身份标识的人的人脸图像,比如,第一类别样本的人脸图像为张三的人脸图像,第二类别样本的人脸图像为李四的人脸图像。
具体的,每个类别样本的人脸图像均可以包括有一张或多张人脸图像。
其中,人脸类别中心为训练样本中的人脸类别样本的类别中心。
需要说明的是,人脸类别中心可以为一个预设维度为N维的特征向量。本发明对于上述N的具体数值不做限定,比如,N可以是128维,也可以是512维。
需要说明的是,本发明可以结合训练样本中各个人脸类别中心,获得一个N*C的二维矩阵W。其中,该二维矩阵中的每个N*1均可以为一个人脸类别中心,而C即为训练样本中人脸类别样本的总数。
S20、将各个所述人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得所述第一子损失函数输出的第一损失值;
其中,第一子损失函数可以是用于训练人脸识别神经网络的损失函数中的一部分,第一损失值可以为用于训练人脸识别神经网络的损失函数的函数值中的一部分。
可选的,步骤S20可以为;
对于获得的所述各个人脸类别中心中的两个人脸类别中心:将该两个人脸类别中心输入至
中,获得该两个人脸类别中心之间的余弦相似度,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi,j是编号为i的人脸类别样本的人脸类别中心与编号为j的人脸类别样本的人脸类别中心之间的余弦相似度;
根据获得的各所述余弦相似度确定第一子损失值。
其中,余弦相似度可以为两个向量间夹角的余弦值。
需要说明的是,一个人脸类别中心与另一个人脸类别中心在特征向量上的夹角,可以称为该两个人脸类别中心间的角度间隔;而该两个人脸类别中心间的角度间隔的余弦值,即可以为该两个人脸类别中心间的余弦相似度。
还需要说明的是,当两个人脸类别中心间的余弦相似度越大时,该两个人脸类别中心间的角度间隔越小,该两个人脸类别中心间的类间间隔越小;当两个人脸类别中心间的余弦相似度越小时,该两个人脸类别中心间的角度间隔越大,该两个人脸类别中心的类间间隔越大。
可以理解的是,本发明可以将各人脸类别中心间的余弦相似度来获得第一子损失值,进而通过第一子损失值来约束各人脸类别中心的类间间隔。
可选的,所述根据获得的各所述余弦相似度确定第一子损失值,可以包括:
对于所述各个人脸类别中心中的任一人脸类别中心:在该人脸类别中心与其它人脸类别中心的各余弦相似度中确定最大值,该最大值为
,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值;
根据各所述最大值确定第一子损失值。
其中,与wi的余弦相似度为Mi的人脸类别中心,即为训练样本中与wi的角度间隔最小的人脸类别中心,也是训练样本中与wi的类间间隔最小的人脸类别中心。
可以理解的是,当wi对应的Mi越小时,在整体上,wi与训练样本中其它人脸类别中心的角度间隔越大、类间间隔越大。因此,本发明在确定用于训练人脸识别神经网络的损失函数时,可以将各wi对应的Mi作为该损失函数的一部分,且在该损失函数中考虑将各wi对应的Mi控制为较小的值,以使得人脸识别神经网络在训练好后,各人脸类别中心的角度间隔、类间间隔尽量大。
具体的,本发明可以根据各wi对应的Mi确定组成用于训练人脸识别神经网络的损失函数的一个子损失函数,即上述第一子损失函数。
可选的,所述根据各所述最大值确定第一子损失值,可以为:
将确定的各所述最大值输入至
,确定第一子损失值,其中:i为人脸类别样本的编号,C是所述训练样本中人脸类别样本的总数,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值,Mo为所述第一子损失值。
需要说明的是,为使得人脸识别神经网络在训练的初级阶段中的梯度更加平稳,本发明提出了上述公式(1),对各人脸类别中心对应的Mi进行算术平均值的计算,以获得第一子损失值Mo。
还需要说明的是,第一子损失函数的函数值即第一子损失值越小,训练出的人脸识别神经网络中不同的人脸类别样本的类间间隔越大。
具体的,为确保相同的人脸类别样本的类内间隔小,本发明还可以将用于减小相同的人脸类别样本的类内间隔的函数也确定为一个子损失函数。
S30、根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值;
可选的,所述第二子损失函数可以为:
其中,C是所述训练样本中人脸类别样本的总数,i是人脸类别样本的编号,n为所述训练样本中人脸图像的编号,yn是编号为n的人脸图像所属的人脸类别样本的编号;1(yn==i)为一个运算公式,若yn的值为i,则1(yn==i)的结果为1,否则,1(yn==i)的结果为0;xn为编号为n的人脸图像的特征向量,pyn(xn)为xn归属于人脸类别样本yn的后验概率,Ln是第二子损失值。
可选的,pyn(xn)为:
其中,n为所述训练样本中人脸图像的编号,xn是编号为n的人脸图像的特征向量,m为常量超参数,yn是编号为n的人脸图像所属的人脸类别样本的编号,θyn为xn与间的夹角,是编号为yn的人脸类别样本的人脸类别中心,C为训练样本中人脸类别样本的总数,j为人脸类别样本的编号,θj为xn与wj间的夹角,wj是编号为j的人脸类别样本的人脸类别中心,pyn(xn)为xn属于人脸类别样本yn的后验概率。
需要说明的是,第二子损失值越小,训练出的人脸识别神经网络中相同的人脸类别样本的类内间隔越小。
S40、根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值;
具体的,为维持类内间隔和类间间隔的平衡,本发明可以考虑第一子损失值和第二子损失值在总损失值中的占比,来确定最终的损失值。
其中,本发明可以直接将第一子损失值与第二子损失值相加所获得的值确定为最终的损失值;也可以给第一子损失值乘以一个系数后再与第二子损失值相加,来确定最终的损失值。
S50、判断所述损失函数的总损失值是否满足预设要求,若是,则执行步骤S60;若否,则执行步骤S61。
其中,预设要求可以为总损失值不大于期望损失值。该期望损失值的具体数值可以由技术人员根据实际需求进行制定,本发明对此不做限定。
S60、结束对当前的人脸识别神经网络中的模型参数的调整。
具体的,当损失函数的总损失值不大于上述期望损失值时,本发明可以判定人脸识别神经网络已训练至具备期望的识别准确度,可以结束对人脸识别神经网络的训练。
S61、对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,返回执行步骤S10;
具体的,当损失函数的总损失值大于上述期望损失值时,本发明可以判定人脸识别神经网络未训练好,即人脸识别神经网络的准确定未达到期望,本发明可以过反向传播、随机梯度下降法对人脸识别神经网络的模型参数进行迭代更新,之后再次开始执行步骤S10,即循环迭代至人脸识别神经网络达到期望。具体的,本发明在对人脸识别神经网络进行训练的过程中,为克服人脸图像模糊、大角度、光线等因素的影响,可以使用包括随机模糊、翻转、姿态变换、白平衡等数据增强方式对人脸图像进行处理;针对人脸图像中的脸部遮挡(如戴口罩)等情况,本发明可以采用随机擦除的数据增强方式和局部特征加权等方式对人脸图像进行处理,以提高人脸识别神经网络在真实环境和人脸图像出现面部遮挡等情况下的识别准确度。
具体的,本发明所使用的训练样本的人脸图像均可以由两部分人脸图像构成,其中,一部分人脸图像可以是来源于格林深瞳DeepGlint的人脸图像(可以包含18.1万个类别样本,总共675万张人脸图像),另一部分人脸图像可以是自采的人脸图像。还需要说明的是,由于格林深瞳DeepGlint的人脸图像中以写真、电影等场景的人脸图像居多,真实生活场景中的人脸图像偏少,因此,本发明在自采数据时,可以通过以生活场景为背景对人物进行拍摄来获得人脸图像,并可以为解决跨设备问题而使用多套成像设备,使得人脸识别神经网络具有一定的鲁棒性。
具体的,本发明在获得训练好的人脸识别神经网络之后,可以将待存储至数据存储空间(如上述数据库)的各人脸类别样本(如训练样本中的各人脸类别样本)的人脸图像分别输入至训练好的人脸识别神经网络中,获得各人脸类别样本的人脸图像的人脸特征向量(在将人脸图像输入至人脸识别神经网络后,可以将人脸识别神经网络在最后一个全连接层的输出值确定为人脸图像的人脸特征向量),将提取出的各人脸类别样本的人脸图像的人脸特征向量存储到上述数据存储空间中。
具体的,本发明在使用训练好的人脸识别神经网络对目标人脸图像进行人脸识别时,可以先提取该目标人脸的人脸特征向量(在该目标人脸图像输入至人脸识别神经网络后,同样可以将人脸识别神经网络在最后一个全连接层的输出确定为该目标人脸图像的人脸特征向量)。之后,本发明可以使用sofmax函数对该目标人脸图像的人脸特征向量进行归一化处理,确定该目标人脸图像属于上述数据存储空间中每一人脸类别样本的具体概率值。
其中,本发明在使用训练好的人脸识别神经网络来提取待识别的目标人脸图像的人脸向量特征时,可以增大目标人脸图像与上述数据存储空间中不同的人脸类别样本的人脸图像间的人脸向量特征的差异,从而可以降低目标人脸图像被识别为错误的人脸类别样本的误识别率,也可以减小目标人脸图像与上述数据存储空间中相同的人脸类别样本的人脸图像间的人脸向量特征的差异,有效提高人脸识别准确度。
本实施例提出的人脸识别神经网络的训练方法,可以从人脸识别神经网络中获得训练样本的各个人脸类别中心,训练样本包括至少两个人脸类别样本的图像,将各个人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得第一子损失函数输出的第一子损失值,根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值,根据第一子损失值和第二子损失值确定损失函数的总损失值,判断损失函数的总损失值是否满足预设要求,若是,结束对当前的人脸识别神经网络中的模型参数的调整;否则,对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,返回所述从人脸识别神经网络中获得训练样本的各个人脸类别中心的步骤,可以使得训练好的人脸识别神经网络在识别人脸图像,有效提高人脸识别准确度。
基于图1所示步骤,本实施例提出另一种人脸识别神经网络的训练方法,如图2所示,在该方法中,步骤S40可以包括:
S41、将所述第一子损失值乘以第一实数以获得第三子损失值;
具体的,第三损失值可以为:
Loss1=λMo
,其中,λ为大于零的第一实数,Mo为上述第一子损失值,Loss1为第三子损失值。
需要说明的是,本发明对于λ的具体数值不做限定。当然,λ的具体数值可以由技术人员根据实际需求进行设置。
可以理解的是,本发明可以通过对λ的具体数值的设置,来对第一子损失值在总损失值中的占比进行调整。
S42、将所述第二子损失值乘以第二实数以获得第四子损失值;
具体的,第四子损失值可以为:
Loss2=αLn
其中,α是大于零的第二实数,Ln为上述第二子损失值,Loss2为第四子损失值。
需要说明的是,与上述α相似,本发明对于α的具体数值不做限定,α的具体数值也可以由技术人员根据实际需求进行设置。
S43、将所述第三子损失值与所述第四子损失值相加所得的值确定为损失函数的总损失值。
具体的,总损失值可以为:
Loss0=λMo+αLn-----------------公式(2)
具体的,本发明可以通过调整α和λ两个参数的数值,来维持类内间隔和的平衡。
其中,在上述公式(2)中,当Ln的值越小时,相同的人脸类别样本的人脸图像的人脸向量特征的间隔越小,本发明将目标人脸图像被识别为其归属的人脸类别样本的准确度越高;当Mo的值越小时,本发明将目标人脸图像识别为错误的人脸类别样本的误识别率越低。
具体的,当Mo和Ln同时取得最小时,Loss0的值可以为全局最小,此时本发明存储在上述数据存储空间中的各人脸类别样本的类内间隔小且类间间隔大,可以使得人脸识别的准确度得到进一步的提高。
本实施例提出的人脸识别神经网络的训练方法,可以使得人脸识别的准确度得到进一步的提高。
基于图1所示步骤,本实施例提出一种人脸识别神经网络的训练装置,如图3所示,该装置可以包括第一获得单元100、第二获得单元200、第一确定单元300、第二确定单元400、判断单元500、停止调整单元600和调整单元700,其中:
所述第一获得单元100,可以用于从人脸识别神经网络中获得训练样本的各个人脸类别中心,所述训练样本包括至少两个人脸类别样本的图像;
其中,本实施例中的人脸识别神经网络可以处于待训练状态。本发明对于人脸识别神经网络所处的具体训练阶段不做限定。
具体的,本发明可以将训练样本中的各人脸类别的图像输入至人脸识别神经网络中,来获得各个人脸类别中心。
其中,如果人脸识别神经网络未曾训练过,本发明可以该人脸识别神经网络先行进行均匀分布初始化,之后再将训练样本中的各人脸类别的图像输入至人脸识别神经网络中,来获得初始化的各个人脸类别中心。
其中,本发明对于人脸识别神经网络的具体类型不做限定。需要说明的是,本发明对于人脸识别神经网络所使用的主干网络结构的具体类型不做限定。
其中,训练样本可以包括多个人脸类别样本的人脸图像,比如上万个人脸图像。每个人脸类别样本的人脸图像均可以是一个具有相应身份标识的人的人脸图像。
具体的,每个类别样本的人脸图像均可以包括有一张或多张人脸图像。
其中,人脸类别中心为训练样本中的人脸类别样本的类别中心。
需要说明的是,人脸类别中心可以为一个预设维度为N维的特征向量。本发明对于上述N的具体数值不做限定。
需要说明的是,本发明可以结合训练样本中各个人脸类别中心,获得一个N*C的二维矩阵W。其中,该二维矩阵中的每个N*1均可以为一个人脸类别中心,而C即为训练样本中人脸类别样本的总数。
所述第二获得单元200,可以用于将各个所述人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得所述第一子损失函数输出的第一子损失值;
其中,第一子损失函数可以是用于训练人脸识别神经网络的损失函数中的一部分,第一损失值可以为用于训练人脸识别神经网络的损失函数的函数值中的一部分。
可选的,所述第二获得单元200可以具体包括:第三获得单元和第三确定单元,其中:
所述第三获得单元,可以用于对于获得的所述各个人脸类别中心中的两个人脸类别中心:将该两个人脸类别中心输入至
中,获得该两个人脸类别中心之间的余弦相似度,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi,j是编号为i的人脸类别样本的人脸类别中心与编号为j的人脸类别样本的人脸类别中心之间的余弦相似度;
所述第三确定单元,可以用于根据获得的各所述余弦相似度确定第一子损失值。
其中,余弦相似度可以为两个向量间夹角的余弦值。
需要说明的是,一个人脸类别中心与另一个人脸类别中心在特征向量上的夹角,可以称为该两个人脸类别中心间的角度间隔;而该两个人脸类别中心间的角度间隔的余弦值,即可以为该两个人脸类别中心间的余弦相似度。
还需要说明的是,当两个人脸类别中心间的余弦相似度越大时,该两个人脸类别中心间的角度间隔越小,该两个人脸类别中心间的类间间隔越小;当两个人脸类别中心间的余弦相似度越小时,该两个人脸类别中心间的角度间隔越大,该两个人脸类别中心的类间间隔越大。
可以理解的是,本发明可以将各人脸类别中心间的余弦相似度来获得第一子损失值,进而通过第一子损失值来约束各人脸类别中心的类间间隔。
可选的,所述第三确定单元可以具体包括:第四确定单元和第五确定单元,其中:
所述第四确定单元,可以用于对于所述各个人脸类别中心中的任一人脸类别中心:在该人脸类别中心与其它人脸类别中心的各余弦相似度中确定最大值,该最大值为
,其中:i、j均为人脸类别样本的编号,wi是编号为i的人脸类别样本的人脸类别中心,wj是编号为j的人脸类别样本的人脸类别中心,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值;
所述第五确定单元,可以用于根据各所述最大值确定第一子损失值。
其中,与wi的余弦相似度为Mi的人脸类别中心,即为训练样本中与wi的角度间隔最小的人脸类别中心,也是训练样本中与wi的类间间隔最小的人脸类别中心。
可以理解的是,当wi对应的Mi越小时,在整体上,wi与训练样本中其它人脸类别中心的角度间隔越大、类间间隔越大。因此,本发明在确定用于训练人脸识别神经网络的损失函数时,可以将各wi对应的Mi作为该损失函数的一部分,且在该损失函数中考虑将各wi对应的Mi控制为较小的值,以使得人脸识别神经网络在训练好后,各人脸类别中心的角度间隔、类间间隔尽量大。
具体的,本发明可以根据各wi对应的Mi确定组成用于训练人脸识别神经网络的损失函数的一个子损失函数,即上述第一子损失函数。
可选的,所述第五确定单元,可以具体用于:
将确定的各所述最大值输入至
,确定第一子损失值,其中:i为人脸类别样本的编号,C是所述训练样本中人脸类别样本的总数,Mi是编号为i的人脸类别样本的人脸类别中心与其它人脸类别样本的人脸类别中心的各余弦相似度中的最大值,Mo为所述第一子损失值。
还需要说明的是,第一子损失函数的函数值即第一子损失值越小,训练出的人脸识别神经网络中不同的人脸类别样本的类间间隔越大。
具体的,为确保相同的人脸类别样本的类内间隔小,本发明还可以将用于减小相同的人脸类别样本的类内间隔的函数也确定为一个子损失函数。
所述第一确定单元300,可以用于根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值;
可选的,所述第二子损失函数可以为:
其中,C是所述训练样本中人脸类别样本的总数,i是人脸类别样本的编号,n为所述训练样本中人脸图像的编号,yn是编号为n的人脸图像所属的人脸类别样本的编号;1(yn==i)为一个运算公式,若yn的值为i,则1(yn==i)的结果为1,否则,1(yn==i)的结果为0;xn为编号为n的人脸图像的特征向量,pyn(xn)为xn归属于人脸类别样本yn的后验概率,Ln是第二子损失值。
可选的,所述pyn(xn)可以为:
其中,n为所述训练样本中人脸图像的编号,xn是编号为n的人脸图像的特征向量,m为常量超参数,yn是编号为n的人脸图像所属的人脸类别样本的编号,θyn为xn与wyn间的夹角,wyn是编号为yn的人脸类别样本的人脸类别中心,C为训练样本中人脸类别样本的总数,j为人脸类别样本的编号,θj为xn与wj间的夹角,wj是编号为j的人脸类别样本的人脸类别中心,pyn(xn)为xn属于人脸类别样本yn的后验概率。
需要说明的是,第二子损失值越小,训练出的人脸识别神经网络中相同的人脸类别样本的类内间隔越小。
所述第二确定单元400,可以用于根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值;
具体的,为维持类内间隔和类间间隔的平衡,本发明可以考虑第一子损失值和第二子损失值在总损失值中的占比,来确定最终的损失值。
其中,本发明可以直接将第一子损失值与第二子损失值相加所获得的值确定为最终的损失值;也可以给第一子损失值乘以一个系数后再与第二子损失值相加,来确定最终的损失值。
所述判断单元500,可以用于判断所述损失函数的总损失值是否满足预设要求,若是触发所述停止调整单元600,否则触发所述调整单元700;
其中,预设要求可以为总损失值不大于期望损失值。该期望损失值的具体数值可以由技术人员根据实际需求进行制定,本发明对此不做限定。
所述停止调整单元600,可以用于结束对当前的人脸识别神经网络中的模型参数的调整;
具体的,当损失函数的总损失值不大于上述期望损失值时,本发明可以判定人脸识别神经网络已训练至具备期望的识别准确度,可以结束对人脸识别神经网络的训练。
所述调整单元700,可以用于对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,触发所述第一获得单元100。
具体的,当损失函数的总损失值大于上述期望损失值时,本发明可以判定人脸识别神经网络未训练好,即人脸识别神经网络的准确定未达到期望,本发明可以过反向传播、随机梯度下降法对人脸识别神经网络的模型参数进行迭代更新,之后再次触发第一获得单元100,即循环迭代至人脸识别神经网络达到期望。
其中,本发明在使用训练好的人脸识别神经网络来提取待识别的目标人脸图像的人脸向量特征时,可以增大目标人脸图像与上述数据存储空间中不同的人脸类别样本的人脸图像间的人脸向量特征的差异,从而可以降低目标人脸图像被识别为错误的人脸类别样本的误识别率,也可以减小目标人脸图像与上述数据存储空间中相同的人脸类别样本的人脸图像间的人脸向量特征的差异,有效提高人脸识别准确度。
本实施例提出的人脸识别神经网络的训练装置,可以使得训练好的人脸识别神经网络在识别人脸图像,有效提高人脸识别准确度。
基于图3所示装置,本实施例提出另一种人脸识别神经网络的训练装置,如图4所示,在该装置中,所述第二确定单元400可以具体包括:第六确定单元410、第七确定单元420和第四获得单元430,其中:
所述第六确定单元410,可以用于将所述第一子损失值乘以第一实数以获得第三子损失值;
具体的,第三损失值可以为:
Loss1=λMo
,其中,λ为大于零的第一实数,Mo为上述第一子损失值,Loss1为第三子损失值。
需要说明的是,本发明对于λ的具体数值不做限定。当然,λ的具体数值可以由技术人员根据实际需求进行设置。
可以理解的是,本发明可以通过对λ的具体数值的设置,来对第一子损失值在总损失值中的占比进行调整。
所述第七确定单元420,可以用于将所述第二子损失值乘以第二实数以获得第四子损失值;
具体的,第四子损失值可以为:
Loss2=αLn
其中,α是大于零的第二实数,Ln为上述第二子损失值,Loss2为第四子损失值。
需要说明的是,与上述α相似,本发明对于α的具体数值不做限定,α的具体数值也可以由技术人员根据实际需求进行设置。
所述第四获得单元430,可以用于将所述第三子损失值与所述第四子损失值相加所得的值确定为损失函数的总损失值。
具体的,总损失值可以为:
Loss0=λMo+αLn-----------------公式(3)
具体的,本发明可以通过调整α和λ两个参数的数值,来维持类内间隔和的平衡。
其中,在上述公式(3)中,当Ln的值越小时,相同的人脸类别样本的人脸图像的人脸向量特征的间隔越小,本发明将目标人脸图像被识别为其归属的人脸类别样本的准确度越高;当Mo的值越小时,本发明将目标人脸图像识别为错误的人脸类别样本的误识别率越低。
具体的,当Mo和Ln同时取得最小时,Loss0的值可以为全局最小,此时本发明存储在上述数据存储空间中的各人脸类别样本的类内间隔小且类间间隔大,可以使得人脸识别的准确度得到进一步的提高。
本实施例提出的人脸识别神经网络的训练装置,可以使得人脸识别的准确度得到进一步的提高。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种人脸识别神经网络的训练方法,其特征在于,所述方法包括:
从人脸识别神经网络中获得训练样本的各个人脸类别中心,所述训练样本包括至少两个人脸类别样本的图像;
将各个所述人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得所述第一子损失函数输出的第一子损失值;
根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值;
根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值;
判断所述损失函数的总损失值是否满足预设要求,若是,结束对当前的人脸识别神经网络中的模型参数的调整;否则,对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,返回所述从人脸识别神经网络中获得训练样本的各个人脸类别中心的步骤。
7.根据权利要求1所述的训练方法,其特征在于,所述根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值,包括:
将所述第一子损失值乘以第一实数以获得第三子损失值;
将所述第二子损失值乘以第二实数以获得第四子损失值;
将所述第三子损失值与所述第四子损失值相加所得的值确定为损失函数的总损失值。
8.一种人脸识别神经网络的训练装置,其特征在于,所述装置包括:第一获得单元、第二获得单元、第一确定单元、第二确定单元、判断单元、停止调整单元和调整单元,其中:
所述第一获得单元,用于从人脸识别神经网络中获得训练样本的各个人脸类别中心,所述训练样本包括至少两个人脸类别样本的图像;
所述第二获得单元,用于将各个所述人脸类别中心输入至用于约束不同的人脸类别样本的类间间隔的第一子损失函数,以获得所述第一子损失函数输出的第一子损失值;
所述第一确定单元,用于根据用于约束相同的人脸类别样本的类内间隔的第二子损失函数,确定第二子损失值;
所述第二确定单元,用于根据所述第一子损失值和所述第二子损失值确定损失函数的总损失值;
所述判断单元,用于判断所述损失函数的总损失值是否满足预设要求,若是触发所述停止调整单元,否则触发所述调整单元;
所述停止调整单元,用于结束对当前的人脸识别神经网络中的模型参数的调整;
所述调整单元,用于对当前的人脸识别神经网络中的模型参数进行调整,以使得不同的人脸类别样本的类间间隔增大且相同的人脸类别样本的类内间隔减小,然后将调整后的人脸识别神经网络确定为当前的人脸识别神经网络,触发所述第一获得单元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010474139.5A CN111626235A (zh) | 2020-05-29 | 2020-05-29 | 一种人脸识别神经网络的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010474139.5A CN111626235A (zh) | 2020-05-29 | 2020-05-29 | 一种人脸识别神经网络的训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111626235A true CN111626235A (zh) | 2020-09-04 |
Family
ID=72260155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010474139.5A Pending CN111626235A (zh) | 2020-05-29 | 2020-05-29 | 一种人脸识别神经网络的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626235A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949618A (zh) * | 2021-05-17 | 2021-06-11 | 成都市威虎科技有限公司 | 一种人脸特征码转换方法及装置和电子设备 |
CN117912086A (zh) * | 2024-03-19 | 2024-04-19 | 中国科学技术大学 | 基于撒切尔效应驱动的人脸识别方法、系统、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103281A (zh) * | 2017-03-10 | 2017-08-29 | 中山大学 | 基于聚集损失深度度量学习的人脸识别方法 |
CN109166586A (zh) * | 2018-08-02 | 2019-01-08 | 平安科技(深圳)有限公司 | 一种识别说话人的方法及终端 |
CN109583322A (zh) * | 2018-11-09 | 2019-04-05 | 长沙小钴科技有限公司 | 一种人脸识别深度网络训练方法和系统 |
CN110197102A (zh) * | 2018-02-27 | 2019-09-03 | 腾讯科技(深圳)有限公司 | 人脸识别方法及装置 |
US20190303754A1 (en) * | 2018-03-28 | 2019-10-03 | University Of Maryland, College Park | L2 constrained softmax loss for discriminative face verification |
CN111079785A (zh) * | 2019-11-11 | 2020-04-28 | 深圳云天励飞技术有限公司 | 一种图像识别方法、装置及终端设备 |
-
2020
- 2020-05-29 CN CN202010474139.5A patent/CN111626235A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103281A (zh) * | 2017-03-10 | 2017-08-29 | 中山大学 | 基于聚集损失深度度量学习的人脸识别方法 |
CN110197102A (zh) * | 2018-02-27 | 2019-09-03 | 腾讯科技(深圳)有限公司 | 人脸识别方法及装置 |
US20190303754A1 (en) * | 2018-03-28 | 2019-10-03 | University Of Maryland, College Park | L2 constrained softmax loss for discriminative face verification |
CN109166586A (zh) * | 2018-08-02 | 2019-01-08 | 平安科技(深圳)有限公司 | 一种识别说话人的方法及终端 |
CN109583322A (zh) * | 2018-11-09 | 2019-04-05 | 长沙小钴科技有限公司 | 一种人脸识别深度网络训练方法和系统 |
CN111079785A (zh) * | 2019-11-11 | 2020-04-28 | 深圳云天励飞技术有限公司 | 一种图像识别方法、装置及终端设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949618A (zh) * | 2021-05-17 | 2021-06-11 | 成都市威虎科技有限公司 | 一种人脸特征码转换方法及装置和电子设备 |
CN117912086A (zh) * | 2024-03-19 | 2024-04-19 | 中国科学技术大学 | 基于撒切尔效应驱动的人脸识别方法、系统、设备及介质 |
CN117912086B (zh) * | 2024-03-19 | 2024-05-31 | 中国科学技术大学 | 基于撒切尔效应驱动的人脸识别方法、系统、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210256290A1 (en) | Image feature learning device, image feature learning method, image feature extraction device, image feature extraction method, and program | |
CN111832581B (zh) | 肺部特征识别方法、装置、计算机设备及存储介质 | |
CN110245621B (zh) | 人脸识别装置及图像处理方法、特征提取模型、存储介质 | |
CN111626235A (zh) | 一种人脸识别神经网络的训练方法及装置 | |
WO2021169160A1 (zh) | 图像归一化处理方法及装置、存储介质 | |
CN112651490B (zh) | 人脸关键点检测模型的训练方法及设备、可读存储介质 | |
CN109598220A (zh) | 一种基于多元输入多尺度卷积的人数统计方法 | |
CN113095333B (zh) | 无监督特征点检测方法及装置 | |
JP2014164656A (ja) | 画像処理方法およびプログラム | |
CN113065593A (zh) | 模型训练方法、装置、计算机设备和存储介质 | |
CN112836820A (zh) | 用于图像分类任务的深度卷积网络训方法、装置及系统 | |
CN111931867A (zh) | 基于轻量级模型的新冠肺炎x射线图像分类方法及系统 | |
CN115861715A (zh) | 基于知识表示增强的图像目标关系识别算法 | |
US20040131235A1 (en) | Image processing method, apparatus and storage medium | |
JP2000099722A (ja) | 人物顔認識装置及び人物顔認識方法 | |
Lim et al. | More powerful selective kernel tests for feature selection | |
Gowda | Age estimation by LS-SVM regression on facial images | |
CN111914718B (zh) | 基于平均影响值数据变换的特征加权pca人脸识别方法 | |
CN112446428B (zh) | 一种图像数据处理方法及装置 | |
CN114970732A (zh) | 分类模型的后验校准方法、装置、计算机设备及介质 | |
Yektaii et al. | A criterion for measuring the separability of clusters and its applications to principal component analysis | |
CN110210443B (zh) | 一种优化投影对称性近似稀疏分类的手势识别方法 | |
CN111079715B (zh) | 一种基于双字典学习的遮挡鲁棒性人脸对齐方法 | |
JP2022151502A (ja) | プログラム、情報処理装置、及び方法 | |
CN113705511A (zh) | 手势识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |