CN110197102A - 人脸识别方法及装置 - Google Patents
人脸识别方法及装置 Download PDFInfo
- Publication number
- CN110197102A CN110197102A CN201810162341.7A CN201810162341A CN110197102A CN 110197102 A CN110197102 A CN 110197102A CN 201810162341 A CN201810162341 A CN 201810162341A CN 110197102 A CN110197102 A CN 110197102A
- Authority
- CN
- China
- Prior art keywords
- parameter
- facial image
- face
- cosine
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种人脸识别方法及装置,其中,所述人脸识别方法包括:对卷积神经网络模型中损失层的输入参数进行归一化约束;将受约束的输入参数输入所述损失层,得到应用于所述损失层的余弦损失函数;通过余弦损失函数引导所述卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型;根据所述人脸识别模型对待识别人脸图像进行人脸识别。采用本发明所提供的人脸识别方法及装置解决了现有技术中因人脸特征的分类间隔不够大而造成人脸识别的精准性不够高的问题。
Description
技术领域
本发明涉及人脸识别技术领域,尤其涉及一种人脸识别方法及装置。
背景技术
随着人脸识别技术的发展,人脸识别被广泛地应用,例如,刷脸支付、视频监控、门禁授权等等。
目前,人脸识别主要基于卷积神经网络模型(Convolutional Neural Network,CNN)进行,即通过大量的人脸图像样本进行卷积神经网络模型的训练,以使不同身份所对应的人脸图像能够被准确地识别。
由于数以百万计的人脸图像所对应的身份不尽相同,增加了模型训练的难度,为此,提出了一种模型训练方案,通过分类激活函数Softmax进行不同身份的定义,使得模型训练过程被转化为求解Softmax loss,即分类损失函数的损失,以此降低模型训练的复杂度。
然而,上述方案中,分类损失函数不具备足够大的分类间隔,进而造成人脸特征的身份差异性有限,尚不足以保证人脸识别的精准性。
发明内容
为了解决上述技术问题,本发明的一个目的在于提供一种人脸识别方法及装置。
其中,本发明所采用的技术方案为:
一种人脸识别方法,包括:对卷积神经网络模型中损失层的输入参数进行归一化约束;将受约束的输入参数输入所述损失层,得到应用于所述损失层的余弦损失函数;通过余弦损失函数引导所述卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型;根据所述人脸识别模型对待识别人脸图像进行人脸识别。
一种人脸识别装置,包括:输入参数约束模块,用于对卷积神经网络模型中损失层的输入参数进行归一化约束;函数获取模块,用于将受约束的输入参数输入所述损失层,得到应用于所述损失层的余弦损失函数;模型训练模块,用于通过余弦损失函数引导所述卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型;人脸识别模块,用于根据所述人脸识别模型对待识别人脸图像进行人脸识别。
一种人脸识别装置,包括处理器及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如上所述的人脸识别方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的人脸识别方法。
在上述技术方案中,针对卷积神经网络模型中的损失层,进行输入参数的归一化约束,并将受约束的输入参数输入损失层,得到应用于损失层的余弦损失函数,进而通过该余弦损失函数引导卷积神经网络模型根据人脸图像样本进行模型训练,并通过训练得到的人脸识别模型对待识别人脸图像进行人脸识别,由此,随着输入参数所受到的约束,分类损失函数被改进优化为余弦损失函数,使得人脸特征的分类间隔通过余弦间隔的形式能够实现最大程度的增加,进而有利于最大化人脸特征的身份差异性,从而充分地保证人脸识别的精准性,以此解决了现有技术中因人脸特征的分类间隔不够大而造成人脸识别的精准性不够高的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1根据一示例性实施例示出的一种电子设备的硬件结构框图。
图2根据一示例性实施例示出的一种人脸识别方法的流程图。
图3是图2对应实施例中步骤250在一个实施例的流程图。
图4是根据一示例性实施例示出的人脸识别模型的算法框架示意图
图5是图2对应实施例中步骤210在一个实施例的流程图。
图6是根据一示例性实施例示出的未进行余弦边界间隔约束的人脸特征的类间差异示意图。
图7是根据一示例性实施例示出的进行了余弦边界间隔约束的人脸特征的类间差异示意图。
图8是图2对应实施例中步骤270在一个实施例的流程图。
图9是图8对应实施例中步骤275在一个实施例的流程图。
图10是一应用场景中基于身份验证的实施环境的示意图。
图11是另一应用场景中基于身份验证的实施环境的示意图。
图12是图8对应实施例中步骤275在另一个实施例的流程图。
图13是一应用场景中基于身份识别的实施环境的示意图。
图14是根据一示例性实施例示出的一种人脸识别装置的框图。
图15是图14对应实施例中输入参数约束模块在一个实施例的框图。
图16是图14对应实施例中模型训练模块在一个实施例的框图。
图17是图14对应实施例中人脸识别模块在一个实施例的框图。
图18是图17对应实施例中识别结果生成单元在一个实施例的框图。
图19是图17对应实施例中识别结果生成单元在另一个实施例的框图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
如前所述,分类损失函数虽然能够使得不同分类的人脸特征被正确地区分,但是不具备足够大的分类间隔,进而造成人脸特征的身份差异性有限,尚不足以保证人脸识别的精准性。
目前,对人脸特征的分类间隔加以改进通常采用如下两种方案:第一种改进方案基于欧式边界间隔(Euclidean margin),例如,Center Loss、Contrastive Loss;第二种改进方案则是基于角度边界间隔(Angular margin),例如,A-Softmax。
第一种改进方案中,以欧式空间来定义不同身份,与人脸特征在角度空间的辐射状分布特性不匹配。
第二种改进方案中,则主要利用了人脸特征在角度空间的辐射状分布特性,以角度间隔的形式增加人脸特征的分类间隔,但是角度范围在-180°~180°之间,使得角度间隔的变化也仅局限于0°~360°,因此,以角度间隔的形式最大化人脸特征的身份差异性是有限的。
为此,本发明特提出了一种人脸识别方法,该种人脸识别方法通过余弦间隔的形式使得不同分类的人脸特征之间具有足够大的分类间隔,有效地增强了人脸特征的身份差异性,从而充分地保证了人脸识别的精准性。
该种人脸识别方法由计算机程序实现,与之相对应的,所构建的人脸识别装置可存储于架构有冯诺依曼体系的电子设备中,以在该电子设备中执行,进而实现人脸识别。例如,电子设备可以是智能手机、平板电脑、笔记本电脑、台式电脑、服务器等等,在此并未加以限定。
图1是根据一示例性实施例示出的一种电子设备的硬件结构框图。需要说明的是,该电子设备只是一个适配于本发明的示例,不能认为是提供了对本发明的使用范围的任何限制。该电子设备也不能解释为需要依赖于或者必须具有图1中示出的示例性的电子设备100中的一个或者多个组件。
该电子设备的硬件结构可因配置或者性能的不同而产生较大的差异,如图1所示,电子设备100包括:电源110、接口130、至少一存储器150、以及至少一中央处理器(CPU,Central Processing Units)170。
其中,电源110用于为电子设备100上的各硬件设备提供工作电压。
接口130包括至少一有线或无线网络接口131、至少一串并转换接口133、至少一输入输出接口135以及至少一USB接口137等,用于与外部设备通信。
存储器150作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统151、应用程序153及数据155等,存储方式可以是短暂存储或者永久存储。其中,操作系统151用于管理与控制电子设备100上的各硬件设备以及应用程序153,以实现中央处理器170对海量数据155的计算与处理,其可以是WindowsServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM等。应用程序153是基于操作系统151之上完成至少一项特定工作的计算机程序,其可以包括至少一模块(图1中未示出),每个模块都可以分别包含有对电子设备100的一系列计算机可读指令。数据155可以是存储于磁盘中的照片、图片等。
中央处理器170可以包括一个或多个以上的处理器,并设置为通过总线与存储器150通信,用于运算与处理存储器150中的海量数据155。
如上面所详细描述的,适用本发明的电子设备100将通过中央处理器170读取存储器150中存储的一系列计算机可读指令的形式来完成人脸识别方法。
此外,通过硬件电路或者硬件电路结合软件也能同样实现本发明,因此,实现本发明并不限于任何特定硬件电路、软件以及两者的组合。
请参阅图2,在一示例性实施例中,一种人脸识别方法适用于电子设备,该电子设备的结构可以如图1所示。
该种人脸识别方法可以由电子设备执行,可以包括以下步骤:
步骤210,对卷积神经网络模型中损失层的输入参数进行归一化约束。
为不同身份所对应的人脸图像进行人脸识别,需要得到人脸识别模型。本实施例中,人脸识别模型是由卷积神经网络模型训练得到的。例如,卷积神经网络模型包括但不限于:ResNet、VGGNet、FaceNet等等。
人脸识别中,卷积神经网络模型,是借助指定模型结构来描述人脸图像的人脸特征与身份之间的对应关系,进而通过模型训练,使得该人脸图像的人脸特征与身份之间的对应关系达到最优。其中,指定模型结构包括若干卷积层、池化层、全连接层和损失层。
具体地,人脸图像输入至若干卷积层提取得到多层次的特征,并进一步经过池化层对多层次的特征进行压缩、全连接层对池化层输出的特征进行连接,进而输入至损失层,通过求解损失层所应用的分类损失函数的损失,来表示该人脸图像的人脸特征所属不同分类的概率,亦即人脸图像所对应不同身份的概率,以在分类损失函数的损失最小时,使得人脸特征属于指定分类的概率最大,进而使得人脸图像对应于真实身份的概率最大,从而实现对卷积神经网络模型的训练,得到人脸识别模型。
应当说明的是,通过上述过程,人脸特征将以数据的形式唯一地标识人脸图像,即实现了对人脸图像所对应身份的准确描述。也就是说,如果身份不同,则身份所对应的人脸图像将有所区别,进而使得不同人脸图像的人脸特征也各不相同。
由上可知,对于人脸识别模型而言,通过前向传播将得到模型输出,即人脸图像的人脸特征,而通过后向传播进行模型训练,使得分类损失函数的损失最小,以此实现人脸图像的人脸特征与身份之间的对应关系达到最优。
换而言之,卷积神经网络模型的训练是由应用于损失层的分类损失函数来引导完成的。然而,如前所述,分类损失函数虽然能够使得不同分类的人脸特征被正确地区分,但是不具备足够大的分类间隔,进而造成人脸特征的身份差异性有限,尚不足以保证人脸识别的精准性。
为此,本实施例中,对损失层的输入参数进行归一化约束,以根据受约束的输入参数对分类损失函数进行改进优化。
步骤230,将受约束的输入参数输入损失层,得到应用于损失层的余弦损失函数。
余弦损失函数,是对分类损失函数的改进优化,由受约束的输入参数输入至损失层得到,以余弦间隔的形式进行人脸特征分类间隔的增加,进而有利于最大化人脸特征的身份差异性,以此充分地保证人脸识别的精准性。
也就是说,基于人脸特征在角度空间的辐射状分布特性,虽然角度仍然局限于-180°~180°,但是由人脸特征与不同类别之间角度所对应余弦值形成的余弦间隔能够使人脸特征分类间隔的增加不受限制,从而有利于实现人脸特征的身份差异性的最大化。
此外,余弦损失函数将与人脸识别中采用的余弦相似度算法具有一致性,有利于使得后续通过余弦损失函数引导进行的模型训练训练得到更为高效的人脸识别模型。
在一实施例的具体实现中,还可以针对余弦损失函数所引入的余弦间隔进行调整,以此进一步的扩大人脸特征分类间隔,相较于角度间隔的形式,使得人脸特征的身份差异性得以最大化,进而提高人脸识别的精准性。
步骤250,通过余弦损失函数引导卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型。
由余弦损失函数引导模型训练,是指以余弦损失函数的损失为参考,确认卷积神经网络模型的训练是否完成。即,当余弦损失函数的损失最小,视为完成卷积神经网络模型的训练。
具体地,如图3所示,在一实施例的具体实现中,步骤250可以包括以下步骤:
步骤251,获取进行了身份标注的人脸图像样本。
人脸图像样本是卷积神经网络模型的训练基础,进而通过获取大量的人脸图像样本进行卷积神经网络模型的训练,才能够得到准确的人脸识别模型,并以此实现准确地人脸识别。
进一步地,人脸图像样本是进行了身份标注的人脸图像,以此指示该人脸图像所对应的身份。应当理解,不同人所具有的身份不同,对应的人脸图像也各不相同,由此进行身份标注所形成的人脸图像样本也有所区别。
换句话说,人脸图像样本,可以对应于同一身份,即属于同一个人,还可以对应于不同身份,即属于不同人。也可以理解为,属于同一个人的人脸图像样本携带相同的身份标签,而属于不同人的人脸图像样本携带不同的身份标签。
将由同一个人的多个人脸图像进行身份标注所得到的人脸图像样本、以及由不同人的多个人脸图像进行身份标注所得到的人脸图像样本,作为卷积神经网络模型的训练基础,确保以此得到的人脸识别模型不仅针对不同的身份具有较强的辨识能力,而且对于相同身份来说也能够准确地验证,进而充分地保障了人脸识别模型的实用性。
步骤253,将人脸图像样本输入卷积神经网络模型,计算余弦损失函数的损失。
步骤255,根据余弦损失函数的损失对卷积神经网络模型的模型参数进行优化。
模型训练是指对卷积神经网络模型的模型参数进行迭代优化,进而使得人脸图像的人脸特征与身份之间的对应关系达到最优。
首先,对卷积神经网络模型的模型参数执行随机初始化,然后针对随机初始化的模型参数进行迭代优化。
具体地,将其中一个人脸图像样本传输于卷积神经网络模型的若干卷积层、池化层、全连接层、损失层,则计算得到余弦损失函数的损失。若余弦损失函数的损失未达到最小或者迭代次数尚未达到,则对随机初始化的模型参数进行优化,即更新该随机初始化的模型参数,并基于优化后的模型参数继续执行模型训练。
将另一个人脸图像样本输入卷积神经网络模型,计算余弦损失函数的损失,若余弦损失函数的损失仍未达到最小或者迭代次数仍未达到,则继续优化模型参数并执行后续的模型训练。
循环执行上述模型参数的迭代优化过程,直至优化后的模型参数使余弦损失函数的损失达到最小或者迭代次数达到,则跳转执行步骤257。
步骤257,由卷积神经网络模型收敛得到人脸识别模型。
当优化后的模型参数使余弦损失函数的损失最小或者迭代次数达到,即认为优化后的模型参数使得卷积神经网络模型收敛,而收敛的卷积神经网络模型即视为人脸识别模型,进而便能够基于该人脸识别模型对待识别人脸图像进行人脸识别。
由此,即完成卷积神经网络模型的训练。
需要说明的是,根据实际需要,也可以理解为,当迭代次数达到时,则优化后的模型参数使得余弦损失函数的损失达到最小,在此不加以限定。
步骤270,根据人脸识别模型对待识别人脸图像进行人脸识别。
图4是根据一示例性实施例示出的人脸识别模型的算法框架示意图。如图4所示,该算法框架包括两路分支:模型训练分支和人脸识别分支。
其中,模型训练分支:
利用携带了身份标签403的人脸图像样本401对卷积神经网络模型进行训练,使得应用于损失层402的余弦损失函数的损失最小,进而使得人脸图像与身份之间的对应关系达到最优,从而训练得到人脸识别模型。
人脸识别分支:
训练得到的人脸识别模型被用于提取待识别人脸图像404的人脸特征,并通过一对一的特征比对,来实现对待识别人脸图像404所对应身份的验证,如图4中405所示;或者,通过一对多的特征比对,以实现对待识别人脸图像404所对应身份的识别,如图4中406所示,进而完成对待识别人脸图像的人脸识别。
在如上所述的过程中,实现了对分类损失函数的改进优化,使得人脸特征的分类间隔基于余弦损失函数引入的余弦间隔能够最大程度的增加,进而有利于最大化人脸特征的身份差异性,从而充分地保证人脸识别的精准性。
请参阅图5,在一示例性实施例中,步骤210可以包括以下步骤:
步骤211,输入参数中,分别进行分类映射参数和特征参数的归一化处理。
如前所述,卷积神经网络模型包括若干卷积层、池化层、全连接层和损失层,由此,损失层的输入参数即为全连接层的输出,如公式(1)所示:
fj=Wj Tx=||Wj||||x||cosθj (1)。
其中,fj表示全连接层中第j个分类的输出,Wj表示全连接层中第j个分类的权重,||Wj||表示第j个分类的权重Wj的L2范数,x表示由全连接层前面若干个卷积层和池化层处理后所输出的特征,||x||表示特征x的L2范数,cosθj表示第j个分类的权重Wj与特征x之间夹角θj的余弦值。
需要说明的是,对于人脸图像所对应的不同身份而言,全连接层中将存在相应数量的分类,进而使得相应数量分类的权重构成全连接层的若干分类映射参数。
还应当说明的是,卷积神经网络模型的训练,对于全连接层而言,则是为了使得由若干分类映射参数所形成的权重矩阵最合适,因此,全连接层中的分类映射参数被视为卷积神经网络模型的模型参数,即当余弦损失函数的损失最小时,由若干分类映射参数所形成的权重矩阵最合适。
进一步补充说明的是,就模型训练来说,特征x作为全连接层的特征参数,而进行人脸识别时,特征x将对应于人脸图像的人脸特征。
由上可知,全连接层的输出fj,即损失层的输入参数,所包含的参变量分别有:分类映射参数Wj、特征参数x、分类映射参数Wj与特征参数x之间夹角θj的余弦值cosθj。
因此,为了构建余弦损失函数,对于输入参数而言,进行归一化处理的是分类映射参数和特征参数。
在一实施例的具体实现中,分类映射参数和特征参数所进行的归一化处理是指:将输入参数中特征参数的L2范数转换为第一指定常数,并将输入参数中分类映射参数的L2范数转换为第二指定常数,如公式(2)、公式(3)所示:
||Wj||=s1 (2);
||x||=s2 (3)。
其中,s1是第一指定常数,s2是第二指定常数,可以根据实际需求进行灵活地调整,以确保人脸识别模型的精准性,进而有利于提高人脸识别的准确度,在此不进行限定。
在一实施例的具体实现中,第一指定常数s1为1。
步骤213,根据分别进行了归一化处理的分类映射参数和特征参数约束输入参数。
根据公式(2)、公式(3)中进行的归一化处理,相应的,受约束的输入参数如公式(4)所示:
fj=s1s2cosθj (4)。
在一实施例的具体实现中,第一指定常数s1为1,则输入参数进一步约束为:fj=s2cosθj (5)。
在上述实施例的作用下,输入参数中的分类映射参数和特征参数被进行了归一化处理,使得输入参数仅与分类映射参数和特征参数之间夹角的余弦值直接相关。
也可以理解为,引导模型训练的余弦损失函数仅依赖于分类映射参数和特征参数之间夹角的余弦值,使得模型训练的目标是直接最小化余弦损失,避免了自适应学习中L2范数可能造成的对人脸图像样本的过度拟合,进而避免卷积神经网络模型的过度拟合,从而有利于增强人脸特征学习的有效性。
在一示例性实施例中,步骤250之前,如上所述的方法还可以包括以下步骤:
按照余弦边界间隔对余弦损失函数进行分类间隔调整,以通过分类间隔调整后的改进分类函数引导模型训练。
首先说明的是,余弦损失函数,由受约束的输入参数输入损失层而得到的,如公式(6)所示:
其中,Lcos表示余弦损失函数的损失,N表示人脸图像样本的总个数,假设yi是第i个人脸图像样本的指定分类,即表示该第i个人脸图像样本所对应的真实身份,示第i个人脸图像样本的人脸特征xi在全连接层中属于指定分类yi的输出,fj表示第i个人脸图像样本的人脸特征xi在全连接层中第j个分类的输出。
由此,则表示第i个人脸图像样本的人脸特征xi属于指定分类yi的概率P,则在余弦损失函数的损失Lcos最小时,使得第i个人脸图像样本的人脸特征xi属于指定分类yi的概率P最大,进而使得第i个人脸图像样本对应于真实身份的概率最大,由此完成了模型训练的引导。
如前所述,人脸图像样本,可以对应于同一身份,即属于同一个人,还可以对应于不同身份,即属于不同人。也可以理解为,人脸图像样本的人脸特征,既可能存在类内差异,即与其他人脸特征属于同一分类,也可能存在类间差异,即与其他人脸特征属于不同分类。
由此,本实施例中,将对余弦损失函数的分类间隔进行调整,以此保证不属于同一分类的人脸特征之间具有更大的分类间隔,进而增强人脸识别模型的判别性和辨识力,以提高人脸识别的精准性。
具体地,通过配置余弦边界间隔m,并计算余弦损失函数中余弦值与m的差值,以此进行余弦损失函数的重构,进而实现调整余弦损失函数的分类间隔,如公式(7)所示:
其中,Llmc表示分类间隔调整后的余弦损失函数的损失,N表示人脸图像样本的总个数,假设yi是第i个人脸图像样本的指定分类,即表示该第i个人脸图像样本所对应的真实身份,表示第i个人脸图像样本的人脸特征xi与指定分类yi的权重之间夹角的余弦值,cos(θj)表示第i个人脸图像样本的人脸特征xi与第j个分类的权重之间夹角θj的余弦值。
进一步地,即余弦损失函数中余弦值与m的差值,则表示第i个人脸图像样本的人脸特征xi属于指定分类yi的分类边界,进而使得分类间隔扩大了m。其中,该余弦值对应于输入参数中指定分类映射参数(指定分类yi的权重)与特征参数xi之间的夹角
由此,便形成分类间隔调整后的余弦损失函数,即增强边界间隔余弦损失函数(Large Margin Cosine Loss,LMCL),进而通过该LMCL函数进行模型训练的引导。
举例来说,考虑二分类的情况,图6是根据一示例性实施例示出的未进行余弦边界间隔约束的人脸特征的类间差异示意图,图7是根据一示例性实施例示出的进行了余弦边界间隔约束的人脸特征的类间差异示意图。
如图6、图7所示,不同颜色的扇形代表人脸特征属于不同分类的特征分布,假设人脸图像样本的人脸特征x,W1是分类y1的权重,W2是分类y2的权重,θ1是x与W1的夹角,θ2是x与W2的夹角。
(a)如图6所示,没有余弦边界间隔m约束时,分类条件是cosθ1>cosθ2(即人脸特征x属于分类y1)和cosθ2>cosθ1(即人脸特征x属于分类y2)。
(b)如图7所示,引入余弦边界间隔m约束之后,分类条件是cosθ1-m>cosθ2(即人脸特征x属于分类y1)和cosθ2-m>cosθ1(即人脸特征x属于分类y2)。
由上可知,在余弦间隔的基础上,通过引入余弦边界间隔m,分类间隔Margin被进一步扩大m,从而使得不属于同一分类的人脸特征之间具有更大的分类间隔。
此外,由于余弦值具有[-1,1]的有限取值范围,当不同分类之间的余弦差异被扩大时,将使得同一分类内的余弦差异被压缩,进而使得人脸特征具有更大的类间差异和更小的类内差异,从而增强了人脸识别模型的判别性和辨识力,有利于提高人脸识别的精准性和鲁棒性,即,无论人脸图像中人的表情、年龄、姿态等发生了变化,都能够精准地识别。
请参阅图8,在一示例性实施例中,步骤250可以包括以下步骤:
步骤251,调用人脸识别模型对待识别人脸图像进行人脸特征提取。
如前所述,对于人脸识别模型而言,通过前向传播将得到模型输出,即人脸图像的人脸特征,由此,将待识别人脸图像输入至人脸识别模型之后,便能够利用人脸识别模型的前向传播得到模型输出,即提取得到待识别人脸图像的人脸特征。
步骤253,根据待识别人脸图像的人脸特征进行指定人脸特征的相似度运算。
首先说明的是,指定人脸特征,是基于人脸识别模型对指定人员的人脸图像进行人脸特征提取得到的。此处,指定人员可以是某座大厦内需要进行门禁授权的人,也可以是某个安检部门需要追踪的目标,还可以是某个银行需要进行身份验证的人,本实施例不对指定人员的类型作具体限定。相应地,不同类型的指定人员可对应于不同的应用场景,该应用场景包括但不限于:门禁授权场景、视频监控场景、刷脸支付场景等等,因此,本实施例所提供的人脸识别方法可根据指定人员的不同类型而适用于不同的应用场景。
进一步地,由于指定人员的身份是已知的,故而,在提取得到指定人脸特征之后,便能够为指定人员建立指定人脸特征与已知身份之间的关联关系,以供后续对指定人脸特征进行身份关联。
其次,相似度运算是指计算待识别人脸图像的人脸特征与指定人脸特征之间的相似度。
本实施例中,通过公式(8),计算上述二者之间的余弦相似度S:
其中,S为余弦相似度,x1为待识别人脸图像的人脸特征,x2为指定人脸特征。
余弦相似度S越大,则表示待识别人脸图像的人脸特征与指定人脸特征越相似,也可以理解为,待识别人脸图像所对应身份是指定人脸特征所关联身份的可能性越高,反之,则可能性越小。
应当说明的是,指定人脸特征与身份之间的关联关系,是在指定人脸特征提取过程中,为已知身份的指定人员预先建立的,进而方便于对指定人脸特征进行的身份关联。
此处,人脸识别中所采用的余弦相似度算法与余弦损失函数中的余弦值具有一致性,有利于使得通过余弦损失函数引导进行的模型训练能够训练得到更为高效的人脸识别模型,进而有利于该人脸识别模型提取得到一致性更高的人脸特征,进一步增强了机器学习的有效性。
步骤255,根据运算结果生成待识别人脸图像的识别结果。
在一实施例的具体实现中,如图9所示,步骤255可以包括以下步骤:
步骤2551,根据运算结果确认待识别人脸图像的人脸特征与指定人脸特征之间的相似度。
在一对一的特征比对中,例如,身份验证,运算结果用于指示待识别人脸图像的人脸特征与指定人脸特征之间的相似度。
步骤2553,进行相似度与相似阈值之间的比较。
当相似度小于相似阈值时,说明待识别人脸图像所对应身份与指定人员身份不同,则识别结果指示待识别人脸图像未通过指定人脸特征相关联身份的验证,此时,视为对待识别人脸图像所对应身份的验证失败。
反之,当相似度大于相似阈值时,则跳转执行步骤2555。
步骤2555,得到指示待识别人脸图像通过指定人脸特征相关联身份验证的识别结果。
当相似度小于相似阈值时,说明待识别人脸图像所对应身份与指定人员身份相同,则识别结果指示待识别人脸图像通过指定人脸特征相关联身份的验证,此时,视为对待识别人脸图像所对应身份的验证成功。
在上述过程中,实现了一对一的特征比对,可以适用于需要进行身份验证的应用场景,例如,刷脸支付中,通过身份验证的人方可发起支付流程。
图10是一应用场景中基于身份验证的实施环境的示意图。如图10所示,该应用场景中,实施环境包括用户510、智能手机530和支付服务器550。
针对某个待支付订单,用户510通过智能手机530所配置的摄像头进行刷脸,使得智能手机530获得用户510相应的待识别用户图像,进而利用人脸识别模型对该待识别用户图像进行人脸识别。
具体地,通过人脸识别模型提取待识别用户图像的用户特征,并计算该用户特征与指定用户特征的相似度,若相似度大于相似阈值,则用户510通过身份验证。其中,指定用户特征是智能手机530通过人脸识别模型预先为用户510提取的。
在用户510通过身份验证之后,智能手机530为待支付订单向支付服务器550发起订单支付请求,以此完成待支付订单的支付流程。
图11是另一应用场景中基于身份验证的实施环境的示意图。例如,视频监控中,通过身份识别,在图像画面所显示的多个人脸图像中确定追踪目标。该应用场景中实现了多对一的特征比对,可视为一对一特征比对的特例。
如图11所示,该应用场景中,实施环境包括监控屏幕610、布设于各处的摄像头630、以及实现摄像头630和监控屏幕610二者之间交互的监控服务器650。
在该应用场景中,无论是室内还是室外,均布设了大量的摄像头630,以便于随时通过摄像头630采集的图像画面而实现视频监控。具体而言,布设的大量摄像头630形成了视频监控系统,通过监控服务器650与视频监控系统中各摄像头630的交互来获得图像画面,进而在监控屏幕610中通过图像画面实现对追踪目标的视频监控。
对于图像画面中追踪目标的人脸识别,则是由监控服务器650完成的。
具体地,通过人脸识别模型提取图像画面中多个人脸图像的人脸特征,并分别计算该些人脸特征与指定目标特征的相似度。其中,指定目标特征是通过人脸识别模型基于追踪目标预先提取的。
由此,便能够获得相似度最大且相似度超过相似阈值的人脸特征,进而将追踪目标的身份识别为该相似度最大且相似度超过相似阈值的人脸特征所关联的身份,以此在图像画面中识别出追踪目标,以便于后续进行追踪目标的连续追踪。
需要说明的是,由于并非每一图像画面中都存在追踪目标,故而对于相似度最大的人脸特征,还需要进行相似度比较,以此确保连续追踪的准确性。
在一实施例的另一具体实现中,如图12所示,步骤255可以包括以下步骤:
步骤2552,根据运算结果获取相似度最大的指定人脸特征。
在一对多的特征比对中,例如,身份识别,运算结果用于指示待识别人脸图像的人脸特征分别与多个指定人脸特征之间的相似度,即运算结果是多个相似度的集合,每一个相似度对应一个指定人脸特征。
步骤2554,对相似度最大的指定人脸特征进行身份关联。
相似度最大的指定人脸特征,即视为通过身份识别所得到的指定人员的人脸特征描述,由此便能够根据指定人脸特征与身份之间的关联关系,获得与该相似度最大的指定人脸特征关联的指定人员身份,进而将指定人员的身份视为待识别人脸图像所对应的身份。
步骤2556,将关联得到的身份识别为待识别人脸图像对应的身份,以待识别人脸图像对应的身份作为待识别人脸图像的识别结果。
在上述过程中,实现了一对多的特征比对,能够适用于需要进行身份识别的应用场景,例如,门禁授权中,通过身份识别,工作人员被配置相应的门禁权限,而允许进入指定工作区域。
图13是一应用场景中基于身份识别的实施环境的示意图。如图13所示,该实施环境包括接待设备710、识别服务器730和门禁控制设备750。
其中,接待设备710上安装有摄像头,以对工作人员770进行人脸拍照,并将获得的工作人员770的待识别人员图像发送至识别服务器730进行人脸识别。
识别服务器730通过人脸识别模型提取待识别人员图像的人员特征,并计算该人员特征与多个指定工作人员特征的相似度,得到相似度最大的指定工作人员特征,进而将相似度最大的指定工作人员特征所关联的工作人员身份识别为工作人员770的身份,以此完成工作人员770的身份识别。其中,指定工作人员特征是识别服务器730通过人脸识别模型预先为工作人员770提取的。
待工作人员770的身份识别完成,识别服务器730为工作人员770向门禁控制设备750发送门禁授权指令,使得门禁控制设备750根据该门禁授权指令为工作人员770配置相应的门禁权限,进而使得工作人员770凭借该门禁权限控制指定工作区域的门禁道闸执行放行动作。
当然,在不同的应用场景,可以根据实际应用需求进行灵活部署,例如,识别服务器730与门禁控制设备750可部署为同一个服务器,或者,接待设备710与门禁控制设备750部署于同一个服务器,本应用场景并未对此加以限定。
下述为本发明装置实施例,可以用于执行本发明所涉及的人脸识别方法。对于本发明装置实施例中未披露的细节,请参照本发明所涉及的人脸识别方法的方法实施例。
请参阅图14,在一示例性实施例中,一种人脸识别装置900包括但不限于:输入参数约束模块910、函数获取模块930、模型训练模块950和人脸识别模块970。
其中,输入参数约束模块910用于对卷积神经网络模型中损失层的输入参数进行归一化约束。
函数获取模块930用于将受约束的输入参数输入损失层,得到应用于损失层的余弦损失函数。
模型训练模块950用于通过余弦损失函数引导卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型。
人脸识别模块970用于根据人脸识别模型对待识别人脸图像进行人脸识别。
请参阅图15,在一示例性实施例中,输入参数约束模块910包括但不限于:参数归一化单元911和参数约束单元913。
其中,参数归一化单元911用于输入参数中,分别进行分类映射参数和特征参数的归一化处理。
参数约束单元913用于根据分别进行了归一化处理的分类映射参数和特征参数约束输入参数。
在一示例性实施例中,参数归一化单元911包括但不限于:参数转换子单元。
其中,参数转换子单元用于将输入参数中分类映射参数的L2范数转换为一,并将输入参数中特征参数的L2范数转换为指定常数。
在一示例性实施例中,如上的装置900还包括但不限于:分类间隔调整模块。
其中,分类间隔调整模块用于按照余弦边界间隔对余弦损失函数进行分类间隔调整,以通过分类间隔调整后的改进分类函数引导模型训练。
在一示例性实施例中,分类间隔调整模块包括但不限于:差值计算单元。
其中,差值计算单元用于计算余弦损失函数中余弦值与余弦边界间隔的差值,根据差值进行余弦损失函数的重构,余弦值对应于输入参数中指定分类映射参数与特征参数之间的夹角。
请参阅图16,在一示例性实施例中,模型训练模块950包括但不限于:样本获取单元951、损失计算单元953、参数优化单元955和模型收敛单元957。
其中,样本获取单元951用于获取进行了身份标注的人脸图像样本。
损失计算单元953用于将人脸图像样本输入卷积神经网络模型,计算余弦损失函数的损失。
参数优化单元955用于根据余弦损失函数的损失对卷积神经网络模型的模型参数进行优化。
模型收敛单元957用于当优化后的模型参数使余弦损失函数的损失最小,由卷积神经网络模型收敛得到人脸识别模型。
请参阅图17,在一示例性实施例中,人脸识别模块970包括但不限于:特征提取单元971、相似度运算单元973和识别结果生成单元975。
其中,特征提取单元971用于调用人脸识别模型对待识别人脸图像进行人脸特征提取。
相似度运算单元973用于根据待识别人脸图像的人脸特征进行指定人脸特征的相似度运算。
识别结果生成单元975用于根据运算结果生成待识别人脸图像的识别结果。
请参阅图18,在一示例性实施例中,识别结果生成单元975包括但不限于:相似度获取子单元9751、相似度比较子单元9753和识别结果获得子单元9755。
其中,相似度获取子单元9751用于根据运算结果确认待识别人脸图像的人脸特征与指定人脸特征之间的相似度。
相似度比较子单元9753用于进行相似度与相似阈值之间的比较。当相似度大于相似阈值时,通知识别结果获得子单元9755。
识别结果获得子单元9755用于得到指示待识别人脸图像通过指定人脸特征相关联身份验证的识别结果。
请参阅图19,在一示例性实施例中,识别结果生成单元975包括但不限于:最大相似度获取子单元9752、身份关联子单元9754和识别结果获得子单元9756。
其中,最大相似度获取子单元9752用于根据运算结果获取相似度最大的指定人脸特征。
身份关联子单元9754用于对相似度最大的指定人脸特征进行身份关联。
识别结果获得子单元9756用于将关联得到的身份识别为待识别人脸图像对应的身份,以待识别人脸图像对应的身份作为待识别人脸图像的识别结果。
需要说明的是,上述实施例所提供的人脸识别装置在进行人脸识别处理时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即人脸识别装置的内部结构将划分为不同的功能模块,以完成以上描述的全部或者部分功能。
另外,上述实施例所提供的人脸识别装置与人脸识别方法的实施例属于同一构思,其中各个模块执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。
在一示例性实施例中,一种人脸识别装置,包括处理器及存储器。
其中,存储器上存储有计算机可读指令,该计算机可读指令被处理器执行时实现上述各实施例中的人脸识别方法。
在一示例性实施例中,一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各实施例中的人脸识别方法。
上述内容,仅为本发明的较佳示例性实施例,并非用于限制本发明的实施方案,本领域普通技术人员根据本发明的主要构思和精神,可以十分方便地进行相应的变通或修改,故本发明的保护范围应以权利要求书所要求的保护范围为准。
Claims (15)
1.一种人脸识别方法,其特征在于,包括:
对卷积神经网络模型中损失层的输入参数进行归一化约束;
将受约束的输入参数输入所述损失层,得到应用于所述损失层的余弦损失函数;
通过余弦损失函数引导所述卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型;
根据所述人脸识别模型对待识别人脸图像进行人脸识别。
2.如权利要求1所述的方法,其特征在于,所述对卷积神经网络模型中损失层的输入参数进行归一化约束,包括:
所述输入参数中,分别进行分类映射参数和特征参数的归一化处理;
根据分别进行了归一化处理的分类映射参数和特征参数约束所述输入参数。
3.如权利要求2所述的方法,其特征在于,所述输入参数中,分别进行分类映射参数和特征参数的归一化处理,包括:
将所述输入参数中分类映射参数的L2范数转换为一,并将所述输入参数中特征参数的L2范数转换为指定常数。
4.如权利要求1所述的方法,其特征在于,所述通过余弦损失函数引导所述卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型之前,所述方法还包括:
按照余弦边界间隔对所述余弦损失函数进行分类间隔调整,以通过分类间隔调整后的余弦损失函数引导所述模型训练。
5.如权利要求4所述的方法,其特征在于,所述按照余弦边界间隔对所述余弦损失函数进行分类间隔调整,包括:
计算所述余弦损失函数中余弦值与所述余弦边界间隔的差值,根据所述差值进行所述余弦损失函数的重构,所述余弦值对应于所述输入参数中指定分类映射参数与特征参数之间的夹角。
6.如权利要求1至5任一项所述的方法,其特征在于,所述通过余弦损失函数引导所述卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型,包括:
获取进行了身份标注的人脸图像样本;
将所述人脸图像样本输入所述卷积神经网络模型,计算所述余弦损失函数的损失;
根据所述余弦损失函数的损失对所述卷积神经网络模型的模型参数进行优化;
当优化后的模型参数使所述余弦损失函数的损失最小,由所述卷积神经网络模型收敛得到所述人脸识别模型。
7.如权利要求1至5任一项所述的方法,其特征在于,所述根据所述人脸识别模型对待识别人脸图像进行人脸识别,包括:
调用所述人脸识别模型对所述待识别人脸图像进行人脸特征提取;
根据待识别人脸图像的人脸特征进行指定人脸特征的相似度运算;
根据运算结果生成所述待识别人脸图像的识别结果。
8.如权利要求7所述的方法,其特征在于,所述根据运算结果生成所述待识别人脸图像的识别结果,包括:
根据所述运算结果确认所述待识别人脸图像的人脸特征与指定人脸特征之间的相似度;
进行所述相似度与相似阈值之间的比较;
当所述相似度大于所述相似阈值时,得到指示所述待识别人脸图像通过所述指定人脸特征相关联身份验证的识别结果。
9.如权利要求7所述的方法,其特征在于,所述根据运算结果生成所述待识别人脸图像的识别结果,包括:
根据所述运算结果获取相似度最大的指定人脸特征;
对相似度最大的指定人脸特征进行身份关联;
将关联得到的身份识别为所述待识别人脸图像对应的身份,以所述待识别人脸图像对应的身份作为所述待识别人脸图像的识别结果。
10.一种人脸识别装置,其特征在于,包括:
输入参数约束模块,用于对卷积神经网络模型中损失层的输入参数进行归一化约束;
函数获取模块,用于将受约束的输入参数输入所述损失层,得到应用于所述损失层的余弦损失函数;
模型训练模块,用于通过余弦损失函数引导所述卷积神经网络模型根据人脸图像样本进行模型训练,得到人脸识别模型;
人脸识别模块,用于根据所述人脸识别模型对待识别人脸图像进行人脸识别。
11.如权利要求10所述的装置,其特征在于,所述输入参数约束模块包括:
参数归一化单元,用于所述输入参数中,分别进行分类映射参数和特征参数的归一化处理;
参数约束单元,用于根据分别进行了归一化处理的分类映射参数和特征参数约束所述输入参数。
12.如权利要求11所述的装置,其特征在于,所述参数归一化单元包括:
参数转换子单元,用于将所述输入参数中分类映射参数的L2范数转换为一,并将所述输入参数中特征参数的L2范数转换为指定常数。
13.如权利要求10所述的装置,其特征在于,所述装置还包括:
分类间隔调整模块,用于按照余弦边界间隔对所述余弦损失函数进行分类间隔调整,以通过分类间隔调整后的改进分类函数引导所述模型训练。
14.如权利要求13所述的装置,其特征在于,所述分类间隔调整模块包括:
差值计算单元,用于计算所述余弦损失函数中余弦值与所述余弦边界间隔的差值,根据所述差值进行所述余弦损失函数的重构,所述余弦值对应于所述输入参数中指定分类映射参数与特征参数之间的夹角。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的人脸识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810162341.7A CN110197102A (zh) | 2018-02-27 | 2018-02-27 | 人脸识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810162341.7A CN110197102A (zh) | 2018-02-27 | 2018-02-27 | 人脸识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110197102A true CN110197102A (zh) | 2019-09-03 |
Family
ID=67750889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810162341.7A Withdrawn CN110197102A (zh) | 2018-02-27 | 2018-02-27 | 人脸识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110197102A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837777A (zh) * | 2019-10-10 | 2020-02-25 | 天津大学 | 基于改进VGG-Net的部分遮挡的人脸表情识别方法 |
CN110880018A (zh) * | 2019-10-29 | 2020-03-13 | 北京邮电大学 | 一种基于新型损失函数的卷积神经网络目标分类方法 |
CN111178187A (zh) * | 2019-12-17 | 2020-05-19 | 武汉迈集信息科技有限公司 | 一种基于卷积神经网络的人脸识别方法及装置 |
CN111209799A (zh) * | 2019-12-23 | 2020-05-29 | 上海物联网有限公司 | 基于部分共享网络和余弦间隔损失函数的行人搜索方法 |
CN111428591A (zh) * | 2020-03-11 | 2020-07-17 | 天津华来科技有限公司 | Ai人脸图像处理的方法、装置、设备和存储介质 |
CN111626235A (zh) * | 2020-05-29 | 2020-09-04 | 北京华捷艾米科技有限公司 | 一种人脸识别神经网络的训练方法及装置 |
CN111626132A (zh) * | 2020-04-27 | 2020-09-04 | 上海携程国际旅行社有限公司 | 模型生成方法、人脸识别方法、系统、设备和介质 |
CN111680631A (zh) * | 2020-06-09 | 2020-09-18 | 广州视源电子科技股份有限公司 | 模型训练方法及装置 |
CN112069895A (zh) * | 2020-08-03 | 2020-12-11 | 广州杰赛科技股份有限公司 | 一种小目标的人脸识别方法及装置 |
CN112766399A (zh) * | 2021-01-28 | 2021-05-07 | 电子科技大学 | 一种面向图像识别的自适应神经网络训练方法 |
CN113887538A (zh) * | 2021-11-30 | 2022-01-04 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
CN114255354A (zh) * | 2021-12-31 | 2022-03-29 | 智慧眼科技股份有限公司 | 人脸识别模型训练方法、人脸识别方法、装置及相关设备 |
-
2018
- 2018-02-27 CN CN201810162341.7A patent/CN110197102A/zh not_active Withdrawn
Non-Patent Citations (1)
Title |
---|
HAO WANG ET AL: "CosFace: Large Margin Cosine Loss for Deep Face Recognition", 《ARXIV:1801.09414V1》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837777A (zh) * | 2019-10-10 | 2020-02-25 | 天津大学 | 基于改进VGG-Net的部分遮挡的人脸表情识别方法 |
CN110880018A (zh) * | 2019-10-29 | 2020-03-13 | 北京邮电大学 | 一种基于新型损失函数的卷积神经网络目标分类方法 |
CN110880018B (zh) * | 2019-10-29 | 2023-03-14 | 北京邮电大学 | 一种卷积神经网络目标分类方法 |
CN111178187A (zh) * | 2019-12-17 | 2020-05-19 | 武汉迈集信息科技有限公司 | 一种基于卷积神经网络的人脸识别方法及装置 |
CN111209799B (zh) * | 2019-12-23 | 2022-12-23 | 上海物联网有限公司 | 基于部分共享网络和余弦间隔损失函数的行人搜索方法 |
CN111209799A (zh) * | 2019-12-23 | 2020-05-29 | 上海物联网有限公司 | 基于部分共享网络和余弦间隔损失函数的行人搜索方法 |
CN111428591A (zh) * | 2020-03-11 | 2020-07-17 | 天津华来科技有限公司 | Ai人脸图像处理的方法、装置、设备和存储介质 |
CN111626132A (zh) * | 2020-04-27 | 2020-09-04 | 上海携程国际旅行社有限公司 | 模型生成方法、人脸识别方法、系统、设备和介质 |
CN111626235A (zh) * | 2020-05-29 | 2020-09-04 | 北京华捷艾米科技有限公司 | 一种人脸识别神经网络的训练方法及装置 |
CN111680631A (zh) * | 2020-06-09 | 2020-09-18 | 广州视源电子科技股份有限公司 | 模型训练方法及装置 |
CN111680631B (zh) * | 2020-06-09 | 2023-12-22 | 广州视源电子科技股份有限公司 | 模型训练方法及装置 |
CN112069895A (zh) * | 2020-08-03 | 2020-12-11 | 广州杰赛科技股份有限公司 | 一种小目标的人脸识别方法及装置 |
CN112766399A (zh) * | 2021-01-28 | 2021-05-07 | 电子科技大学 | 一种面向图像识别的自适应神经网络训练方法 |
CN113887538B (zh) * | 2021-11-30 | 2022-03-25 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
CN113887538A (zh) * | 2021-11-30 | 2022-01-04 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
CN114255354A (zh) * | 2021-12-31 | 2022-03-29 | 智慧眼科技股份有限公司 | 人脸识别模型训练方法、人脸识别方法、装置及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110197102A (zh) | 人脸识别方法及装置 | |
Parkin et al. | Recognizing multi-modal face spoofing with face recognition networks | |
Gao et al. | Angle 2DPCA: A new formulation for 2DPCA | |
KR102486699B1 (ko) | 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치 | |
KR102450374B1 (ko) | 데이터 인식 및 트레이닝 장치 및 방법 | |
Choi et al. | Realtime training on mobile devices for face recognition applications | |
Wan et al. | Spontaneous facial expression recognition: A robust metric learning approach | |
Liu et al. | Bayesian model adaptation for crowd counts | |
Du et al. | Robust face recognition from multi-view videos | |
CN110070030A (zh) | 图像识别与神经网络模型的训练方法、装置和系统 | |
CN106203333A (zh) | 人脸识别方法及系统 | |
CN112364827B (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
US20140341443A1 (en) | Joint modeling for facial recognition | |
US11348370B2 (en) | Iris authentication device, iris authentication method, and recording medium | |
JP2015215876A (ja) | ライブネス検査方法と装置、及び映像処理方法と装置 | |
KR20190004073A (ko) | 적외선 영상을 이용한 사용자 인증 방법 및 장치 | |
KR102160128B1 (ko) | 인공지능 기반 스마트 앨범 생성 방법 및 장치 | |
US10922533B2 (en) | Method for face-to-unlock, authentication device, and non-volatile storage medium | |
KR102242666B1 (ko) | 학습 커리큘럼을 제공하는 방법, 시스템 및 장치 | |
CN109508685A (zh) | 基于人脸识别技术的电力通信调度方法 | |
Hou et al. | Facial landmark detection via cascade multi-channel convolutional neural network | |
Findling et al. | Towards pan shot face unlock: Using biometric face information from different perspectives to unlock mobile devices | |
Bousnina et al. | Unraveling robustness of deep face anti-spoofing models against pixel attacks | |
CN112101087A (zh) | 一种面部图像身份去识别方法、装置及电子设备 | |
Baytamouny et al. | AI-based home security system with face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190903 |