CN111046759A - 人脸识别方法及相关装置 - Google Patents
人脸识别方法及相关装置 Download PDFInfo
- Publication number
- CN111046759A CN111046759A CN201911190161.0A CN201911190161A CN111046759A CN 111046759 A CN111046759 A CN 111046759A CN 201911190161 A CN201911190161 A CN 201911190161A CN 111046759 A CN111046759 A CN 111046759A
- Authority
- CN
- China
- Prior art keywords
- data
- network model
- model
- neural network
- branch network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000003062 neural network model Methods 0.000 claims abstract description 87
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 120
- 230000001815 facial effect Effects 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 13
- 230000010354 integration Effects 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000037308 hair color Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 208000032544 Cicatrix Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003803 hair density Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种人脸识别方法及相关装置,应用于电子设备,电子设备中预先配置人脸识别模型,人脸识别模型包括第一神经网络模型和第二神经网络模型,第二神经网络模型包括第一分支网络模型和第二分支网络模型,方法包括:获取目标图像;将目标图像输入到第一神经网络模型,得到目标特征集,第一神经网络模型用于实现特征提取;将目标特征集输入到第一分支网络模型,得到第一识别结果,同时,将目标特征集输入到第二分支网络模型,得到第二识别结果,第一分支网络模型用于实现人脸身份特征识别,第二分支网络模型用于实现面部属性识别;依据第一识别结果和第二识别结果进行整合,得到目标识别结果。采用本申请实施例可提升人脸识别精度。
Description
技术领域
本申请涉及机器学习技术领域,具体涉及一种人脸识别方法及相关装置。
背景技术
在人脸验证任务中,人脸识别技术仍是一项具有挑战性的课题。一些使用面部特征的方法也很多,例如在消除人脸图像的年龄变化中利用一个包含两个潜在因素的概率模型将年龄与人脸特征分离开来,或者通过学习潜在特征和CNN参数来提取年龄不变的深层人脸特征等。卷积神经网络(CNNs)在生物和计算机视觉应用方面取得了重要进展,例如人脸图像检索和属性预测以及机器学习在GAN和半监督学习中的应用。尽管有了这些改进,但是创建一个深层次的体系结构来同时学习几个任务,同时通过共享学习参数来提高它们的准确性仍然是一个不得忽视的问题。基于CNN体系结构提高例如面部特征的特权数据(辅助数据)来识别人脸图像是一项昂贵且繁琐的任务;或者在测试阶段特权数据是不可用的。尽管使用辅助数据存在优势,但这些问题降低了多模态模型在人脸识别中的普及与易用性,即无法精准进行人脸识别。
发明内容
本申请实施例提供了一种人脸识别方法及相关装置,可以提升人脸识别精度。
第一方面,本申请实施例提供一种人脸识别方法,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,所述方法包括:
获取目标图像;
将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取;
将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别;
依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
第二方面,本申请实施例提供了一种人脸识别装置,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,所述装置包括:
获取单元,用于获取目标图像;
特征提取单元,用于将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取;
识别单元,用于将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别;
整合单元,用于依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
第三方面,本申请实施例提供一种电子设备,包括处理器、存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
实施本申请实施例,具备如下有益效果:
可以看出,本申请实施例中所描述的人脸识别方法及相关装置,应用于电子设备,电子设备中预先配置人脸识别模型,人脸识别模型包括第一神经网络模型和第二神经网络模型,第二神经网络模型包括第一分支网络模型和第二分支网络模型,获取目标图像,将目标图像输入到第一神经网络模型,得到目标特征集,第一神经网络模型用于实现特征提取,将目标特征集输入到第一分支网络模型,得到第一识别结果,同时,将目标特征集输入到第二分支网络模型,得到第二识别结果,第一分支网络模型用于实现人脸身份特征识别,第二分支网络模型用于实现面部属性识别,依据第一识别结果和第二识别结果进行整合,得到目标识别结果,如此,能够精准实现人脸识别。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的一种人脸识别方法的流程示意图;
图1B是本申请实施例提供的一种ResNet50网络的瓶颈块的结构示意图;
图1C是本申请实施例提供的另一种ResNet50网络的瓶颈块的结构示意图;
图1D是本申请实施例提供的另一种人脸识别方法的流程示意图;
图2是本申请实施例提供的另一种人脸识别方法的流程示意图;
图3是本申请实施例提供的另一种电子设备的结构示意图;
图4A是本申请实施例提供的一种人脸识别装置的功能单元组成框图;
图4B是本申请实施例提供的另一种人脸识别装置的功能单元组成框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明实施例所描述电子设备可以包括智能手机(如Android手机、iOS手机、Windows Phone手机等)、平板电脑、掌上电脑、行车记录仪、交通指挥平台、服务器、笔记本电脑、移动互联网设备(MID,Mobile Internet Devices)或穿戴式设备(如智能手表、蓝牙耳机)等,上述仅是举例,而非穷举,包含但不限于上述电子设备。
下面对本申请实施例进行详细介绍。
请参阅图1A,图1A是本申请实施例提供的一种人脸识别方法的流程示意图,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,如图所示,本人脸识别方法包括:
101、获取目标图像。
其中,本申请实施例中,目标图像可以为人脸图像,目标图像中可以包括至少一个人脸。
在一个可能的示例中,所述第一神经网络模型基于ResNet50网络实现,所述ResNet50网络的瓶颈块包括第一1x1卷积层、数据拆分层和第二1x1卷积层,所述数据拆分层包括第一数据拆分层、3x3卷积层和第二数据拆分层,所述第一数据拆分层包括第一数据区域和第二数据区域,所述第二数据拆分层包括第三数据区域和第四数据区域,所述第三数据区域的数据和所述第四数据区域的数据级联在一起,所述第一数据拆分层用于将所述第一1x1卷积层的输出数据拆分为第一数据和第二数据,所述第一数据对应第一数据区域,所述第一数据区域与所述第三数据区域存储数据相同,所述第二数据对应第二区域,所述3x3卷积层用于对所述第二数据进行卷积运算,并将其运算结果传输给所述第四数据区域,所述第二1x1卷积层用于对所述第二数据拆分层中的数据进行卷积运算。
本申请实施例中,整体框架可以是从一个学习图像特征的神经卷积网络(即第一神经网络模型)开始,第一个神经网络模型可以采用改进后的ResNet50结构,其可以用来给第二个神经网络模型结构做铺垫,传统ResNet50结构中的瓶颈块(Bottleneck block)中标准的1-3-1布局(如图1B所示)可以用一个2缩放层的冗余、分层结构(如图1C所示)替代,中间的卷积操作也变成了多支,如此,可以通过增加块内感受野帮助CNN更好提取图像中感兴趣的内容,从而提高整体的准确度。
具体实现中,第一神经网络模型可以基于改进的ResNet50网络实现,该ResNet50网络的瓶颈块可以包括第一1x1卷积层、数据拆分层和第二1x1卷积层,数据拆分层可以包括第一数据拆分层、3x3卷积层和第二数据拆分层,第一数据拆分层可以包括第一数据区域和第二数据区域,第二数据拆分层可以包括第三数据区域和第四数据区域,第三数据区域的数据和第四数据区域的数据级联在一起,第一数据拆分层可以用于将第一1x1卷积层的输出数据拆分为第一数据和第二数据,第一数据对应第一数据区域,第一数据区域与第三数据区域存储数据相同,第二数据对应第二区域,3x3卷积层可以用于对第二数据进行卷积运算,并将其运算结果传输给第四数据区域,第二1x1卷积层可以用于对第二数据拆分层中的数据进行卷积运算,如此,即通过增加块内感受野帮助CNN更好提取图像中感兴趣的内容,从而提高整体的准确度。
102、将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取。
其中,本申请实施例中,第一神经网络模型可以为以下至少一种:卷积神经网络模型、级联神经网络模型、语义分割神经网络模型等等,在此不做限定。具体实现中,电子设备可以将目标图像输入到第一神经网络模型中,得到目标特征集,即第一神经网络模型可以用于实现特征提取。
103、将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别。
其中,本申请实施例中,面部属性可以为以下至少一种:头发颜色、头发密度、发型、是否戴口罩、是否戴墨镜、是否有胡须、是否有伤疤、是否有斑、是否有皱纹、是否有酒窝、是否化妆、人种、是否戴耳环等等,在此不做限定。其中,第一识别结果可以为具体身份信息,具体为以下至少一种:名字、国籍、籍贯、地址、账户、年龄、性别等等,在此不做限定。具体地,电子设备可以将目标特征集输入到第一分支网络模型,即通过目标特征集与图像库中的一些模板进行匹配,得到匹配成功的模板,进而,将模板的身份信息作为该目标特征集对应的身份信息,另外,同时,可以将目标特征集输入到第二分支网络模型,得到第二识别结果,第一分支网络模型用于实现人脸身份特征识别,第二分支网络模型用于实现面部属性识别。
另外,第二神经网络模型可以包括两个分支,即第一分支网络模型和第二分支网络模型。当整合信息时通过训练阶段联合训练。其中第一个分支网络模型在第一神经网络模型之后,用来进行人脸面部特征预测,第二个分支网络模型同第一分支网络模型一样,在第一个分支网络模型后,并与第一分支网络模型得到的面部特征融合,从而,提高人脸识别的精度。
104、依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
其中,电子设备基于第一识别结果和第二识别结果进行整合,可以精准反映目标图像中人脸的特征属性,得到目标识别结果。
在一个可能的示例中,所述第一分支网络模型包括面部特征预测模型和第一预设损失函数,所述第一预设损失函数用于优化所述面部特征预测模型的第一模型参数,所述第一预设损失函数基于第一目标函数实现;上述步骤104之后,还可以包括如下步骤:
A1、确定所述第一目标函数相对于所述第一模型参数的第一梯度;
A2、依据所述第一梯度更新所述第一目标函数的调节参数和所述第一模型参数,得到优化后的所述面部特征预测模型和优化后的所述第一目标函数。
其中,本申请实施例中,第一目标函数的调节参数可以为以下至少一种:函数类型、权值等等,在此不做限定。第一模型参数可以为以下至少一种:权重、偏置、卷积核、层数、激活函数类型、度量、权值最佳算法、batch_size等等,在此不做限定。
具体实现中,电子设备可以确定第一目标函数相对于第一模型参数的第一梯度,依据第一梯度更新第一目标函数的调节参数和第一模型参数,得到优化后的面部特征预测模型和优化后的第一目标函数。例如,电子设备可以使用交叉熵损失函数来优化网络参数,优化主要包括两个步骤:首先计算目标函数相对于模型参数的梯度,然后依次更新带偏差的一阶矩估计、指数加权无穷范数和模型参数,迭代算法直到训练误差收敛。
在一个可能的示例中,所述第二分支网络模型包括多任务人脸识别模型,所述第二分支网络模型对应第二预设损失函数,所述第二预设损失函数包括多个第二子预设损失函数,所述多个任务人脸识别模型与所述多个第二子预设损失函数一一对应,且每一所述任务人脸识别模型用于认识一个维度的面部属性;所述第二预设损失函数基于所述第一目标函数、所述第二目标函数实现以及所述多个第二子预设损失函数实现。
其中,本申请实施例中,第一损失函数、第二损失函数均可以为以下至少一种:交叉熵损失函数、铰链损失函数和指数损失函数等等,在此不作限定,第二分支网络模型可以包括多任务人脸识别模型,第二分支网络模型对应第二预设损失函数,第二预设损失函数可以包括多个第二子预设损失函数,多个任务人脸识别模型与多个第二子预设损失函数一一对应,且每一任务人脸识别模型用于认识一个维度的面部属性;第二预设损失函数基于第一目标函数、第二目标函数实现以及多个第二子预设损失函数实现。具体实现中,如图1D所示,电子设备可以将输入图像输入到第一神经网络模型,得到运算结果,将该运算结果同时输入到第一分支网络模型和第二分支网络模型,第一分支网络模型可以识别到人脸身份,基于第二分支网络模型,电子设备可以在获取人脸面部特征时,可将其特征属性,例如性别、脸型、发色、发型、肤色、有无口罩、有无胡须、有无戴眼镜等,根据验证集的loss或手动对其进行权值分配。若L1和L2分别是人脸面部特征预测和人脸识别的损失函数,则
L1=w1L1,1+w2L1,2+…wML1,M (1)
进一步地,电子设备可利用修正Adamax算法优化网络目标函数,式(2)和(3)中的损失函数说明了第二网络的两个分支如何相互传递信息和更新它们的学习参数。X={x1,x2,...,xi,...,xN}表示训练样本,L'i和Lji分别表示第i个训练样本的身份标签和第i个训练样本面部属性标签j,用W1表示第一分支网络模型的所有权值,用W2表示第二分支网络模型的所有权值。其中,W2分为两组:W2,1和W2,2,分别代表第一分支网络模型和第二分支网络模型的所有权值。若f函数和g函数分别是面部特征预测模型和人脸识别任务模型的输出,那么,f的输入为第一个网络参数W1,g的输入为W1和f。
其中,W2,1和W2,2为W2的两组权值,f函数和g函数分别是面部特征预测模型和人脸识别任务模型的输出,L'i和Lji分别表示第i个训练样本的身份标签和第i个训练样本面部属性标签j,W1表示第一分支网络模型的所有权值,用W2表示第二分支网络模型的所有权值。
在一个可能的示例中,所述多个第二子预设损失函数中每一第二子预设损失函数对应一个权值且其取值范围为0~1,所述多个第二子预设损失函数的所有权值之和为1。
其中,多个第二子预设损失函数中每一第二子预设损失函数对应一个权值且其取值范围为0~1,多个第二子预设损失函数的所有权值之和为1。
在一个可能的示例中,上述步骤101之前,还可以包括如下步骤:
B1、获取目标指纹图像;
B2、将所述目标指纹图像与预设指纹模板进行匹配;
B3、在所述目标指纹图像与所述预设指纹模板匹配成功时,执行步骤101。
其中,预设指纹模板可以预先保存在电子设备中。电子设备可以获取目标指纹图像,并且将目标指纹图像与预设指纹模板进行匹配,在目标指纹图像与预设指纹模板匹配成功时,执行步骤101,否则,则可以不执行步骤101,如此,可以针对指定用户实现人脸识别功能。
在一个可能的示例中,上述步骤B2,将所述目标指纹图像与预设指纹模板进行匹配,可以包括如下步骤:
B21、对所述目标指纹图像进行特征提取,得到第一特征点集;
B22、将所述第一特征点集与所述预设指纹模板的第二特征点集进行匹配,得到多个匹配值;
B23、从所述多个匹配值中选取最大的三个目标匹配值;
B24、获取所述三个目标匹配值对应的特征点对,得到三对特征点对,所述三对特征点对包括来自于所述目标指纹图像的三个目标第一特征点和来自于所述预设指纹模板的三个目标第二特征点,所述三个目标第一特征点不处于同一直线上且所述三个目标第二特征点不处于同一直线上;
B25、将所述三个目标第一特征点构成第一三角形;
B26、将所述三个目标第二特征点构成第二三角形;
B27、在所述第一三角形与所述第二三角形相似时,确定所述目标指纹图像与所述预设指纹图像匹配成功。
其中,本申请实施例中,电子设备可以对目标指纹图像进行特征提取,得到第一特征点集,具体特征提取方式可以为:尺度不变特征变换(scale invariant featuretransform,SIFT)、harris角点检测和SURF算法等等,在此不做限定,基于相同算法,也可以对预设指纹模板进行特征提取,得到第二特征点集,进而,可以将第一特征点集与预设指纹模板的第二特征点集进行匹配,得到多个匹配值。
进一步地,电子设备可以从多个匹配值中选取最大的三个目标匹配值,并获取该三个目标匹配值对应的特征点对,得到三对特征点对,该三对特征点对包括来自于目标指纹图像的三个目标第一特征点和来自于预设指纹模板的三个目标第二特征点,三个目标第一特征点不处于同一直线上且三个目标第二特征点不处于同一直线上。电子设备可以将三个目标第一特征点构成第一三角形,并且可以将三个目标第二特征点构成第二三角形,在第一三角形与第二三角形相似时,确定目标指纹图像与预设指纹图像匹配成功,否则,则确认目标指纹图像与预设指纹图像匹配失败。
可以看出,本申请实施例中所描述的人脸识别方法,应用于电子设备,电子设备中预先配置人脸识别模型,人脸识别模型包括第一神经网络模型和第二神经网络模型,第二神经网络模型包括第一分支网络模型和第二分支网络模型,获取目标图像,将目标图像输入到第一神经网络模型,得到目标特征集,第一神经网络模型用于实现特征提取,将目标特征集输入到第一分支网络模型,得到第一识别结果,同时,将目标特征集输入到第二分支网络模型,得到第二识别结果,第一分支网络模型用于实现人脸身份特征识别,第二分支网络模型用于实现面部属性识别,依据第一识别结果和第二识别结果进行整合,得到目标识别结果,如此,能够精准实现人脸识别。
与上述图1A所示的实施例一致地,请参阅图2,图2是本申请实施例提供的一种人脸识别方法的流程示意图,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,如图所示,本人脸识别方法包括:
201、获取目标图像。
202、将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取。
203、将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别。
204、依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
205、确定所述第一目标函数相对于所述第一模型参数的第一梯度。
206、依据所述第一梯度更新所述第一目标函数的调节参数和所述第一模型参数,得到优化后的所述面部特征预测模型和优化后的所述第一目标函数。
其中,上述步骤201-步骤206的具体描述可以参照上述图1A所描述的人脸识别方法的相应步骤,在此不再赘述。
可以看出,本申请实施例中所描述的人脸识别方法,应用于电子设备,电子设备中预先配置人脸识别模型,人脸识别模型包括第一神经网络模型和第二神经网络模型,第二神经网络模型包括第一分支网络模型和第二分支网络模型,获取目标图像,将目标图像输入到第一神经网络模型,得到目标特征集,第一神经网络模型用于实现特征提取,将目标特征集输入到第一分支网络模型,得到第一识别结果,同时,将目标特征集输入到第二分支网络模型,得到第二识别结果,第一分支网络模型用于实现人脸身份特征识别,第二分支网络模型用于实现面部属性识别,依据第一识别结果和第二识别结果进行整合,得到目标识别结果,确定第一目标函数相对于第一模型参数的第一梯度,依据第一梯度更新所述第一目标函数的调节参数和第一模型参数,得到优化后的面部特征预测模型和优化后的第一目标函数如此,一方面能够精准实现人脸识别,一方面能够提升模型的鲁棒性。
与上述实施例一致地,请参阅图3,图3是本申请实施例提供的一种电子设备的结构示意图,如图所示,该电子设备包括处理器、存储器、通信接口以及一个或多个程序,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,本申请实施例中,上述程序包括用于执行以下步骤的指令:
获取目标图像;
将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取;
将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别;
依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
可以看出,本申请实施例中所描述的电子设备,该电子设备中预先配置人脸识别模型,人脸识别模型包括第一神经网络模型和第二神经网络模型,第二神经网络模型包括第一分支网络模型和第二分支网络模型,获取目标图像,将目标图像输入到第一神经网络模型,得到目标特征集,第一神经网络模型用于实现特征提取,将目标特征集输入到第一分支网络模型,得到第一识别结果,同时,将目标特征集输入到第二分支网络模型,得到第二识别结果,第一分支网络模型用于实现人脸身份特征识别,第二分支网络模型用于实现面部属性识别,依据第一识别结果和第二识别结果进行整合,得到目标识别结果,如此,能够精准实现人脸识别。
在一个可能的示例中,所述第一神经网络模型基于ResNet50网络实现,所述ResNet50网络的瓶颈块包括第一1x1卷积层、数据拆分层和第二1x1卷积层,所述数据拆分层包括第一数据拆分层、3x3卷积层和第二数据拆分层,所述第一数据拆分层包括第一数据区域和第二数据区域,所述第二数据拆分层包括第三数据区域和第四数据区域,所述第三数据区域的数据和所述第四数据区域的数据级联在一起,所述第一数据拆分层用于将所述第一1x1卷积层的输出数据拆分为第一数据和第二数据,所述第一数据对应第一数据区域,所述第一数据区域与所述第三数据区域存储数据相同,所述第二数据对应第二区域,所述3x3卷积层用于对所述第二数据进行卷积运算,并将其运算结果传输给所述第四数据区域,所述第二1x1卷积层用于对所述第二数据拆分层中的数据进行卷积运算。
在一个可能的示例中,所述第一分支网络模型包括面部特征预测模型和第一预设损失函数,所述第一预设损失函数用于优化所述面部特征预测模型的第一模型参数,所述第一预设损失函数基于第一目标函数实现;上述程序还包括用于执行以下步骤的指令:
确定所述第一目标函数相对于所述第一模型参数的第一梯度;
依据所述第一梯度更新所述第一目标函数的调节参数和所述第一模型参数,得到优化后的所述面部特征预测模型和优化后的所述第一目标函数。
在一个可能的示例中,所述第二分支网络模型包括多任务人脸识别模型,所述第二分支网络模型对应第二预设损失函数,所述第二预设损失函数包括多个第二子预设损失函数,所述多个任务人脸识别模型与所述多个第二子预设损失函数一一对应,且每一所述任务人脸识别模型用于认识一个维度的面部属性;所述第二预设损失函数基于所述第一目标函数、所述第二目标函数实现以及所述多个第二子预设损失函数实现。
在一个可能的示例中,所述多个第二子预设损失函数中每一第二子预设损失函数对应一个权值且其取值范围为0~1,所述多个第二子预设损失函数的所有权值之和为1。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图4A是本申请实施例中所涉及的人脸识别装置400的功能单元组成框图。该人脸识别装置400,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,所述装置400包括:
获取单元401,用于获取目标图像;
特征提取单元402,用于将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取;
识别单元403,用于将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别;
整合单元404,用于依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
可以看出,本申请实施例中所描述的人脸识别装置,应用于电子设备,电子设备中预先配置人脸识别模型,人脸识别模型包括第一神经网络模型和第二神经网络模型,第二神经网络模型包括第一分支网络模型和第二分支网络模型,获取目标图像,将目标图像输入到第一神经网络模型,得到目标特征集,第一神经网络模型用于实现特征提取,将目标特征集输入到第一分支网络模型,得到第一识别结果,同时,将目标特征集输入到第二分支网络模型,得到第二识别结果,第一分支网络模型用于实现人脸身份特征识别,第二分支网络模型用于实现面部属性识别,依据第一识别结果和第二识别结果进行整合,得到目标识别结果,如此,能够精准实现人脸识别。
在一个可能的示例中,所述第一神经网络模型基于ResNet50网络实现,所述ResNet50网络的瓶颈块包括第一1x1卷积层、数据拆分层和第二1x1卷积层,所述数据拆分层包括第一数据拆分层、3x3卷积层和第二数据拆分层,所述第一数据拆分层包括第一数据区域和第二数据区域,所述第二数据拆分层包括第三数据区域和第四数据区域,所述第三数据区域的数据和所述第四数据区域的数据级联在一起,所述第一数据拆分层用于将所述第一1x1卷积层的输出数据拆分为第一数据和第二数据,所述第一数据对应第一数据区域,所述第一数据区域与所述第三数据区域存储数据相同,所述第二数据对应第二区域,所述3x3卷积层用于对所述第二数据进行卷积运算,并将其运算结果传输给所述第四数据区域,所述第二1x1卷积层用于对所述第二数据拆分层中的数据进行卷积运算。
在一个可能的示例中,所述第一分支网络模型包括面部特征预测模型和第一预设损失函数,所述第一预设损失函数用于优化所述面部特征预测模型的第一模型参数,所述第一预设损失函数基于第一目标函数实现;如图4B所示,图4B为图4A所示的人脸识别装置的又一变型结构,其与图4A相比较,还可以包括:确定单元405和更新单元406,具体如下:
确定单元405,用于确定所述第一目标函数相对于所述第一模型参数的第一梯度;
更新单元406,用于依据所述第一梯度更新所述第一目标函数的调节参数和所述第一模型参数,得到优化后的所述面部特征预测模型和优化后的所述第一目标函数。
在一个可能的示例中,所述第二分支网络模型包括多任务人脸识别模型,所述第二分支网络模型对应第二预设损失函数,所述第二预设损失函数包括多个第二子预设损失函数,所述多个任务人脸识别模型与所述多个第二子预设损失函数一一对应,且每一所述任务人脸识别模型用于认识一个维度的面部属性;所述第二预设损失函数基于所述第一目标函数、所述第二目标函数实现以及所述多个第二子预设损失函数实现。
在一个可能的示例中,所述多个第二子预设损失函数中每一第二子预设损失函数对应一个权值且其取值范围为0~1,所述多个第二子预设损失函数的所有权值之和为1。
可以理解的是,本实施例的人脸识别装置的各程序模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括电子设备。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括电子设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种人脸识别方法,其特征在于,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,所述方法包括:
获取目标图像;
将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取;
将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别;
依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
2.根据权利要求1所述的方法,其特征在于,所述第一神经网络模型基于ResNet50网络实现,所述ResNet50网络的瓶颈块包括第一1x1卷积层、数据拆分层和第二1x1卷积层,所述数据拆分层包括第一数据拆分层、3x3卷积层和第二数据拆分层,所述第一数据拆分层包括第一数据区域和第二数据区域,所述第二数据拆分层包括第三数据区域和第四数据区域,所述第三数据区域的数据和所述第四数据区域的数据级联在一起,所述第一数据拆分层用于将所述第一1x1卷积层的输出数据拆分为第一数据和第二数据,所述第一数据对应第一数据区域,所述第一数据区域与所述第三数据区域存储数据相同,所述第二数据对应第二区域,所述3x3卷积层用于对所述第二数据进行卷积运算,并将其运算结果传输给所述第四数据区域,所述第二1x1卷积层用于对所述第二数据拆分层中的数据进行卷积运算。
3.根据权利要求2所述的方法,其特征在于,所述第一分支网络模型包括面部特征预测模型和第一预设损失函数,所述第一预设损失函数用于优化所述面部特征预测模型的第一模型参数,所述第一预设损失函数基于第一目标函数实现;所述方法还包括:
确定所述第一目标函数相对于所述第一模型参数的第一梯度;
依据所述第一梯度更新所述第一目标函数的调节参数和所述第一模型参数,得到优化后的所述面部特征预测模型和优化后的所述第一目标函数。
4.根据权利要求3所述的方法,其特征在于,所述第二分支网络模型包括多任务人脸识别模型,所述第二分支网络模型对应第二预设损失函数,所述第二预设损失函数包括多个第二子预设损失函数,所述多个任务人脸识别模型与所述多个第二子预设损失函数一一对应,且每一所述任务人脸识别模型用于认识一个维度的面部属性;所述第二预设损失函数基于所述第一目标函数、所述第二目标函数实现以及所述多个第二子预设损失函数实现。
5.根据权利要求4所述的方法,其特征在于,所述多个第二子预设损失函数中每一第二子预设损失函数对应一个权值且其取值范围为0~1,所述多个第二子预设损失函数的所有权值之和为1。
6.一种人脸识别装置,其特征在于,应用于电子设备,所述电子设备中预先配置人脸识别模型,所述人脸识别模型包括第一神经网络模型和第二神经网络模型,所述第二神经网络模型包括第一分支网络模型和第二分支网络模型,所述装置包括:
获取单元,用于获取目标图像;
特征提取单元,用于将所述目标图像输入到所述第一神经网络模型,得到目标特征集,所述第一神经网络模型用于实现特征提取;
识别单元,用于将所述目标特征集输入到所述第一分支网络模型,得到第一识别结果,同时,将所述目标特征集输入到所述第二分支网络模型,得到第二识别结果,所述第一分支网络模型用于实现人脸身份特征识别,所述第二分支网络模型用于实现面部属性识别;
整合单元,用于依据所述第一识别结果和所述第二识别结果进行整合,得到目标识别结果。
7.根据权利要求6所述的装置,其特征在于,所述第一神经网络模型基于ResNet50网络实现,所述ResNet50网络的瓶颈块包括第一1x1卷积层、数据拆分层和第二1x1卷积层,所述数据拆分层包括第一数据拆分层、3x3卷积层和第二数据拆分层,所述第一数据拆分层包括第一数据区域和第二数据区域,所述第二数据拆分层包括第三数据区域和第四数据区域,所述第三数据区域的数据和所述第四数据区域的数据级联在一起,所述第一数据拆分层用于将所述第一1x1卷积层的输出数据拆分为第一数据和第二数据,所述第一数据对应第一数据区域,所述第一数据区域与所述第三数据区域存储数据相同,所述第二数据对应第二区域,所述3x3卷积层用于对所述第二数据进行卷积运算,并将其运算结果传输给所述第四数据区域,所述第二1x1卷积层用于对所述第二数据拆分层中的数据进行卷积运算。
8.根据权利要求7所述的装置,其特征在于,所述第一分支网络模型包括面部特征预测模型和第一预设损失函数,所述第一预设损失函数用于优化所述面部特征预测模型的第一模型参数,所述第一预设损失函数基于第一目标函数实现;所述装置还包括:
确定单元,用于确定所述第一目标函数相对于所述第一模型参数的第一梯度;
更新单元,用于依据所述第一梯度更新所述第一目标函数的调节参数和所述第一模型参数,得到优化后的所述面部特征预测模型和优化后的所述第一目标函数。
9.一种电子设备,其特征在于,包括处理器、存储器,所述存储器用于存储一个或多个程序,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-5任一项所述的方法中的步骤的指令。
10.一种计算机可读存储介质,其特征在于,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911190161.0A CN111046759A (zh) | 2019-11-28 | 2019-11-28 | 人脸识别方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911190161.0A CN111046759A (zh) | 2019-11-28 | 2019-11-28 | 人脸识别方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111046759A true CN111046759A (zh) | 2020-04-21 |
Family
ID=70233939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911190161.0A Pending CN111046759A (zh) | 2019-11-28 | 2019-11-28 | 人脸识别方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111046759A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111666905A (zh) * | 2020-06-10 | 2020-09-15 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN112052792A (zh) * | 2020-09-04 | 2020-12-08 | 恒睿(重庆)人工智能技术研究院有限公司 | 一种跨模型人脸识别方法、装置、设备及介质 |
CN112052734A (zh) * | 2020-07-31 | 2020-12-08 | 北京奇艺世纪科技有限公司 | 角色特性识别网络生成方法及识别方法、装置、设备和介质 |
CN113011514A (zh) * | 2021-03-29 | 2021-06-22 | 吉林大学 | 基于双线性池化应用于ct影像的颅内出血亚类型分类算法 |
CN114387633A (zh) * | 2020-10-19 | 2022-04-22 | 北京澎思科技有限公司 | 面部属性识别方法、装置和计算机可读存储介质 |
WO2024085342A1 (en) * | 2022-10-21 | 2024-04-25 | Samsung Electronics Co., Ltd. | A device and a method for building a tree-form artificial intelligence model |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766850A (zh) * | 2017-11-30 | 2018-03-06 | 电子科技大学 | 基于结合人脸属性信息的人脸识别方法 |
US20190065906A1 (en) * | 2017-08-25 | 2019-02-28 | Baidu Online Network Technology (Beijing) Co., Ltd . | Method and apparatus for building human face recognition model, device and computer storage medium |
CN109635680A (zh) * | 2018-11-26 | 2019-04-16 | 深圳云天励飞技术有限公司 | 多任务属性识别方法、装置、电子设备及存储介质 |
CN110046551A (zh) * | 2019-03-18 | 2019-07-23 | 中国科学院深圳先进技术研究院 | 一种人脸识别模型的生成方法及设备 |
CN110135389A (zh) * | 2019-05-24 | 2019-08-16 | 北京探境科技有限公司 | 人脸属性识别方法及装置 |
-
2019
- 2019-11-28 CN CN201911190161.0A patent/CN111046759A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190065906A1 (en) * | 2017-08-25 | 2019-02-28 | Baidu Online Network Technology (Beijing) Co., Ltd . | Method and apparatus for building human face recognition model, device and computer storage medium |
CN107766850A (zh) * | 2017-11-30 | 2018-03-06 | 电子科技大学 | 基于结合人脸属性信息的人脸识别方法 |
CN109635680A (zh) * | 2018-11-26 | 2019-04-16 | 深圳云天励飞技术有限公司 | 多任务属性识别方法、装置、电子设备及存储介质 |
CN110046551A (zh) * | 2019-03-18 | 2019-07-23 | 中国科学院深圳先进技术研究院 | 一种人脸识别模型的生成方法及设备 |
CN110135389A (zh) * | 2019-05-24 | 2019-08-16 | 北京探境科技有限公司 | 人脸属性识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
徐培超;陈雯柏;陈祥凤;韩琥;: "多任务及Resnet网络在人脸多属性识别中的应用" * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111666905A (zh) * | 2020-06-10 | 2020-09-15 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN111666905B (zh) * | 2020-06-10 | 2022-12-02 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN112052734A (zh) * | 2020-07-31 | 2020-12-08 | 北京奇艺世纪科技有限公司 | 角色特性识别网络生成方法及识别方法、装置、设备和介质 |
CN112052734B (zh) * | 2020-07-31 | 2024-05-17 | 北京奇艺世纪科技有限公司 | 角色特性识别网络生成方法及识别方法、装置、设备和介质 |
CN112052792A (zh) * | 2020-09-04 | 2020-12-08 | 恒睿(重庆)人工智能技术研究院有限公司 | 一种跨模型人脸识别方法、装置、设备及介质 |
CN114387633A (zh) * | 2020-10-19 | 2022-04-22 | 北京澎思科技有限公司 | 面部属性识别方法、装置和计算机可读存储介质 |
CN113011514A (zh) * | 2021-03-29 | 2021-06-22 | 吉林大学 | 基于双线性池化应用于ct影像的颅内出血亚类型分类算法 |
CN113011514B (zh) * | 2021-03-29 | 2022-01-14 | 吉林大学 | 基于双线性池化应用于ct影像的颅内出血亚类型分类算法 |
WO2024085342A1 (en) * | 2022-10-21 | 2024-04-25 | Samsung Electronics Co., Ltd. | A device and a method for building a tree-form artificial intelligence model |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111046759A (zh) | 人脸识别方法及相关装置 | |
CN110533097B (zh) | 一种图像清晰度识别方法、装置、电子设备及存储介质 | |
CN111950638B (zh) | 基于模型蒸馏的图像分类方法、装置和电子设备 | |
CN108776787A (zh) | 图像处理方法及装置、电子设备、存储介质 | |
WO2021129181A1 (en) | Portrait segmentation method, model training method and electronic device | |
CN111340013B (zh) | 人脸识别方法、装置、计算机设备及存储介质 | |
CN111738403B (zh) | 一种神经网络的优化方法及相关设备 | |
CN114332994A (zh) | 训练年龄预测模型的方法、年龄检测方法及相关装置 | |
CN110728319B (zh) | 一种图像生成方法、装置以及计算机存储介质 | |
CN110879993B (zh) | 神经网络训练方法、人脸识别任务的执行方法及装置 | |
CN110378278A (zh) | 神经网络的训练方法、对象搜索方法、装置以及电子设备 | |
WO2023284182A1 (en) | Training method for recognizing moving target, method and device for recognizing moving target | |
EP4162341A1 (en) | System and method for predicting formation in sports | |
CN116580257A (zh) | 特征融合模型训练及样本检索方法、装置和计算机设备 | |
WO2023179074A1 (zh) | 图像融合方法及装置、电子设备、存储介质、计算机程序、计算机程序产品 | |
CN114519877A (zh) | 人脸识别方法、人脸识别装置、计算机设备及存储介质 | |
CN112966685A (zh) | 用于场景文本识别的攻击网络训练方法、装置及相关设备 | |
CN112116589A (zh) | 虚拟形象的评测方法、装置、设备及计算机可读存储介质 | |
CN116152938A (zh) | 身份识别模型训练和电子资源转移方法、装置及设备 | |
CN109858355B (zh) | 图像处理方法及相关产品 | |
CN116468525A (zh) | 信息处理方法、装置、电子设备以及计算机存储介质 | |
JP7479507B2 (ja) | 画像処理方法及び装置、コンピューター機器、並びにコンピュータープログラム | |
CN113536845B (zh) | 人脸属性识别方法、装置、存储介质和智能设备 | |
CN111191675B (zh) | 行人属性识别模型实现方法及相关装置 | |
CN116266394A (zh) | 多模态的情绪识别方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200421 |