CN111401343B - 识别图像中人的属性的方法、识别模型的训练方法和装置 - Google Patents
识别图像中人的属性的方法、识别模型的训练方法和装置 Download PDFInfo
- Publication number
- CN111401343B CN111401343B CN202010497440.8A CN202010497440A CN111401343B CN 111401343 B CN111401343 B CN 111401343B CN 202010497440 A CN202010497440 A CN 202010497440A CN 111401343 B CN111401343 B CN 111401343B
- Authority
- CN
- China
- Prior art keywords
- attribute
- sample
- image
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 143
- 238000000034 method Methods 0.000 title claims abstract description 95
- 238000010801 machine learning Methods 0.000 claims abstract description 33
- 230000006870 function Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 20
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 description 14
- 230000004913 activation Effects 0.000 description 8
- 238000013136 deep learning model Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 230000037308 hair color Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种识别图像中人的属性的方法、识别模型的训练方法和装置,该方法包括:获取待识别图像;该待识别图像为包含有人的图像;将该待识别图像输入识别模型,以识别待识别图像中人的多种属性;其中,识别模型为使用样本集通过机器学习训练得到,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性。本发明通过识别模型识别待识别图像中人的属性,该识别模型使用包含有人体图像和多个属性标签的样本集通过机器学习训练得到,因而该识别模型可以学习到与人的属性有关的多层语义特征和多种属性之间的关联,从而有助于提高识别属性的精确度。
Description
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种识别图像中人的属性的方法、识别模型的训练方法和装置。
背景技术
人体属性识别通常是指在监控场景下自动识别出行人的各种属性,该属性可以为性别、年龄段、头发颜色、服饰等。相关技术中,可以通过训练后的深度学习模型识别图像中行人的人体属性。该深度学习模型在训练过程中,将识别每种人体属性作为相对独立的识别任务,计算每种任务属性的识别损失值,然后基于每种任务属性的识别损失值训练深度学习模型,该方式中,深度学习模型在训练过程中所参考的数据有限,限制了模型识别属性的精确度。
发明内容
本发明的目的在于提供一种识别图像中人的属性的方法、识别模型的训练方法和装置,以提高模型识别人体属性的精确度。
第一方面,本发明实施例提供一种识别图像中人的属性的方法,该方法包括:获取待识别图像;其中,该待识别图像为包含有人的图像;将所述待识别图像输入识别模型,以识别该待识别图像中人的多种属性;其中,该识别模型为基于样本集中的样本所对应的各个属性标签以及各个属性标签之间的关联关系采用机器学习训练得到,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性。
在可选的实施方式中,上述识别模型的权重参数是在机器学习训练过程中根据损失量确定,其中,该损失量表示样本输入识别模型后得到的识别结果与输入样本的属性标签之间的差异;该损失量根据输入样本所对应的各个属性标签以及各个属性标签之间的关联关系确定。
在可选的实施方式中,上述损失量根据第一损失值和第二损失值确定;该第一损失值用于表示各个属性标签在彼此互不影响的条件下,识别结果与输入样本的属性标签之间的差距;该第二损失值用于表示各个属性标签之间在具有关联关系的条件下,识别结果与输入样本的属性标签之间的差距。
在可选的实施方式中,上述第一损失值通过下述算式确定:;其中,表示第一损失值,∑
表示求和运算,exp表示以自然常数e为底的指数函数运算,log用于表示对数运算,K表示输
入样本包含K种属性,为第j种属性的属性标签,为识别模型对输入样本的第j种属性
的识别结果,为第j种属性的权重。
在可选的实施方式中,上述第二损失值通过下述算式确定:;其中,表示第二损失值,∑表示求和运算,exp
表示以自然常数e为底的指数函数运算,K表示输入样本包含K种属性,为第j种属性的属
性标签,为识别模型对输入样本的第j种属性的识别结果,为常数。
第二方面,本发明实施例提供一种识别模型的训练方法,该方法包括:获取样本集;其中,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性;基于样本集中的样本所对应的各个属性标签以及所述各个属性标签之间的关联关系对初始模型进行机器学习训练,得到识别模型。
在可选的实施方式中,上述基于样本集对初始模型进行机器学习训练,得到识别模型,包括:基于样本集确定训练样本;该训练样本为样本集中的一个样本;将训练样本输入至初始模型,得到训练样本对应的识别结果;根据训练样本所对应的各个属性标签以及各个属性标签之间的关联关系确定损失量;其中,该损失量表示识别结果与训练样本的各个属性标签之间的差异;根据该损失量更新初始模型的权重参数;继续执行基于样本集确定训练样本的步骤,直到损失量收敛或者达到预设的训练次数,得到识别模型。
在可选的实施方式中,上述根据训练样本所对应的各个属性标签以及各个属性标签之间的关联关系确定损失量的步骤,包括:计算训练样本所对应的各个属性标签在彼此互不影响的条件下,识别结果与训练样本的属性标签之间的差距,得到第一损失值;计算训练样本所对应的各个属性标签在具有关联关系的条件下,识别结果与训练样本的属性标签之间的差距,得到第二损失值;根据第一损失值和第二损失值,得到损失量。
在可选的实施方式中,上述计算训练样本所对应的各个属性标签在彼此互不影响
的条件下,识别结果与训练样本的属性标签之间的差距,得到第一损失值,包括:将训练样
本的所有属性标签和识别结果输入至算式,得到第一损失值;其中,∑
表示求和运算,exp表示以自然常数e为底的指数函数运算,log用于表示对数运算,K表示训
练样本包含K种属性,为第j种属性的属性标签,为识别模型对训练样本的第j种属性
的识别结果,为第j种属性的权重。
在可选的实施方式中,上述计算训练样本所对应的各个属性标签在具有关联关系
的条件下,所述识别结果与训练样本的属性标签之间的差距,得到第二损失值,包括:将
训练样本的所有属性标签和识别结果输入至算式,
得到第二损失值;其中,∑表示求和运算,exp表示以自然常数e为底的指数函数运算,K表
示训练样本包含K种属性,为第j种属性的属性标签,为识别模型对训练样本的第j种
属性的识别结果,为常数。
第三方面,本发明实施例提供一种识别图像中人的属性的装置,该装置包括:图像获取模块,用于获取待识别图像;其中,该待识别图像为包含有人的图像;图像识别模块,用于将待识别图像输入识别模型,以识别待识别图像中人的多种属性;其中,该识别模型为基于样本集中的样本所对应的各个属性标签以及所述各个属性标签之间的关联关系采用机器学习训练得到,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性。
第四方面,本发明实施例提供一种识别模型的训练装置,该装置包括:样本集获取模块,用于获取样本集;其中,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性;模型训练模块,用于基于样本集中的样本所对应的各个属性标签以及各个属性标签之间的关联关系对初始模型进行机器学习训练,得到识别模型。
第五方面,本发明实施例提供一种服务器,该服务器包括处理器和存储器,该存储器存储有能够被处理器执行的机器可执行指令,该处理器执行机器可执行指令以实现上述识别图像中人的属性的方法或者上述识别模型的训练方法。
第六方面,本发明实施例提供一种机器可读存储介质,该机器可读存储介质存储有机器可执行指令,该机器可执行指令在被处理器调用和执行时,该机器可执行指令促使处理器实现上述识别图像中人的属性的方法或者上述识别模型的训练方法。
本发明提供了一种识别图像中人的属性的方法、识别模型的训练方法和装置,首先获取包含有人的待识别图像;再将该待识别图像输入识别模型,以识别该待识别图像中人的多种属性。该方式通过识别模型识别待识别图像中人的属性,该识别模型使用包含有人体图像和多个属性标签的样本集通过机器学习训练得到,因而该识别模型可以学习到与人的属性有关的多层语义特征和多种属性之间的关联,从而有助于提高模型识别属性的精确度。
本发明的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本发明的上述技术即可得知。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施方式,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种识别图像中人的属性的方法的流程图;
图2为本发明实施例提供的一种识别模型的网络结构的示意图;
图3为本发明实施例提供的一种特征提取层的结构示意图;
图4为本发明实施例提供的另一种识别图像中人的属性的方法的流程图;
图5为本发明实施例提供的一种识别模型的训练方法的流程图;
图6为本发明实施例提供的一种识别图像中人的属性的装置的结构示意图;
图7为本发明实施例提供的一种识别模型的训练装置的结构示意图;
图8为本发明实施例提供的一种服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
相关技术中,人体属性识别的发展主要经历了传统方法阶段和深度学习方法阶段。传统的人体属性识别方法通常是使用人工设计的规则进行人体特征的提取(例如,梯度直方图、生物启发特征等),然后为每一种属性设计一个分类器(例如,支持向量机)进行属性的训练和预测,但是该方式中使用的人工设计的规则提取的图像特征缺乏图像的高层语义信息,因此该方式得到的属性预测结果的精度较低。
为了提高精度,可以通过训练后的深度学习模型识别图像中行人的人体属性,该方式不需要人工干预,因此可以得到较好的属性预测效果,但是该方式中的深度学习模型在训练过程中,将识别每种人体属性作为相对独立的识别任务,没有从整体上考虑不同属性的识别任务之间的关联关系。具体来说,在对模型进行机器学习训练的过程中,在计算损失值的时候,只是单独计算每种任务属性的识别损失值,然后基于每种任务属性的识别损失值训练深度学习模型,使得深度学习模型在训练过程中所参考的数据有限,限制了模型识别属性的精确度。
基于上述问题,本发明实施例提供了一种识别图像中人的属性的方法、识别模型的训练方法和装置,该技术可以应用于各种监控场景中的人的识别场景中,尤其是人体的属性的识别和检索场景。为便于对本实施例进行理解,首先对本发明实施例所公开的一种识别图像中人的属性的方法进行详细介绍,如图1所示,该方法包括如下步骤:
步骤S102,获取待识别图像;其中,该待识别图像为包含有人的图像。
获取的方式可以为通过通信连接的照相机、摄像头等设备拍摄后传入,或从存储有已经拍摄完成的待识别的人脸图像的存储设备中获取。
上述待识别图像可以是各种监控场景下的图像,该图像可以是摄像头或者相机拍摄的,该待识别图像中包括有人,该人通常具有一系列的属性,该属性至少包括下述属性中的任意两种:性别、年龄段、头发颜色、头发长短、上身服饰、下身服饰、是否挎包、是否戴眼镜或者身体朝向等属性。
步骤S104,将上述待识别图像输入识别模型,以识别该待识别图像中人的多种属性;其中,该识别模型为基于样本集中的样本所对应的各个属性标签以及各个属性标签之间的关联关系采用机器学习训练得到,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性。
上述识别模型通常是深度学习模型、神经网络模型等。在对识别模型进行机器学习训练的过程中,需要从样本集中选择样本,再将该样本中的人体图像输入至识别模型的初始模型中,输出该人体图像中的人的多种属性的识别结果,进而通过识别结果与多个属性标签的关系得到损失量,基于该损失量调整初始模型的网络参数(也即是各层网络的权重参数),继续从样本集中选择样本输入至调整后的初始模型中,得到损失量并基于该损失量调整调整后的初始模型,直到该损失量收敛,得到识别模型。
上述样本集中通常包含有大量的样本,每个样本包括一个人体图像和该人体图像中人对应的多个属性标签,这里多个属性标签为至少两个属性标签;不同的属性标签对应不同的属性,该属性可以是性别、年龄段、头发颜色、头发长短、上身服饰、下身服饰、是否挎包、是否戴眼镜或者身体朝向等属性中的任意一种。该人体图像通常是预先采集的监控场景的图像中包含有人的图像区域,通常可以将预先采集的监控场景的图像用覆盖人的矩形框来标注图像中每个人的位置,并按照矩形框将每个人对应的图像区域进行裁剪和保存,得到多个人体图像,也即是一个人对应一个人体图像。在具体实现时,需要对每个人体图像中的人的多种属性进行人工标注,得到每种属性对应的属性标签,该属性标签可以采用数字、字母等形式。
其中,各个属性标签之间的关联关系,可以理解为:两种或两种以上的属性呈关联,例如:在对人体图像进行属性识别的时候,头发属性和性别属性呈关联(可以理解为长发的概率较高时,则性别为女性的概率较高;光头的概率较高时,则性别为男性的概率较高),又例如:衣着属性和性别属性呈关联(可以理解为穿裙子的概率较高时,则性别为女性的概率较高)。
需要说明的是,以上以举例方式列举出来的各个属性之间关联关系,是比较能被人类理解的且能够用语言描述出来其关联关系的,而有些属性之间的关联关系是在训练之前难以从人类的主观视角发现的,且不能够用语言描述的出来其之间的关联关系,但是可以通过机器学习的方式输入大量的样本之后,让识别模型通过机器学习而学习到各个属性之间的关联关系。
上述识别模型可以包括:特征提取层、全局平均池化层和输出层;其中,特征提取层用于对待识别图像进行特征提取,得到该待识别图像的特征数据;全局平均池化层用于对特征数据进行全局平均池化操作,得到该待识别图像的全局特征;输出层用于根据全局特征,输出待识别图像的识别结果。图2示出了识别模型的网络结构示意图,图2中特征提取层包括依次连接的卷积层、批归一化层和激活函数层。该特征提取层可以提取待识别图像的图像特征,以获得图像特征的高层语义信息,为了提高特征提取层的性能,通常该特征提取层包括多组依次连接的卷积层、批归一化层和激活函数层。图3示出了一种特征提取层的结构示意图;图3中包括四组依次连接的卷积层、批归一化层和激活函数层。
特征提取层中的批归一化层用于对卷积层输出的特征图进行归一化处理,该过程可以加快特征提取层以及模型的收敛速度,并且可以缓解在多层卷积网络中梯度弥散的问题,使得特征提取层更加稳定。特征提取层中的激活函数层可以对归一化处理后的图像特征进行函数变换,该变换过程可打破卷积层输入的线性组合,该激活函数层具体可以为Sigmoid函数、tanh函数、Relu函数等。
全局平均池化层可以对特征提取层得到的图像特征进行全局平均池化操作,得到输入图像的全局特征;输出层包括全连接层和激活函数层,该全连接层输出的是识别指示结果,将该识别指示结果输入至激活函数层可以得到识别出的人的多种属性。
本发明提供了一种识别图像中人的属性的方法,首先获取包含有人的待识别图像;再将该待识别图像输入识别模型,以识别该待识别图像中人的多种属性。本发明通过识别模型识别待识别图像中人的属性,该识别模型使用包含有人体图像和多个属性标签的样本集通过机器学习训练得到,因而该识别模型可以学习到与人的属性有关的多层语义特征和多种属性之间的关联,从而有助于提高模型识别属性的精确度。
本发明实施例还提供了另一种识别图像中人的属性的方法,该方法在上述实施例方法的基础上实现;该方法重点描述获取待识别图像之前,确定识别模型的权重参数的具体过程(通过下述步骤S402-S408实现);如图4所示,该方法包括如下步骤:
步骤S402,将从样本集中确定的输入样本,输入至识别模型中,得到识别结果。该输入样本为样本集中的任意一个样本,该输入样本中包含有人体图像,以及人体图像中人对应的多个属性的属性标签,每个属性标签用于表示人体图像中人的一种属性。
步骤S404,根据上述输入样本所对应的各个属性标签和各个属性标签之间的关联关系,以及上述识别结果确定损失量;其中,该损失量表示样本输入识别模型后得到的识别结果与输入样本的属性标签之间的差异。
在本实施例中,在确定损失量的时候,不仅仅根据是各个属性标签(即将每种属性看作是一个独立的识别任务),还包括根据各个属性标签之间的关联关系(从整体上考虑不同属性的识别任务之间的相关性),以使不同的属性之间的识别结果互相促进,使得识别模型能够识别高层语义信息,从而提升对人体图像中人的属性识别结果的精度。
在一些实施例中,上述损失量可以根据第一损失值和第二损失值确定;该第一损失值用于表示各个属性标签在彼此互不影响的条件下,识别结果与输入样本的属性标签之间的差距;第二损失值用于表示各个属性标签之间在具有关联关系的条件下,识别结果与输入样本的属性标签之间的差距。
上述第一损失值通过下述算式确定:
其中,表示第一损失值,∑表示求和运算,exp表示以自然常数e为底的指数函数
运算,log用于表示对数运算,K表示输入样本包含K种属性,为第j种属性的属性标签,
为识别模型对输入样本的第j种属性的识别结果,为第j种属性的权重。
上述输入样本的多种属性通常是具有二值性的属性,该多种属性可以为是否为男性、是否为女性、是否戴帽子、是否戴眼镜、是否挎包、是否是长发、是否是短发等。该每种属性的属性标签通常可以用0或者1标识,也即是属性标签可以为1或者0,其中,1表示具有该属性(相当于该项属性为正)、0表示不具有该属性(相当于该项属性为负),例如,输入样本携带的多种属性的属性标签为[1011001]时,表示输入样本中的人具有的属性为男性、戴帽子、戴眼镜、不挎包、短发。
上述可以根据样本集中的样本的第j种属性的属性标签确定,其中,可以为
样本集中所有样本中的比重,也即是该为将第j种属性的属性标签为1的样本数除
以样本集中的样本总数得到的数值,同样地,在一些实施例中,可以为样本集中所有样
本中的比重。
上述第二损失值通过下述算式确定:
步骤S406,在机器学习训练过程中根据上述损失量,确定识别模型的权重参数。该权重参数通常为识别模型中的网络结构中每个网络参数对应的权重。
步骤S408,如果获取到包含有人的待识别图像,将该待识别图像输入至权重参数确定后的识别模型中,得到人的多种属性。
在具体实现时,上述步骤S408可以通过下述步骤10-11实现:
步骤10,将待识别图像输入至权重参数确定后的识别模型中,输出多种属性的识别结果。
步骤11,针对每种属性的识别结果执行下述操作:判断当前属性的识别结果是否大于预设阈值;如果大于预设阈值,确定待识别图像中的人具有该当前属性,如果小于预设阈值,确定待识别图像中的人不具有当前属性。该预设阈值根据用户需求设定。
上述识别图像中人的属性的方法,该方式中的识别模型在机器学习的训练过程中充分考虑到了各个属性标签之间的关联关系,相对于将识别每种属性作为相对独立的识别任务的训练方式,该方式提高了模型识别属性的精确度。
针对于上述识别图像中人的属性的方法的实施例,本发明实施例还提供了一种识别模型的训练方法,如图5所示,该方法包括如下具体步骤:
步骤S502,获取样本集;其中,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性。
上述样本集中通常包含有大量的样本,每个样本包括一个人体图像和该人体图像中人对应的多个属性标签,这里多个属性标签为至少两个属性标签;不同的属性标签对应不同的属性,该属性可以是性别、年龄段、头发颜色、头发长短、上身服饰、下身服饰、是否挎包、是否戴眼镜或者身体朝向等属性中的任意一种。
步骤S504,基于上述样本集中的样本所对应的各个属性标签以及各个属性标签之间的关联关系对初始模型进行机器学习训练,得到识别模型。
在具体实现时,上述步骤S504可以通过下述步骤20-24实现:
步骤20,基于样本集确定训练样本;该训练样本为样本集中的一个样本。
步骤21,将训练样本输入至初始模型,得到训练样本对应的识别结果。
步骤22,根据训练样本所对应的各个属性标签以及各个属性标签之间的关联关系确定损失量;其中,该损失量表示识别结果与训练样本的各个属性标签之间的差异。
在可选的实施方式中,上述损失量包括第一损失值和第二损失值,具体地,计算训练样本所对应的各个属性标签在彼此互不影响的条件下,识别结果与训练样本的属性标签之间的差距,得到第一损失值;计算训练样本所对应的各个属性标签在具有关联关系的条件下,识别结果与训练样本的属性标签之间的差距,得到第二损失值;根据第一损失值和第二损失值,得到损失量。也即是将第一损失值与第二损失值的和作为上述损失量。
在具体实现时,将训练样本的所有属性标签和识别结果输入至算式,得到第一损失值;其中,∑
表示求和运算,exp表示以自然常数e为底的指数函数运算,log用于表示对数运算,K表示训
练样本包含K种属性,为第j种属性的属性标签,为识别模型对训练样本的第j种属性
的识别结果,为第j种属性的权重。
将训练样本的所有属性标签和识别结果输入至算式,得到第二损失值;其中,∑表示求和运算,exp
表示以自然常数e为底的指数函数运算,K表示训练样本包含K种属性,为第j种属性的属
性标签,为识别模型对训练样本的第j种属性的识别结果,为常数。
步骤23,根据损失量更新初始模型的权重参数。
步骤24,继续执行基于样本集确定训练样本的步骤,直到该损失量收敛或者达到预设的训练次数,得到识别模型。
在具体实现时,可以通过下述步骤30-33得到训练完成的识别模型:
步骤30,计算损失量对初始模型中待更新权重参数的导数,其中,为损失
量;W为待更新权重参数;该待更新权重参数可以为初始模型中的所有参数,也可以为随机
从初始模型中确定的部分参数;其中,该更新权重参数也即是初始模型中各层网络的权值。
通常可以根据反向传播算法求解待更新权重参数的导数;如果损失量较大,则说明当前的
初始模型的识别结果与期望结果相差较多,则求出损失量对初始模型中待更新权重参数的
导数,该导数可以作为更新待更新权重参数的依据。
步骤31,更新待更新权重参数,得到更新后的待更新权重参数;
其中,为预设系数。该过程也可以称为随机梯度下降算法;各个待更新权重参数的导数也
可以理解为相对于当前参数,损失量下降最快的方向,通过该方向调整参数,可以使损失量
快速降低,使该权重参数收敛。
步骤32,判断更新后的初始模型的参数是否均收敛,如果均收敛,执行基于样本集确定训练样本的步骤;否则执行步骤33。
如果更新后的初始模型的参数不是均收敛,则基于样本集确定新的训练样本,继续执行步骤20-23,直到更新后的初始模型的参数均收敛。
步骤33,将参数更新后的初始模型确定为训练后的识别模型。
另外,当初始模型经一次训练后,得到损失量时,可以从初始模型的各个权重参数中随机选择一个或多个参数进行上述的更新过程,该方式的模型训练时间较短,算法较快;当然也可以对初始模型中所有参数进行上述的更新过程,该方式的模型训练更加准确。
在具体实现时,可以将样本集中的图像按照预设比例(例如,10:1)划分为用来训练模型的样本集合,以及用来验证模型的样本集合。通过用来验证模型的样本集合可以确定训练后的识别模型的识别精度;通常可以从用来验证模型的样本集合确定测试样本,该测试样本包含有人体图像,以及该人体图像对应的多种属性标签,将该测试样本输入至训练完成的识别模型中可以得到多种属性的预测结果,将该预测结果与属性标签比对,判定该预测结果是否正确,继续从用来验证模型的样本集合确定测试样本,直到用来验证模型的样本集合中的所有样本选取完毕;统计每个测试样本对应的测试结果对应的正确性,得到训练后的属性识别模型的识别精度。
上述识别模型的训练方法,首先获取样本集;然后基于该样本集对初始模型进行机器学习训练,得到识别模型。该方式根据样本集中的训练样本所对应的各个属性标签以及各个属性标签之间的关联关系确定损失量,并通过损失量训练识别模型,该方式训练得到的识别模型可以准确快速地识别出待识别图像中人的各种预设属性,具有非常重要的实用价值,可以用于基于属性的行人检索和识别等场景中。
对应于上述识别图像中人的属性的方法实施例,本发明实施例还提供了一种识别图像中人的属性的装置,如图6所示,该装置包括:
图像获取模块60,用于获取待识别图像;其中,该待识别图像为包含有人的图像。
图像识别模块61,用于将待识别图像输入识别模型,以识别该待识别图像中人的多种属性。其中,该识别模型为基于样本集中的样本所对应的各个属性标签以及各个属性标签之间的关联关系采用机器学习训练得到,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性。
上述识别图像中人的属性的装置,首先获取包含有人的待识别图像;再将该待识别图像输入识别模型,以识别该待识别图像中人的多种属性。本发明通过识别模型识别待识别图像中人的属性,该识别模型使用包含有人体图像和多个属性标签的样本集通过机器学习训练得到,因而该识别模型可以学习到与人的属性有关的多层语义特征和多种属性之间的关联,从而有助于提高模型识别属性的精确度。
进一步地,上述装置还包括权重参数确定模块,用于:在机器学习训练过程中根据损失量确定,其中,该损失量表示样本输入识别模型后得到的识别结果与输入样本的属性标签之间的差异;该损失量根据输入样本所对应的各个属性标签以及各个属性标签之间的关联关系确定。
具体地,上述损失量根据第一损失值和第二损失值确定;该第一损失值用于表示各个属性标签在彼此互不影响的条件下,识别结果与输入样本的属性标签之间的差距;该第二损失值用于表示各个属性标签之间在具有关联关系的条件下,识别结果与输入样本的属性标签之间的差距。
上述第一损失值通过下述算式确定:
其中,表示第一损失值,∑表示求和运算,exp表示以自然常数e为底的指数函数
运算,log用于表示对数运算,K表示输入样本包含K种属性,为第j种属性的属性标签,
为识别模型对输入样本的第j种属性的识别结果,为第j种属性的权重。
上述第二损失值通过下述算式确定:;其
中,表示第二损失值,∑表示求和运算,exp表示以自然常数e为底的指数函数运算,K表示
输入样本包含K种属性,为第j种属性的属性标签,为识别模型对输入样本的第j种属
性的识别结果,为常数。
本发明实施例所提供的识别图像中人的属性的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
对应于上述识别模型的训练方法实施例,本发明实施例还提供了一种识别模型的训练装置,如图7所示,该装置包括:
样本集获取模块70,用于获取样本集;其中,该样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示人体图像中人的一种属性。
模型训练模块71,用于基于样本集中的样本所对应的各个属性标签以及各个属性标签之间的关联关系对初始模型进行机器学习训练,得到识别模型。
上述识别模型的训练装置,首先获取样本集;然后基于该样本集对初始模型进行机器学习训练,得到识别模型。该方式根据样本集中的训练样本所对应的各个属性标签以及各个属性标签之间的关联关系确定损失量,并通过损失量训练识别模型,该方式训练得到的识别模型可以准确快速地识别出待识别图像中人的各种预设属性,具有非常重要的实用价值,可以用于基于属性的行人检索和识别等场景中。
进一步地,上述模型训练模块71,用于:基于样本集确定训练样本;该训练样本为样本集中的一个样本;将训练样本输入至初始模型,得到训练样本对应的识别结果;根据训练样本所对应的各个属性标签以及各个属性标签之间的关联关系确定损失量;其中,该损失量表示识别结果与训练样本的各个属性标签之间的差异;根据该损失量更新初始模型的权重参数;继续执行基于样本集确定训练样本的步骤,直到损失量收敛或者达到预设的训练次数,得到识别模型。
具体地,上述模型训练模块71,还用于:计算训练样本所对应的各个属性标签在彼此互不影响的条件下,识别结果与训练样本的属性标签之间的差距,得到第一损失值;计算训练样本所对应的各个属性标签在具有关联关系的条件下,识别结果与训练样本的属性标签之间的差距,得到第二损失值;根据第一损失值和第二损失值,得到损失量。
具体地,上述模型训练模块71,还用于:将训练样本的所有属性标签和识别结果输
入至算式,得到第一损失值;
其中,∑表示求和运算,exp表示以自然常数e为底的指数函数运算,log用于表示对数运算,K表示训练样本包含K种属性,为第j种属性的属性标签,为识别模型对训练样本的第j
种属性的识别结果,为第j种属性的权重。
具体地,上述模型训练模块71,还用于:将训练样本的所有属性标签和识别结果输
入至算式,得到第二损失值;其中,∑表示求和
运算,exp表示以自然常数e为底的指数函数运算,K表示训练样本包含K种属性,为第j种
属性的属性标签,为识别模型对训练样本的第j种属性的识别结果,为常数。
本发明实施例所提供的识别模型的训练装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例还提供了一种服务器,参见图8所示,该服务器包括处理器101和存储器100,该存储器100存储有能够被处理器101执行的机器可执行指令,该处理器101执行机器可执行指令以实现上述识别图像中人的属性的方法或者识别模型的训练方法。
进一步地,图8所示的服务器还包括总线102和通信接口103,处理器101、通信接口103和存储器100通过总线102连接。
其中,存储器100可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processor,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器100,处理器101读取存储器100中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种机器可读存储介质,该机器可读存储介质存储有机器可执行指令,该机器可执行指令在被处理器调用和执行时,该机器可执行指令促使处理器实现上述识别图像中人的属性的方法或者识别模型的训练方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和/或电子设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种识别图像中人的属性的方法,其特征在于,包括:
获取待识别图像;其中,所述待识别图像为包含有人的图像;
将所述待识别图像输入识别模型,以识别所述待识别图像中人的多种属性;其中,所述识别模型为基于样本集中的样本所对应的各个属性标签以及所述各个属性标签之间的关联关系采用机器学习训练得到,所述样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示所述人体图像中人的一种属性;
其中,所述识别模型的权重参数是在机器学习训练过程中根据损失量确定,所述损失量表示样本输入识别模型后得到的识别结果与输入样本的属性标签之间的差异;所述损失量根据第一损失值和第二损失值确定;所述第一损失值用于表示各个属性标签在彼此互不影响的条件下,所述识别结果与所述输入样本的属性标签之间的差距;所述第二损失值用于表示各个属性标签之间在具有关联关系的条件下,所述识别结果与所述输入样本的属性标签之间的差距;
所述第二损失值通过下述算式确定:
3.一种识别模型的训练方法,其特征在于,包括:
获取样本集;其中,所述样本集中的每个样本均包括一个人体图像和多个属性标签,每个所述属性标签用于表示所述人体图像中人的一种属性;
基于所述样本集中的样本所对应的各个属性标签以及所述各个属性标签之间的关联关系对初始模型进行机器学习训练,得到所述识别模型;
其中,所述识别模型的权重参数是在机器学习训练过程中根据损失量确定,所述损失量表示样本输入识别模型后得到的识别结果与输入样本的属性标签之间的差异;所述损失量根据第一损失值和第二损失值确定;所述第一损失值用于表示各个属性标签在彼此互不影响的条件下,所述识别结果与所述输入样本的属性标签之间的差距;所述第二损失值用于表示各个属性标签之间在具有关联关系的条件下,所述识别结果与所述输入样本的属性标签之间的差距;
所述第二损失值通过下述算式确定:
4.根据权利要求3所述的方法,其特征在于,所述基于所述样本集对初始模型进行机器学习训练,得到所述识别模型,包括:
基于所述样本集确定训练样本;所述训练样本为所述样本集中的一个样本;
将所述训练样本输入至初始模型,得到所述训练样本对应的识别结果;
根据所述训练样本所对应的各个属性标签以及所述各个属性标签之间的关联关系确定损失量;
根据所述损失量更新所述初始模型的权重参数;
继续执行基于所述样本集确定训练样本的步骤,直到所述损失量收敛或者达到预设的训练次数,得到所述识别模型。
5.一种识别图像中人的属性的装置,其特征在于,所述装置包括:
图像获取模块,用于获取待识别图像;其中,所述待识别图像为包含有人的图像;
图像识别模块,用于将所述待识别图像输入识别模型,以识别所述待识别图像中人的多种属性;其中,所述识别模型为基于样本集中的样本所对应的各个属性标签以及所述各个属性标签之间的关联关系采用机器学习训练得到,所述样本集中的每个样本均包括一个人体图像和多个属性标签,每个属性标签用于表示所述人体图像中人的一种属性;
其中,所述识别模型的权重参数是在机器学习训练过程中根据损失量确定,所述损失量表示样本输入识别模型后得到的识别结果与输入样本的属性标签之间的差异;所述损失量根据第一损失值和第二损失值确定;所述第一损失值用于表示各个属性标签在彼此互不影响的条件下,所述识别结果与所述输入样本的属性标签之间的差距;所述第二损失值用于表示各个属性标签之间在具有关联关系的条件下,所述识别结果与所述输入样本的属性标签之间的差距;
所述第二损失值通过下述算式确定:
6.一种识别模型的训练装置,其特征在于,所述装置包括:
样本集获取模块,用于获取样本集;其中,所述样本集中的每个样本均包括一个人体图像和多个属性标签,每个所述属性标签用于表示所述人体图像中人的一种属性;
模型训练模块,用于基于所述样本集中的样本所对应的各个属性标签以及所述各个属性标签之间的关联关系对初始模型进行机器学习训练,得到所述识别模型;
其中,所述识别模型的权重参数是在机器学习训练过程中根据损失量确定,所述损失量表示样本输入识别模型后得到的识别结果与输入样本的属性标签之间的差异;所述损失量根据第一损失值和第二损失值确定;所述第一损失值用于表示各个属性标签在彼此互不影响的条件下,所述识别结果与所述输入样本的属性标签之间的差距;所述第二损失值用于表示各个属性标签之间在具有关联关系的条件下,所述识别结果与所述输入样本的属性标签之间的差距;
所述第二损失值通过下述算式确定:
7.一种服务器,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器执行所述机器可执行指令以实现权利要求1至2任一项所述的识别图像中人的属性的方法或者权利要求3至4任一项所述的识别模型的训练方法。
8.一种机器可读存储介质,其特征在于,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使处理器实现权利要求1至2任一项所述的识别图像中人的属性的方法或者权利要求3至4任一项所述的识别模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010497440.8A CN111401343B (zh) | 2020-06-04 | 2020-06-04 | 识别图像中人的属性的方法、识别模型的训练方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010497440.8A CN111401343B (zh) | 2020-06-04 | 2020-06-04 | 识别图像中人的属性的方法、识别模型的训练方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401343A CN111401343A (zh) | 2020-07-10 |
CN111401343B true CN111401343B (zh) | 2021-04-30 |
Family
ID=71433815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010497440.8A Active CN111401343B (zh) | 2020-06-04 | 2020-06-04 | 识别图像中人的属性的方法、识别模型的训练方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401343B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906821B (zh) * | 2021-03-24 | 2023-09-01 | 中国科学院古脊椎动物与古人类研究所 | 一种淀粉粒的种属识别方法、装置及电子设备 |
CN113505761A (zh) * | 2021-09-08 | 2021-10-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 车辆属性提取方法、装置、电子设备及存储介质 |
CN116188919B (zh) * | 2023-04-25 | 2023-07-14 | 之江实验室 | 一种测试方法、装置、可读存储介质及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175595A (zh) * | 2019-05-31 | 2019-08-27 | 北京金山云网络技术有限公司 | 人体属性识别方法、识别模型训练方法及装置 |
CN110705474A (zh) * | 2019-09-30 | 2020-01-17 | 清华大学 | 一种行人属性识别方法和装置 |
CN111191503A (zh) * | 2019-11-25 | 2020-05-22 | 浙江省北大信息技术高等研究院 | 一种行人属性识别方法、装置、存储介质及终端 |
-
2020
- 2020-06-04 CN CN202010497440.8A patent/CN111401343B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175595A (zh) * | 2019-05-31 | 2019-08-27 | 北京金山云网络技术有限公司 | 人体属性识别方法、识别模型训练方法及装置 |
CN110705474A (zh) * | 2019-09-30 | 2020-01-17 | 清华大学 | 一种行人属性识别方法和装置 |
CN111191503A (zh) * | 2019-11-25 | 2020-05-22 | 浙江省北大信息技术高等研究院 | 一种行人属性识别方法、装置、存储介质及终端 |
Non-Patent Citations (5)
Title |
---|
Attribute Recognition by Joint Recurrent Learning of Context and Correlation;J. Wang, X. Zhu, S. Gong and W. Li,;《2017 IEEE International Conference on Computer Vision》;20171029;第531-540页 * |
multi-attribute learning for pedestrian attribute recognition in surveillance scenarios;Dangwei Li,Xiaotang Chen,Kaiqi Huang;《 2015 3rd IAPR Asian Conference on Pattern Recognition》;20151106;第111-115页 * |
基于改进损失函数的多阶段行人属性识别方法;郑少飞,汤进,罗斌,王逍,王文中;《模式识别和人工智能》;20181231;第31卷(第12期);第1086-1090页 * |
基于深度学习的行人属性多标签识别;李亚鹏,万遂人;《中国生物医学工程学报》;20180831;第37卷(第4期);全文 * |
基于深度学习的行人属性识别;袁配配,张良;《激光与光电子学进》;20200331;第57卷(第6期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111401343A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070067B (zh) | 视频分类方法及其模型的训练方法、装置和电子设备 | |
WO2022033150A1 (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN111079639B (zh) | 垃圾图像分类模型构建的方法、装置、设备及存储介质 | |
CN111401343B (zh) | 识别图像中人的属性的方法、识别模型的训练方法和装置 | |
CN108470172B (zh) | 一种文本信息识别方法及装置 | |
CN108288051B (zh) | 行人再识别模型训练方法及装置、电子设备和存储介质 | |
CN112381837B (zh) | 一种图像处理方法及电子设备 | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
CN105303150B (zh) | 实现图像处理的方法和系统 | |
CN107203775B (zh) | 一种图像分类的方法、装置和设备 | |
CN104504366A (zh) | 基于光流特征的笑脸识别系统及方法 | |
CN111401339B (zh) | 识别人脸图像中的人的年龄的方法、装置及电子设备 | |
CN108550065B (zh) | 评论数据处理方法、装置及设备 | |
CN110956615B (zh) | 图像质量评估模型训练方法、装置、电子设备及存储介质 | |
CN111967464B (zh) | 一种基于深度学习的弱监督目标定位方法 | |
CN110135505B (zh) | 图像分类方法、装置、计算机设备及计算机可读存储介质 | |
CN112488218A (zh) | 图像分类方法、图像分类模型的训练方法和装置 | |
CN106529377A (zh) | 一种基于图像的年龄估计方法、装置及系统 | |
CN110909784A (zh) | 一种图像识别模型的训练方法、装置及电子设备 | |
CN113870254B (zh) | 目标对象的检测方法、装置、电子设备及存储介质 | |
CN113902944A (zh) | 模型的训练及场景识别方法、装置、设备及介质 | |
CN111967382A (zh) | 年龄估计方法、年龄估计模型的训练方法及装置 | |
CN112233102A (zh) | 图像样本集中噪声的识别方法、装置、设备及存储介质 | |
CN111915595A (zh) | 图像质量评价方法、图像质量评价模型的训练方法和装置 | |
CN107944363A (zh) | 人脸图像处理方法、系统及服务器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |