CN111666905A - 模型训练方法、行人属性识别方法和相关装置 - Google Patents
模型训练方法、行人属性识别方法和相关装置 Download PDFInfo
- Publication number
- CN111666905A CN111666905A CN202010524708.2A CN202010524708A CN111666905A CN 111666905 A CN111666905 A CN 111666905A CN 202010524708 A CN202010524708 A CN 202010524708A CN 111666905 A CN111666905 A CN 111666905A
- Authority
- CN
- China
- Prior art keywords
- human body
- network
- pedestrian attribute
- body segmentation
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明的实施例提供了一种模型训练方法、行人属性识别方法和相关装置,该方法包括获取训练样本数据;将训练样本数据输入预先建立的行人属性识别模型,行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;将训练样本数据输入共享参数网络进行特征提取,得到共享参数;将共享参数输入人体分割网络进行语义分割,获得人体分割结果;将共享参数和人体分割结果输入行人属性分类网络进行行人属性分类,获得分类结果;依据人体分割结果对共享参数网络和人体分割网络进行参数更新,依据分类结果对共享参数网络和行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。其能够快速的训练模型,并使行人属性识别获得更优的效果。
Description
技术领域
本发明涉及机器学习的行人属性识别领域,具体而言,涉及一种模型训练方法、行人属性识别方法和相关装置。
背景技术
行人属性识别在摄像头安防领域是一种广泛的应用,在传统安防场景中通常使用人体检测配合行人重识别定位人体位置。然而在人体的图片中除了能够进行分类识别外还可以挖掘更多属性,如通过人体判断上下衣颜色、行人的朝向和性别等。
由于在实际场景中检测到的行人数据经常会被各种客观因素所影响,比如无正脸照、光照变化强烈、服装变化、姿态变化、遮挡、拍摄角度不一致以及图片模糊等,使得人体属性识别难度极大提升。因此,如何快速的训练模型,以及如何使行人属性识别获得更优的效果是目前亟需解决的问题。
发明内容
本发明的目的包括,例如,提供了一种模型训练方法、行人属性识别方法和相关装置,其能够快速的训练模型,并使行人属性识别获得更优的效果。
本发明的实施例可以这样实现:
第一方面,本发明实施例提供一种模型训练方法,所述方法包括:
获取训练样本数据;
将所述训练样本数据输入预先建立的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
将所述训练样本数据输入所述共享参数网络进行特征提取,得到共享参数;
将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
依据所述人体分割结果对所述共享参数网络和所述人体分割网络进行参数更新,依据所述分类结果对所述共享参数网络和所述行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。
在可选的实施方式中,依据所述人体分割结果对所述共享参数网络和所述人体分割网络进行参数更新,依据所述分类结果对所述共享参数网络和所述行人属性分类网络进行参数更新,以得到训练后的行人属性识别模型的步骤,包括:
依据所述人体分割结果计算第一损失函数的损失值;
依据所述分类结果计算第二损失函数的损失值;
利用第一迭代器更新所述第一损失函数的初始学习率;
利用第二迭代器更新所述第二损失函数的初始学习率;
利用所述第一损失函数的损失值对所述共享参数网络和所述人体分割网络进行参数更新;
利用所述第二损失函数的损失值对所述共享参数网络和所述行人属性识别模型进行参数更新;
重复上述步骤,直至所述第一损失函数和所述第二损失函数都满足收敛条件,得到训练后的行人属性识别模型。
在可选的实施方式中,所述模型训练方法还包括:
利用所述第一迭代器将所述第二损失函数的初始学习率设置为0;
利用所述第二迭代器将所述第一损失函数的初始学习率设置为0。
在可选的实施方式中,所述预先建立的行人属性识别模型还包括连接网络;
将所述人体分割结果输入所述连接网络进行权重转换,获得所述行人属性分类网络所需的人体部位对应的权重。
在可选的实施方式中,所述连接网络包括人体部位选取层和权重转换层;
所述将所述人体分割结果输入所述连接网络进行权重转换,获得所述行人属性分类网络所需的人体部位对应的权重的步骤,包括:
将所述人体分割结果输入所述人体部位选取层进行选取,获得目标人体分割结果;其中,所述目标人体分割结果与所述行人属性分类网络所需的人体部位关联;
将所述目标人体分割结果输入所述权重转换层进行权重转换,获得所述行人属性分类网络所需的人体部位对应的权重,并将所述行人属性分类网络所需的人体部位对应的权重输入所述行人属性分类网络。
在可选的实施方式中,所述人体分割网络包括残差层和特征处理层;
将所述共享参数输入所述残差层进行特征分离,获得分离参数;
将所述分离参数输入所述特征处理层进行语义分割,获得所述人体分割结果。
在可选的实施方式中,所述行人属性分类网络包括主干属性层和多个分支属性层;
将所述人体分割结果输入所述主干属性层进行背景消除,获得消除背景的共享参数;
将所述人体分割结果和所述消除背景的共享参数输入所述分支属性层进行行人属性分类,获得所述分类结果。
第二方面,本发明实施例提供一种行人属性识别方法,所述方法包括:
获取人体属性数据和人体分割数据;
将所述人体属性数据和人体分割数据输入预先训练的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
将所述人体属性数据和人体分割数据输入所述共享参数网络进行特征提取,得到共享参数;
将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
依据所述分类结果,得到行人属性识别结果。
第三方面,本发明实施例提供一种模型训练装置,所述装置包括:
样本获取模块,用于获取训练样本数据;
样本输入模块,用于将所述训练样本数据输入预先建立的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
第一执行模块,用于将所述训练样本数据输入所述共享参数网络进行特征提取,得到共享参数;
第二执行模块,用于将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
第三执行模块,用于将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
参数更新模块,用于依据所述人体分割结果对所述共享参数网络和所述人体分割网络进行参数更新,依据所述分类结果对所述共享参数网络和所述行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。
第四方面,本发明实施例提供一种行人属性识别装置,所述装置包括:
数据获取模块,用于获取人体属性数据和人体分割数据;
数据输入模块,用于将所述人体属性数据和人体分割数据输入预先训练的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
第一处理模块,用于将所述人体属性数据和人体分割数据输入所述共享参数网络进行特征提取,得到共享参数;
第二处理模块,用于将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
第三处理模块,用于将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
结果获得模块,用于依据所述分类结果,得到行人属性识别结果。
第五方面,本发明实施例提供一种电子设备,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如前述实施方式中任一项所述的模型训练方法,或者,如前述实施方式所述的行人属性识别方法。
第六方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如前述实施方式中任一项所述的模型训练方法,或者,如前述实施方式所述的行人属性识别方法。
本发明实施例的有益效果包括,例如:
在模型训练的过程中,分别对人体分割网络和行人属性分类网络进行训练,同时优化人体分割结果和分类结果,不仅提高了训练速度,还提高了准确率。同时,行人属性识别模型有效结合了人体分割网络和行人属性分类网络,可以保证行人属性能够得到有效的注意力机制,进而提高了行人属性识别的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种模型训练方法的流程示意图;
图2为本申请实施例提供的一种行人属性识别模型的结构示意图;
图3为本申请实施例提供的另一种模型训练方法的流程示意图;
图4为本申请实施例提供的一种行人属性识别方法的流程示意图;
图5为本申请实施例提供的一种模型训练装置的方框示意图;
图6为本申请实施例提供的一种行人属性识别装置的方框示意图;
图7为本申请实施例提供的一种电子设备的方框示意图。
图标:400-电子设备;410-处理器;420-存储器;430-通信接口;500-模型训练装置;510-样本获取模块;520-样本输入模块;530-第一执行模块;540-第二执行模块;550-第三执行模块;560-参数更新模块;600-行人属性识别装置;610-数据获取模块;620-数据输入模块;630-第一处理模块;640-第二处理模块;650-第三处理模块;660-结果获得模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,若出现术语“上”、“下”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,若出现术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在不冲突的情况下,本发明的实施例中的特征可以相互结合。
现有技术中,在使用人体分割网络或其他预处理方式增加人体部位的注意力机制时,会大大增加行人属性识别训练的时间。且所需分割网络单独训练后参与行人属性,这不仅对分割网络的要求很高,分割网络的误差可能会对行人属性识别产生不利的影响。同时,人体分割网络和行人属性识别相结合时,无共享主干网络,或共享主干网络不随着训练而更新,使得最终行人属性识别效果相对较差。
基于背景技术和上述的问题,为了提高行人属性识别模型的训练速度,以及使行人属性识别获得更优的效果。本申请实施例提供一种模型训练方法,请参考图1,图1为本申请实施例提供的一种模型训练方法的流程示意图。该模型训练方法应用于电子设备,该模型训练方法包括:
S101,获取训练样本数据。
在本实施例中,训练样本数据包括人体属性训练数据和人体分割训练数据。其中,人体属性训练数据可根据行人属性的需要进行准备,例如,人体属性训练数据可包括行人性别、行人上衣颜色及行人下衣颜色等数据。人体分割训练数据不仅具有前景数据和背景数据,且前景数据包括头部数据、上半身数据、大臂数据、小臂数据、大腿数据、小腿数据和脚数据等8个局部部位数据。
在本实施例中,人体属性训练数据不仅包括图片数据,还包括每张图片对应的标签和属性权重数据。人体分割训练数据包括每张分割好的图片数据和每张分割好的图片对应的语义分割掩码(mask)标签和分割权重数据。
其中,人体属性训练数据包括的标签可以分为两类,其中一类为二分类标签,二分类标签的标注仅有0和1,且人体属性训练数据包括的每张图仅对应一个标签。第二类为多分类标签,多分类标签为多个0和一个1,即多种属性中仅有一个正确。二分类标签和多分类标签分别对应不同类型的分类任务。人体分割训练数据包括的语义分割mask标签可以包括8类分割标签,可对应为头部、上半身、大臂、小臂、大腿、小腿、脚和背景。
在本实施例中,获取到人体属性训练数据和人体分割训练数据后,还可以对人体属性训练数据和人体分割训练数据进行数据增加、减均值归一化等数据处理。将处理好的人体属性训练数据和人体分割训练数据进行分组,获得多个训练样本数据。每个训练样本数据均包括每组人体属性训练数据和人体分割训练数据,每个训练样本数据采取类内数据“占比越小权重越大”的原则,取训练时正样本权重w=1/(2﹡weight),对于二分类的属性则还需要计算负样本权重w=1/(2﹡(1-weight))。其中,weight为属性权重数据和分割权重数据。
S102,将训练样本数据输入预先建立的行人属性识别模型,行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络。
在本实施例中,行人属性识别模块可以在resnet50(深度残差网络)的基础上进行改进,可以采用resnet50结构为主干网络。请参照图2,行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络,令人体分割网络和行人属性分类网络共同使用共享参数网络,再将人体分割网络和行人属性分类网络进行融合以实现行人属性识别模块的注意力机制。下面通过步骤S103-S105进行详细介绍。
S103,将训练样本数据输入共享参数网络进行特征提取,得到共享参数。
如图2所示,共享参数网络包括卷积块(convunit)和多个第一残差块(residualunit),卷积块包括conv层、BN(Batch Normalization)层和ReLU(Rectified Linear Unit,激活函数)层,第一残差块包括多个bottle block。在本实施例中,第一残差块可以采用三个,具体可以为残差块A、残差块B和残差块C。训练样本数据输入卷积块和多个第一残差块进行特征提取,得到共享参数。
其中,共享参数可以由以下公式表示:
Θshare=ResBlock2(ResBlock1(Φ));
其中,Φ为人体属性训练数据的图片数据和人体分割训练数据的图片数据经数据变换后的参数,不包括标签。ResBlock1为残差块A,ResBlock2为残差块B,Θshare为共享参数。
S104,将共享参数输入人体分割网络进行语义分割,获得人体分割结果。
在本实施例中,如图2所示,人体分割网络包括残差层和特征处理层。将共享参数输入残差层进行特征分离,获得分离参数;将分离参数输入特征处理层进行语义分割,获得人体分割结果。
可以理解,残差层可以起到一个特征分离的作用,可以在训练人体分割网络时不会对行人属性分类网络有不良干扰。
特征处理层可以为Deeplab-V3(多尺度分割物体)网络中的特征处理模块,采用Deeplab-V3网络的特征处理模块可以使得行人属性识别模型在保证分割效果的情况下,整体结构不会非常复杂。同时,训练速度也会较快。其中,特征处理层为各种空洞卷积的组合,是得到的特征图中每个像素可以获得更大的感受野。
人体分割结果可以由以下公式表示:
Θseg=fseg(Θshare);
其中,fseg为残差层和特征处理层的统一描述,Θshare为共享参数。
在本实施例中,输入到残差层的共享参数可以为下采样到原图大小1/8时的特征图,这样使得输入残差层的输入经验证较优。因为浅层网络的输出经过的特征提取层有限,获得的信息太少使得分割效果不佳,而较深层网络的输出距离行人属性分类网络又过近,会对行人属性分类网络的分类效果产生不利影响。
S105,将共享参数和人体分割结果输入行人属性分类网络进行行人属性分类,获得分类结果。
在本实施例中,如图2所示,行人属性分类网络包括主干属性层和多个分支属性层。将人体分割结果输入主干属性层进行背景消除,获得消除背景的共享参数;将人体分割结果和消除背景的共享参数输入分支属性层进行行人属性分类,获得分类结果。
可以理解,人体分割网络输出的人体分割结果与主干属性层和多个分支属性层的结合均采用逐像素相乘法。人体分割结果与主干属性层的结合可以理解为注意力机制与行人属性的整体结合,人体分割结果与分支属性层的结合可以理解为注意力机制与行人属性的局部结合。
其中,人体分割结果与主干属性层的结合,是将共享参数的整张特征图中的人体部位进行有效提取,以实现消除背景的目的。人体分割结果与分支属性层的结合可以仅关注局部的人体部位,例如,通过其中一个分支属性层的分类结果需要得到的行人属性识别结果为是否戴帽子,那么该分支属性层需要关注的人体部位为头部,那么对应的人体分割结果为头部的人体分割结果。
在本实施例中,主干属性层包括多个残差块,每个分支属性层包括conv块、全局卷积、全连接层分类器。
S106,依据人体分割结果对共享参数网络和人体分割网络进行参数更新,依据分类结果对共享参数网络和行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。
在本实施例中,行人属性识别模型的训练分成两部分进行,一部分为人体分割训练,另一部分为行人属性训练。两部分分别采用不同的训练样本数据、末端分支、损失函数及训练策略,两者在训练过程中交替进行训练。例如,一种训练方式可以为先依据人体分割结果对共享参数网络和人体分割网络进行参数更新,再依据分类结果对共享参数网络和行人属性分类网络进行参数更新。另一种训练方式可以为先依据分类结果对共享参数网络和行人属性分类网络进行参数更新,再依据人体分割结果对共享参数网络和人体分割网络进行参数更新。
请参照图3,为步骤S106的子步骤流程示意图,包括以下子步骤:
S201,依据人体分割结果计算第一损失函数的损失值。
在本实施例中,如图2所示,人体分割网络还包括上采样层和第一损失函数。人体分割结果输入上采样层进行图像放大处理,得到放大后的人体分割结果;放大后的人体分割结果输入第一损失函数进行计算,得到第一损失函数的损失值。
可以理解,上采样层采用upsample层,其采样方式为双线性差值。第一损失函数可以为交叉熵损失函数。
S202,依据分类结果计算第二损失函数的损失值。
在本实施例中,每个分支属性层还包括第二损失函数,每个分支属性层的第二损失函数可以根据需要设定,即不同分支属性层的第二损失函数可以相同也可以相同。第二损失函数可以为二元交叉熵损失函数(Binary Cross entropy loss,BCE_loss)和交叉熵损失函数(cross_entropy_loss)等。每个分支属性层根据其训练的困难程度以及数据量等因素,手动设置其权重。
S203,利用第一迭代器更新第一损失函数的初始学习率。
在本实施例中,第一迭代器可以为SGD(Stochastic Gradient Descent,随机梯度下降法)优化器。第一迭代器用于训练人体分割网络,第一迭代器可以对共享参数网络、人体分割网络和行人属性分类网络的初始学习率分别设置。其中,利用第一迭代器将第二损失函数的初始学习率设置为0,即利用第一迭代器将行人属性分类网络的初始学习率设置为0;利用第一迭代器可以将共享参数网络的初始学习率设置为P1,利用第一迭代器可以将人体分割网络的初始学习率设置为P2。其中,P1可以设置为1e-4,P2可以设置为1e-3。当然,在其它实施例中P1和P2还可以设置为其它值。
在本实施例中,利用第一迭代器更新共享参数网络的初始学习率和人体分割网络的初始学习率的方式可以为multi step(阶梯式)方式下降。具体地,可以以每次下降到原学习率的0.1。
S204,利用第二迭代器更新第二损失函数的初始学习率。
在本实施例中,第二迭代器也可以为SGD优化器。第二迭代器用于训练行人属性分类网络,第二迭代器也可以对共享参数网络、人体分割网络和行人属性分类网络的初始学习率分别设置。其中利用第二迭代器将第一损失函数的初始学习率设置为0,即利用第二迭代器将人体分割网络的初始学习率设置为0;利用第二迭代器可以将共享参数网络的初始学习率设置为P3,利用第二迭代器可以将行人属性分类网络的初始学习率设置为P4。其中,P3可以设置为1e-4,P4可以设置为1e-3。当然,在其它实施例中P3和P4还可以设置为其它值。
在本实施例中,利用第二迭代器更新共享参数网络的初始学习率和行人属性分类网络的初始学习率的方式可以为multi step(阶梯式)方式下降。具体地,可以以每次下降到原学习率的0.1。
S205,利用第一损失函数的损失值对共享参数网络和人体分割网络进行参数更新。
S206,利用第二损失函数的损失值对共享参数网络和行人属性识别模型进行参数更新。
S207,重复步骤S201-S206,直至第一损失函数和所述第二损失函数都满足收敛条件,得到训练后的行人属性识别模型。
在本实施例中,第二损失函数的损失值为行人性别、行人上衣颜色等二分类或多分类的各种属性的所有损失值的加权和。即判断满足收敛条件的第二损失函数为每个分支属性层的第二损失函数的损失值进行加权和。在本申请中,二分类的权重可以设为1.5,多分类的权重可以设置为1。
在本实施例中,如图2所示,行人属性识别模块还包括连接网络,将人体分割结果输入连接网络进行权重转换,获得行人属性分类网络所需的人体部位对应的权重。
在本实施例中,连接网络包括人体部位选取层和权重转换层;将人体分割结果输入人体部位选取层进行选取,获得目标人体分割结果;其中,目标人体分割结果与行人属性分类网络所需的人体部位关联;将目标人体分割结果输入权重转换层进行权重转换,获得行人属性分类网络所需的人体部位对应的权重,并将行人属性分类网络所需的人体部位对应的权重输入行人属性分类网络。
可以理解,连接网络负责将人体分割网络与行人属性分类网络相连,将人体分割结果分别输入至主干属性层和多个分支属性层。
其中,当人体分割结果输入主干属性层时,人体部位选取层会选取行人属性的对应的所有分割通道。若人体分割结果中的行人属性包括头部、上半身、大臂、小臂、大腿、小腿和脚,那么人体部位选取层应选取头部、上半身、大臂、小臂、大腿、小腿和脚对应的分割通道,即人体部位选取层应选取头部、上半身、大臂、小臂、大腿、小腿和脚为对应的目标人体分割结果。当人体分割结果输入分支属性层时,人体部位选取层会选取分支属性层所需的人体部位;若分支属性层为训练是否戴帽子,人体部位选取层则选取头部对应的分割通道,即人体部位选取层选取头部为对应的目标人体分割结果;若分支属性层为训练上衣颜色,人体部位选取层则选取上半身对应的分割通道,即人体部位选取层选取上半身为对应的目标人体分割结果。
权重转换层用于将目标人体分割结果对应的语义分割掩码标签解释为权重,使得行人属性分类网络需要注意的人体部位能够获得更大权重。
在本实施例中,权重转换层可以采用sigmoid激活函数(Sigmoid function,S型生长曲线),将人体部位权重约束到0-1之间。且权重转换层使用的sigmoid激活函数为并联,不会出现梯度反向传播失效的问题。
进一步地,为了使目标人体分割结果与主干属性层和多个分支属性层输入的共享参数的特征图形状一致,连接网络还包括通道对齐层。利用通道对齐层将目标人体分割结果对应的分割通道与共享参数对应的通道进行调节,以使目标人体分割结果对应的分割通道与共享参数对应的通道对齐。
在本实施例中,通道对齐层采用的是卷积核1x1大小且步长为1的卷积层。
在本实施例中,连接网络可以记为X,X=sigmoid(Conv1x1(gseg(Θseg)))。Gseg用于表示人体部位选取层的选取过程,Conv1x1为通道对齐层采用的卷积核,sigmoid为激活函数。
其中,输入主干属性层的目标人体分割结果记为Xtrunk,输入每个分支属性层的目标分割结果记为Xi branch。Xtrunk为除背景外所有的人体部位,Xi branch为根据不同分支属性层所需的人体部位。
在本实施例中。主干属性层获得的消除背景的共享参数可以由以下公式表示:
在本实施例中,相比先训练人体分割网络后固定,再训练行人属性分类网络的方法,本申请交替的对人体分割网络和行人属性分类网络进行训练,不仅训练速度加快,而且能够提高1%-2%的准确率。
为了得到行人属性识别结果,本申请实施例提供了一种行人属性识别方法,请参见图4,图4为本申请实施例提供的一种行人属性识别方法的流程示意图。该行人属性识别方法应用于行人属性识别模型,该行人属性识别方法包括:
S301,获取人体属性数据和人体分割数据。
S302,将人体属性数据和人体分割数据输入预先训练的行人属性识别模型,行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络。
S303,将人体属性数据和人体分割数据输入共享参数网络进行特征提取,得到共享参数。
S304,将共享参数输入人体分割网络进行语义分割,获得人体分割结果。
S305,将共享参数和人体分割结果输入行人属性分类网络进行行人属性分类,获得分类结果。
S306,依据分类结果,得到行人属性识别结果。
使用本申请的行人属性识别模型能够有效结合人体分割网络和行人属性分类网络,可以保证行人属性能够得到有效的注意力机制,进而提高了行人属性识别结果的准确率。采用本申请的模型训练方法,与不添加注意力机制信息的行人属性识别结果相比,本申请获得的行人属性识别结果能够提高1%-5%的准确率。
为了实现上述的步骤S101-S106,本申请实施例提供了一种模型训练装置,请参考图5,图5为本申请实施例提供的一种模型训练装置500的方框示意图。该模型训练装置500包括样本获取模块510、样本输入模块520、第一执行模块530、第二执行模块540、第三执行模块550和参数更新模块560。
样本获取模块510用于获取训练样本数据。
可以理解,样本获取模块510用于执行上述步骤S101的内容。
样本输入模块520用于将训练样本数据输入预先建立的行人属性识别模型,行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络。
可以理解,样本输入模块520用于执行上述步骤S102的内容。
第一执行模块530用于将训练样本数据输入共享参数网络进行特征提取,得到共享参数。
可以理解,第一执行模块530用于执行上述步骤S103的内容。
第二执行模块540用于将共享参数输入人体分割网络进行语义分割,获得人体分割结果。
可以理解,第二执行模块540用于执行上述步骤S104的内容。
第三执行模块550用于将共享参数和人体分割结果输入行人属性分类网络进行行人属性分类,获得分类结果。
可以理解,第三执行模块550用于执行上述步骤S105的内容。
参数更新模块560用于依据人体分割结果对共享参数网络和人体分割网络进行参数更新,依据分类结果对共享参数网络和行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。
可以理解,参数更新模块560用于执行上述步骤S106、步骤S201-207的内容。
为了实现上述步骤S301-306,本申请实施例提供了一种行人属性识别装置,请参照图6,图6为本申请实施例提供的一种行人属性识别装置600的方框示意图。该行人属性识别装置600包括数据获取模块610、数据输入模块620、第一处理模块630、第二处理模块640、第三处理模块650和结果获得模块660。
数据获取模块610用于获取人体属性数据和人体分割数据。
可以理解,数据获取模块610用于执行上述步骤S301的内容。
数据输入模块620用于将人体属性数据和人体分割数据输入预先训练的行人属性识别模型,行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络。
可以理解,数据输入模块620用于执行上述步骤S302的内容。
第一处理模块630用于将人体属性数据和人体分割数据输入共享参数网络进行特征提取,得到共享参数。
可以理解,第一处理模块630用于执行上述步骤S303的内容。
第二处理模块640用于将共享参数输入人体分割网络进行语义分割,获得人体分割结果。
可以理解,第二处理模块640用于执行上述步骤S304的内容。
第三处理模块650用于将共享参数和人体分割结果输入行人属性分类网络进行行人属性分类,获得分类结果。
可以理解,第三处理模块650用于执行上述步骤S305的内容。
结果获得模块660用于依据分类结果,得到行人属性识别结果。
可以理解,结果获得模块660用于执行上述步骤S306的内容。
本申请实施例还提供一种电子设备,如图7,图7为本申请实施例提供的一种电子设备400的方框示意图。该电子设备400包括存储器420、处理器410和通信接口430。该存储器420、处理器410和通信接口430相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
存储器420可用于存储软件程序及模块,如本申请实施例所提供的任一项模型训练方法或行人属性识别方法对应的程序指令/模块,处理器410通过执行存储在存储器420内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口430可用于与其他节点设备进行信令或数据的通信。在本申请中该电子设备400可以具有多个通信接口430。
其中,存储器420可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器410可以是一种集成电路芯片,具有信号处理能力。该处理器410可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
电子设备400可以实现本申请提供的任一项模型训练方法或行人属性识别方法。该电子设备400可以是,但不限于,手机、平板电脑、笔记本电脑、服务器或其它具有处理能力的电子设备400。
本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器410执行时实现如前述实施方式中任一项模型训练方法或行人属性识别方法。该计算机可读存储介质可以是,但不限于,U盘、移动硬盘、ROM、RAM、PROM、EPROM、EEPROM、磁碟或者光盘等各种可以存储程序代码的介质。
综上所述,本申请提供了一种模型训练方法、行人属性识别方法和相关装置,该模型训练方法包括:获取训练样本数据;将训练样本数据输入预先建立的行人属性识别模型,行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;将训练样本数据输入共享参数网络进行特征提取,得到共享参数;将共享参数输入人体分割网络进行语义分割,获得人体分割结果;将共享参数和人体分割结果输入行人属性分类网络进行行人属性分类,获得分类结果;依据人体分割结果对共享参数网络和人体分割网络进行参数更新,依据分类结果对共享参数网络和行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。在模型训练的过程中,分别对人体分割网络和行人属性分类网络进行训练,同时优化人体分割结果和分类结果,不仅提高了训练速度,还提高了准确率。同时,行人属性识别模型有效结合了人体分割网络和行人属性分类网络,可以保证行人属性能够得到有效的注意力机制,进而提高了行人属性识别的准确率。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (12)
1.一种模型训练方法,其特征在于,所述方法包括:
获取训练样本数据;
将所述训练样本数据输入预先建立的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
将所述训练样本数据输入所述共享参数网络进行特征提取,得到共享参数;
将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
依据所述人体分割结果对所述共享参数网络和所述人体分割网络进行参数更新,依据所述分类结果对所述共享参数网络和所述行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。
2.根据权利要求1所述的模型训练方法,其特征在于,依据所述人体分割结果对所述共享参数网络和所述人体分割网络进行参数更新,依据所述分类结果对所述共享参数网络和所述行人属性分类网络进行参数更新,以得到训练后的行人属性识别模型的步骤,包括:
依据所述人体分割结果计算第一损失函数的损失值;
依据所述分类结果计算第二损失函数的损失值;
利用第一迭代器更新所述第一损失函数的初始学习率;
利用第二迭代器更新所述第二损失函数的初始学习率;
利用所述第一损失函数的损失值对所述共享参数网络和所述人体分割网络进行参数更新;
利用所述第二损失函数的损失值对所述共享参数网络和所述行人属性识别模型进行参数更新;
重复上述步骤,直至所述第一损失函数和所述第二损失函数都满足收敛条件,得到训练后的行人属性识别模型。
3.根据权利要求2所述的模型训练方法,其特征在于,所述模型训练方法还包括:
利用所述第一迭代器将所述第二损失函数的初始学习率设置为0;
利用所述第二迭代器将所述第一损失函数的初始学习率设置为0。
4.根据权利要求1所述的模型训练方法,其特征在于,所述预先建立的行人属性识别模型还包括连接网络;
将所述人体分割结果输入所述连接网络进行权重转换,获得所述行人属性分类网络所需的人体部位对应的权重。
5.根据权利要求4所述的模型训练方法,其特征在于,所述连接网络包括人体部位选取层和权重转换层;
所述将所述人体分割结果输入所述连接网络进行权重转换,获得所述行人属性分类网络所需的人体部位对应的权重的步骤,包括:
将所述人体分割结果输入所述人体部位选取层进行选取,获得目标人体分割结果;其中,所述目标人体分割结果与所述行人属性分类网络所需的人体部位关联;
将所述目标人体分割结果输入所述权重转换层进行权重转换,获得所述行人属性分类网络所需的人体部位对应的权重,并将所述行人属性分类网络所需的人体部位对应的权重输入所述行人属性分类网络。
6.根据权利要求1所述的模型训练方法,其特征在于,所述人体分割网络包括残差层和特征处理层;
将所述共享参数输入所述残差层进行特征分离,获得分离参数;
将所述分离参数输入所述特征处理层进行语义分割,获得所述人体分割结果。
7.根据权利要求1所述的模型训练方法,其特征在于,所述行人属性分类网络包括主干属性层和多个分支属性层;
将所述人体分割结果输入所述主干属性层进行背景消除,获得消除背景的共享参数;
将所述人体分割结果和所述消除背景的共享参数输入所述分支属性层进行行人属性分类,获得所述分类结果。
8.一种行人属性识别方法,其特征在于,所述方法包括:
获取人体属性数据和人体分割数据;
将所述人体属性数据和人体分割数据输入预先训练的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
将所述人体属性数据和人体分割数据输入所述共享参数网络进行特征提取,得到共享参数;
将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
依据所述分类结果,得到行人属性识别结果。
9.一种模型训练装置,其特征在于,所述装置包括:
样本获取模块,用于获取训练样本数据;
样本输入模块,用于将所述训练样本数据输入预先建立的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
第一执行模块,用于将所述训练样本数据输入所述共享参数网络进行特征提取,得到共享参数;
第二执行模块,用于将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
第三执行模块,用于将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
参数更新模块,用于依据所述人体分割结果对所述共享参数网络和所述人体分割网络进行参数更新,依据所述分类结果对所述共享参数网络和所述行人属性分类网络进行参数更新,得到训练后的行人属性识别模型。
10.一种行人属性识别装置,其特征在于,所述装置包括:
数据获取模块,用于获取人体属性数据和人体分割数据;
数据输入模块,用于将所述人体属性数据和人体分割数据输入预先训练的行人属性识别模型,所述行人属性识别模型包括共享参数网络、人体分割网络和行人属性分类网络;
第一处理模块,用于将所述人体属性数据和人体分割数据输入所述共享参数网络进行特征提取,得到共享参数;
第二处理模块,用于将所述共享参数输入所述人体分割网络进行语义分割,获得人体分割结果;
第三处理模块,用于将所述共享参数和所述人体分割结果输入所述行人属性分类网络进行行人属性分类,获得分类结果;
结果获得模块,用于依据所述分类结果,得到行人属性识别结果。
11.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-7中任一项所述的模型训练方法,或者,如权利要求8所述的行人属性识别方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-7中任一项所述的模型训练方法,或者,如权利要求8所述的行人属性识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010524708.2A CN111666905B (zh) | 2020-06-10 | 2020-06-10 | 模型训练方法、行人属性识别方法和相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010524708.2A CN111666905B (zh) | 2020-06-10 | 2020-06-10 | 模型训练方法、行人属性识别方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111666905A true CN111666905A (zh) | 2020-09-15 |
CN111666905B CN111666905B (zh) | 2022-12-02 |
Family
ID=72386770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010524708.2A Active CN111666905B (zh) | 2020-06-10 | 2020-06-10 | 模型训练方法、行人属性识别方法和相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111666905B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221662A (zh) * | 2021-04-14 | 2021-08-06 | 上海芯翌智能科技有限公司 | 人脸识别模型的训练方法及装置、存储介质、终端 |
CN113392887A (zh) * | 2021-05-31 | 2021-09-14 | 北京达佳互联信息技术有限公司 | 图片识别方法、装置、电子设备及存储介质 |
CN114065952A (zh) * | 2021-11-29 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 模型训练的方法和装置 |
WO2023009054A1 (zh) * | 2021-07-29 | 2023-02-02 | 脸萌有限公司 | 用于对象属性分类模型训练的方法、设备和存储介质 |
CN117037218A (zh) * | 2023-10-08 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 对象属性识别方法、相关装置、设备和介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018071424A1 (en) * | 2016-10-10 | 2018-04-19 | University Of Maryland, College Park | All-in-one convolutional neural network for face analysis |
CN108288038A (zh) * | 2018-01-19 | 2018-07-17 | 东华大学 | 基于场景分割的夜间机器人运动决策方法 |
CN108537264A (zh) * | 2018-03-30 | 2018-09-14 | 西安电子科技大学 | 基于深度学习的异源图像匹配方法 |
CN108764306A (zh) * | 2018-05-15 | 2018-11-06 | 深圳大学 | 图像分类方法、装置、计算机设备和存储介质 |
EP3404578A1 (en) * | 2017-05-17 | 2018-11-21 | Samsung Electronics Co., Ltd. | Sensor transformation attention network (stan) model |
CN108985181A (zh) * | 2018-06-22 | 2018-12-11 | 华中科技大学 | 一种基于检测分割的端对端人脸标注方法 |
CN109614925A (zh) * | 2017-12-07 | 2019-04-12 | 深圳市商汤科技有限公司 | 服饰属性识别方法和装置、电子设备、存储介质 |
CN109726619A (zh) * | 2017-10-31 | 2019-05-07 | 深圳市祈飞科技有限公司 | 一种基于参数共享的卷积神经网络人脸识别方法及系统 |
CN110070044A (zh) * | 2019-04-23 | 2019-07-30 | 中国民航大学 | 基于深度学习的行人属性识别方法 |
CN110188754A (zh) * | 2019-05-29 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 图像分割方法和装置、模型训练方法和装置 |
US20190311202A1 (en) * | 2018-04-10 | 2019-10-10 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN110796166A (zh) * | 2019-09-25 | 2020-02-14 | 浙江大学 | 一种基于注意力机制的多任务图像处理方法 |
CN111046759A (zh) * | 2019-11-28 | 2020-04-21 | 深圳市华尊科技股份有限公司 | 人脸识别方法及相关装置 |
-
2020
- 2020-06-10 CN CN202010524708.2A patent/CN111666905B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018071424A1 (en) * | 2016-10-10 | 2018-04-19 | University Of Maryland, College Park | All-in-one convolutional neural network for face analysis |
EP3404578A1 (en) * | 2017-05-17 | 2018-11-21 | Samsung Electronics Co., Ltd. | Sensor transformation attention network (stan) model |
CN109726619A (zh) * | 2017-10-31 | 2019-05-07 | 深圳市祈飞科技有限公司 | 一种基于参数共享的卷积神经网络人脸识别方法及系统 |
CN109614925A (zh) * | 2017-12-07 | 2019-04-12 | 深圳市商汤科技有限公司 | 服饰属性识别方法和装置、电子设备、存储介质 |
CN108288038A (zh) * | 2018-01-19 | 2018-07-17 | 东华大学 | 基于场景分割的夜间机器人运动决策方法 |
CN108537264A (zh) * | 2018-03-30 | 2018-09-14 | 西安电子科技大学 | 基于深度学习的异源图像匹配方法 |
US20190311202A1 (en) * | 2018-04-10 | 2019-10-10 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN108764306A (zh) * | 2018-05-15 | 2018-11-06 | 深圳大学 | 图像分类方法、装置、计算机设备和存储介质 |
CN108985181A (zh) * | 2018-06-22 | 2018-12-11 | 华中科技大学 | 一种基于检测分割的端对端人脸标注方法 |
CN110070044A (zh) * | 2019-04-23 | 2019-07-30 | 中国民航大学 | 基于深度学习的行人属性识别方法 |
CN110188754A (zh) * | 2019-05-29 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 图像分割方法和装置、模型训练方法和装置 |
CN110796166A (zh) * | 2019-09-25 | 2020-02-14 | 浙江大学 | 一种基于注意力机制的多任务图像处理方法 |
CN111046759A (zh) * | 2019-11-28 | 2020-04-21 | 深圳市华尊科技股份有限公司 | 人脸识别方法及相关装置 |
Non-Patent Citations (2)
Title |
---|
LIANG-CHIEH CHEN 等: "Encoder-Decoder with Atrou Convolution for Semantic Image Segmentations Separable", 《ARXIV》 * |
李亚 等: "一种轻量高效的人脸丰富属性识别方法", 《计算机工程》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221662A (zh) * | 2021-04-14 | 2021-08-06 | 上海芯翌智能科技有限公司 | 人脸识别模型的训练方法及装置、存储介质、终端 |
CN113392887A (zh) * | 2021-05-31 | 2021-09-14 | 北京达佳互联信息技术有限公司 | 图片识别方法、装置、电子设备及存储介质 |
WO2023009054A1 (zh) * | 2021-07-29 | 2023-02-02 | 脸萌有限公司 | 用于对象属性分类模型训练的方法、设备和存储介质 |
CN114065952A (zh) * | 2021-11-29 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 模型训练的方法和装置 |
CN117037218A (zh) * | 2023-10-08 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 对象属性识别方法、相关装置、设备和介质 |
CN117037218B (zh) * | 2023-10-08 | 2024-03-15 | 腾讯科技(深圳)有限公司 | 对象属性识别方法、相关装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111666905B (zh) | 2022-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111666905B (zh) | 模型训练方法、行人属性识别方法和相关装置 | |
US10366313B2 (en) | Activation layers for deep learning networks | |
CN109961009B (zh) | 基于深度学习的行人检测方法、系统、装置及存储介质 | |
Lu et al. | Dense and sparse reconstruction error based saliency descriptor | |
CN110399890B (zh) | 图像识别方法、装置、电子设备及可读存储介质 | |
CN109740534B (zh) | 图像处理方法、装置及处理设备 | |
WO2020199477A1 (zh) | 基于多模型融合的图像标注方法、装置、计算机设备及存储介质 | |
US9633282B2 (en) | Cross-trained convolutional neural networks using multimodal images | |
CN109145766B (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
CN108229591B (zh) | 神经网络自适应训练方法和装置、设备、程序和存储介质 | |
US20200334486A1 (en) | System and a method for semantic level image retrieval | |
CN112052186B (zh) | 目标检测方法、装置、设备以及存储介质 | |
EP4099217A1 (en) | Image processing model training method and apparatus, device, and storage medium | |
CN109086753B (zh) | 基于双通道卷积神经网络的交通标志识别方法、装置 | |
CN113011144B (zh) | 表单信息的获取方法、装置和服务器 | |
Yan et al. | Multiscale convolutional neural networks for hand detection | |
CN111723762B (zh) | 人脸属性识别方法、装置、电子设备及存储介质 | |
CN112418135A (zh) | 人体行为识别方法、装置、计算机设备及可读存储介质 | |
CN111415373A (zh) | 基于孪生卷积网络的目标跟踪与分割方法、系统及介质 | |
CN111797862A (zh) | 任务处理方法、装置、存储介质和电子设备 | |
CN108288023B (zh) | 人脸识别的方法和装置 | |
CN109213515B (zh) | 多平台下埋点归一方法及装置和电子设备 | |
CN112686129B (zh) | 一种人脸识别系统及方法 | |
CN111931557B (zh) | 瓶装饮品的规格识别方法、装置、终端设备及可读存介质 | |
CN110334679B (zh) | 人脸点处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |