CN110852276B - 一种基于多任务深度学习的行人再识别方法 - Google Patents

一种基于多任务深度学习的行人再识别方法 Download PDF

Info

Publication number
CN110852276B
CN110852276B CN201911102809.4A CN201911102809A CN110852276B CN 110852276 B CN110852276 B CN 110852276B CN 201911102809 A CN201911102809 A CN 201911102809A CN 110852276 B CN110852276 B CN 110852276B
Authority
CN
China
Prior art keywords
network
pedestrian
layer
deep learning
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911102809.4A
Other languages
English (en)
Other versions
CN110852276A (zh
Inventor
刘静
徐晓刚
李冠华
管慧艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yunqi Smart Vision Technology Co ltd
Original Assignee
Hangzhou Yunqi Smart Vision Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yunqi Smart Vision Technology Co ltd filed Critical Hangzhou Yunqi Smart Vision Technology Co ltd
Priority to CN201911102809.4A priority Critical patent/CN110852276B/zh
Publication of CN110852276A publication Critical patent/CN110852276A/zh
Application granted granted Critical
Publication of CN110852276B publication Critical patent/CN110852276B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Abstract

本发明公开了一种基于多任务深度学习的行人再识别方法,包括以下步骤:构建多任务深度学习网络,包括骨干网络和三个子任务网络,所述子任务网络包括全局特征网络、人体部件分割网络和行人属性网络;分别构建三个子任务网络的损失函数,加权求和得到多任务深度学习网络的损失函数;准备每个子任务网络的训练数据集,并进行训练;将多任务深度学习网络中的子任务网络输出的特征向量拼接,作为多任务深度学习网络最终的输出特征。本发明提高了行人再识别的准确率和模型的泛化能力。

Description

一种基于多任务深度学习的行人再识别方法
技术领域
本发明涉及行人再识别技术领域,尤其涉及一种基于多任务深度学习的行人再识别方法。
背景技术
行人再识别旨在通过计算查询图像和图库图像之间的相似性来发现同一个人是否再次出现在视频视野范围内。目前关于行人再识别的研究大多采用深度学习网络提取行人图片特征的方法,这些特征包括全局和局部特征,多通道特征等。尽管行人再识别研究在过去几年取得了重大进展,但在实际应用中仍然面临着一系列困难。其中最突出的一个难点就是,深度学习训练的模型泛化能力差,在实际场景的应用中难以在图库图像中识别出查询图像。其原因是深度学习网络学习到的图片特征受训练图片风格影响较大,实际场景中行人图片质量会受行人姿势,观察视点,遮挡,照明变化和背景影响,识别难度较大。
发明内容
本发明的目的在于提供一种基于多任务深度学习的行人再识别方法,提高了行人再识别的准确率和模型的泛化能力。
为实现上述目的,本发明提供如下技术方案:
一种基于多任务深度学习的行人再识别方法,其特征在于,包括以下步骤:
S1,构建多任务深度学习网络,包括骨干网络和三个子任务网络,所述子任务网络包括全局特征网络、人体部件分割网络和行人属性网络;
S2,分别构建三个子任务网络的损失函数,加权求和得到多任务深度学习网络的损失函数;
S3,准备每个子任务网络的训练数据集,并进行训练;
S4,将多任务深度学习网络中的子任务网络输出的特征向量拼接,作为多任务深度学习网络最终的输出特征。
进一步的,所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接。
进一步的,所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。
进一步的,所述行人属性网络包括依次连接的分割层、全局平均池化层、第一向量拼接层、全连接层、softmax层和第二向量拼接层;所述分割层,将输入水平分割成6块;所述全局平均池化层,将分割后的块分别进行平均池化;所述第一向量拼接层,将平均池化得到的向量拼接成1个向量;所述全连接层,数量与行人属性的数量相同,将拼接后的向量转化为行人属性结果向量;所述softmax层,将多个行人属性结果向量进行归一化;所述第二向量拼接层,将归一化后的多个行人属性结果向量拼接成一个向量作为属性输出向量。
进一步的,所述行人属性包括性别,年龄,头发长度,袖子长度,下身衣服长度,下身衣服类型,是否佩戴帽子,是否背包,是否拎包,是否手拿包,上身衣服颜色以及下身衣服颜色。
进一步的,所述全局特征网络的损失函数为:
L(g)=L(id)+L(tri)+βL(C)
其中,L(g)为全局特征网络的损失;L(id)为全局特征网络输出的ID结果向量与训练图片真实ID标签的交叉熵,L(tri)为全局特征网络输出的两种池化结果拼接成的向量的三元损失函数;L(C)为全局特征网络输出的两种池化结果拼接成的向量的中心损失函数;β为L(C)的权重系数。
进一步的,所述人体部件分割网络的损失函数为:
Figure BDA0002270360570000031
其中,L(ps)为人体部件分割网络的损失;
Figure BDA0002270360570000032
为第k个部件内平均的交叉熵损失,K为部件个数。
进一步的,所述行人属性网络的损失函数为:
Figure BDA0002270360570000033
其中,L(attr)为行人属性网络的损失;f_attr[j]是第j个属性结果向量;Nj为该属性结果向量的维数,y为训练图片的真实属性标签。
进一步的,所述S3中,对所述训练数据集进行增强处理;
S31,将图像大小变换至规定大小;
S32,将图像进行随机水平翻转;
S33,将图像的边缘外扩10个像素;
S34,从外扩后的图像中随机裁剪出规定大小的图像;
S35,对图像进行归一化;
S36,对归一化后的图像,随机擦除图像中5%~10%面积的矩形块。
进一步的,所述S4中,最终的输出特征由全局特征网络的BN层输出与行人属性网络的属性输出向量拼接而成。
与现有技术相比,本发明的有益效果是:在训练阶段,本发明采用三个子任务网络对模型进行训练,包括全局特征网络、人体部件分割网络、行人属性网络,提高了行人再识别的准确率。在测试阶段,本发明去除了人体部件分割网络,以全局特征网络和行人属性网络的结果拼接作为输出,减少了网络计算量。
附图说明
图1为本发明的多任务深度学习网络结构图。
图2为本发明的全局特征网络结构图。
图3为本发明的人体部件分割网络结构图。
图4为本发明的行人属性网络结构图。
具体实施方式
下面对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种基于多任务深度学习的行人再识别方法,包括以下步骤:
S1,构建多任务深度学习网络,包括骨干网络和三个子任务网络,所述子任务网络包括全局特征网络、人体部件分割网络和行人属性网络。请参照图1,所述骨干网络采用ResNet,骨干网络ResNet最后一层conv5_1的步长由2改为1;全局特征网络和行人属性网络连接ResNet的conv5_x层,即ResNet的conv5_x层的输出作为全局特征网络和行人属性网络的输入;同理,人体部件分割网络连接ResNet的conv4_x层。
三个子任务网络的结构如下:
①全局特征网络
请参照图2,所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接输出拼接向量feature f_t;所述BN层,对拼接后的向量feature f_t进行批量标准化得到feature f_i;所述softmax层,输出ID结果向量feature f_id。
②人体部件分割网络
请参照图3,所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。部件分割结果为8×48×16的张量,即有48×16的二维向量每个像素点有一个长度为8的一维向量,这个长度为8的一维向量对应该像素点部件分割的结果。8个部件优选为:背景/头部/上臂/下臂/躯干/臀部及大腿/小腿/脚。
③行人属性网络
请参照图4,所述行人属性网络包括依次连接的分割层、全局平均池化层、第一向量拼接层、全连接层、softmax层和第二向量拼接层;
所述分割层,将输入水平分割成6块,得到8个块,分别是局部特征1至局部特征6,能够有效提取整张图像的局部特征,提高行人属性识别准确性;所述全局平均池化层,将分割后的块分别进行平均池化;所述第一向量拼接层,将平均池化得到的向量拼接成1个向量;所述全连接层,数量与行人属性的数量相同,本实施例优选行人属性的数量为12,将拼接后的向量转化为12个行人属性结果向量;所述softmax层,将多个行人属性结果向量进行归一化;所述第二向量拼接层,将归一化后的多个行人属性结果向量拼接成一个向量作为属性输出向量。
值得一提的是,所述行人属性及其标签包括③性别(男/女),年龄(儿童/青少年/成年/老年),头发长度(长/短),袖子长度(长/短),下身衣服长度(长/短),下身衣服类型(裤子/裙子),是否佩戴帽子,是否背包,是否拎包,是否手拿包,8种上身衣服颜色(黑/白/红/黄/灰/蓝/绿/棕),以及9种下身衣服颜色(黑/白/紫/黄/灰/蓝/绿/棕/红)。
S2,分别构建三个子任务网络的损失函数,加权求和得到多任务深度学习网络的损失函数。
具体的,所述全局特征网络的损失函数为:
L(g)=L(id)+L(tri)+βL(C)
其中,L(g)为全局特征网络的损失;L(id)为全局特征网络输出的ID结果向量与训练图片真实ID标签的交叉熵,L(tri)为全局特征网络输出的两种池化结果拼接成的向量的三元损失函数(triplet loss);L(C)为全局特征网络输出的两种池化结果拼接成的向量的中心损失函数;β为L(C)的权重系数,优选为0.005。
Figure BDA0002270360570000061
其中,y为训练图片的真实属性标签,f_id[i]为全局特征网络的输出ID结果向量feature f_id,i代表图像的序号。
L(tri)=[dp-dn+α]+
其中,在训练过程中输入的一批次训练图像中,随机选取的一个样本作为固定样本,正样本为和固定样本属于同一类的样本,负样本为和固定样本属于不同类的样本。上式中,dp为固定样本和正样本f_t的欧式距离,dn为固定样本和负样本f_t的欧式距离,α为正负样本设置一个常数余量,优选设为0.3;下标+表示[]内的值大于零的时候,取该值为损失,小于零的时候,损失为零。
Figure BDA0002270360570000062
其中,yj为一个训练过程中输入的批处理图像一批次图像中的第j个图像的真实ID标签,Cyj为第yj个类别的类中心feature,B为该批次图像数量的大小。
所述人体部件分割网络的损失函数为:
Figure BDA0002270360570000071
其中,L(ps)为人体部件分割网络的损失;
Figure BDA0002270360570000072
为第k个部件内平均的交叉熵损失,K为部件个数。
所述行人属性网络的损失函数为:
Figure BDA0002270360570000073
其中,L(attr)为行人属性网络的损失;f_attr[j]是第j个属性结果向量;Nj为该属性结果向量的维数,y为训练图片的真实属性标签。
将三个子任务网络的损失函数进行加权求和,即得到多任务深度学习网络总的损失函数L(total):
L(total)=L(g)+L(ps)+L(attr)
S3,准备每个子任务网络的训练数据集,并进行训练;
具体的,对所述训练数据集进行增强处理;
S31,将图像大小变换至规定大小384×128;
S32,将图像进行50%随机水平翻转;
S33,将图像的边缘外扩10个像素;
S34,从外扩后的图像中随机裁剪出规定大小384×128的图像;
S35,对图像进行归一化;
S36,对归一化后的图像,50%随机擦除图像中5%~10%面积的矩形块。
训练数据集的训练过程为:market1501集训练全局特征网络;coco部件分割数据集训练人体部件分割网络;market1501 Attribute集训练训练行人属性网络。训练过程为:依次读取3个训练集数据对多任务深度学习网络进行前传得到预测值,计算损失函数,反向传播计算当前梯度,累加3个分支的梯度,根据累加的梯度更新网络参数,然后清空过往梯度重复以上操作继续训练。
S4,将多任务深度学习网络中的子任务网络输出的特征,具体为对全局特征网络的BN层输出feature f_i与行人属性网络的属性输出向量feature f_attr进行拼接,作为多任务深度学习网络最终的输出特征。最终的输出特征两个归一化的向量,平衡了图片全局特征维度(2048维)与行人属性维度(27维)相差较大带来的权重失衡。
人体部件分割网络仅作为辅助网络对多任务深度学习网络参数施加软约束,使得模型能够关注人体本身,抑制背景影响,从而显著提高模型的泛化性能。在测试阶段可以去除该分支,减少网络计算量。
在S4前,还包括对ResNet骨干网络的赋值,具体采用ImageNet预训练好的ResNet网络参数赋值给ResNet骨干网络。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。

Claims (9)

1.一种基于多任务深度学习的行人再识别方法,其特征在于,包括以下步骤:
S1,构建多任务深度学习网络,包括骨干网络和三个子任务网络,所述子任务网络包括全局特征网络、人体部件分割网络和行人属性网络;
S2,分别构建三个子任务网络的损失函数,加权求和得到多任务深度学习网络的损失函数;
S3,准备每个子任务网络的训练数据集,并进行训练;
S4,将多任务深度学习网络中的子任务网络输出的特征向量拼接,作为多任务深度学习网络最终的输出特征;
所述行人属性网络包括依次连接的分割层、全局平均池化层、第一向量拼接层、全连接层、softmax层和第二向量拼接层;所述分割层,将输入水平分割成6块;所述全局平均池化层,将分割后的块分别进行平均池化;所述第一向量拼接层,将平均池化得到的向量拼接成1个向量;所述全连接层,数量与行人属性的数量相同,将拼接后的向量转化为行人属性结果向量;所述softmax层,将多个行人属性结果向量进行归一化;所述第二向量拼接层,将归一化后的多个行人属性结果向量拼接成一个向量作为属性输出向量。
2.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接。
3.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。
4.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述行人属性包括性别,年龄,头发长度,袖子长度,下身衣服长度,下身衣服类型,是否佩戴帽子,是否背包,是否拎包,是否手拿包,上身衣服颜色以及下身衣服颜色。
5.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述全局特征网络的损失函数为:
L(g)=L(id)+L(tri)+βL(C)
其中,L(g)为全局特征网络的损失;L(id)为全局特征网络输出的ID结果向量与训练图片真实ID标签的交叉熵,L(tri)为全局特征网络输出的两种池化结果拼接成的向量的三元损失函数;L(C)为全局特征网络输出的两种池化结果拼接成的向量的中心损失函数;β为L(C)的权重系数。
6.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述人体部件分割网络的损失函数为:
Figure FDA0003608176930000021
其中,L(ps)为人体部件分割网络的损失;
Figure FDA0003608176930000022
为第k个部件内平均的交叉熵损失,K为部件个数。
7.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述行人属性网络的损失函数为:
Figure FDA0003608176930000031
其中,L(attr)为行人属性网络的损失;f_attr[j]是第j个属性结果向量;Nj为该属性结果向量的维数,y为训练图片的真实属性标签,i代表图像的序号。
8.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述S3中,对所述训练数据集进行增强处理;
S31,将图像大小变换至规定大小;
S32,将图像进行随机水平翻转;
S33,将图像的边缘外扩10个像素;
S34,从外扩后的图像中随机裁剪出规定大小的图像;
S35,对图像进行归一化;
S36,对归一化后的图像,随机擦除图像中5%~10%面积的矩形块。
9.根据权利要求1所述的基于多任务深度学习的行人再识别方法,其特征在于,所述S4中,最终的输出特征由全局特征网络的BN层输出与行人属性网络的属性输出向量拼接而成。
CN201911102809.4A 2019-11-12 2019-11-12 一种基于多任务深度学习的行人再识别方法 Active CN110852276B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911102809.4A CN110852276B (zh) 2019-11-12 2019-11-12 一种基于多任务深度学习的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911102809.4A CN110852276B (zh) 2019-11-12 2019-11-12 一种基于多任务深度学习的行人再识别方法

Publications (2)

Publication Number Publication Date
CN110852276A CN110852276A (zh) 2020-02-28
CN110852276B true CN110852276B (zh) 2022-07-01

Family

ID=69601637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911102809.4A Active CN110852276B (zh) 2019-11-12 2019-11-12 一种基于多任务深度学习的行人再识别方法

Country Status (1)

Country Link
CN (1) CN110852276B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353302A (zh) * 2020-03-03 2020-06-30 平安医疗健康管理股份有限公司 医学词义识别方法、装置、计算机设备和存储介质
CN111462082A (zh) * 2020-03-31 2020-07-28 重庆金山医疗技术研究院有限公司 一种病灶图片识别装置、方法、设备及可读存储介质
CN111738143B (zh) * 2020-06-19 2022-04-19 重庆邮电大学 一种基于期望最大化的行人重识别方法
CN111898572A (zh) * 2020-08-05 2020-11-06 杭州云栖智慧视通科技有限公司 一种基于形体识别的案件智能串并方法
CN112001353B (zh) * 2020-09-03 2023-02-17 杭州云栖智慧视通科技有限公司 一种基于多任务联合监督学习的行人再识别方法
CN112084998A (zh) * 2020-09-22 2020-12-15 杭州云栖智慧视通科技有限公司 一种基于属性信息辅助的行人再识别方法
CN112016527B (zh) * 2020-10-19 2022-02-01 成都大熊猫繁育研究基地 基于深度学习的大熊猫行为识别方法、系统、终端及介质
CN113822236A (zh) * 2021-11-22 2021-12-21 杭州云栖智慧视通科技有限公司 一种基于人体语义部件的上衣颜色替换方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021933A (zh) * 2017-11-23 2018-05-11 深圳市华尊科技股份有限公司 神经网络识别模型及识别方法
WO2019007004A1 (zh) * 2017-07-04 2019-01-10 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN109740541A (zh) * 2019-01-04 2019-05-10 重庆大学 一种行人重识别系统与方法
CN110321813A (zh) * 2019-06-18 2019-10-11 南京信息工程大学 基于行人分割的跨域行人重识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396412B2 (en) * 2012-06-21 2016-07-19 Siemens Aktiengesellschaft Machine-learnt person re-identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019007004A1 (zh) * 2017-07-04 2019-01-10 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN108021933A (zh) * 2017-11-23 2018-05-11 深圳市华尊科技股份有限公司 神经网络识别模型及识别方法
CN109740541A (zh) * 2019-01-04 2019-05-10 重庆大学 一种行人重识别系统与方法
CN110321813A (zh) * 2019-06-18 2019-10-11 南京信息工程大学 基于行人分割的跨域行人重识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"AANet: Attribute Attention Network for Person Re-Identifications";Chiat-Pin Tay 等;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20190620;第1-10页 *
"EANet: Enhancing Alignment for Cross-Domain Person Re-identification";Houjing Huang 等;《arXiv》;20181229;第1-12页 *
"Multitask Person Re-Identification using Homoscedastic Uncertainty Learning";Chiat-Pin Tay 等;《2019 IEEE International Symposium on Circuits and Systems (ISCAS)》;20190529;第1-5页 *
"基于属性和身份特征融合的行人再识别技术研究";胡潇;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20190815(第08期);全文 *

Also Published As

Publication number Publication date
CN110852276A (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
CN110852276B (zh) 一种基于多任务深度学习的行人再识别方法
Sun et al. Deep spatial-temporal feature fusion for facial expression recognition in static images
CN112001353B (zh) 一种基于多任务联合监督学习的行人再识别方法
CN111310668B (zh) 一种基于骨架信息的步态识别方法
CN106250423B (zh) 基于部分参数共享的深度卷积神经网络跨域服装检索方法
CN106778584A (zh) 一种基于深层特征与浅层特征融合的人脸年龄估计方法
CN105787481B (zh) 一种基于目标性潜在区域分析的目标检测方法及其应用
CN111597870B (zh) 一种基于注意力机制与多任务学习的人体属性识别方法
JP2002203239A (ja) ディジタル画像中で人間の姿を検出する画像処理方法
CN112801015B (zh) 一种基于注意力机制的多模态人脸识别方法
CN112131908A (zh) 基于双流网络的动作识别方法、装置、存储介质及设备
CN112464730B (zh) 一种基于域无关前景特征学习的行人再识别方法
CN110991349B (zh) 一种基于度量学习的轻量级车辆属性识别方法
CN108846404A (zh) 一种基于相关约束图排序的图像显著性检测方法及装置
CN109447175A (zh) 结合深度学习与度量学习的行人再识别方法
CN111680560A (zh) 一种基于时空特征的行人再识别方法
CN112084998A (zh) 一种基于属性信息辅助的行人再识别方法
CN116311377A (zh) 基于图像内与图像间关系的换衣行人重识别方法和系统
CN110889335B (zh) 基于多通道时空融合网络人体骨架双人交互行为识别方法
CN111582154A (zh) 基于多任务骨架姿态划分部件的行人重识别方法
CN104778683A (zh) 一种基于泛函映射的多模态图像分割方法
CN109614877B (zh) 低分辨率监控场景中具有遮挡的行人属性识别方法
CN110598631A (zh) 基于序列上下文关系学习的行人属性识别方法和识别系统
CN114694012B (zh) 一种基于卷积神经网络的服装识别方法
CN115661722B (zh) 一种结合属性与朝向的行人再识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220608

Address after: 310000 Room 401, building 2, No.16, Zhuantang science and technology economic block, Xihu District, Hangzhou City, Zhejiang Province

Applicant after: Hangzhou yunqi smart Vision Technology Co.,Ltd.

Address before: 310000 room 279, building 6, No. 16, Zhuantang science and technology economic block, Zhuantang street, Xihu District, Hangzhou City, Zhejiang Province

Applicant before: Smart vision (Hangzhou) Technology Development Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A pedestrian recognition method based on multitask deep learning

Effective date of registration: 20230609

Granted publication date: 20220701

Pledgee: Hangzhou High-tech Financing Guarantee Co.,Ltd.

Pledgor: Hangzhou yunqi smart Vision Technology Co.,Ltd.

Registration number: Y2023330001148

PE01 Entry into force of the registration of the contract for pledge of patent right