CN112001353A - 一种基于多任务联合监督学习的行人再识别方法 - Google Patents

一种基于多任务联合监督学习的行人再识别方法 Download PDF

Info

Publication number
CN112001353A
CN112001353A CN202010914875.8A CN202010914875A CN112001353A CN 112001353 A CN112001353 A CN 112001353A CN 202010914875 A CN202010914875 A CN 202010914875A CN 112001353 A CN112001353 A CN 112001353A
Authority
CN
China
Prior art keywords
network
layer
feature
attribute
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010914875.8A
Other languages
English (en)
Other versions
CN112001353B (zh
Inventor
刘静
徐晓刚
易珂
管慧艳
龚心满
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yunqi Smart Vision Technology Co Ltd
Original Assignee
Hangzhou Yunqi Smart Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yunqi Smart Vision Technology Co Ltd filed Critical Hangzhou Yunqi Smart Vision Technology Co Ltd
Priority to CN202010914875.8A priority Critical patent/CN112001353B/zh
Publication of CN112001353A publication Critical patent/CN112001353A/zh
Application granted granted Critical
Publication of CN112001353B publication Critical patent/CN112001353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多任务联合监督学习的行人再识别方法,包括如下步骤:S1、构建多任务深度学习网络,包括骨干网络以及分支网络;分支网络包括:部件分割网络:接收骨干网络的输出,用于图像中人体部件分类;属性特征网络:接收骨干网络以及部件分割网络的输出,进行属性特征识别;全局特征网络:接收骨干网络的输出,进行全局特征识别;S2:构建损失函数:利用全局特征和属性特征拼接之后的特征进行损失计算,得到多任务深度学习网络的损失函数。本发明通过属性及身份的联合监督学习,使得识人系统更加鲁棒,精准。

Description

一种基于多任务联合监督学习的行人再识别方法
技术领域
本发明属于行人再识别技术领域,具体涉及一种基于多任务联合监督学习的行人再识别方法。
背景技术
行人再识别旨在给定被查询人员图像或视频,从多个网络摄像机获取的行人图像集合中检索出被查询人员的图像。通常检索时间范围设定在当天内,基本可以认为被查询人员的外观和着装属性保持不变。由于被查询人员在多个摄像头下行走时,会出现部分/全部遮挡,姿势变化,环境光变化,低图像分辨率等情况,检索难度较大。
目前,基于深度学习的行人再识别解决方案在实际应用中表现出了出良好的检索性能。其中,行人属性,例如性别,年龄,衣服的颜色,头发,背包的有无等可以显着提高分类和识别准确性。现有的行人再识别深度学习方案,有只学习行人属性特征的方案,只学习行人身份特征的方案,同时学习行人身份特征和属性特征的方案,这些方案都是简单的单任务/多任务学习,本质上还是将属性特征的学习和身份特征的学习看作两个独立的学习任务,未有更进一步地利用这两个任务之间的相关性来提升整体识别准确性。
举例说明:如中国公开发明专利申请:一种基于多任务深度学习的行人再识别方法(公开号为:CN110852276A),该申请中公开了多任务实现的行人重识别方法,其主要方案为利用三个并列的深度学习网络进行训练,以其中两个学习网络的输出结果进行拼接为最终输出,这也是上述中提到的非常典型的多任务学习,多个任务之间为并列关系,三个结果相互不能形成影响,其结果中还是单独对全局特征或者属性之间的对比。
再如中国公开发明专利申请:基于行人身份和属性特征联合识别验证的行人再识别方法(公开号为:CN 110580460 A),该申请同样提出了身份特征与属性特征联合识别的方法,但是其具体的技术方案是对行人身份特征和行人属性特征的同时学习,使神经网络的特征层既能学习到行人高层的整体身份特征,又能抓取到中层的语义特征,使这两种特征在同一个神经网络中得到有效融合【记载于说明书的第0027段中】,诸如以上所述,该申请的身份特征学习与行人属性特征的学习,本质上还是相互独立的,其最后总的损失函数也是仅仅对多个学习任务损失函数的求和。
发明内容
本发明的目的在于提供一种基于多任务联合监督学习的行人再识别方法;
发明思路在于:首先要明确身份信息与属性信息的融合阶段必须是在训练阶段,所以选择在损失函数中引入结构化属性特征约束,使得学习打的非结构化的全局特征更加鲁棒,从而实现属性联合身份分类的识别。
为实现上述目的,本发明提供如下技术方案:
一种基于多任务联合监督学习的行人再识别方法,包括如下识别模型训练步骤:S1、构建多任务深度学习网络,包括骨干网络以及分支网络;
分支网络包括:部件分割网络:接收骨干网络的输出,用于图像中人体部件分类;
属性特征网络:接收骨干网络以及部件分割网络的输出,进行属性特征识别;
全局特征网络:接收骨干网络的输出,进行全局特征识别;
S2:构建损失函数:利用全局特征和属性特征拼接之后的特征进行损失计算,得到多任务深度学习网络的损失函数。
进一步的,所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。
进一步的,所述属性特征网络包括依次连接的部件特征提取层、部件特征融合层、属性分类层。所述部件特征提取层,将部件分割网络输出的8×48×16的张量去除背景层,得到7×48×16的张量,将该7×48×16的张量进行resize处理后与骨干网络输出的2048×48×16张量进行加权求和得到7个2048维的张量,根据通道顺序可以获知7个部件特征所属人体部位,将这7个部件特征求平均作为全身特征。所述部件特征融合层,将7个部件特征及全身特征共8个特征如图3所示按属性所需输入进行分组拼接,头/全身拼接作为性别/年龄的判别特征,头作为发型/头饰的判别特征,大臂/小臂/躯干拼接作为上衣颜色/花纹/款式的判别特征,躯干/大腿/小腿/脚拼接作为下衣颜色/花纹/款式的判别特征,全身作为人物动作的判别特征,全身作为附属物信息的判别特征。所述属性分类层,包括并行的与行人属性数量相同的属性分类器,将各属性的判别特征输入各属性分类器中得到各属性分类得分,将各属性分类得分拼接成50维向量作为属性特征输出;所述属性分类器,包括依次连接的BN层、全连接层和softmax层。
进一步的,所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接。
进一步的,所述属性包括性别,年龄,头发长度,袖子长度,下身衣服长度,下身衣服类型,是否佩戴帽子,是否背包,是否拎包,是否手拿包,上身衣服颜色以及下身衣服颜色。
进一步的,所述全局特征与属性特征的拼接包括:将全局特征网络输出的2048维全局特征归一化后和50维属性特征归一化后拼接,得到2098维特征。
进一步的,所述损失函数如下:
Figure BDA0002664670210000031
其中,P和K为一个训练batch中所选取得P个人,每人K张图片,a为anchor,p为正样本,n为相对a的负样本,(a,p)表示正样本对(a,n)表示负样本对,dat1为50维属性特征的距离d为2098维拼接特征的距离。
与现有技术相比,本发明的有益效果是:本发明中部件分割网络提取人体局部特征能够将属性的关注点聚焦到相应位置,例如,头部的局部特征输入到属性中发型/头饰/性别/年龄的分类器,这样能够明显提升属性分类准确度。
训练过程中,采用属性联合身份分类识别,在损失函数中引入结构化属性特征约束,能够使得学习到的非结构化的全局特征更加鲁棒。
应用过程中,将非结构化的全局特征和结构化的属性特征拼接到一起,能够明显提升行人搜索的准确性。
附图说明
图1为本发明的多任务深度学习网络结构图。
图2为本发明实施例中提及的属性特征网络结构图。
图3为本发明实施例提及的人体各部件特征分组拼接示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例提出一种基于多任务联合监督学习的行人再识别方法,具体为:
首先构建多任务学习网络,包括包括骨干网络以及分支网络;参照图1所示,分支网络包括部件分割网络、属性特征网络以及全局特征网络。
其中,部件分割网络的输入是骨干网络倒数第二层;
属性特征网络的输入是部件分割网络和骨干网络的最后一层;
全局特征网络的输入是骨干网络的最后一层。
具体的:采用ResNet作为骨干网络,骨干网络最后一层conv5_1的stride由2改为1。可参照【CN110852276A一种基于多任务深度学习的行人再识别方法】中的骨干网络。
部件分割网络的输入是ResNet conv4_x层(1024×24×8),输出是8×48×16的张量,具体的,部件分割网络的结构参见我上次写的专利【CN110852276A一种基于多任务深度学习的行人再识别方法】中的部件分割网络:所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。部件分割结果为8×48×16的张量,即有48×16的二维向量每个像素点有一个长度为8的一维向量,这个长度为8的一维向量对应该像素点部件分割的结果。8个部件优选为:背景/头部/上臂/下臂/躯干/臀部及大腿/小腿/脚(参照图3所示)。
属性特征网络的输入是ResNet conv5_x层(2048×24×8)和部件分割网络输出的8×48×16的张量。
所述属性特征网络包括依次连接的部件特征提取层、部件特征融合层、属性分类层。所述部件特征提取层,将部件分割网络输出的8×48×16的张量去除背景层,得到7×48×16的张量,将该7×48×16的张量进行resize处理后与骨干网络输出的2048×48×16张量进行加权求和得到7个2048维的张量,根据通道顺序可以获知7个部件特征所属人体部位,将这7个部件特征求平均作为全身特征。所述部件特征融合层,将7个部件特征及全身特征共8个特征如图3所示按属性所需输入进行分组拼接,头/全身拼接作为性别/年龄的判别特征,头作为发型/头饰的判别特征,大臂/小臂/躯干拼接作为上衣颜色/花纹/款式的判别特征,躯干/大腿/小腿/脚拼接作为下衣颜色/花纹/款式的判别特征,全身作为人物动作的判别特征,全身作为附属物信息的判别特征。所述属性分类层,包括并行的与行人属性数量相同的属性分类器,将各属性的判别特征输入各属性分类器中得到各属性分类得分,将各属性分类得分拼接成50维向量作为属性特征输出(参照图2所示);所述属性分类器,包括依次连接的BN层、全连接层和softmax层。
具体地,12种属性为:性别(男/女),年龄(儿童/青少年/成年/老年),发型(披肩长/披肩短/束发),头饰(帽子/耳机/其他),上衣颜色(黑/白/紫/黄/灰/蓝/绿/棕/红),上衣花纹(纯色/logo/条纹/格纹/碎花),上衣款式(长袖/短袖),下衣颜色(黑/白/紫/黄/灰/蓝/绿/棕/红),下衣花纹(纯色/logo/条纹/格纹/碎花),下衣款式(长裤/短裤),人物动作(骑车/步行),附属物信息(双肩包/单肩包/手提包/其他)。
全局特征网络的输入是ResNet conv5_x层(2048×24×8)输出是2048维的张量;全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接输出拼接向量feature f_t;所述BN层,对拼接后的向量feature f_t进行批量标准化得到feature f_i;所述softmax层,输出ID结果向量feature f_id。可参照【CN110852276A一种基于多任务深度学习的行人再识别方法】中的全局特征网络。
全局特征网络输出的2048维的张量在进行损失函数计算的时候不仅考虑到行人的ID信息还考虑到行人的属性信息,具体地,将2048维全局特征归一化后和50维属性特征归一化后拼接,得到2098维特征作为计算Loss的特征,在计算不同行人的hard tripletloss时,改进后的损失函数如下:
Figure BDA0002664670210000061
其中,P和K为一个训练batch中所选取得P个人,每人K张图片,a为anchor,p为正样本,n为相对a的负样本,(a,p)表示正样本对(a,n)表示负样本对,为50维属性特征的距离d为2098维拼接特征的距离。这样的加权方式对属性特征距离近但拼接特征距离远的负样本对减弱监督力度,对属性特征距离远但拼接特征距离近的负样本对加强监督力度。这样做的目的是,通过判断属性相似度为监督学习增加了一个图片是否肉眼观察相似的判断,然后,增加关注肉眼观察明显错误的样本对,减少关注肉眼观察非常相似的错误样本对,可以增强特征的鲁棒性,减少模型过拟合的风险。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。

Claims (7)

1.一种基于多任务联合监督学习的行人再识别方法,其特征在于:包括如下识别模型训练步骤:S1、构建多任务深度学习网络,包括骨干网络以及分支网络;
分支网络包括:部件分割网络:接收骨干网络的输出,用于图像中人体部件分类;
属性特征网络:接收骨干网络以及部件分割网络的输出,进行属性特征识别;
全局特征网络:接收骨干网络的输出,进行全局特征识别;
S2:构建损失函数:利用全局特征和属性特征拼接之后的特征进行损失计算,得到多任务深度学习网络的损失函数。
2.如权利要求1所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。
3.如权利要求1所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述属性特征网络包括依次连接的部件特征提取层、部件特征融合层、属性分类;
所述部件特征提取层,将部件分割网络输出的8×48×16的张量去除背景层,得到7×48×16的张量,将该7×48×16的张量进行resize处理后与骨干网络输出的2048×48×16张量进行加权求和得到7个2048维的张量,根据通道顺序可以获知7个部件特征所属人体部位,将这7个部件特征求平均作为全身特征;
所述部件特征融合层,将7个部件特征及全身特征共8个特征按属性所需输入进行分组拼接,头/全身拼接作为性别/年龄的判别特征,头作为发型/头饰的判别特征,大臂/小臂/躯干拼接作为上衣颜色/花纹/款式的判别特征,躯干/大腿/小腿/脚拼接作为下衣颜色/花纹/款式的判别特征,全身作为人物动作的判别特征,全身作为附属物信息的判别特征;
所述属性分类层,包括并行的与行人属性数量相同的属性分类器,将各属性的判别特征输入各属性分类器中得到各属性分类得分,将各属性分类得分拼接成50维向量作为属性特征输出;
所述属性分类器,包括依次连接的BN层、全连接层和softmax层。
4.如权利要求3所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述属性包括性别,年龄,头发长度,袖子长度,下身衣服长度,下身衣服类型,是否佩戴帽子,是否背包,是否拎包,是否手拿包,上身衣服颜色以及下身衣服颜色。
5.如权利要求1所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接。
6.如权利要求3所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述全局特征与属性特征的拼接包括:将全局特征网络输出的2048维全局特征归一化后和50维属性特征归一化后拼接,得到2098维特征。
7.如权利要求6所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述损失函数如下:
Figure FDA0002664670200000021
其中,P和K为一个训练batch中所选取得P个人,每人K张图片,a为anchor,p为正样本,n为相对a的负样本,(a,p)表示正样本对(a,n)表示负样本对,datt为50维属性特征的距离d为2098维拼接特征的距离。
CN202010914875.8A 2020-09-03 2020-09-03 一种基于多任务联合监督学习的行人再识别方法 Active CN112001353B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010914875.8A CN112001353B (zh) 2020-09-03 2020-09-03 一种基于多任务联合监督学习的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010914875.8A CN112001353B (zh) 2020-09-03 2020-09-03 一种基于多任务联合监督学习的行人再识别方法

Publications (2)

Publication Number Publication Date
CN112001353A true CN112001353A (zh) 2020-11-27
CN112001353B CN112001353B (zh) 2023-02-17

Family

ID=73466161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010914875.8A Active CN112001353B (zh) 2020-09-03 2020-09-03 一种基于多任务联合监督学习的行人再识别方法

Country Status (1)

Country Link
CN (1) CN112001353B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686228A (zh) * 2021-03-12 2021-04-20 深圳市安软科技股份有限公司 行人属性识别方法、装置、电子设备及存储介质
CN112712170A (zh) * 2021-01-08 2021-04-27 西安交通大学 基于输入加权脉冲神经网络的神经形态视觉目标分类系统
CN112800978A (zh) * 2021-01-29 2021-05-14 北京金山云网络技术有限公司 属性识别方法、部位属性提取网络的训练方法和装置
CN113128410A (zh) * 2021-04-21 2021-07-16 湖南大学 一种基于轨迹关联学习的弱监督行人重识别方法
CN113436165A (zh) * 2021-06-23 2021-09-24 合肥迈思泰合信息科技有限公司 一种基于人工智能的视频图像检测系统及其检测方法
CN113657186A (zh) * 2021-07-26 2021-11-16 浙江大华技术股份有限公司 一种基于行人重识别的特征提取方法、装置和存储介质
CN113822236A (zh) * 2021-11-22 2021-12-21 杭州云栖智慧视通科技有限公司 一种基于人体语义部件的上衣颜色替换方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN110580460A (zh) * 2019-08-28 2019-12-17 西北工业大学 基于行人身份和属性特征联合识别验证的行人再识别方法
CN110728216A (zh) * 2019-09-27 2020-01-24 西北工业大学 一种基于行人属性自适应学习的无监督行人再识别方法
CN110796026A (zh) * 2019-10-10 2020-02-14 湖北工业大学 一种基于全局特征拼接的行人重识别方法
WO2020040391A1 (ko) * 2018-08-24 2020-02-27 전북대학교산학협력단 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템
CN110852276A (zh) * 2019-11-12 2020-02-28 智慧视通(杭州)科技发展有限公司 一种基于多任务深度学习的行人再识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
WO2020040391A1 (ko) * 2018-08-24 2020-02-27 전북대학교산학협력단 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템
CN110580460A (zh) * 2019-08-28 2019-12-17 西北工业大学 基于行人身份和属性特征联合识别验证的行人再识别方法
CN110728216A (zh) * 2019-09-27 2020-01-24 西北工业大学 一种基于行人属性自适应学习的无监督行人再识别方法
CN110796026A (zh) * 2019-10-10 2020-02-14 湖北工业大学 一种基于全局特征拼接的行人重识别方法
CN110852276A (zh) * 2019-11-12 2020-02-28 智慧视通(杭州)科技发展有限公司 一种基于多任务深度学习的行人再识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
熊炜等: "基于深层特征融合的行人重识别方法", 《计算机工程与科学》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712170A (zh) * 2021-01-08 2021-04-27 西安交通大学 基于输入加权脉冲神经网络的神经形态视觉目标分类系统
CN112800978A (zh) * 2021-01-29 2021-05-14 北京金山云网络技术有限公司 属性识别方法、部位属性提取网络的训练方法和装置
CN112686228A (zh) * 2021-03-12 2021-04-20 深圳市安软科技股份有限公司 行人属性识别方法、装置、电子设备及存储介质
CN113128410A (zh) * 2021-04-21 2021-07-16 湖南大学 一种基于轨迹关联学习的弱监督行人重识别方法
CN113436165A (zh) * 2021-06-23 2021-09-24 合肥迈思泰合信息科技有限公司 一种基于人工智能的视频图像检测系统及其检测方法
CN113657186A (zh) * 2021-07-26 2021-11-16 浙江大华技术股份有限公司 一种基于行人重识别的特征提取方法、装置和存储介质
CN113657186B (zh) * 2021-07-26 2024-05-31 浙江大华技术股份有限公司 一种基于行人重识别的特征提取方法、装置和存储介质
CN113822236A (zh) * 2021-11-22 2021-12-21 杭州云栖智慧视通科技有限公司 一种基于人体语义部件的上衣颜色替换方法

Also Published As

Publication number Publication date
CN112001353B (zh) 2023-02-17

Similar Documents

Publication Publication Date Title
CN112001353B (zh) 一种基于多任务联合监督学习的行人再识别方法
Li et al. Person search with natural language description
Sun et al. Deep spatial-temporal feature fusion for facial expression recognition in static images
CN110852276B (zh) 一种基于多任务深度学习的行人再识别方法
Yamaguchi et al. Paper doll parsing: Retrieving similar styles to parse clothing items
CN110443189B (zh) 基于多任务多标签学习卷积神经网络的人脸属性识别方法
CN111597870B (zh) 一种基于注意力机制与多任务学习的人体属性识别方法
US20190188456A1 (en) Image processing device, image processing method, and computer program product
CN110188701A (zh) 基于人体关键节点预测的服饰识别方法、系统及终端
CN111639544A (zh) 基于多分支跨连接卷积神经网络的表情识别方法
JP2002203239A (ja) ディジタル画像中で人間の姿を検出する画像処理方法
CN110633624B (zh) 一种基于多特征融合的机器视觉人体异常行为识别方法
CN112131970A (zh) 一种基于多通道时空网络和联合优化损失的身份识别方法
CN111310668A (zh) 一种基于骨架信息的步态识别方法
CN112699265A (zh) 图像处理方法及装置、处理器、存储介质
CN112084998A (zh) 一种基于属性信息辅助的行人再识别方法
Thom et al. Facial attribute recognition: A survey
CN113420697B (zh) 基于表观和形状特征的换装视频行人重识别方法及系统
CN111401116B (zh) 基于增强卷积和空时lstm网络的双模态情感识别方法
CN116311377A (zh) 基于图像内与图像间关系的换衣行人重识别方法和系统
CN111860250A (zh) 基于人物细粒度特征的图像识别方法及装置
Yang et al. Intelligent mirror system based on facial expression recognition and color emotion adaptation——iMirror
CN116129473A (zh) 基于身份引导的联合学习换衣行人重识别方法及系统
CN111191527A (zh) 属性识别方法、装置、电子设备及可读存储介质
Ileni et al. Fast In-the-Wild Hair Segmentation and Color Classification.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant