CN110765960B - 一种自适应多任务深度学习的行人再识别方法 - Google Patents

一种自适应多任务深度学习的行人再识别方法 Download PDF

Info

Publication number
CN110765960B
CN110765960B CN201911037649.XA CN201911037649A CN110765960B CN 110765960 B CN110765960 B CN 110765960B CN 201911037649 A CN201911037649 A CN 201911037649A CN 110765960 B CN110765960 B CN 110765960B
Authority
CN
China
Prior art keywords
network
vgg
layer
pedestrian
broadening
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911037649.XA
Other languages
English (en)
Other versions
CN110765960A (zh
Inventor
侯丽
刘琦
陈珍海
汪伟
曹俊呈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huangshan University
Original Assignee
Huangshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huangshan University filed Critical Huangshan University
Priority to CN201911037649.XA priority Critical patent/CN110765960B/zh
Publication of CN110765960A publication Critical patent/CN110765960A/zh
Application granted granted Critical
Publication of CN110765960B publication Critical patent/CN110765960B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种自适应多任务深度学习的行人再识别方法,涉及机器学习与模式识别技术领域,能够提升行人再识别的性能,包括以下步骤:1)以行人再识别数据集和服装属性数据集构建训练样本,用于行人身份和行人服装属性联合学习;2)CNN基模型采用去除最后一层全连接层的VGG‑19网络,其模型初始值采用大规模ImageNet图像集上已经训练好的VGG‑19模型参数;3)初始化后的VGG‑19网络,通过自顶向下逐层网络扩宽算法,将CNN基模型进行多轮扩宽;4)以固定的VGG‑19扩宽网络作为多任务深度网络,经过多任务损失函数监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型。

Description

一种自适应多任务深度学习的行人再识别方法
技术领域
本发明涉及机器学习与模式识别技术领域,具体涉及一种自适应多任务深度学习的行人再识别方法。
背景技术
行人再识别属于一种智能视频分析技术,对行人目标的跨摄像头跟踪以及行人行为分析等具有重要的研究意义。行人再识别技术,是指让计算机去判断不同摄像头拍摄的行人图像是否具有相同身份,通过行人的外观去匹配不同摄像头拍摄的行人图像。因监控场景的多变性和行人外观变化的复杂性,对行人再识别的研究极具挑战性,其主要原因是由于人体自身结构具有刚性和可变性的特点,当行人姿态发生改变,所呈现的视觉特征会发生改变。同时,在不同摄像头下,由于光照、视角、其他目标的遮挡以及过于复杂的背景等情况,都会导致同一行人在不同场景中的外观发生显著变化。
从原始行人图像/视频数据中提取具有辨识力、鲁棒的特征表示,已成为行人再识别的重要任务之一。近年来,深度学习技术的发展为辨识特征提取带来了新的研究思路,已成为行人再识别技术研究的主流。深度学习主要是利用多层次的神经网络结构,从大量数据中自动学习更高层次、更加抽象的特征表示。卷积神经网络(CNN)作为深度学习研究的典型模型,采用了卷积层、池化层以及全连接层,并且利用反向传播算法计算误差用于调整网络参数。然而,深度学习技术需要大量的样本标注,才能学习到优选特征模型。然而,基于有限的行人样本标注的行人再识别数据集,难于学习到一个具有辨识力和鲁棒性的特征模型,以应对跨摄像头复杂的场景变化。
发明内容
本发明的目的在于克服上述现有技术的缺陷,将深度学习和多任务学习相结合,提出一种自适应多任务深度学习的行人再识别方法。此方法能够在有限样本标注条件下,获取更具辨识力和鲁棒性的优选特征模型,更好地克服了跨摄像头复杂的场景变化给行人外观带来的影响,具有较优的行人再识别性能。
按照本发明所采用的技术方案,所述自适应多任务深度学习的行人再识别方法包括以下步骤:
步骤1,从行人再识别基准数据集中选择用于行人身份信息识别的训练样本,从具有多种服装类别标注的服装属性数据集中选择用于行人服装属性分类的训练样本,一起用于行人身份和行人服装属性特征的联合学习;
步骤2,CNN基模型采用去除最后一层全连接层的VGG-19网络,其模型初始值采用大规模ImageNet图像集上已经训练好的VGG-19模型参数;
步骤3,初始化后的VGG-19网络,通过自顶向下逐层网络扩宽算法,将CNN基模型进行多轮扩宽;
步骤4,使用步骤1的训练样本,以固定的VGG-19扩宽网络作为多任务深度网络,应用多任务损失函数监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别;所述多任务损失函数由行人身份学习的损失函数和行人服装属性学习的损失函数组成,共同监督指导行人特征在网络中的学习。
具体的,步骤2中,VGG-19网路结构由5组卷积层和2层全连接层组成,共18层。
具体包括:
第1组卷积层由2个卷积层组成,每个卷积层输出64个特征平面;
第2组卷积层由2个卷积层组成,每个卷积层输出128个特征平面;
第3组卷积层由4个卷积层组成,每个卷积层输出256个特征平面;
第4组卷积层由4个卷积层组成,每个卷积层输出512个特征平面;
第5组卷积层由4个卷积层组成,每个卷积层输出512个特征平面;
第1个全连接层输出4096维特征向量;
第2个全连接层输出4096维特征向量。
具体的,所述步骤3中,从初始化后的VGG-19网络顶层开始,执行自顶向下逐层网络扩宽,直到不再创建分支时,网络结构固定;
当VGG-19网络包含两轮扩宽时,扩宽VGG-19网络的第m层的方法如下,m代表1~18的自然数:
步骤3.1,执行VGG-19网络的第一轮扩宽:以VGG-19网络的第m层作为连接点,在连接点处进行网络扩宽,即在连接点处将网络分裂成不低于2个分支的独立子网络;设VGG-19网络的第m层包含k个分支输出;
步骤3.2,执行VGG-19网络的第二轮扩宽:设VGG-19网络的第m层输出的k个分支通过聚类算法聚成n组,2≤n≤k,这样VGG-19网络将在第m层扩宽为n个分支,促使VGG-19网络的第m-1层作为新的连接点,并在VGG-19网络的第m-1层产生n个分支的输出;
步骤3.3,构建VGG-19扩宽网络的损失函数:VGG-19扩宽网路的第m层分支数决定网络宽度,联合VGG-19扩宽网络的第m层的网络复杂度和各分支任务的分离度来构建VGG-19扩宽网络的损失函数,以获取VGG-19扩宽网络的第m层最佳的分支子网络;
当VGG-19网络包含两轮以上扩宽时,按照上述步骤3.1~3.3的两轮扩宽第m层的方法,进一步在第m-1层以及第m-1层以下若干层进行网络扩宽,直到在网络的某一层不再创建分支时为止,VGG-19扩宽网络结构固定。
具体的,步骤4中,所述多任务损失函数L的公式为:
L=LId+LAttr
其中
Figure BDA0002251975630000021
表示行人身份信息学习的交叉熵损失函数,
Figure BDA0002251975630000022
表示行人服装属性学习的交叉熵损失函数,N1表示行人的身份类别数,N2表示行人的服装属性类别数,yi表示真实的类别,
Figure BDA0002251975630000023
表示预测的类别输出。
本发明能够取得以下有益效果:
1、本发明结合深度学习和多任务学习,在有限样本标注条件下,能够提取行人图像更具辨识力和鲁棒性的特征描述子,该特征描述子包含了更高层次的语义信息;
2、本发明采用自顶向下的分支方式构建多任务深度学习网络,该网络更具灵活性和扩展性。
附图说明
图1是本发明的自适应多任务深度学习模型原理图。
图2是本发明所述VGG-19网络结构示意图。
图3是本发明所述自顶向下逐层模型扩宽示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚,以下结合附图和实施例对本发明进行进一步详细说明。
本发明的基本思路在于,提出一种自适应多任务深度学习的行人再识别方法,提升行人再识别的性能,其采用的自适应多任务深度学习模型如图1所示。
本发明提供的自适应多任务深度学习的行人再识别方法包括以下步骤:
步骤1,以行人再识别数据集和服装属性数据集构建训练样本,用于行人身份和行人服装属性联合学习。
训练样本的构建包含以下步骤:
从具有代表性的行人再识别基准数据集中选择用于行人身份信息识别的训练样本。所使用的行人再识别数据集包括:CUHK03,Market-1501和DukeMTMC-reID。
从具有充足的服装类别标注的服装属性数据集中选择用于行人服装属性分类的训练样本。所使用的服装属性数据集为Deepfashion。
步骤2,CNN基模型采用去除最后一层全连接层的VGG-19网络,其模型初始值采用大规模ImageNet图像集上已经训练好的VGG-19模型参数。VGG-19网路结构如图2所示,包括第1组卷积层1、第2组卷积层2、第3组卷积层3、第4组卷积层4、第5组卷积层5、第1个全连接层6、第2个全连接层7,共18层,具体如下:
第1组卷积层由2个卷积层组成,每个卷积层输出64个特征平面;
第2组卷积层由2个卷积层组成,每个卷积层输出128个特征平面;
第3组卷积层由4个卷积层组成,每个卷积层输出256个特征平面;
第4组卷积层由4个卷积层组成,每个卷积层输出512个特征平面;
第5组卷积层由4个卷积层组成,每个卷积层输出512个特征平面;
第1个全连接层输出4096维特征向量;
第2个全连接层输出4096维特征向量。
步骤3,初始化后的VGG-19网络,通过自顶向下逐层网络扩宽算法,将CNN基模型进行多轮扩宽。从初始化后VGG-19网络的顶层开始,执行自顶向下逐层网络扩宽,直到不再创建分支时,网络结构固定。
当VGG-19网络包含两轮扩宽时,如图3所示,扩宽VGG-19网络的第m层的方法如下,m代表1~18的自然数:
步骤3.1,执行VGG-19网络第一轮扩宽。以VGG-19网络的第m层作为连接点,在连接点处进行网络扩宽,即在连接点处将网络分裂成不低于2个分支的独立子网络。设VGG-19网络的第m层包含k个分支输出,即
Figure BDA0002251975630000031
在图3中,我们假设k=5。如果第m层是VGG-19网络的输出层,则k的大小由多任务学习所设定的任务数来决定。经过第一轮扩宽,在VGG-19网络的第m层,其k个分支输出
Figure BDA0002251975630000032
和输入xm的关系可用如下公式表示:
Figure BDA0002251975630000033
其中
Figure BDA0002251975630000034
表示网络的第m层输入xm到第j个输出
Figure BDA0002251975630000035
的线性变换矩阵。σm(·)表示网络的第m层对应的非线性变换关系;
步骤3.2,执行VGG-19网络第二轮扩宽。设VGG-19网络的第m层输出的k个分支通过聚类算法聚成n组,其取值范围为2≤n≤k。在图3中,假设n=2。这样VGG-19网络将在第m层扩宽为n个分支,促使VGG-19网络的第m-1层作为新的连接点,并在VGG-19网络的第m-1层产生n个分支的输出
Figure BDA0002251975630000041
即是VGG-19网络的第m层输入
Figure BDA0002251975630000042
gm(·)为VGG-19网络第m层的分组函数,实现第m层分支数k到分支数n的映射。经过第二轮扩宽,在VGG-19网络的第m层,其n个分支输出
Figure BDA0002251975630000043
和输入
Figure BDA0002251975630000044
的关系可进一步用如下公式表示:
Figure BDA0002251975630000045
其中
Figure BDA0002251975630000046
表示网络的第m-1层输入xm-1到n个分支输出
Figure BDA0002251975630000047
的线性变换矩阵。σm-1(·)表示网络的第m-1层对应的非线性变换关系。为了加快网络收敛,所有新创建的线性变换矩阵
Figure BDA0002251975630000048
的初始参数采用扩宽前的线性变换矩阵Wm-1的初始参数。
步骤3.3,构建VGG-19扩宽网络的损失函数。VGG-19扩宽网路的第m层分支数决定网络宽度。联合网络的复杂度和网络各分支任务的分离度来构建扩宽网络的损失函数,以获取各层网络最佳的分支子网络。VGG-19扩宽网络的第m层的损失函数Lm用如下公式表示:
Figure BDA0002251975630000049
其中Lb表示VGG-19扩宽网络第m层分支数的损失函数,与该层第一轮扩宽时的分支数以及创建分支的单位代价成正比。Ls表示VGG-19扩宽网络第m层不同分支任务分离度的损失函数,与该层各分支间的任务间的相关度成反比。λ为分支因子,其值越大,表示在网络第m层创建的分支数越多。
可见,根据上述步骤3.1~步骤3.3的两轮扩宽方法,实现了VGG-19网络的第m层扩宽为不低于2个分支的独立子网络。
当VGG-19网络包含两轮以上扩宽时,按照上述步骤3.1~步骤3.3的两轮扩宽第m层的方法,进一步在第m-1层以及第m-1层以下若干层进行网络扩宽,直到在网络的某一层不再创建分支时为止,VGG-19扩宽网络结构固定。
步骤4,以固定的VGG-19扩宽网络作为多任务深度网络,经过多任务损失函数监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型。多任务损失函数由行人身份学习的损失函数和行人服装属性学习的损失函数两部分组成,共同监督指导行人特征在网络中的学习。多任务损失函数L用如下公式表示:
L=LId+LAttr
其中LId表示行人身份信息学习的损失函数,LAttr表示行人服装属性学习的损失函数。本发明中,LId、LAttr均采用交叉熵损失函数,分别用如下公式表示:
Figure BDA0002251975630000051
其中N1表示行人的身份类别数,N2表示行人的服装属性类别数。yi表示真实的类别,
Figure BDA0002251975630000052
表示预测的类别输出。
以上得到了用于行人再识别的优选模型,使用该模型进行行人再识别,能够提升行人再识别的性能。
本发明利用已有训练样本,基于CNN基模型结构,采用自顶向下逐层模型扩宽的方法,学习多任务分支子网络。应用多任务损失函数,监督指导行人特征在网络中的学习,获取更具辨识力和鲁棒性的行人特征,提高行人再识别的辨识力和鲁棒性。

Claims (3)

1.一种自适应多任务深度学习的行人再识别方法,其特征在于,包括以下步骤:
步骤1,从行人再识别基准数据集中选择用于行人身份信息识别的训练样本,从具有多种服装类别标注的服装属性数据集中选择用于行人服装属性分类的训练样本,一起用于行人身份和行人服装属性特征的联合学习;
步骤2,CNN基模型采用去除最后一层全连接层的VGG-19网络,其模型初始值采用大规模ImageNet图像集上已经训练好的VGG-19模型参数;
步骤3,初始化后的VGG-19网络,通过自顶向下逐层网络扩宽算法,将CNN基模型进行多轮扩宽;
步骤4,使用步骤1的训练样本,以固定的VGG-19扩宽网络作为多任务深度网络,应用多任务损失函数监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别;所述多任务损失函数由行人身份学习的损失函数和行人服装属性学习的损失函数组成,共同监督指导行人特征在网络中的学习;
步骤3中,从初始化后的VGG-19网络顶层开始,执行自顶向下逐层网络扩宽,直到不再创建分支时,网络结构固定;
当VGG-19网络包含两轮扩宽时,扩宽VGG-19网络的第m层的方法如下,m代表1~18的自然数:
步骤3.1,执行VGG-19网络的第一轮扩宽:以VGG-19网络的第m层作为连接点,在连接点处进行网络扩宽,即在连接点处将网络分裂成不低于2个分支的独立子网络;设VGG-19网络的第m层包含k个分支输出;
步骤3.2,执行VGG-19网络的第二轮扩宽:设VGG-19网络的第m层输出的k个分支通过聚类算法聚成n组,2≤n≤k,这样VGG-19网络将在第m层扩宽为n个分支,促使VGG-19网络的第m-1层作为新的连接点,并在VGG-19网络的第m-1层产生n个分支的输出;
步骤3.3,构建VGG-19扩宽网络的损失函数:VGG-19扩宽网路的第m层分支数决定网络宽度,联合VGG-19扩宽网络的第m层的网络复杂度和各分支任务的分离度来构建VGG-19扩宽网络的损失函数,以获取VGG-19扩宽网络的第m层最佳的分支子网络;
当VGG-19网络包含两轮以上扩宽时,按照上述步骤3.1~3.3的两轮扩宽第m层的方法,进一步在第m-1层以及第m-1层以下若干层进行网络扩宽,直到在网络的某一层不再创建分支时为止,VGG-19扩宽网络结构固定。
2.根据权利要求1所述的自适应多任务深度学习的行人再识别方法,其特征在于,所述步骤2中,VGG-19网路结构由5组卷积层和2层全连接层组成,共18层,具体包括:
第1组卷积层由2个卷积层组成,每个卷积层输出64个特征平面;
第2组卷积层由2个卷积层组成,每个卷积层输出128个特征平面;
第3组卷积层由4个卷积层组成,每个卷积层输出256个特征平面;
第4组卷积层由4个卷积层组成,每个卷积层输出512个特征平面;
第5组卷积层由4个卷积层组成,每个卷积层输出512个特征平面;
第1个全连接层输出4096维特征向量;
第2个全连接层输出4096维特征向量。
3.根据权利要求1所述的自适应多任务深度学习的行人再识别方法,其特征在于,步骤4中,所述多任务损失函数L的公式为:
L=LId+LAttr
其中
Figure FDA0003402226360000021
表示行人身份信息学习的交叉熵损失函数,
Figure FDA0003402226360000022
表示行人服装属性学习的交叉熵损失函数,N1表示行人的身份类别数,N2表示行人的服装属性类别数,yi表示真实的类别,
Figure FDA0003402226360000023
表示预测的类别输出。
CN201911037649.XA 2019-10-29 2019-10-29 一种自适应多任务深度学习的行人再识别方法 Active CN110765960B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911037649.XA CN110765960B (zh) 2019-10-29 2019-10-29 一种自适应多任务深度学习的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911037649.XA CN110765960B (zh) 2019-10-29 2019-10-29 一种自适应多任务深度学习的行人再识别方法

Publications (2)

Publication Number Publication Date
CN110765960A CN110765960A (zh) 2020-02-07
CN110765960B true CN110765960B (zh) 2022-03-04

Family

ID=69334409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911037649.XA Active CN110765960B (zh) 2019-10-29 2019-10-29 一种自适应多任务深度学习的行人再识别方法

Country Status (1)

Country Link
CN (1) CN110765960B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680760A (zh) * 2020-06-16 2020-09-18 北京联合大学 服装风格识别方法、装置、电子设备及存储介质
CN112164224A (zh) * 2020-09-29 2021-01-01 杭州锘崴信息科技有限公司 信息安全的交通信息处理系统、方法、设备及存储介质
CN112699829B (zh) * 2021-01-05 2022-08-30 山东交通学院 基于深度特征和稀疏度量投影的车辆重识别方法及系统
CN115019349B (zh) * 2022-08-09 2022-11-04 中科视语(北京)科技有限公司 图像分析方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN107679552A (zh) * 2017-09-11 2018-02-09 北京飞搜科技有限公司 一种基于多分支训练的场景分类方法以及系统
CN110096947A (zh) * 2019-03-15 2019-08-06 昆明理工大学 一种基于深度学习的行人再识别算法
CN110135503A (zh) * 2019-05-19 2019-08-16 重庆理工大学 一种装配机器人零件深度学习识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9767385B2 (en) * 2014-08-12 2017-09-19 Siemens Healthcare Gmbh Multi-layer aggregation for object detection
US11017556B2 (en) * 2017-10-04 2021-05-25 Nvidia Corporation Iterative spatio-temporal action detection in video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN107679552A (zh) * 2017-09-11 2018-02-09 北京飞搜科技有限公司 一种基于多分支训练的场景分类方法以及系统
CN110096947A (zh) * 2019-03-15 2019-08-06 昆明理工大学 一种基于深度学习的行人再识别算法
CN110135503A (zh) * 2019-05-19 2019-08-16 重庆理工大学 一种装配机器人零件深度学习识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"FRACTALNET:ULTRA-DEEP NEURAL NETWORKS WITHOUT RESIDUALS";Gustav Larsson et al.;《arXiv》;20170526;全文 *
"行人重识别研究综述";宋婉茹等;《智能系统学报》;20171231;全文 *

Also Published As

Publication number Publication date
CN110765960A (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
CN110765960B (zh) 一种自适应多任务深度学习的行人再识别方法
Song et al. Pyramid dilated deeper convlstm for video salient object detection
Sargano et al. Human action recognition using transfer learning with deep representations
CN108664924B (zh) 一种基于卷积神经网络的多标签物体识别方法
Li et al. Deepreid: Deep filter pairing neural network for person re-identification
Zhao et al. ApLeaf: An efficient android-based plant leaf identification system
CN108510012A (zh) 一种基于多尺度特征图的目标快速检测方法
Zhang et al. Image-to-video person re-identification with temporally memorized similarity learning
Abdelbaky et al. Two-stream spatiotemporal feature fusion for human action recognition
CN111008618B (zh) 一种自注意力深度学习端到端的行人再识别方法
CN104217214A (zh) 基于可配置卷积神经网络的rgb-d人物行为识别方法
CN110443286A (zh) 神经网络模型的训练方法、图像识别方法以及装置
CN111833360B (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
CN111723600B (zh) 一种基于多任务学习的行人重识别特征描述子
CN103065158A (zh) 基于相对梯度的isa模型的行为识别方法
Chen et al. Recognizing the style of visual arts via adaptive cross-layer correlation
CN109033955A (zh) 一种人脸跟踪方法和系统
Su et al. Transfer learning for video recognition with scarce training data for deep convolutional neural network
CN106778910A (zh) 基于本地训练的深度学习系统和方法
Gao et al. A mobile application for plant recognition through deep learning
Liao et al. Action recognition with multiple relative descriptors of trajectories
CN105956604B (zh) 一种基于两层时空邻域特征的动作识别方法
Li et al. Spatial-temporal dynamic hand gesture recognition via hybrid deep learning model
Hou et al. A face detection algorithm based on two information flow block and retinal receptive field block
Fang et al. Pedestrian attributes recognition in surveillance scenarios with hierarchical multi-task CNN models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant