CN112070010A - 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 - Google Patents

一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 Download PDF

Info

Publication number
CN112070010A
CN112070010A CN202010934883.9A CN202010934883A CN112070010A CN 112070010 A CN112070010 A CN 112070010A CN 202010934883 A CN202010934883 A CN 202010934883A CN 112070010 A CN112070010 A CN 112070010A
Authority
CN
China
Prior art keywords
pedestrian
loss
feature
local feature
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010934883.9A
Other languages
English (en)
Other versions
CN112070010B (zh
Inventor
周书仁
张范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha University of Science and Technology
Original Assignee
Changsha University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University of Science and Technology filed Critical Changsha University of Science and Technology
Priority to CN202010934883.9A priority Critical patent/CN112070010B/zh
Publication of CN112070010A publication Critical patent/CN112070010A/zh
Application granted granted Critical
Publication of CN112070010B publication Critical patent/CN112070010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,行人的局部特征不断被证明是一种在行人重识别任务中表现良好的特征,在一定程度上提高重识别的准确度,在提取到全局特征图之后,沿垂直方向将特征图均匀分成六块,但均匀分块的方式过于简单,导致局部特征的不对齐问题。在行人识别中,行人携带的物品也是一类有帮助的特征,但现有技术并没有考虑到这点,主要关注点还是在行人人体特征上,为了学习到行人携带物的特征,采用了自注意力机制来使网络关注这一部分特征,最后与全局特征相结合增强特征表示;为了无缝联合交叉熵损失函数和三元组损失函数,我们使用动态训练这两个损失函数的方案来优化深度学习模型参数。

Description

一种联合多损失动态训练策略增强局部特征学习的行人重识 别方法
技术领域
本发明涉及特征学习技术领域,具体为一种联合多损失动态训练策略增强局部特征学习的行人重识别方法。
背景技术
行人重识别任务简单地来说就是图像检索,具体是指在不同摄像头下检索到同一个行人。近年来监控摄像设备的大面积普及和人们对安全一如既往的高需求也让行人重识别具有了非常重要的现实意义。
行人重识别是一项非常具有挑战性和高要求的任务,因为一个人的外观可以在不同视角和摄像机之间发生巨大变化,照明、视点、遮挡和身体配置每次都可能发生变化。行人重识别早期的研究主要聚焦在提取行人的全局特征上,也就是得到整张图片的一个特征向量去做图片检索。但随着采集的行人重识别数据集越来越复杂,也越来越接近实际情况,仅仅使用全局特征容易忽略行人图片中的细节信息,并不能满足任务需求,因此越来越多的学者去关注局部特征的提取,就是让网络去关注关键的局部区域并提取这些区域的局部特征。目前利用局部特征做行人重识别的方法主要有以下几类:
第一类是利用外部线索定位局部特征,比如使用经过预训练的姿态估计模型定位人体关节点得到人体各个部件(头、上身、下身等)并引导网络学习这些部件的局部特征。但这种方法存在着一些缺陷,姿态估计的数据集和行人重识别数据集之间的差异会引入误差,模型训练时间成本和标注成本都较高。
第二类方法是不使用额外的线索学习局部特征,比较常用的有水平切块和采用注意力机制等。水平切块是指将图片或特征图从上到下分割成单元或条纹,但很大程度上依赖良好的对齐。注意力机制是指在最终的输出特征图上学习一个注意图,并据此学习到局部特征。
第三类是通过预定义的属性作为有用的特征来指导特征匹配过程。
第四类是通过语义解析来提取语义部分信息,语义分区可以在一定程度上缓解不对齐问题,但这种方法的成功对语义解析模型的准确性要求很高。
发明内容
本发明的目的在于提供一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,该联合多损失动态训练策略增强局部特征学习的行人重识别方法具体步骤如下:
1)特征图均匀分块:行人的局部特征不断被证明是一种在行人重识别任务中表现良好的特征,在一定程度上提高重识别的准确度,在提取到全局特征图之后,沿垂直方向将特征图均匀分成六块,但均匀分块的方式过于简单,导致局部特征的不对齐问题,引入异常值,通过计算这些异常值与每个图像块之间的相似性对它们进行重新划分,解决不对齐问题,然后通过池化和降维来提取图像块的特征;
2)学习潜在特征:通过在全局特征图上应用自注意力机制来完成非人体部分的潜在特征学习,根据每个像素与所有其他像素间的语义相似性,自动捕获一些粗糙的潜在部分,也就是行人携带物这类非人体的部分;
3)多损失动态训练:采用两个损失函数,分别是三元组损失函数和交叉熵损失函数,将步骤1得到的六个局部特征分别输入到由全连接层和softmax函数构成的分类器中进行交叉熵损失训练,将步骤1和步骤2得到的所有局部特征和全局特征进行连接增强行人表示,然后进行三元组损失训练,两个损失函数直接结合在一定程度上会产生冲突,使用随机抽样和身份平衡难分样本抽样两种抽样策略动态训练这两种损失函数来使得损失最小化。
优选的,身份平衡难分样本采样按以下步骤实现,为了构建有效的三元组,为每个批量随机选择N个身份,其中每个身份随机选择N张图像,基于最大的类内距离和最小的类间距离的硬正/负挖掘,对于不同身份的样本是不平衡的,小于N张图像的样本永远不会被使用,需要结合随机采样。
优选的,交叉熵损失:用行人的身份作为训练数据的标签来训练神经网络,用于分类问题,交叉熵损失的定义如下:
Figure BDA0002671575820000031
其中Nid是输入图片数量,S指softmax函数,k是分块的序数,c是输入图片对应的身份,
Figure BDA0002671575820000032
为第k块第c个身份的全连接层的权矩阵。
优选的,三元组损失:输入为三张图片分别是I,Ip,In,I和Ip是一对正样本,I和In是一对负样本。三元组损失将正样本对之间的距离缩小,将负样本对之间的距离拉远。在行人重识别任务中就是缩小相同行人的图片距离,扩大不同行人的图片距离。三元组损失的定义如下:
Figure BDA0002671575820000033
其中Ntp是三元组的数量,δ是控制距离的超参数,[·]+=max(·,0)。
优选的,采用了自注意力机制来使网络关注携带物特征,最后与全局特征相结合增强特征表示。
优选的,根据不同损失函数在网络的不同阶段的重要性来选择采样的方法和损失函数的类型,以此来优化参数。
与现有技术相比,本发明的有益效果是:在行人识别中,行人携带的物品也是一类有帮助的特征,但现有技术并没有考虑到这点,主要关注点还是在行人人体特征上,为了学习到行人携带物的特征,采用了自注意力机制来使网络关注这一部分特征,最后与全局特征相结合增强特征表示;现有技术通常直接对三元组损失和交叉熵损失这两个损失函数进行加权,使得网络的参数优化过程繁琐且困难,提出一种多损失动态训练方案,即根据不同损失函数在网络的不同阶段的重要性来选择采样的方法和损失函数的类型,以此来优化参数,通过反向传播来更新参数,并反复迭代这一过程完成动态训练。
附图说明
图1为联合多损失动态训练策略增强局部特征学习的行人重识别方法流程图;
图2为联合多损失动态训练策略增强局部特征学习的行人重识别方法总体框架图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
请参照图1和图2。
我们对局部特征的提取分为了两个部分,一部分是通过均匀分块的方式得到多个图像块的局部特征,另一部分是利用自注意力模块来学习到行人携带物的局部特征。最后融合这两部分的所有局部特征和行人全局特征,得到增强的行人特征表示用于行人重识别。
当输入的图像经过残差网络后得到三维激活张量T,定义通道维的列向量为f。然后,我们把T水平均分成六份,进行局部特征对齐,经过全局平均池化和1x1卷积核降维得到六个列向量h。最后,每个h输入到由全连接层和softmax函数构成的分类器中,从而预测输入的身份。
通过以下操作来修正由均分策略产生的不对齐问题:
计算每个特征f属于每一部分Pk的概率:
Figure BDA0002671575820000041
其中Wk是全连接层的参数矩阵,k=1,2,…,6。
Figure BDA0002671575820000051
F是张量T的集合。
我们使用自注意力机制去估计潜在性特征。根据每个像素与所有其他像素间的语义相似性,自动捕获一些粗糙的潜在部分。学习对所有M个像素预测M个粗置信图Q1,Q2,...,QM,每个置信图Qm学习更多关注与第m个像素属于同一潜在部分类别的像素。下面我们将说明如何计算像素m的置信映射:
Figure BDA0002671575820000052
其中qm,n为Qm的第n个元素,xm和xn分别为像素m和n的表示。θ(·)和
Figure BDA0002671575820000053
是两个变换函数以更好地学习相似性,归一化因子Zm是与像素m相关的所有相似性的总和:
Figure BDA0002671575820000054
然后估计出潜在的部分特征为:
Figure BDA0002671575820000055
其中β(·)是一个用来更好学习到特征表示的函数。
下面先分别介绍两种损失函数,再进行动态训练方案的说明:
交叉熵损失:用行人的身份作为训练数据的标签来训练神经网络,用于分类问题,交叉熵损失的定义如下:
Figure BDA0002671575820000056
其中Nid是输入图片数量,S指softmax函数,k是分块的序数,c是输入图片对应的身份,
Figure BDA0002671575820000061
为第k块第c个身份的全连接层的权矩阵。
三元组损失:输入为三张图片分别是I,Ip,In,I和Ip是一对正样本,I和In是一对负样本。三元组损失将正样本对之间的距离缩小,将负样本对之间的距离拉远。在行人重识别任务中就是缩小相同行人的图片距离,扩大不同行人的图片距离。三元组损失的定义如下:
Figure BDA0002671575820000062
其中Ntp是三元组的数量,δ是控制距离的超参数,[·]+=max(·,0)。
动态训练:
在不同的训练阶段,两种损失函数的重要性不同,因此我们提出了动态训练策略,即动态分配权重。对于每一项损失,我们定义一个性能度量来估计损失减少的可能性。设定
Figure BDA0002671575820000063
为当前迭代τ的平均损失,t∈{id,tp}。我们可以得到移动平均值
Figure BDA0002671575820000064
Figure BDA0002671575820000065
其中α∈[0,1]是折现因子,基于上述公式我们定义了一个损失不会下降的可能性的概率:
Figure BDA0002671575820000066
当上式结果为1时,表示这次迭代不会带来损失的下降,但保证了损失也不会上升。基于
Figure BDA0002671575820000067
我们对损失进行加权:
Figure BDA0002671575820000068
γ是控制聚焦强度参数,最终的总损失函数定义如下:
Figure BDA0002671575820000071
在每一次迭代中计算
Figure BDA0002671575820000072
Figure BDA0002671575820000073
的值并比较
Figure BDA0002671575820000074
和δ的大小,如果前者更小则说明交叉熵损失在当前迭代中更重要,使用随机采样和交叉熵损失。反之三元组更重要,使用身份平衡难样本抽样和两个损失函数的加权组合。这就是一个多损失动态训练的过程。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (6)

1.一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,其特征在于:该联合多损失动态训练策略增强局部特征学习的行人重识别方法具体步骤如下:
1)特征图均匀分块:行人的局部特征不断被证明是一种在行人重识别任务中表现良好的特征,在一定程度上提高重识别的准确度,在提取到全局特征图之后,沿垂直方向将特征图均匀分成六块,但均匀分块的方式过于简单,导致局部特征的不对齐问题,引入异常值,通过计算这些异常值与每个图像块之间的相似性对它们进行重新划分,解决不对齐问题,然后通过池化和降维来提取图像块的特征;
2)学习潜在特征:通过在全局特征图上应用自注意力机制来完成非人体部分的潜在特征学习,根据每个像素与所有其他像素间的语义相似性,自动捕获一些粗糙的潜在部分,也就是行人携带物这类非人体的部分;
3)多损失动态训练:采用两个损失函数,分别是三元组损失函数和交叉熵损失函数,将步骤1得到的六个局部特征分别输入到由全连接层和softmax函数构成的分类器中进行交叉熵损失训练,将步骤1和步骤2得到的所有局部特征和全局特征进行连接增强行人表示,然后进行三元组损失训练,两个损失函数直接结合在一定程度上会产生冲突,使用随机抽样和身份平衡难分样本抽样两种抽样策略动态训练这两种损失函数来使得损失最小化。
2.根据权利要求1所述的一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,其特征在于:身份平衡难分样本采样按以下步骤实现,为了构建有效的三元组,为每个批量随机选择N个身份,其中每个身份随机选择N张图像,基于最大的类内距离和最小的类间距离的硬正/负挖掘,对于不同身份的样本是不平衡的,小于N张图像的样本永远不会被使用,需要结合随机采样。
3.根据权利要求1所述的一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,其特征在于:交叉熵损失:用行人的身份作为训练数据的标签来训练神经网络,用于分类问题,交叉熵损失的定义如下:
Figure FDA0002671575810000021
其中Nid是输入图片数量,S指softmax函数,k是分块的序数,c是输入图片对应的身份,
Figure FDA0002671575810000022
为第k块第c个身份的全连接层的权矩阵。
4.根据权利要求1所述的一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,其特征在于:三元组损失:输入为三张图片分别是I,Ip,In,I和Ip是一对正样本,I和In是一对负样本。三元组损失将正样本对之间的距离缩小,将负样本对之间的距离拉远。在行人重识别任务中就是缩小相同行人的图片距离,扩大不同行人的图片距离。三元组损失的定义如下:
Figure FDA0002671575810000023
其中Ntp是三元组的数量,δ是控制距离的超参数,[·]+=max(·,0)。
5.根据权利要求1所述的一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,其特征在于:采用了自注意力机制来使网络关注携带物特征,最后与全局特征相结合增强特征表示。
6.根据权利要求1所述的一种联合多损失动态训练策略增强局部特征学习的行人重识别方法,其特征在于:根据不同损失函数在网络的不同阶段的重要性来选择采样的方法和损失函数的类型,以此来优化参数。
CN202010934883.9A 2020-09-08 2020-09-08 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 Active CN112070010B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010934883.9A CN112070010B (zh) 2020-09-08 2020-09-08 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010934883.9A CN112070010B (zh) 2020-09-08 2020-09-08 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法

Publications (2)

Publication Number Publication Date
CN112070010A true CN112070010A (zh) 2020-12-11
CN112070010B CN112070010B (zh) 2024-03-22

Family

ID=73664326

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010934883.9A Active CN112070010B (zh) 2020-09-08 2020-09-08 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法

Country Status (1)

Country Link
CN (1) CN112070010B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343909A (zh) * 2021-06-29 2021-09-03 南京星云数字技术有限公司 多任务分类网络的训练方法、行人重识别方法
CN116362351A (zh) * 2023-05-29 2023-06-30 深圳须弥云图空间科技有限公司 利用噪声扰动训练预训练语言模型的方法及装置
CN117252936A (zh) * 2023-10-04 2023-12-19 长春理工大学 一种适配多种训练策略的红外图像彩色化方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180068463A1 (en) * 2016-09-02 2018-03-08 Artomatix Ltd. Systems and Methods for Providing Convolutional Neural Network Based Image Synthesis Using Stable and Controllable Parametric Models, a Multiscale Synthesis Framework and Novel Network Architectures
CN109165306A (zh) * 2018-08-09 2019-01-08 长沙理工大学 基于多任务哈希学习的图像检索方法
CN109961051A (zh) * 2019-03-28 2019-07-02 湖北工业大学 一种基于聚类和分块特征提取的行人重识别方法
CN110414441A (zh) * 2019-07-31 2019-11-05 浙江大学 一种行人行踪分析方法及系统
CN110569725A (zh) * 2019-08-05 2019-12-13 华中科技大学 一种基于自注意力机制的深度学习的步态识别系统与方法
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN111539370A (zh) * 2020-04-30 2020-08-14 华中科技大学 一种基于多注意力联合学习的图像行人重识别方法和系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180068463A1 (en) * 2016-09-02 2018-03-08 Artomatix Ltd. Systems and Methods for Providing Convolutional Neural Network Based Image Synthesis Using Stable and Controllable Parametric Models, a Multiscale Synthesis Framework and Novel Network Architectures
CN109165306A (zh) * 2018-08-09 2019-01-08 长沙理工大学 基于多任务哈希学习的图像检索方法
CN109961051A (zh) * 2019-03-28 2019-07-02 湖北工业大学 一种基于聚类和分块特征提取的行人重识别方法
CN110414441A (zh) * 2019-07-31 2019-11-05 浙江大学 一种行人行踪分析方法及系统
CN110569725A (zh) * 2019-08-05 2019-12-13 华中科技大学 一种基于自注意力机制的深度学习的步态识别系统与方法
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN111539370A (zh) * 2020-04-30 2020-08-14 华中科技大学 一种基于多注意力联合学习的图像行人重识别方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENG ZHENG ET AL: "Pyramidal person Re-IDentification via multi-loss dynamic training", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 8506 - 8513 *
张国鹏: "基于局部特征和度量学习的行人重识别模型研究", 《中国优秀硕士学位论文全文数据库》, no. 09, pages 138 - 777 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343909A (zh) * 2021-06-29 2021-09-03 南京星云数字技术有限公司 多任务分类网络的训练方法、行人重识别方法
CN113343909B (zh) * 2021-06-29 2023-09-26 南京星云数字技术有限公司 多任务分类网络的训练方法、行人重识别方法
CN116362351A (zh) * 2023-05-29 2023-06-30 深圳须弥云图空间科技有限公司 利用噪声扰动训练预训练语言模型的方法及装置
CN116362351B (zh) * 2023-05-29 2023-09-26 深圳须弥云图空间科技有限公司 利用噪声扰动训练预训练语言模型的方法及装置
CN117252936A (zh) * 2023-10-04 2023-12-19 长春理工大学 一种适配多种训练策略的红外图像彩色化方法及系统

Also Published As

Publication number Publication date
CN112070010B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN111368815B (zh) 一种基于多部件自注意力机制的行人重识别方法
CN109948425B (zh) 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置
CN108960140B (zh) 基于多区域特征提取和融合的行人再识别方法
CN110321813B (zh) 基于行人分割的跨域行人重识别方法
CN108460356B (zh) 一种基于监控系统的人脸图像自动处理系统
CN109815826B (zh) 人脸属性模型的生成方法及装置
CN110728209A (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN109977757B (zh) 一种基于混合深度回归网络的多模态的头部姿态估计方法
CN109446898A (zh) 一种基于迁移学习和特征融合的行人重识别方法
CN112070010A (zh) 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法
CN109190479A (zh) 一种基于混合深度学习的视频序列表情识别方法
CN109598268A (zh) 一种基于单流深度网络的rgb-d显著目标检测方法
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN108021889A (zh) 一种基于姿态外形和运动信息的双通道红外行为识别方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN108960184A (zh) 一种基于异构部件深度神经网络的行人再识别方法
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN110390308B (zh) 一种基于时空对抗生成网络的视频行为识别方法
CN114399533B (zh) 一种基于多层次注意力机制的单目标追踪方法
CN104751111A (zh) 识别视频中人体行为的方法和系统
CN112818790A (zh) 一种基于注意力机制与空间几何约束的行人重识别方法
CN114299542A (zh) 一种基于多尺度特征融合的视频行人重识别方法
CN112528879A (zh) 基于改进GhostNet的多分支行人重识别方法
CN112785636A (zh) 一种多尺度增强式的单目深度估计方法
CN111428650A (zh) 一种基于sp-pggan风格迁移的行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant