CN111008618A - 一种自注意力深度学习端到端的行人再识别方法 - Google Patents

一种自注意力深度学习端到端的行人再识别方法 Download PDF

Info

Publication number
CN111008618A
CN111008618A CN202010016162.XA CN202010016162A CN111008618A CN 111008618 A CN111008618 A CN 111008618A CN 202010016162 A CN202010016162 A CN 202010016162A CN 111008618 A CN111008618 A CN 111008618A
Authority
CN
China
Prior art keywords
feature
self
attention
image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010016162.XA
Other languages
English (en)
Other versions
CN111008618B (zh
Inventor
侯丽
刘琦
陈珍海
汪伟
曹俊呈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huangshan University
Original Assignee
Huangshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huangshan University filed Critical Huangshan University
Publication of CN111008618A publication Critical patent/CN111008618A/zh
Application granted granted Critical
Publication of CN111008618B publication Critical patent/CN111008618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种自注意力深度学习端到端的行人再识别方法,涉及机器学习与模式识别技术领域,用于提升行人再识别的性能,包括以下步骤:1)以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征;2)在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征;3)融合自注意力特征与深度特征,产生更具辨识力的图像特征;4)以多分类任务和验证任务的损失函数共同监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型。

Description

一种自注意力深度学习端到端的行人再识别方法
技术领域
本发明涉及机器学习与模式识别技术领域,具体涉及一种自注意力深度学习端到端的行人再识别方法。
背景技术
行人再识别,作为一种重要的智能视频分析技术,对跨摄像头行人目标追踪、行人行为分析等具有重要的研究价值。行人再识别,即是跨多个摄像头识别具有相同身份的行人图像。跨摄像头行人图像常常面临复杂的背景杂乱、光照变化、严重遮挡、显著的姿态变化等,因此对行人再识别的研究极具挑战性。
从原始行人图像中提取更具辨识力和鲁棒性的特征,是行人再识别的重要研究任务之一。随着深度学习技术的发展,深度特征提取已成为行人再识别技术研究的主流。卷积神经网络(CNN)作为深度学习研究的典型模型,采用了卷积层、池化层以及全连接层,并且利用反向传播算法计算误差用于调整网络参数。然而,摄像机视角和行人姿态的变化会引起跨摄像头行人图像间不可控的误对齐问题,导致难于学习一个更具辨识力和鲁棒性的特征模型,以应对跨摄像头复杂的场景变化。
发明内容
本发明的目的在于克服上述现有技术的缺陷,将深度学习、自注意力学习和多任务学习相结合,提出一种自注意力深度学习端到端的行人再识别方法。此方法能够在有限样本标注条件下,获取更具辨识力和鲁棒性的优选特征模型,更好地克服了跨摄像头复杂的场景变化给行人外观带来的影响,具有较优的行人再识别性能。
按照本发明所采用的技术方案,所述自注意力深度学习端到端的行人再识别方法包括以下步骤:
步骤1,以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征;
步骤2,在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征;
步骤3,融合自注意力特征与深度特征,获取更具辨识力的图像特征;
步骤4,以多分类任务和验证任务的损失函数共同监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别。
具体的,步骤1中所述Resnet50深度网络初始化采用大规模ImageNet图像集上已经训练好的Resnet50模型参数。
具体的,Resnet50深度网络由5组卷积层组成,包括:
第1组卷积层由1个7×7卷积层组成,卷积层输出64个特征平面;
第2组卷积层由3个相同的Resnet50残差块组成,卷积层输出256个特征平面;
第3组卷积层由3个相同的Resnet50残差块组成,卷积层输出512个特征平面;
第4组卷积层由3个相同的Resnet50残差块组成,卷积层输出1024个特征平面;
第5组卷积层由3个相同的Resnet50残差块组成,卷积层输出2048个特征平面。
具体的,步骤2中基于所述的Resnet50深度网络,在三元组图像上分别提取锚图像、正例图像、负例图像的特征向量,通过训练多个自注意力模型,计算多个自注意力特征,用于定位输入图像的多个可辨识的局部图像区域;
所述自注意力特征的计算过程包含以下步骤:
步骤2.1,应用3个特征变换空间进行特征的线性变换,应用1×1的卷积核来实现;
步骤2.2,应用Re-LU激活函数对2个线性特征变换进行非线性处理,获取特征变换响应;
步骤2.3,对特征变换响应进行Softmax归一化,获取特征图不同区域的自注意力分数;
步骤2.4,基于不同区域的自注意力分数和第3个特征变换,计算三元组图像的特征图不同区域的自注意力特征。
具体的,步骤3中,应用步骤2获取的三元组图像的自注意力特征,与一个尺度因子相乘后,再与步骤1所述的Resnet50深度网络提取的三元组图像的深度特征进行融合,获取三元组图像融合特征。
具体的,步骤4中,由多分类任务的损失函数和验证任务的损失函数两部分组成多任务学习的损失函数,基于步骤3所述的三元组融合特征,一方面,每个融合特征分别经过卷积神经网络的全连接层,以交叉熵损失函数作为目标函数,用来预测输入图像的身份,应用于多分类任务学习中;另一方面,任意两个融合特征首先经过平方层,再经过全连接层,同样以交叉熵损失函数作为目标函数,用来决定两张输入图像是否属于相同身份,应用于验证任务学习中。
具体的,所述平方层的定义用公式表示如下:
yij=(yi-yj)2
其中i≠j且yi,yj∈(ya,yp,yn),ya,yp,yn分别表示三元组图像中锚图像、正例图像、负例图像的融合特征。
本发明的有益效果如下:
1、本发明借助多个自注意力模型,获取输入图像多个局部区域的自注意力特征,用于表示行人图像的多处细节信息,有助于解决跨摄像机行人图像相应位置特征未对齐问题。
2、本发明结合深度学习、自注意力学习和多任务学习,在有限样本标注条件下,能够提取行人图像更具辨识力和鲁棒性的特征描述子。
附图说明
图1是本发明所述自注意力深度学习模型示意图。
图2是本发明所述Resnet50残差块结构示意图。
图3是本发明所述自注意力特征提取模型工作原理图。
图4是本发明所述的多任务学习模型工作原理图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚,以下结合附图和实施例对本发明进行进一步详细说明。
本发明的基本思路在于,提出一种自注意力深度学习端到端的行人再识别方法,其自注意力深度学习模型如图1所示。本发明利用已有训练样本,基于Resnet50深度网络和自注意力网络,学习自注意力深度特征。应用多任务损失函数,监督指导行人特征在网络中的学习,获取更具辨识力和鲁棒性的行人特征,提高行人再识别的辨识力和鲁棒性。
本发明提供的自注意力深度学习端到端的行人再识别方法包括以下步骤:
步骤1,以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征。三元组图像由锚图像、与锚图像身份相同的正例图像、与锚图像身份不同的负例图像共同构成。Resnet50深度网络初始化采用大规模ImageNet图像集上已经训练好的Resnet50模型参数。Resnet50残差块结构如图2所示。本发明所采用的Resnet50深度网络由5组卷积层组成,具体包括:
第1组卷积层由1个7×7卷积层组成,卷积层输出64个特征平面;
第2组卷积层由3个相同的Resnet50残差块组成,卷积层输出256个特征平面;
第3组卷积层由3个相同的Resnet50残差块组成,卷积层输出512个特征平面;
第4组卷积层由3个相同的Resnet50残差块组成,卷积层输出1024个特征平面;
第5组卷积层由3个相同的Resnet50残差块组成,卷积层输出2048个特征平面。
步骤2,在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征。自注意力特征提取模型如图3所示。基于所述的Resnet50深度网络,在三元组图像上分别提取锚图像、正例图像、负例图像的8*4网格细胞特征向量,分别用{xi,g}g=1,...,G表示全局深度特征,其中i=a,p,n分别表示锚图像、正例图像、负例图像,G=32表示网格细胞数,xi,g为D=2048维网格细胞向量。然后,基于三元组图像的全局深度特征{xi,g}g=1,...,G,训练多个自注意力模型,计算多个自注意力特征,用于定位输入图像多个可辨识的局部区域。自注意力特征的具体计算过程包含以下步骤:
步骤2.1,应用3个特征变换空间进行特征的线性变换,应用1×1的卷积核来实现;
步骤2.2,应用Re-LU激活函数对2个线性特征变换进行非线性处理,获取特征变换响应;
步骤2.3,对特征变换响应进行Softmax归一化,获取特征图不同区域的自注意力分数;
步骤2.4,基于不同区域的自注意力分数和第3个特征变换,计算三元组特征图不同区域的自注意力特征。
具体用公式表示如下:
步骤2.1,应用特征变换空间f∈(f1,f2,f3)进行特征的线性变换,用如下公式表示:
Figure BDA0002357863780000031
其中
Figure BDA0002357863780000032
分别表示3个不同的特征变换空间f1,f2,f3对应的特征变换矩阵,使用1×1的卷积核进行不同尺度不同空间特征图的线性组合来实现特征的线性变换,通过整个网络的训练获取其相应的参数矩阵。为了减少模型的训练参数,降低特征空间的维度,设置
Figure BDA0002357863780000033
xk,k=a,p,n分别表示锚图像、正例图像、负例图像的深度特征图。
步骤2.2,应用Re-LU激活函数对f1(xk)和f2(xk)进行非线性处理,获取特征变换响应ei,j,用如下公式表示:
ei,j=(max(f1(xk),0))T(max(f2(xk),0))
步骤2.3,对ei,j进行Softmax归一化,获取特征图第i个位置第j个区域的自注意力分数si,j,用如下公式表示:
Figure BDA0002357863780000034
步骤2.4,基于si,j和f3(xk),计算特征图第j个区域的自注意力特征oj,用如下公式表示:
Figure BDA0002357863780000035
基于所述自注意力特征的计算过程,获取三元组图像,即:锚图像、正例图像、负例图像的自注意力特征,分别用oa,op,on表示。
步骤3,融合自注意力特征与深度特征,获取更具辨识力的图像特征。应用步骤2所述的三元组图像的自注意力特征o∈(oa,op,on),与一个尺度因子α相乘后,再与步骤1所述的Resnet50深度网络提取的深度特征x∈(xa,xp,xn)进行融合,获取三元组融合特征y,用如下公式表示:
y=αo+x
其中y∈(ya,yp,yn),其中ya,yp,yn分别表示锚图像、正例图像、负例图像的融合特征。尺度因子α通过网络训练获取合适的参数,初始化为0。
步骤4,以多分类任务和验证任务的损失函数监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别。多任务学习模型如图4所示。多任务学习的损失函数由所述的多分类任务的损失函数和验证任务的损失函数两部分组成。基于步骤3所述的三元组融合特征y∈(ya,yp,yn),一方面y中的每个融合特征分别经过卷积神经网络的全连接层,以交叉熵损失函数作为目标函数,用来预测输入图像的身份,应用于多分类任务学习中;另一方面y中的任意两个融合特征首先经过平方层,再经过全连接层,同样以交叉熵损失函数作为目标函数,用来决定两张输入图像是否属于相同身份,应用于验证任务学习中。其中平方层定义用如下公式表示:
yij=(yi-yj)2
其中i≠j且yi,yj∈(ya,yp,yn),
对于多分类任务,选取Softmax函数作为全连接层的激活函数,全连接层的输出表示目标的预测概率,其输出维度取决于训练数据集中图像的身份标签数N。多分类任务交叉熵损失函数用如下公式表示:
Figure BDA0002357863780000041
其中zn表示目标概率,
Figure BDA0002357863780000042
表示全连接层的输出。
对于验证任务,同样选取Softmax函数作为全连接层的激活函数,全连接层的输出为2维向量
Figure BDA0002357863780000043
验证任务交叉熵损失函数用如下公式表示:
Figure BDA0002357863780000044
其中(u1,u2)是
Figure BDA0002357863780000045
的真实标签。
多任务学习的损失函数用如下公式表示:
L=Lm+Lv

Claims (7)

1.一种自注意力深度学习端到端的行人再识别方法,其特征在于,包括以下步骤:
步骤1,以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征;
步骤2,在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征;
步骤3,融合自注意力特征与深度特征,获取更具辨识力的图像特征;
步骤4,以多分类任务和验证任务的损失函数共同监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别。
2.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤1中,所述Resnet50深度网络初始化采用大规模ImageNet图像集上已经训练好的Resnet50模型参数。
3.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤1中,Resnet50深度网络由5组卷积层组成,具体包括:
第1组卷积层由1个7×7卷积层组成,卷积层输出64个特征平面;
第2组卷积层由3个相同的Resnet50残差块组成,卷积层输出256个特征平面;
第3组卷积层由3个相同的Resnet50残差块组成,卷积层输出512个特征平面;
第4组卷积层由3个相同的Resnet50残差块组成,卷积层输出1024个特征平面;
第5组卷积层由3个相同的Resnet50残差块组成,卷积层输出2048个特征平面。
4.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤2中,基于所述的Resnet50深度网络,在三元组图像上分别提取锚图像、正例图像、负例图像的特征向量,通过训练多个自注意力模型,计算多个自注意力特征,用于定位输入图像的多个可辨识的局部图像区域;
所述自注意力特征的计算过程包含以下步骤:
步骤2.1,应用3个特征变换空间进行特征的线性变换,应用1×1的卷积核来实现;
步骤2.2,应用Re-LU激活函数对2个线性特征变换进行非线性处理,获取特征变换响应;
步骤2.3,对特征变换响应进行Softmax归一化,获取特征图不同区域的自注意力分数;
步骤2.4,基于不同区域的自注意力分数和第3个特征变换,计算三元组图像的特征图不同区域的自注意力特征。
5.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤3中,应用步骤2获取的三元组图像的自注意力特征,与一个尺度因子相乘后,再与步骤1所述的Resnet50深度网络提取的三元组图像的深度特征进行融合,获取三元组图像融合特征。
6.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤4中,由多分类任务的损失函数和验证任务的损失函数两部分组成多任务学习的损失函数,基于步骤3所述的三元组融合特征,一方面,每个融合特征分别经过卷积神经网络的全连接层,以交叉熵损失函数作为目标函数,用来预测输入图像的身份,应用于多分类任务学习中;另一方面,任意两个融合特征首先经过平方层,再经过全连接层,同样以交叉熵损失函数作为目标函数,用来决定两张输入图像是否属于相同身份,应用于验证任务学习中。
7.根据权利要求6所述的自注意力深度学习端到端的行人再识别方法,其特征在于,所述平方层的定义用公式表示如下:
yij=(yi-yj)2
其中i≠j且yi,yj∈(ya,yp,yn),ya,yp,yn分别表示三元组图像中锚图像、正例图像、负例图像的融合特征。
CN202010016162.XA 2019-10-29 2020-01-07 一种自注意力深度学习端到端的行人再识别方法 Active CN111008618B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911038607 2019-10-29
CN2019110386078 2019-10-29

Publications (2)

Publication Number Publication Date
CN111008618A true CN111008618A (zh) 2020-04-14
CN111008618B CN111008618B (zh) 2023-03-31

Family

ID=70120614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010016162.XA Active CN111008618B (zh) 2019-10-29 2020-01-07 一种自注意力深度学习端到端的行人再识别方法

Country Status (1)

Country Link
CN (1) CN111008618B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582206A (zh) * 2020-05-13 2020-08-25 北京字节跳动网络技术有限公司 用于生成生物体姿态关键点信息的方法和装置
CN111798445A (zh) * 2020-07-17 2020-10-20 北京大学口腔医院 一种基于卷积神经网络的牙齿图像龋坏识别方法及系统
CN112149643A (zh) * 2020-11-09 2020-12-29 西北工业大学 基于多级注意力机制的面向无人机平台的车辆重识别方法
CN113191386A (zh) * 2021-03-26 2021-07-30 中国矿业大学 基于网格重构学习的染色体分类模型
CN113343909A (zh) * 2021-06-29 2021-09-03 南京星云数字技术有限公司 多任务分类网络的训练方法、行人重识别方法
CN114155496A (zh) * 2021-11-29 2022-03-08 西安烽火软件科技有限公司 一种基于自注意力的车辆属性多任务协同识别方法
US20220180132A1 (en) * 2020-12-09 2022-06-09 Tongji University Cross-modality person re-identification method based on local information learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019010950A1 (zh) * 2017-07-13 2019-01-17 北京大学深圳研究生院 用于图像或视频中行人重识别的深度判别网络模型方法
CN109784197A (zh) * 2018-12-21 2019-05-21 西北工业大学 基于孔洞卷积与注意力学习机制的行人再识别方法
CN110175527A (zh) * 2019-04-29 2019-08-27 北京百度网讯科技有限公司 行人再识别方法及装置、计算机设备及可读介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019010950A1 (zh) * 2017-07-13 2019-01-17 北京大学深圳研究生院 用于图像或视频中行人重识别的深度判别网络模型方法
CN109784197A (zh) * 2018-12-21 2019-05-21 西北工业大学 基于孔洞卷积与注意力学习机制的行人再识别方法
CN110175527A (zh) * 2019-04-29 2019-08-27 北京百度网讯科技有限公司 行人再识别方法及装置、计算机设备及可读介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王兴柱等: "三元组在非监督行人再识别中的应用", 《仪表技术》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582206B (zh) * 2020-05-13 2023-08-22 抖音视界有限公司 用于生成生物体姿态关键点信息的方法和装置
CN111582206A (zh) * 2020-05-13 2020-08-25 北京字节跳动网络技术有限公司 用于生成生物体姿态关键点信息的方法和装置
CN111798445B (zh) * 2020-07-17 2023-10-31 北京大学口腔医院 一种基于卷积神经网络的牙齿图像龋坏识别方法及系统
CN111798445A (zh) * 2020-07-17 2020-10-20 北京大学口腔医院 一种基于卷积神经网络的牙齿图像龋坏识别方法及系统
CN112149643A (zh) * 2020-11-09 2020-12-29 西北工业大学 基于多级注意力机制的面向无人机平台的车辆重识别方法
CN112149643B (zh) * 2020-11-09 2022-02-22 西北工业大学 基于多级注意力机制的面向无人机平台的车辆重识别方法
US11836224B2 (en) * 2020-12-09 2023-12-05 Tongji University Cross-modality person re-identification method based on local information learning
US20220180132A1 (en) * 2020-12-09 2022-06-09 Tongji University Cross-modality person re-identification method based on local information learning
CN113191386A (zh) * 2021-03-26 2021-07-30 中国矿业大学 基于网格重构学习的染色体分类模型
CN113191386B (zh) * 2021-03-26 2023-11-03 中国矿业大学 基于网格重构学习的染色体分类模型
CN113343909B (zh) * 2021-06-29 2023-09-26 南京星云数字技术有限公司 多任务分类网络的训练方法、行人重识别方法
CN113343909A (zh) * 2021-06-29 2021-09-03 南京星云数字技术有限公司 多任务分类网络的训练方法、行人重识别方法
CN114155496A (zh) * 2021-11-29 2022-03-08 西安烽火软件科技有限公司 一种基于自注意力的车辆属性多任务协同识别方法
CN114155496B (zh) * 2021-11-29 2024-04-26 西安烽火软件科技有限公司 一种基于自注意力的车辆属性多任务协同识别方法

Also Published As

Publication number Publication date
CN111008618B (zh) 2023-03-31

Similar Documents

Publication Publication Date Title
CN111008618B (zh) 一种自注意力深度学习端到端的行人再识别方法
CN108960140B (zh) 基于多区域特征提取和融合的行人再识别方法
CN107506740B (zh) 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法
Kishore et al. Indian classical dance action identification and classification with convolutional neural networks
CN111814661B (zh) 基于残差-循环神经网络的人体行为识别方法
CN108021947B (zh) 一种基于视觉的分层极限学习机目标识别方法
CN112906720B (zh) 基于图注意力网络的多标签图像识别方法
CN109766873B (zh) 一种混合可变形卷积的行人再识别方法
Xia et al. Loop closure detection for visual SLAM using PCANet features
CN110717526A (zh) 一种基于图卷积网络的无监督迁移学习方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
Tang et al. Deep fishernet for object classification
CN110765960B (zh) 一种自适应多任务深度学习的行人再识别方法
CN113269224A (zh) 一种场景图像分类方法、系统及存储介质
Singh et al. Leaf identification using feature extraction and neural network
CN112329771A (zh) 一种基于深度学习的建筑材料样本识别方法
CN116649191A (zh) 基于plc的远程施肥灌溉控制系统及其方法
Zhao et al. Cbph-net: A small object detector for behavior recognition in classroom scenarios
Kabir et al. An evolution of CNN object classifiers on low-resolution images
CN112686242A (zh) 一种基于多层聚焦注意力网络的细粒度图像分类方法
CN117154256A (zh) 锂电池的电化学修复方法
CN113205545B (zh) 区域环境下的行为识别分析方法、系统
Dalara et al. Entity Recognition in Indian Sculpture using CLAHE and machine learning
CN114581485A (zh) 一种基于语言建模式孪生网络的目标跟踪方法
CN113011506A (zh) 一种基于深度重分形频谱网络的纹理图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant