CN110321862B - 一种基于紧致三元损失的行人再识别方法 - Google Patents

一种基于紧致三元损失的行人再识别方法 Download PDF

Info

Publication number
CN110321862B
CN110321862B CN201910614505.XA CN201910614505A CN110321862B CN 110321862 B CN110321862 B CN 110321862B CN 201910614505 A CN201910614505 A CN 201910614505A CN 110321862 B CN110321862 B CN 110321862B
Authority
CN
China
Prior art keywords
pedestrian
images
batch
loss
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910614505.XA
Other languages
English (en)
Other versions
CN110321862A (zh
Inventor
张重
司统振
刘爽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Normal University
Original Assignee
Tianjin Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Normal University filed Critical Tianjin Normal University
Priority to CN201910614505.XA priority Critical patent/CN110321862B/zh
Publication of CN110321862A publication Critical patent/CN110321862A/zh
Application granted granted Critical
Publication of CN110321862B publication Critical patent/CN110321862B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Abstract

本发明实施例公开了一种基于紧致三元损失的行人再识别方法,该方法包括:将训练集行人图像输入预训练深度学习模型,得到第一行人图像特征;根据紧致三元损失函数计算第一行人图像特征的紧致三元损失;对第一行人图像特征进行归一化,得到第二行人图像特征;根据交叉熵损失函数计算第二行人图像特征的交叉熵损失;结合紧致三元损失和交叉熵损失,优化行人再识别网络框架;基于优化行人再识别网络框架进行行人识别。本发明充分利用紧致三元损失与交叉熵损失的优势,联合两种损失来执行多任务操作、学习行人特征,进一步提高了行人再识别的匹配正确率。

Description

一种基于紧致三元损失的行人再识别方法
技术领域
本发明属于模式识别、人工智能领域,具体涉及一种基于紧致三元损失的行人再识别方法。
背景技术
为了保障人民生命、财产安全,在公园、学校、医院等公共场所均安装有大量的监控摄像头,构成了大规模的分布式监控系统。行人再识别(Person Re-Identification)技术能够在不同摄像头下搜索相同行人,进而定位目标行人。然而,由于行人姿势变化,光照变化,摄像头角度不同以及遮挡等众多原因,行人再识别技术仍面临着巨大的挑战。研究者一直致力于探索更具判别性的行人特征,以提高行人识别的准确率。
近年来,研究者将深度学习方法应用到行人再识别领域,使得行人再识别性能大幅提高。从深度模型所用损失函数的角度可以将深度学习方法大致分为三类:第一类是执行排序任务的方法,Varior等人利用对比损失优化孪生神经网络,使相同行人特征相互靠近,不同行人特征相互远离;Hermans等人提出难样本三元损失函数,使小批量中正样本对之间的最大距离小于负样本对之间的最小距离。第二类是执行分类任务的方法,Sun等人将深度模型的特征图划分为六部分,之后利用交叉熵损失函数为每部分特征进行分类,最后串联六部分特征用以表示行人图像;Si等人从多个分类模型中提取判别性特征,之后利用融合策略集成来自不同模型的特征表示,该方法进一步提高了行人再识别的准确率。第三类是执行多任务的方法,Bai等人将神经网络分为三个分支,其中前两个分支执行分类任务分别学习整体和局部特征,第三个分支执行排序任务,最后联合三个分支的损失共同优化神经网络;Wang等人提出多颗粒网络框架,之后利用三元组损失和交叉熵损失学习不同尺度的行人特征,并联合两种损失共同优化网络结构。然而,以上方法并没有考虑行人图像特征之间的关系,以至于相同行人图像特征差异较大,不同行人图像特征判别性不强。
发明内容
本发明的目的是要解决相同行人图像特征之间变化太大,不同行人图像特征之间变化不明显的技术问题,为此,本发明提供一种基于紧致三元损失的行人再识别方法。
为了实现所述目的,本发明提出的一种基于紧致三元损失的行人再识别方法包括以下步骤:
步骤S1,获取预训练深度学习模型,并对其进行参数初始化;
步骤S2,将训练集的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft
步骤S3,设置紧致三元损失函数,并根据所述紧致三元损失函数计算所述第一行人图像特征ft的紧致三元损失;
步骤S4,在所述预训练深度学习模型后增加批归一化层对所述第一行人图像特征ft进行归一化操作,得到第二行人图像特征fv
步骤S5,在所述批归一化层后增加全连接层作为分类器对所述第二行人图像特征fv进行分类,设置交叉熵损失函数,并根据分类结果和所述交叉熵损失函数计算所述第二行人图像特征fv的交叉熵损失;
步骤S6,结合所述紧致三元损失和交叉熵损失,对于由所述预训练深度学习模型、批归一化层以及全连接层组成的行人再识别网络框架进行优化,得到最优行人再识别网络框架;
步骤S7,将测试行人图像输入所述最优行人再识别网络框架中,得到行人识别特征,并基于所述行人识别特征对于所述测试行人图像进行识别,得到行人识别结果。
可选地,所述步骤S2包括以下步骤:
步骤S21,对训练集的行人图像进行预处理;
步骤S22,将预处理后的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft
可选地,所述步骤S3中,所述紧致三元损失函数为LC表示为:
LC=LT+λLI+ηLE,
其中,LT是难样本三元损失函数,LI是用于减小相同行人图像特征之间的差异的正则项,LE是用于增大不同行人图像特征之间变化的正则项,λ和η分别表示控制行人图像特征类间和类内关系重要性的权重。
可选地,所述难样本三元损失函数LT表示为:
Figure BDA0002123467370000031
其中,P是小批量行人图像中行人类别数,K是每一类行人的图像数量,m是预设的阈值,第一行人图像特征ft可包括特征xak、特征xp和特征xn,其中,特征xak是小批量行人图像中第a类行人的第k幅图像特征,特征xp是小批量行人图像中与第a类行人具有相同标签的行人特征,特征xn是小批量行人图像中与a类行人具有不同标签的行人特征,D(·,·)为距离函数。
可选地,所述正则项LI表示为:
Figure BDA0002123467370000032
其中,ca是小批量行人图像中第a类行人的特征中心,xak是小批量行人图像中第a类行人的第k幅图像特征,P是小批量行人图像中行人类别数,K是每一类行人的图像数量。
可选地,所述第a类行人的特征中心ca表示为:
Figure BDA0002123467370000041
可选地,所述正则项LE表示为:
Figure BDA0002123467370000042
其中,P是小批量行人图像中行人类别数,β是预先设置的阈值,ca和cb分别表示第a类和第b类行人图像特征的中心。
可选地,所述步骤S5包括以下步骤:
步骤S51,在所述批归一化层后增加一个全连接层作为分类器对所述第二行人图像特征fv进行分类,计算所述第二行人图像特征fv属于第i类别的预测类别概率p(i);
步骤S52,基于所述预测类别概率p(i),利用所述交叉熵损失函数LID计算所述第二行人图像特征fv的交叉熵损失。
可选地,所述交叉熵损失函数LID表示为:
Figure BDA0002123467370000043
其中,q(i)表示行人图像真实标签的分布,C为训练集中行人的总类别数目。
可选地,所述步骤S6包括以下步骤:
步骤S61,计算小批量行人图像内的分类损失LIDT
Figure BDA0002123467370000044
其中,
Figure BDA0002123467370000045
表示小批量行人图像中第s个行人图像的分类损失值,P是小批量行人图像中行人类别数,K是每一类行人的图像数量;
步骤S62,将所述紧致三元损失与交叉熵损失相加得到的总损失作为所述行人再识别网络框架的最终损失L,并基于所述最终损失L对于所述行人再识别网络框架进行优化。
本发明的有益效果为:本发明通过紧致三元损失函数执行排序任务,这不仅进一步减小相同行人图像特征之间的变化,而且增大不同行人图像特征之间的变化,同时通过交叉熵损失函数执行分类任务,将两种任务融合于一个网络结构中,进一步提高了行人图像特征的判别性,提高了行人再识别搜索的正确率。
需要说明的是,本发明得到了国家自然科学基金项目No.61501327、No.61711530240,天津市自然科学基金重点项目No.17JCZDJC30600,天津师范大学“青年科研拔尖人才培育计划”No.135202RC1703,模式识别国家重点实验室开放课题基金No.201800002,天津市高等教育创新团队基金项目和天津师范大学研究生科研实践重点项目No.YZ1260021937的资助。
附图说明
图1是根据本发明一实施例的一种基于紧致三元损失的行人再识别方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例的一种基于紧致三元损失的行人再识别方法流程图,下面以图1为例来说明本发明的一些具体实现流程,如图1所示,所述基于紧致三元损失的行人再识别方法包括以下步骤:
步骤S1,获取预训练深度学习模型,并对其进行参数初始化;
在本发明一实施例中,所采用的已预训练的深度学习模型为ResNet-50,其中,将ResNet-50中第四个块的步长由原来的2改为1,并且去掉最后一个全连接层。
步骤S2,将训练集的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft
进一步地,所述步骤S2包括以下步骤:
步骤S21,对训练集的行人图像进行预处理;
在本发明一实施例中,所述对训练集的行人图像进行预处理具体为:将行人图像的大小裁剪为预设大小,比如384×128,然后为裁剪后的行人图像填充预设数量的像素,比如填充10个值为0的像素,再次将所述行人图像随机裁剪到预设大小,即384×128,并把所有的像素值按比例缩小至预设范围之间,比如0到1之间,然后将每个像素值减去训练集中所有行人图像的像素平均值,再除以训练集中所有行人图像的像素标准方差。
步骤S22,将预处理后的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft
步骤S3,设置紧致三元损失函数,并根据所述紧致三元损失函数计算所述第一行人图像特征ft的紧致三元损失;
其中,所述,紧致三元损失函数LC可表示为:
LC=LT+λLI+ηLE,
其中,LT是难样本三元损失函数,LI是用于减小相同行人图像特征之间的差异的正则项,LE是用于增大不同行人图像特征之间变化的正则项,λ和η分别表示控制行人图像特征类间和类内关系重要性的权重。
在本发明一实施例中,在Market1501数据库中进行测试时,λ和η可以分别设置为0.8和0.6。
进一步地,所述紧致三元损失函数LC中,所述难样本三元损失函数LT表示为:
Figure BDA0002123467370000061
其中,P是小批量行人图像中行人类别数,K是每一类行人的图像数量,m是预设的阈值,第一行人图像特征ft可包括特征xak、特征xp和特征xn,其中,特征xak是小批量行人图像中第a类行人的第k幅图像特征,特征xp是小批量行人图像中与第a类行人具有相同标签的行人特征,特征xn是小批量行人图像中与第a类行人具有不同标签的行人特征,D(·,·)为距离函数,比如欧式距离函数。
在本发明一实施例中,小批量行人图像的数量与行人图像总数量的比例小于0.5或者远小于0.5,比如所述输入图像中的小批量一共有16类行人,每类行人有4幅图像,即P可设置为16,K可设置为4。在Market1501数据库中进行测试时,m=0.3。
进一步地,所述紧致三元损失函数LC中,所述正则项LI表示为:
Figure BDA0002123467370000071
其中,ca是小批量行人图像中第a类行人的特征中心。
进一步地,所述正则项LI中,所述第a类行人的特征中心ca表示为:
Figure BDA0002123467370000072
进一步地,所述紧致三元损失函数LC中,所述正则项LE表示为:
Figure BDA0002123467370000073
其中,β是预先设置的阈值,ca和cb分别表示第a类和第b类行人图像的特征中心,cb可按照上述ca的计算方法来计算。
在本发明一实施例中,在Market1501数据库中进行测试时,β=0.9。
步骤S4,在所述预训练深度学习模型后增加批归一化层对所述第一行人图像特征ft进行归一化操作,得到第二行人图像特征fv
步骤S5,在所述批归一化层后增加全连接层作为分类器对所述第二行人图像特征fv进行分类,设置交叉熵损失函数,并根据分类结果和所述交叉熵损失函数计算所述第二行人图像特征fv的交叉熵损失;
其中,所述预训练深度学习模型、批归一化层以及全连接层组成本公开中的行人再识别网络框架。
进一步地,所述步骤S5包括以下步骤:
步骤S51,在所述批归一化层后增加一个全连接层作为分类器对所述第二行人图像特征fv进行分类,计算所述第二行人图像特征fv属于第i类别的预测类别概率p(i);
步骤S52,基于所述预测类别概率p(i),利用所述交叉熵损失函数LID计算所述第二行人图像特征fv的交叉熵损失。
进一步地,所述步骤S51中,所述行人图像特征fv属于第i类别的预测类别概率p(i)表示为:
Figure BDA0002123467370000081
其中,ui表示全连接层中第i个神经元的激活值,uj表示全连接层中第j个神经元的激活值,C为训练集中行人的总类别数目。
在本发明一实施例中,在Market 1501数据库中进行测试时,C=751。
进一步地,所述步骤S52中,所述交叉熵损失函数LID表示为:
Figure BDA0002123467370000082
其中,q(i)表示行人图像真实标签的分布,其可表示为:
Figure BDA0002123467370000083
其中,t是行人图像的真实标签。
步骤S6,结合所述紧致三元损失和交叉熵损失,对于由所述预训练深度学习模型、批归一化层以及全连接层组成的行人再识别网络框架进行优化,得到最优行人再识别网络框架;
进一步地,所述步骤S6包括以下步骤:
步骤S61,计算小批量行人图像的分类损失LIDT,其可表示为:
Figure BDA0002123467370000091
其中,
Figure BDA0002123467370000092
表示小批量行人图像中第s个行人图像的分类损失值,P是小批量行人图像中行人类别数,K是每一类行人的图像数量。
步骤S62,将所述紧致三元损失与交叉熵损失相加得到的总损失作为所述行人再识别网络框架的最终损失L,并基于所述最终损失L对于所述行人再识别网络框架进行优化。
其中,所述最终损失L可表示为:
L=LIDT+LC
其中,通过迭代计算,调整所述行人再识别网络框架的参数,以使得所述最终损失L最小。
其中,可借助随机梯度下降法进行迭代计算。
步骤S7,在测试阶段,将测试行人图像输入所述最优行人再识别网络框架中,得到行人识别特征,并基于所述行人识别特征对于所述测试行人图像进行识别,得到行人识别结果。
以网上公开的行人再识别大型数据库作为测试对象,比如在Market 1501数据库上测试时,本发明行人再识别正确搜索率达到94.6%(rank-1)和84.2(mAP)。本发明行人再识别方法有效地减小了相同行人图像特征之间的变化,增大了不同行人图像特征之间的变化,利用紧致三元损失函数和交叉熵损失函数提高特征的判别性,很大程度地提高了行人再识别正确搜索率,由此可见本发明方法的有效性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。

Claims (6)

1.一种基于紧致三元损失的行人再识别方法,其特征在于,所述方法包括以下步骤:
步骤S1,获取预训练深度学习模型,并对其进行参数初始化;
步骤S2,将训练集的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft
步骤S3,设置紧致三元损失函数,并根据所述紧致三元损失函数计算所述第一行人图像特征ft的紧致三元损失;
步骤S4,在所述预训练深度学习模型后增加批归一化层对所述第一行人图像特征ft进行归一化操作,得到第二行人图像特征fv
步骤S5,在所述批归一化层后增加全连接层作为分类器对所述第二行人图像特征fv进行分类,设置交叉熵损失函数,并根据分类结果和所述交叉熵损失函数计算所述第二行人图像特征fv的交叉熵损失;
步骤S6,结合所述紧致三元损失和交叉熵损失,对于由所述预训练深度学习模型、批归一化层以及全连接层组成的行人再识别网络框架进行优化,得到最优行人再识别网络框架;
步骤S7,将测试行人图像输入所述最优行人再识别网络框架中,得到行人识别特征,并基于所述行人识别特征对于所述测试行人图像进行识别,得到行人识别结果;
所述步骤S3中,所述紧致三元损失函数为LC表示为:
LC=LT+λLI+ηLE,
其中,LT是难样本三元损失函数,LI是用于减小相同行人图像特征之间的差异的正则项,LE是用于增大不同行人图像特征之间变化的正则项,λ和η分别表示控制行人图像特征类间和类内关系重要性的权重;
所述正则项LI表示为:
Figure FDA0003898442420000021
其中,ca是小批量行人图像中第a类行人的特征中心,xak是小批量行人图像中第a类行人的第k幅图像特征,P是小批量行人图像中行人类别数,K是每一类行人的图像数量;
所述第a类行人的特征中心ca表示为:
Figure FDA0003898442420000022
所述正则项LE表示为:
Figure FDA0003898442420000023
其中,P是小批量行人图像中行人类别数,β是预先设置的阈值,ca和cb分别表示第a类和第b类行人图像特征的中心。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2包括以下步骤:
步骤S21,对训练集的行人图像进行预处理;
步骤S22,将预处理后的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft
3.根据权利要求1所述的方法,其特征在于,所述难样本三元损失函数LT表示为:
Figure FDA0003898442420000024
其中,P是小批量行人图像中行人类别数,K是每一类行人的图像数量,m是预设的阈值,第一行人图像特征ft包括特征xak、特征xp和特征xn,其中,特征xak是小批量行人图像中第a类行人的第k幅图像特征,特征xp是小批量行人图像中与第a类行人具有相同标签的行人特征,特征xn是小批量行人图像中与a类行人具有不同标签的行人特征,D(·,·)为距离函数。
4.根据权利要求1所述的方法,其特征在于,所述步骤S5包括以下步骤:
步骤S51,在所述批归一化层后增加一个全连接层作为分类器对所述第二行人图像特征fv进行分类,计算所述第二行人图像特征fv属于第i类别的预测类别概率p(i);
步骤S52,基于所述预测类别概率p(i),利用所述交叉熵损失函数LID计算所述第二行人图像特征fv的交叉熵损失。
5.根据权利要求4所述的方法,其特征在于,所述交叉熵损失函数LID表示为:
Figure FDA0003898442420000031
其中,q(i)表示行人图像真实标签的分布,C为训练集中行人的总类别数目。
6.根据权利要求1所述的方法,其特征在于,所述步骤S6包括以下步骤:
步骤S61,计算小批量行人图像内的分类损失LIDT
Figure FDA0003898442420000032
其中,
Figure FDA0003898442420000033
表示小批量行人图像中第s个行人图像的分类损失值,P是小批量行人图像中行人类别数,K是每一类行人的图像数量;
步骤S62,将所述紧致三元损失与交叉熵损失相加得到的总损失作为所述行人再识别网络框架的最终损失L,并基于所述最终损失L对于所述行人再识别网络框架进行优化。
CN201910614505.XA 2019-07-09 2019-07-09 一种基于紧致三元损失的行人再识别方法 Active CN110321862B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910614505.XA CN110321862B (zh) 2019-07-09 2019-07-09 一种基于紧致三元损失的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910614505.XA CN110321862B (zh) 2019-07-09 2019-07-09 一种基于紧致三元损失的行人再识别方法

Publications (2)

Publication Number Publication Date
CN110321862A CN110321862A (zh) 2019-10-11
CN110321862B true CN110321862B (zh) 2023-01-10

Family

ID=68121616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910614505.XA Active CN110321862B (zh) 2019-07-09 2019-07-09 一种基于紧致三元损失的行人再识别方法

Country Status (1)

Country Link
CN (1) CN110321862B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126155B (zh) * 2019-11-25 2023-04-21 天津师范大学 一种基于语义约束生成对抗网络的行人再识别方法
CN111292801A (zh) * 2020-01-21 2020-06-16 西湖大学 蛋白质质谱结合深度学习评估甲状腺结节的方法
CN111445899B (zh) * 2020-03-09 2023-08-01 咪咕文化科技有限公司 语音情绪识别方法、装置及存储介质
CN111553428B (zh) * 2020-04-30 2024-01-12 北京百度网讯科技有限公司 用于训练判别模型的方法、装置、设备及可读存储介质
CN112131970A (zh) * 2020-09-07 2020-12-25 浙江师范大学 一种基于多通道时空网络和联合优化损失的身份识别方法
CN112668544B (zh) * 2021-01-13 2022-03-22 昆明理工大学 一种基于难样本混淆增强特征鲁棒性的行人重识别方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984915B (zh) * 2014-02-28 2017-11-24 中国计量学院 一种监控视频中行人重识别方法
US9928448B1 (en) * 2016-09-23 2018-03-27 International Business Machines Corporation Image classification utilizing semantic relationships in a classification hierarchy
CN107953329B (zh) * 2016-10-17 2021-06-15 中国科学院深圳先进技术研究院 物体识别和姿态估计方法、装置及机械臂抓取系统
WO2018081135A1 (en) * 2016-10-25 2018-05-03 Vmaxx Inc. Point to set similarity comparison and deep feature learning for visual recognition
CN106778527B (zh) * 2016-11-28 2019-11-12 中通服公众信息产业股份有限公司 一种基于三重损失的改进的神经网络行人再识别方法
CN107729818B (zh) * 2017-09-21 2020-09-22 北京航空航天大学 一种基于深度学习的多特征融合车辆重识别方法
CN107832672B (zh) * 2017-10-12 2020-07-07 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法
CN109034044B (zh) * 2018-06-14 2022-04-05 天津师范大学 一种基于融合卷积神经网络的行人再识别方法
CN108960184B (zh) * 2018-07-20 2021-08-24 天津师范大学 一种基于异构部件深度神经网络的行人再识别方法
CN109615452B (zh) * 2018-10-29 2020-07-10 华中科技大学 一种基于矩阵分解的产品推荐方法
CN109583502B (zh) * 2018-11-30 2022-11-18 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN109711366B (zh) * 2018-12-29 2021-04-23 浙江大学 一种基于群组信息损失函数的行人重识别方法

Also Published As

Publication number Publication date
CN110321862A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
CN110321862B (zh) 一种基于紧致三元损失的行人再识别方法
CN109034044B (zh) 一种基于融合卷积神经网络的行人再识别方法
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN108564097B (zh) 一种基于深度卷积神经网络的多尺度目标检测方法
CN112446388A (zh) 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统
CN103258204B (zh) 一种基于Gabor和EOH特征的自动微表情识别方法
CN114220124A (zh) 一种近红外-可见光跨模态双流行人重识别方法及系统
CN110309331A (zh) 一种基于自监督的跨模态深度哈希检索方法
CN107766850A (zh) 基于结合人脸属性信息的人脸识别方法
CN103955702A (zh) 基于深度rbf网络的sar图像地物分类方法
CN109784288B (zh) 一种基于判别感知融合的行人再识别方法
CN109753567A (zh) 一种结合标题与正文注意力机制的文本分类方法
CN103996056A (zh) 一种基于深度学习的纹身图像分类方法
CN109255289B (zh) 一种基于统一式生成模型的跨衰老人脸识别方法
CN110363253A (zh) 一种基于卷积神经网络的热轧带钢表面缺陷分类方法
CN110309868A (zh) 结合无监督学习的高光谱图像分类方法
CN106845528A (zh) 一种基于K‑means与深度学习的图像分类算法
CN112732921B (zh) 一种虚假用户评论检测方法及系统
KR20200010672A (ko) 딥러닝을 이용한 스마트 상품 검색 방법 및 시스템
Ragib et al. Pakhichini: Automatic bird species identification using deep learning
CN109101869A (zh) 多任务学习深度网络的测试方法、设备及存储介质
Abu-Jamie et al. Classification of sign-language using vgg16
Wang et al. A high-accuracy genotype classification approach using time series imagery
CN114241458A (zh) 一种基于姿态估计特征融合的驾驶员行为识别方法
CN110188621A (zh) 一种基于ssf-il-cnn的三维人脸表情识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant