CN108960141B - 基于增强型深度卷积神经网络的行人再识别方法 - Google Patents
基于增强型深度卷积神经网络的行人再识别方法 Download PDFInfo
- Publication number
- CN108960141B CN108960141B CN201810721706.5A CN201810721706A CN108960141B CN 108960141 B CN108960141 B CN 108960141B CN 201810721706 A CN201810721706 A CN 201810721706A CN 108960141 B CN108960141 B CN 108960141B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- feature
- features
- convolutional neural
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 39
- 238000012795 verification Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims abstract description 13
- 238000013135 deep learning Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 102100040160 Rabankyrin-5 Human genes 0.000 description 2
- 101710086049 Rabankyrin-5 Proteins 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 102100038353 Gremlin-2 Human genes 0.000 description 1
- 101001032860 Mus musculus Gremlin-2 Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于增强型深度卷积神经网络的行人再识别方法,使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;通过特征比较预测两张图像中行人是否为同一个人,联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。本发明充分利用了手动特征和深度特征之间的互补性,提出了联合使用分类损失和验证损失函数用于监督网络训练的策略,获得了良好的性能,有效地提高行人再识别准确率。
Description
技术领域
本发明属于计算机视觉行人再识别技术领域,尤其是一种基于增强型深度卷积神经网络的行人再识别方法。
背景技术
随着社会安全的需要以及科技的发展,机场、车站、商场和学校等公共场所布置了大量的摄像头网络。这些地理空间跨度大、监控区域不重叠的摄像头给后续处理系统提供了大量的视频数据。在这一背景下,依赖人工处理这些数据变得效率低下且不可行,必须依赖先进的机器算法进行智能处理,通过机器算法自动地分析这些视频数据不仅能提高效率还能显著提升监控的质量。行人再识别是监控数据处理中的一个重要研究方向,其主要目的是匹配非重叠摄像机视角中具有相同身份类别的行人图像,使计算机能够自动筛选出特定身份的行人,从而节省人力资源。同时,这是一项具有挑战性的任务,因为行人的视觉外观会因为行人姿势变化、摄像机视角不同、光照差异、遮挡和背景干扰而在不同的摄像机中有显著的变化。
传统的行人再识别研究主要集中在如下两个方面:特征提取和度量学习。特征提取的目标是提取一种鲁棒且有辨识能力的特征,来对行人进行表示。目前已经有很多图像特征被用于解决行人再识别问题,例如ELF特征、SDALF特征、Gabor特征、LOMO特征和ColorNames特征。通常,单个初级图像特征对图像的表示能力较弱,融合多个初级特征可以获得更好的性能。特征提取完成后,需要使用度量学习方法把提取出的行人特征映射到另一个空间,使得同一行人特征之间的距离更小,不同行人特征之间的距离更大。当前性能较好,使用范围较广的度量方法包括ITML、KISSME、PRDC、LMNN和LFDA等。近几年,卷积神经网络(CNN)已经被用于行人再识别。深度学习提供了一种强大且自适应的方法来处理计算机视觉问题,无需过多的人工干预就可以提取出性能优良的图像特征。反向传播算法动态地调整CNN中的参数,从而在单个网络中统一特征提取和度量匹配过程。由于深度学习方法的优异性能和端到端的处理方式,该方法在行人再识别研究领域得到了广泛的关注。
借助卷积神经网络强大的学习能力,在提取出的图像特征性能上,深度学习方法较大幅度优于传统手工提取方法。一些专门设计用于克服交叉视角外观变化的手工提取的传统特征在光照变化或行人外观颜色变化严重情况下,有着其独特的优良性能。因此,如何结合这两种图像特征的优点,获取更适合实际应用场景条件的行人图像特征以提高行人再识别准确率是目前迫切需要解决的问题。
发明内容
本发明的目的在于克服现有技术的不足,提出一种设计合理且识别准确的基于增强型深度卷积神经网络的行人再识别方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于增强型深度卷积神经网络的行人再识别方法,包括以下步骤:
步骤1、使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;
步骤2、应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;
步骤3、在获取成对输入两张图像的增强型深度特征后,通过特征比较预测两张图像中行人是否为同一个人;
步骤4、联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。
所述步骤1的具体实现方法包含以下步骤:
⑴将行人图像缩放到统一尺寸224×224,以Resnet50卷积神经网络架构作为预训练的基础卷积神经网络并去除其最后的全连接层;
⑵将缩放后的行人图像输入到修改后的Resnet50卷积神经网络架构中,图像经过一系列卷积、批量归一化、池化、ReLU操作后,最终输出2048维的基础深度特征;
⑶使用传统特征提取方法提取缩放后的行人图像的手动特征(例如HSV颜色直方图,LBP特征和LOMO特征等),将其降维至2048维。
所述手动特征为SV颜色直方图、LBP特征和LOMO特征。
所述步骤2的具体实现方法包含以下步骤:
⑴构造由一个级联器和一个全连接层组成的特征重建模块;
⑵通过级联器将手动特征和基础深度特征在维度上级联起来,构成一个4096维的融合特征;
⑶通过全连接层重建级联后的特征,获得4096维的增强型深度特征。
所述步骤3的具体实现方法包含以下步骤:
⑴同时提取两张图像的增强型深度特征;
⑵对两张图像的增强型深度特征进行按位相减和平方操作,获得对比特征:
⑶将对比特征通过一个全连接层,该全连接层的输出作为后续预测两张图像异同的输入。
所述步骤4的具体实现方法包含以下步骤:
⑴将每张行人图像的增强型深度特征进行分类,预测行人身份,并采用分类损失表示分类准确度;
⑵将行人图像对的对比特征进行二分类,预测该图像对是否具有相同身份标签,采用验证损失表示预测精确度;
⑶通过后向传播算法,以最小化分类损失和验证损失为目标来监督网络参数的更新,使得网络生成更有判别力的行人图像特征。
本发明的优点和积极效果是:
1、本发明设计合理,首先将手动特征引入到卷积神经网络模型之中,使得由此增强型卷积神经网络产生的特征同时具有手动特征的专有优点和普通深度特征的高性能优势;并且通过特征重建模块将手动特征和深度特征以一种学得的更高效的方式融合成增强型特征;最后通过联合使用分类损失和验证损失函数来帮助网络学得更适合得嵌入空间。本发明在公开数据集上进行了测试,并与目前主流得行人再识别算法进行了比较,结果表明提出的方法在性能上优于目前大多数行人再识别算法。
2、本发明设计合理,充分利用了手动特征和深度特征之间的互补性,结合深度学习卷积神经网络对图像的强大的表示能力以及传统手动特征特有的优点,构建了用于行人再识别的增强型卷积神经网络,提出了联合使用分类损失和验证损失函数用于监督网络训练的策略,获得了良好的性能,有效地提高行人再识别准确率。
附图说明
图1为本发明提出的行人再识别算法网络框架图;
图2为本发明提出的特征重建模块原理框图;
图3为本发明提出的特征对比层原理框图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
如图1所示,一种基于增强型深度卷积神经网络的行人再识别方法,首先基于深度学习Resnet50卷积神经网络架构提取图像的基础深度特征,该基础深度特征的维度为2048维,使用具体的手动特征提取方法提取图像的手动特征,并采用PCA降维方法降至与基础深度特征匹配的2048维;然后通过特征重建模块将获得的基础深度特征和手动特征级联重建成增强型深度特征,增强型深度特征的维度为4096维;考虑成对输入图像,在提取两张图像各自的增强型深度特征之后,通过特征对比层获得图像对的对比特征;最后联合使用分类损失和验证损失函数,以最小化两个损失之和为目标帮助网络学得更适合得嵌入空间,提取更加具有判别力的行人图像特征,得到最终行人再识别的结果。
在本实施例中,一种基于增强型深度卷积神经网络的行人再识别方法,包括以下步骤:
S1、使用基础的深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维。
本实施例的步骤S1进一步包括:
S1.1、首先将行人图像缩放到统一尺寸224×224,以残差网络Resnet50作为预训练的基础卷积神经网络并去除其最后的全连接层;
S1.2、将缩放后的行人图像输入到修改后的Resnet50中,图像经过一系列卷积、批量归一化、池化、ReLU等操作后最终输出2048维的基础深度特征;
S1.3、使用传统特征提取方法提取缩放后的行人图像的手动特征(例如HSV颜色直方图,LBP特征和LOMO特征等),将其降维至2048维。
S2、应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征。
如图2所示,本实施例的步骤S2进一步包括:
S2.1、构造特征重建模块,该模块由一个级联器和一个全连接层组成,分别起融合和重建作用;
S2.2、通过级联器将手动特征和基础深度特征在维度上级联起来,构成一个4096维的融合特征;
S2.3、最后通过全连接层重建级联后的特征,获得4096维的增强型深度特征。
S3、考虑成对输入图像,在获取两张图像的增强型深度特征后,通过特征比较预测两张图像中行人是否为同一个人。
如图3所示,本实施例的步骤S3进一步包括:
S3.1、根据上述增强型深度特征的提取步骤,考虑成对输入图像,同时提取两张图像的增强型深度特征;
S3.2、对两张图像的增强型深度特征进行按位相减和平方操作,获得对比特征;
Fs=(Freconstruct1-Freconstruct2)2
其中,Freconstruct1和Freconstruct2分别是两张输入图片对应的增强型深度特征,Fs是两张输入图片共同的对比特征。
S3.3、将对比特征通过一个全连接层,该连接层的输出作为后续预测两张图像异同的输入。
S4、联合使用分类损失函数和验证损失函数对输入图像对进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。
本实施例的步骤S4进一步包括:
S4.1、将每张行人图像的增强型深度特征进行分类,预测行人身份,并采用分类损失表示分类准确度;
S4.2、将行人图像对的对比特征进行二分类,预测该图像对是否具有相同身份标签,采用验证损失表示预测精确度;
S4.3、通过后向传播算法,以最小化分类损失和验证损失为目标来监督网络参数的更新,使得网络生成更有判别力的行人图像特征。
下面按照本发明的方法进行实验,说明本发明的实验效果。
测试环境:MATLAB2014b;Matconvnet框架;Ubuntu14.04系统;NVIDIAGTX1070pGPU
测试序列:所选数据集是用于行人再识别的图像数据集Market-1501、CUHK03和CUHK01。其中Market-1501数据集包含1501个行人的32668张图像,CUHK03数据集包含1467个行人的14097张图像,CUHK01数据集包含971个行人的3884张图像。
测试指标:本发明使用rank-i准确率和绝对平均精度(mAP)作为评价指标,rank-i准确率表示给定查询图像,备选图像按与查询图像相似度由高到低排序后正确备选图像出现在前i位的预期几率;mAP同时考虑了精确度和召回率,与rank-i指标互补。对当今流行的不同算法计算这些指标数据然后进行结果对比,证明本发明在行人再识别领域得到较好的结果。
测试结果如下:
表1.本发明与其他算法在Market-1501数据集下的性能比较
表2.本发明与其他算法在CUHK03数据集下的性能比较
方法 | rank-1 | rank-5 | rank-10 | rank-20 | mAP |
LOMO+XQDA | 46.25 | 78.90 | 88.55 | 94.25 | - |
DNS | 54.70 | 84.75 | 94.80 | 95.20 | - |
Gated-CNN | 68.1 | 88.1 | 94.6 | - | 58.84 |
MRB-CNN | 63.67 | 89.15 | 94.66 | 97.5 | - |
PDC | 78.29 | 94.83 | 97.15 | 98.43 | - |
DictRW | 71.1 | 91.7 | 94.7 | 98.0 | - |
JLML | 80.6 | 96.9 | 98.7 | 99.2 | - |
本发明 | 85.41 | 97.89 | 98.96 | 99.80 | 87.34 |
表3.本发明与其他算法在CUHK01数据集下的性能比较
方法 | rank-1 | rank-5 | rank-10 | rank-20 |
Ensembles | 53.4 | 76.4 | 84.4 | 90.5 |
LOMO+XQDA | 63.21 | 83.89 | 90.04 | 94.16 |
MRB-CNN | 52.88 | 78.08 | 86.30 | 92.63 |
LOMO+WARCA | 65.64 | 85.34 | 90.48 | 95.04 |
DNS | 69.09 | 86.87 | 91.77 | 95.39 |
PersonNet | 71.1 | 90.1 | 95.0 | 98.1 |
本发明 | 73.35 | 90.28 | 94.30 | 97.11 |
通过以上对比数据可以看出,本发明在rank-i准确率和绝对平均精度(mAP)与现有算法相比有明显的提高。
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (5)
1.一种基于增强型深度卷积神经网络的行人再识别方法,其特征在于包括以下步骤:
步骤1、使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;
步骤2、应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;
步骤3、在获取成对输入两张图像的增强型深度特征后,通过特征比较预测两张图像中行人是否为同一个人;
步骤4、联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征;
所述步骤2的具体实现方法包含以下步骤:
⑴构造由一个级联器和一个全连接层组成的特征重建模块;
⑵通过级联器将手动特征和基础深度特征在维度上级联起来,构成一个4096维的融合特征;
⑶通过全连接层重建级联后的特征,获得4096维的增强型深度特征。
2.根据权利要求1所述的基于增强型深度卷积神经网络的行人再识别方法,其特征在于:所述步骤1的具体实现方法包含以下步骤:
⑴将行人图像缩放到统一尺寸224×224,以Resnet50卷积神经网络架构作为预训练的基础卷积神经网络并去除其最后的全连接层;
⑵将缩放后的行人图像输入到修改后的Resnet50卷积神经网络架构中,图像经过一系列卷积、批量归一化、池化、ReLU操作后,最终输出2048维的基础深度特征;
⑶使用传统特征提取方法提取缩放后的行人图像的手动特征,将其降维至2048维。
3.根据权利要求2所述的基于增强型深度卷积神经网络的行人再识别方法,其特征在于:所述手动特征为SV颜色直方图、LBP特征和LOMO特征。
4.根据权利要求1所述的基于增强型深度卷积神经网络的行人再识别方法,其特征在于:所述步骤3的具体实现方法包含以下步骤:
⑴同时提取两张图像的增强型深度特征;
⑵对两张图像的增强型深度特征进行按位相减和平方操作,获得对比特征:
⑶将对比特征通过一个全连接层,该全连接层的输出作为后续预测两张图像异同的输入。
5.根据权利要求1所述的基于增强型深度卷积神经网络的行人再识别方法,其特征在于:所述步骤4的具体实现方法包含以下步骤:
⑴将每张行人图像的增强型深度特征进行分类,预测行人身份,并采用分类损失表示分类准确度;
⑵将行人图像对的对比特征进行二分类,预测该图像对是否具有相同身份标签,采用验证损失表示预测精确度;
⑶通过后向传播算法,以最小化分类损失和验证损失为目标来监督网络参数的更新,使得网络生成更有判别力的行人图像特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810721706.5A CN108960141B (zh) | 2018-07-04 | 2018-07-04 | 基于增强型深度卷积神经网络的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810721706.5A CN108960141B (zh) | 2018-07-04 | 2018-07-04 | 基于增强型深度卷积神经网络的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960141A CN108960141A (zh) | 2018-12-07 |
CN108960141B true CN108960141B (zh) | 2021-04-23 |
Family
ID=64485542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810721706.5A Expired - Fee Related CN108960141B (zh) | 2018-07-04 | 2018-07-04 | 基于增强型深度卷积神经网络的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960141B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886090B (zh) * | 2019-01-07 | 2020-12-04 | 北京大学 | 一种基于多时间尺度卷积神经网络的视频行人再识别方法 |
CN109815908A (zh) * | 2019-01-25 | 2019-05-28 | 同济大学 | 一种基于深度学习和重叠图像块间度量的行人再辨识方法 |
CN109885051A (zh) * | 2019-02-21 | 2019-06-14 | 彭劲松 | 一种生态环境健康质量评估方法 |
CN111723600B (zh) * | 2019-03-18 | 2022-07-05 | 四川大学 | 一种基于多任务学习的行人重识别特征描述子 |
CN110084141B (zh) * | 2019-04-08 | 2021-02-09 | 南京邮电大学 | 一种基于私有信息的跨领域场景识别方法 |
CN110046599A (zh) * | 2019-04-23 | 2019-07-23 | 东北大学 | 基于深度融合神经网络行人重识别技术的智能监控方法 |
CN110163149A (zh) * | 2019-05-21 | 2019-08-23 | 北京百卓网络技术有限公司 | Lbp特征的获取方法、装置和存储介质 |
CN110580525B (zh) * | 2019-06-03 | 2021-05-11 | 北京邮电大学 | 适用于资源受限的设备的神经网络压缩方法及系统 |
CN110516533B (zh) * | 2019-07-11 | 2023-06-02 | 同济大学 | 一种基于深度度量的行人再辨识方法 |
CN110728238A (zh) * | 2019-10-12 | 2020-01-24 | 安徽工程大学 | 一种融合型神经网络的人员再检测方法 |
CN110826449A (zh) * | 2019-10-30 | 2020-02-21 | 杭州叙简科技股份有限公司 | 基于轻量型卷积神经网络的非机动车再识别目标检索方法 |
CN111325111A (zh) * | 2020-01-23 | 2020-06-23 | 同济大学 | 一种融合逆注意力和多尺度深度监督的行人重识别方法 |
CN111476144B (zh) * | 2020-04-02 | 2023-06-09 | 深圳力维智联技术有限公司 | 行人属性识别模型确定方法、装置及计算机可读存储介质 |
CN115497172B (zh) * | 2022-11-18 | 2023-02-17 | 合肥中科类脑智能技术有限公司 | 钓鱼行为检测方法、装置及边缘处理设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292259A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于AdaRank的深度特征和传统特征的集成方法 |
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101322168B1 (ko) * | 2012-01-17 | 2013-10-28 | 성균관대학교산학협력단 | 실시간 얼굴 인식 장치 |
-
2018
- 2018-07-04 CN CN201810721706.5A patent/CN108960141B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292259A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于AdaRank的深度特征和传统特征的集成方法 |
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
An enhanced deep feature representation for person re-identification;S. Wu 等;《2016 IEEE Winter Conference on Applications of Computer Vision (WACV)》;20160331;第1-8页 * |
Deep feature learning with relative distance comparison for person re-identification;Ding S 等;《Pattern Recognition》;20151031;第48卷(第10期);第2993-3003页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108960141A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960141B (zh) | 基于增强型深度卷积神经网络的行人再识别方法 | |
CN110263705B (zh) | 面向遥感技术领域两期高分辨率遥感影像变化检测系统 | |
CN110210539B (zh) | 多级深度特征融合的rgb-t图像显著性目标检测方法 | |
CN108197326B (zh) | 一种车辆检索方法及装置、电子设备、存储介质 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN113516012A (zh) | 一种基于多层级特征融合的行人重识别方法及系统 | |
CN109740679B (zh) | 一种基于卷积神经网络和朴素贝叶斯的目标识别方法 | |
CN110969166A (zh) | 一种巡检场景下小目标识别方法和系统 | |
WO2021104125A1 (zh) | 禽蛋异常的识别方法、装置及系统、存储介质、电子装置 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
Zhao et al. | SEV‐Net: Residual network embedded with attention mechanism for plant disease severity detection | |
CN110751018A (zh) | 一种基于混合注意力机制的群组行人重识别方法 | |
CN110765841A (zh) | 基于混合注意力机制的群组行人重识别系统及终端 | |
CN112651940B (zh) | 基于双编码器生成式对抗网络的协同视觉显著性检测方法 | |
CN112990282B (zh) | 一种细粒度小样本图像的分类方法及装置 | |
CN109815923B (zh) | 基于lbp特征与深度学习的金针菇菇头分选识别方法 | |
CN111914762A (zh) | 基于步态信息的身份识别方法及装置 | |
CN109543546B (zh) | 基于深度序分布回归的步态年龄估计方法 | |
CN112183240A (zh) | 一种基于3d时间流和并行空间流的双流卷积行为识别方法 | |
CN114219824A (zh) | 基于深度网络的可见光-红外目标跟踪方法及系统 | |
CN114359293A (zh) | 一种基于深度学习的三维mri脑肿瘤分割方法 | |
CN114782997A (zh) | 基于多损失注意力自适应网络的行人重识别方法及系统 | |
CN115131558B (zh) | 一种少样本环境下的语义分割方法 | |
CN110852292B (zh) | 一种基于跨模态多任务深度度量学习的草图人脸识别方法 | |
CN112861840A (zh) | 基于多特征融合卷积网络的复杂场景字符识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210423 |