CN112651262A - 一种基于自适应行人对齐的跨模态行人重识别方法 - Google Patents

一种基于自适应行人对齐的跨模态行人重识别方法 Download PDF

Info

Publication number
CN112651262A
CN112651262A CN201910951963.2A CN201910951963A CN112651262A CN 112651262 A CN112651262 A CN 112651262A CN 201910951963 A CN201910951963 A CN 201910951963A CN 112651262 A CN112651262 A CN 112651262A
Authority
CN
China
Prior art keywords
image
visible light
phi
pedestrian
batch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910951963.2A
Other languages
English (en)
Other versions
CN112651262B (zh
Inventor
何小海
李波
吴晓红
刘强
陈洪刚
卿粼波
滕奇志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201910951963.2A priority Critical patent/CN112651262B/zh
Publication of CN112651262A publication Critical patent/CN112651262A/zh
Application granted granted Critical
Publication of CN112651262B publication Critical patent/CN112651262B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于自适应行人对齐的跨模态行人重识别方法。首先,利用基于残差网络预训练模型ResNet50的多路径网络分别提取红外图像和可见光图像的特征;然后,利用可见光图像的高层特征,线性地回归一组仿射变换参数,用于对可见光图像进行自适应地仿射变换;生成对齐矫正后的图像后,提取其特征并与原可见光图像提取的特征融合,作为可见光图像的最终特征;最后,将红外图像和可见光图像的特征映射到同一个特征空间中,结合身份损失函数和最难批次采样损失函数进行训练,最终达到相较于一般的跨模态行人重识别方法更高的识别精度。本发明主要应用于视频监控智能分析应用系统中,在图像检索,智能安防等领域具有开阔的应用前景。

Description

一种基于自适应行人对齐的跨模态行人重识别方法
技术领域
本发明涉及一种基于自适应行人对齐的跨模态行人重识别方法,以及一种新的网络模型MAPAN(Multipath Adaptive Pedestrian Alignment Network),涉及视频智能监控领域中的跨模态行人重识别问题,属于计算机视觉与智能信息处理领域。
背景技术
行人重识别(Re-Identification)是计算机视觉领域中的一种技术,旨在匹配不同摄像机监控视频中具有相同身份(通常使用数字代替)的特定行人,通常被认为是图像检索的一个子问题。不同摄像机拍摄的行人图像,由于视角、行人姿态变化、光照变化等原因,可能会造成行人外观上的差异,也可能存在摄像机分辨率低、遮挡等多种挑战。行人重识别在视频监控,智能安防等领域开阔的应用前景,引起了工业界和学术界的广泛关注,使其成为计算机视觉领域一个既很有研究价值又极具挑战性的研究热点。
近年来,传统的行人重识别研究已经取得了巨大的进步,然而,传统的行人重识别都是利用可见光图像来匹配可见光图像,但是,在实际的应用场景中,可见光摄像机在夜晚是完全无法捕捉到清晰的图像的,难以满足视频智能监控系统的全天候视频分析的要求。随着社会和技术的发展,如今大部分的摄像机都配备了红外摄像功能,可以捕获行人夜晚或者白天的红外热像信息,为可见光图像以及红外图像的跨模态行人重识别VT-REID(Visible Thermal Cross-modality Person Re-identification)提供了有利条件。与传统的行人重识别不同,可见光图像及红外图像跨模态行人重识别VT-REID主要解决跨模态图像的匹配,比如,使用红外行人图像搜索跨摄像机设备的可见光图像。
近年来,深度学习方法,尤其是卷积神经网络CNN(Convolutional NeuralNetwork)在计算机视觉等领域取得了巨大成功。传统的特征工程方法经常难以取得同深度学习相当的识别精度,比如局部最大出现特征LOMO(Local Maximal OccurrenceRepresentation)应用于跨模态的行人重识别,就表现出很差的适应性以及识别精度。由于红外图像和可见光图像本身存在的巨大异构数据差异,很多现有的工作几乎都使用深度学习来构建跨模态识别模型,同时均试图通过尽可能地减少异构数据的跨模态差异来提高行人匹配精度。比如,有的工作通过共同优化特定模态和共享模态信息来得到跨模态分层匹配网络模型,或通过结合身份损失和排序损失来提高跨模态行人匹配准确率,或通过生成式对抗网络(GAN,Generative Adversarial Network)来生成一些匹配认证信息从而提高识别精度,或通过同时施加特征层和图像层的限制来提高识别精度等。但是,在图像数据采集过程中,由于摄像机拍摄角度不理想以及图像后处理误差等原因,单模态内的图像间就可能存在着大量的图像错位及不对齐现象,从而造成在单模态的可见光图像内部就可能存在着巨大的差异。因此,在针对跨模态的行人重识别,不仅需要减少异构数据的跨模态差异,同时还应尽可能减小单模态内的图像间由于图像不对齐带来的图像差异,从而提高跨模态行人重识别的精度。
发明内容
本发明提出了一种基于自适应行人对齐的跨模态行人重识别方法,设计了一种多路径输入的网络结构MAPAN(Multipath Adaptive Pedestrian Alignment Network),分别采用一个批次数量的可见光图像和一个批次的红外图像作为输入。在标签信息的监督下,利用神经网络的自我学习能力,对错位严重的可见光图像进行自适应的对齐矫正,从而达到提高跨模态行人重识别精度的目的。
本发明通过以下技术方案来实现上述目的:
(1)多路径输入的网络结构MAPAN包含红外图像路径,可见光基础分支以及可见光仿射变换分支,利用红外图像分支,可见光基础分支分别提取红外图像Z的特征φ(Z)和可见光图像X的特征φ(X);
(2)利用可见光路径提取的高层特征线性回归一组仿射变换参数Aθ,并生成图像变换网格,再通过双线性采样生成对齐矫正后的图像X′;
(3)通过仿射变换路径中的残差网络对矫正图像X′提取特征后φ′(X′),将其与原可见光路径提取的特征融合,作为可见光图像的最终特征通过仿射变换分支中的残差网络对矫正图像X′提取特征φ′(X′)后,将其与原可见光分支提取的特征φ(X)通过加权相加的方式融合,即将λφ(X)+(1-λ)φ′(X′)整体作为可见光图像的最终特征,再与红外图像Z的特征φ(Z)进行度量学习;
(4)将红外图像的特征φ(Z)和可见光图像的特征λφ(X)+(1-λ)φ′(X′)映射到同一个特征空间中,结合身份损失和最难批次采样损失进行训练,最终提高跨模态行人重识别精度。
附图说明
图1一种基于自适应行人对齐的跨模态行人重识别方法;
具体实施方式
下面结合附图对本发明作进一步说明:
MAPAN模型网络结构和原理具体如下:
该网络模型框架以端到端的方式学习特征表示和距离度量,同时保持较高的可分辨性。它主要由两部分组成:用于特征提取的多径网络和用于特征嵌入的全连接层。具体来说,多径网络由三个分支组成:可见光仿射变换分支、可见光基础分支和红外图像分支,它们都不共享权值。可见光基础分支与红外图像分支结构相同,均使用残差网络ResNet50作为预训练模型,其包括5个下采样块和1个平均池化层。可见光仿射变换分支由网格网络、双线性采样器和残差网络ResNet50组成。所有输出特征向量的长度为2048。可见光仿射变换分支由双线性采样器、网格网络和具有与可见光基础分支相同结构的残差网络组成。网格网络包含一个平均池化层和两个全连接层。可见光仿射变换分支有两个输入张量,它们都来自可见光基础分支,一个是输入的可见光图像,另一个是从可见光基础分支中提取的第五残差块特征,形状为2048×9×5。
红外图像分支和可见光基础分支输入分别是三通道红外图像和可见光图像,高度和宽度分别为288和144。假设使用X(Z)表示可见光图像(红外图像)。在红外图像分支中,为红外图像Z提取的特征用φ(Z)表示,由可见光基础分支和可见光仿射变换分支提取的特征分别用φ(X)和φ′(X′)表示,其中X′表示可见光仿射变换分支中对X仿射变换获得的矫正图像。
高级特征图包含原始图像的低级特征图,并反映局部模式信息,从而可见光基础分支的高层响应注意力大部分集中在行人身上,且通常输入的可见光图像中存在较多的错位现象,因此,将可见光基础分支的第五残差块的特征图输入到网格网络中,回归出一组6维的变换参数Aθ,用于仿射变换对输入可见光行人图像进行对齐。具体地说,学习的转换参数Aθ用于生成双线性采样器的图像网格,从目标图像到源图像的坐标转换过程被定义为:
Figure BDA0002226034400000041
其中,
Figure BDA0002226034400000042
是变换图像的规则网格中的第k个目标坐标,
Figure BDA0002226034400000043
是输入图像中采样点的源坐标,Aθ是仿射变换矩阵,其中θ11,θ12,θ21和θ22主要控制转换图像的大小和旋转变化,而θ13和θ23控制转换图像的偏移。注意,坐标映射是从目标图像映射到输入图像的。由于转换矩阵Aθ包含连续可导的小数,并且目标坐标
Figure BDA0002226034400000044
是离散的,所以源坐标
Figure BDA0002226034400000045
是连续变化的。因此,当通过公式(1)建立目标坐标和源坐标之间的对应关系时,就需要某种采样策略来获取转换后的图像。在这里,本发明使用常用的双线性采样,那么采样器的输入图像X和输出图像X′之间的对应关系为:
Figure BDA0002226034400000046
其中,X′ij表示目标图像中每个通道中坐标(i,j)位置的像素值,Xnm表示源图像中每个通道中(n,m)坐标处的像素值,H和W表示目标图像(或源图像)的高度和宽度。双线性采样是连续可导的,因此上述方程式连续可导,并允许损失梯度反向传播,从而实现自适应行人对齐。关于Xnm
Figure BDA0002226034400000047
的偏导数分别为:
Figure BDA0002226034400000048
Figure BDA0002226034400000049
显然,X′ij
Figure BDA00022260344000000410
的偏导数
Figure BDA00022260344000000411
完全类似于X′i,j
Figure BDA00022260344000000412
的偏导数
Figure BDA00022260344000000413
通过上述仿射变换过程获得X′ij之后,我们通过仿射变换分支的残差网络提取特征,从而获得矫正图像的特征φ′(X′)。
通过以上三个分支,可以得到前述特征φ(Z),φ(X),φ′(X′)。由于φ(X)和φ′(X′)都是对X提取的特征,为了充分利用这两种特征,本发明选择通过加权相加的方式融合φ(X)和φ′(X′),即将λφ(X)+(1-λ)φ′(X′)整体作为对X提取的最终特征,其中λ是范围从0到1预定义权衡参数,以平衡两个特征的贡献。因此,后面仅考虑输入红外图像特征φ(Z)和输入可见光图像融合特征λφ(X)+(1-λ)φ′(X′)的距离度量学习。
由于跨模态图像检索任务实质上是将不同模态的可见光图像与红外图像匹配,因此有必要将可见光图像和红外图像的特征映射到同一特征空间,以减少红外图像和可见光图像之间的交叉模态差异。本发明将φ(Z)和λφ(X)+(1-λ)φ′(X′)通过同一个嵌套函数fθ(本质上为一个全连接层,假设其参数为θ)映射到一个相同的特征空间,以获得嵌套特征fθ(φ(Z))和fθ(λφ(X)+(1-λ)φ′(X′))。为了简洁,将fθ(φ(Z))和fθ(λφ(X)+(1-λ)φ′(X′))简写为fθ(Z)和fθ(X)。
本发明使用常规的交叉熵损失来预测行人身份。对输入图片每个批次的采样策略是,在每个批次中,对于包含N个身份(ID)的数据集,首先随机选择P个身份,对于每个行人身份,然后随机抽取K个可见光行人图像和K个红外行人图像,从而将2×P×K张行人图像送进网络中训练。
特征嵌套层中的全连接层fθ(·)和fβ(·)分别输出长度为512的一维特征向量fθ(X),fθ(Z)和长度为N的一维特征向量fβ(fθ(Z)),fβ(fθ(X))。为了简洁表示,使用
Figure BDA0002226034400000051
来表示一个可见光图像批次X中的第i个人(即身份为i)的第j张图像,对于红外图像批次Z也是如此表示。
假设
Figure BDA0002226034400000052
Figure BDA0002226034400000053
然后
Figure BDA0002226034400000054
Figure BDA0002226034400000055
则分别代表输入行人
Figure BDA0002226034400000056
Figure BDA0002226034400000057
的身份预测概率。例如,
Figure BDA0002226034400000058
表示预测输入可见光图像
Figure BDA0002226034400000059
的身份为k的概率。使用
Figure BDA00022260344000000510
Figure BDA00022260344000000511
表示真实身份为i的输入图像
Figure BDA00022260344000000512
的标注信息,也即
Figure BDA00022260344000000513
Figure BDA00022260344000000514
那么一个批次中基于交叉熵损失的身份损失函数定义为:
Figure BDA0002226034400000061
LossID(θ;X,Z)仅仅考虑了每个输入样本的身份,并未强调成对输入的样本是否属于同一身份。为了进一步减轻红外图像和可见光图像之间的跨模态差异,考虑使用单批次最难三元组采样损失函数。其核心思想是,对于一个批次中的每个红外图像样本
Figure BDA0002226034400000062
可以在该批次中的可见光图像中,搜索身份ID与
Figure BDA0002226034400000063
相同的“最难”的正样本
Figure BDA0002226034400000064
所谓“最难”,指的是
Figure BDA0002226034400000065
在该嵌套特征空间中,在该批次中的所有身份与
Figure BDA0002226034400000066
相同的可见光图像中,在特征空间中与
Figure BDA0002226034400000067
的距离最远。同理,对于
Figure BDA0002226034400000068
也可以在该批次的所有可见光图像中,搜索身份ID与
Figure BDA0002226034400000069
不同的“最难”的负样本
Figure BDA00022260344000000610
Figure BDA00022260344000000611
在该批次中的所有身份与
Figure BDA00022260344000000612
不同的可见光图像中,在特征空间中距离
Figure BDA00022260344000000613
最近。由于是单批次“最难”采样,因此称其为批次最难三元组损失:
Figure BDA00022260344000000614
其中,margin是预定义的正阈值,用于控制正负样本特征之间的最小距离,此处设置margin=1.2,D(·)表示欧氏距离度量。最终,总损失函数定义为:
Loss=LossID+αLossBH (7)
其中α是预定义的加权参数,用于平衡身份损失LossID和三元组损失LossBH的贡献。
本发明在SYSU-MM01数据集和RegDB数据集上进行了网络结构消融研究,其中Baseline表示基准网络,v-AT表示仅仅对可见光图像X进行仿射变换矫正且仅使用身份损失(LossID),t-AT表示仅对红外图像Z进行仿射变换矫正且仅使用身份损失(LossID),v-AT+t-AT表示同时对可见光图像X和红外图像Z进行仿射变换矫正且仅使用身份损失(LossID),v-AT+triplet表示仅仅对可见光图像X进行仿射变换矫正且使用身份损失(LossID)和最难三元组损失(LossBH),即本发明的网络结构MAPAN(Multipath Adaptive PedestrianAlignment Network)。另外还和一些主流算法进行了比较,使用单一查询设置进行评估,并使用Rank-k精度(k=1、5、10)和平均匹配精度(mAP)作为评价指标。实验结果如表1,表2和表3所示,实验精度相比于基准网络和其他对比算法均有较大提高。
表1网络结构消融研究
Figure BDA0002226034400000071
表2 RegDB数据集上与主流算法结果对比
Figure BDA0002226034400000072
表3 SYSU-MM01数据集上与主流算法结果对比
Figure BDA0002226034400000081

Claims (5)

1.一种基于自适应行人对齐的跨模态行人重识别方法,其特征在于以下步骤:
(1)分别使用红外图像分支,可见光基础分支中的残差网络模型提取红外图像Z的特征φ(Z)和可见光图像X的特征φ(X);
(2)利用可见光分支中提取的第五残差块特征,在网格网络中线性回归一组仿射变换参数Aθ,并生成图像变换网格,再通过双线性采样生成对齐矫正后的图像X′;
(3)通过仿射变换分支中的残差网络对矫正图像X′提取特征φ′(X′)后,将其与原可见光分支提取的特征φ(X)通过加权相加的方式融合,即将λφ(X)+(1-λ)φ′(X′)整体作为可见光图像的最终特征,再与红外图像Z的特征φ(Z)进行度量学习;
(4)将红外图像的特征φ(Z)和可见光图像的特征λφ(X)+(1-λ)φ′(X′)映射到同一个特征空间中,结合身份损失函数和最难批次采样损失函数进行训练,最终提高跨模态行人重识别精度。
2.根据权利要求1所述的方法,其特征在于步骤(1)中多路径网络对输入图片每个批次的采样策略是,在每个批次中,对于包含N个身份(ID)的数据集,首先随机选择P个身份,对于每个行人身份,随机获取K张可见光行人图像和K张红外行人图像,从而将2×P×K张行人图像送进网络中训练;多路径网络各分支分别提取红外图像Z和可见光图像X的深层次特征,分别使用φ(Z)和φ(X)表示;所有输出特征向量的长度为2048。
3.根据权利要求1所述的方法,其特征在于步骤(2)中本发明利用可见光基础分支提取的高层特征(第五残差块特征)线性回归出一组仿射变换参数Aθ,然后通过下式建立仿射变换前后图像的坐标对应关系:
Figure FDA0002226034390000011
其中,
Figure FDA0002226034390000012
是目标图像的规则网格中的第k个目标坐标,
Figure FDA0002226034390000013
是输入图像中采样点的源坐标,Aθ是仿射变换矩阵,其中θ11,θ12,θ21和θ22主要控制转换图像的大小和旋转变化,而θ13和θ23控制转换图像的偏移;仿射变换时使用双线性采样对图像网格进行采样,因此双线性采样器的输入图像X和输出图像X′之间的对应关系为:
Figure FDA0002226034390000021
其中,X′表示目标图像中每个通道中坐标(i,j)位置的像素值,Xnm表示源图像中每个通道中(n,m)坐标处的像素值,H和W表示目标图像(或源图像)的高度和宽度;双线性采样是连续可导的,因此上述方程式是连续可导并允许梯度反向传播,从而实现自适应行人对齐;关于Xnm
Figure FDA0002226034390000022
的偏导数分别为:
Figure FDA0002226034390000023
Figure FDA0002226034390000024
显然,X′ij
Figure FDA0002226034390000025
的偏导数
Figure FDA0002226034390000026
完全类似于X′i,j
Figure FDA0002226034390000027
的偏导数
Figure FDA0002226034390000028
4.根据权利要求1所述的方法,其特征在于步骤(3)中通过三个残差网络分支,可以得到特征φ(Z),φ(X),φ′(X′);本发明选择通过加权相加的方式融合φ(X)和φ′(X′),即将λφ(X)+(1-λ)φ′(X′)整体作为对X提取的最终特征,其中λ是0到1区间的预定义权衡参数,以平衡两个特征的贡献;因此,仅考虑输入红外图像特征φ(Z)和输入可见光图像融合特征λφ(X)+(1-λ)φ′(X′)之间的距离度量。
5.根据权利要求1所述的方法,其特征在于步骤(4)中为减少红外图像和可见光图像之间的交叉模态差异,通过同一个嵌套函数fθ(本质上为一个全连接层,假设其参数为θ)将可见光图像特征λφ(X)+(1-λ)φ′(X′)和红外图像特征φ(Z)和映射到同一特征空间,以获得嵌套特征fθ(φ(Z))和fθ(λφ(X)+(1-λ)φ′(X′)),简写为fθ(Z)和fθ(X);特征嵌套层中的全连接层fθ(·)和fβ(·)分别输出长度为512的一维特征向量fθ(X),fθ(Z)和长度为N的一维特征向量fβ(fθ(X)),fβ(fθ(Z));为了便于表达,使用
Figure FDA0002226034390000031
来表示一个可见光图像批次X中的第i个人(即身份为i)的第j张图像,对于一个批次的红外图像Z也是如此表示;假设
Figure FDA0002226034390000032
Figure FDA0002226034390000033
然后
Figure FDA0002226034390000034
Figure FDA0002226034390000035
则分别代表输入行人
Figure FDA0002226034390000036
Figure FDA0002226034390000037
的身份预测概率;例如,
Figure FDA0002226034390000038
表示预测输入可见光图像
Figure FDA0002226034390000039
的身份为k的概率;使用
Figure FDA00022260343900000310
Figure FDA00022260343900000311
表示真实身份为i的输入图像
Figure FDA00022260343900000312
的标注信息,也即
Figure FDA00022260343900000313
Figure FDA00022260343900000314
那么一个批次中使用交叉熵损失预测身份的身份损失函数定义为:
Figure FDA00022260343900000315
LossID(θ;X,Z)仅仅考虑了每个输入样本的身份,并未强调成对输入的样本是否属于同一身份;为了进一步缓解红外图像和可见光图像之间的跨模态差异,本发明使用单批次最难三元组采样损失函数,其核心思想是,对于一个批次中的每个红外图像样本
Figure FDA00022260343900000316
可以在该批次中的可见光图像中,搜索身份ID与
Figure FDA00022260343900000317
相同的“最难”的正样本
Figure FDA00022260343900000318
所谓“最难”,指的是
Figure FDA00022260343900000319
在该嵌套特征空间中,在该批次中的所有身份与
Figure FDA00022260343900000320
相同的可见光图像中,在特征空间中与
Figure FDA00022260343900000321
的距离最远;同理,对于
Figure FDA00022260343900000322
也可以在该批次的所有可见光图像中,搜索身份ID与
Figure FDA00022260343900000323
不同的“最难”的负样本
Figure FDA00022260343900000324
Figure FDA00022260343900000325
在该批次中的所有身份与
Figure FDA00022260343900000326
不同的可见光图像中,在特征空间中距离
Figure FDA00022260343900000327
最近;由于是单批次“最难”采样,因此将其称为批次最难三元组损失:
Figure FDA00022260343900000328
其中,margin是预定义的正阈值,用于控制正负样本特征之间的最小距离,此处设置margin=2;D(·)表示欧氏距离度量;最终,总损失函数定义为:
Loss=LossID+αLossBH (7)
其中α为预定义参数,用于平衡身份损失LossID和三元组损失LossBH的贡献。
CN201910951963.2A 2019-10-09 2019-10-09 一种基于自适应行人对齐的跨模态行人重识别方法 Active CN112651262B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910951963.2A CN112651262B (zh) 2019-10-09 2019-10-09 一种基于自适应行人对齐的跨模态行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910951963.2A CN112651262B (zh) 2019-10-09 2019-10-09 一种基于自适应行人对齐的跨模态行人重识别方法

Publications (2)

Publication Number Publication Date
CN112651262A true CN112651262A (zh) 2021-04-13
CN112651262B CN112651262B (zh) 2022-10-14

Family

ID=75342300

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910951963.2A Active CN112651262B (zh) 2019-10-09 2019-10-09 一种基于自适应行人对齐的跨模态行人重识别方法

Country Status (1)

Country Link
CN (1) CN112651262B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361466A (zh) * 2021-06-30 2021-09-07 江南大学 一种基于多模态交叉指导学习的多光谱目标检测方法
CN113503975A (zh) * 2021-09-13 2021-10-15 四川大学 一种标定板及红外测温映射标定方法
CN113989851A (zh) * 2021-11-10 2022-01-28 合肥工业大学 一种基于异构融合图卷积网络的跨模态行人重识别方法
CN114241517A (zh) * 2021-12-02 2022-03-25 河南大学 基于图像生成和共享学习网络的跨模态行人重识别方法
CN114663737A (zh) * 2022-05-20 2022-06-24 浪潮电子信息产业股份有限公司 物体识别方法、装置、电子设备及计算机可读存储介质
CN114841970A (zh) * 2022-05-09 2022-08-02 北京字节跳动网络技术有限公司 检查图像的识别方法、装置、可读介质和电子设备
CN117528233A (zh) * 2023-09-28 2024-02-06 哈尔滨航天恒星数据系统科技有限公司 变焦倍数识别及目标重识别数据集制作方法
CN117935172A (zh) * 2024-03-21 2024-04-26 南京信息工程大学 一种基于光谱信息过滤的可见光红外行人重识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480178A (zh) * 2017-07-01 2017-12-15 广州深域信息科技有限公司 一种基于图像与视频跨模态比对的行人重识别方法
CN107977656A (zh) * 2017-12-26 2018-05-01 北京大学 一种行人重识别方法及系统
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN109614996A (zh) * 2018-11-28 2019-04-12 桂林电子科技大学 基于生成对抗网络的弱可见光与红外图像融合的识别方法
CN109829430A (zh) * 2019-01-31 2019-05-31 中科人工智能创新技术研究院(青岛)有限公司 基于异构层次化注意机制的跨模态行人再识别方法及系统
US20190283746A1 (en) * 2017-10-30 2019-09-19 Mobileye Vision Technologies Ltd. Navigation Based on Detected Response of a Pedestrian to Navigational Intent

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480178A (zh) * 2017-07-01 2017-12-15 广州深域信息科技有限公司 一种基于图像与视频跨模态比对的行人重识别方法
US20190283746A1 (en) * 2017-10-30 2019-09-19 Mobileye Vision Technologies Ltd. Navigation Based on Detected Response of a Pedestrian to Navigational Intent
CN107977656A (zh) * 2017-12-26 2018-05-01 北京大学 一种行人重识别方法及系统
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN109614996A (zh) * 2018-11-28 2019-04-12 桂林电子科技大学 基于生成对抗网络的弱可见光与红外图像融合的识别方法
CN109829430A (zh) * 2019-01-31 2019-05-31 中科人工智能创新技术研究院(青岛)有限公司 基于异构层次化注意机制的跨模态行人再识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王海彬: ""基于深度特征的跨模态行人重识别技术研究"", 《中国优秀硕士学位论文全文数据库》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361466A (zh) * 2021-06-30 2021-09-07 江南大学 一种基于多模态交叉指导学习的多光谱目标检测方法
CN113361466B (zh) * 2021-06-30 2024-03-12 江南大学 一种基于多模态交叉指导学习的多光谱目标检测方法
CN113503975A (zh) * 2021-09-13 2021-10-15 四川大学 一种标定板及红外测温映射标定方法
CN113989851A (zh) * 2021-11-10 2022-01-28 合肥工业大学 一种基于异构融合图卷积网络的跨模态行人重识别方法
CN113989851B (zh) * 2021-11-10 2023-04-07 合肥工业大学 一种基于异构融合图卷积网络的跨模态行人重识别方法
CN114241517A (zh) * 2021-12-02 2022-03-25 河南大学 基于图像生成和共享学习网络的跨模态行人重识别方法
CN114241517B (zh) * 2021-12-02 2024-02-27 河南大学 基于图像生成和共享学习网络的跨模态行人重识别方法
CN114841970A (zh) * 2022-05-09 2022-08-02 北京字节跳动网络技术有限公司 检查图像的识别方法、装置、可读介质和电子设备
CN114663737A (zh) * 2022-05-20 2022-06-24 浪潮电子信息产业股份有限公司 物体识别方法、装置、电子设备及计算机可读存储介质
CN117528233A (zh) * 2023-09-28 2024-02-06 哈尔滨航天恒星数据系统科技有限公司 变焦倍数识别及目标重识别数据集制作方法
CN117528233B (zh) * 2023-09-28 2024-05-17 哈尔滨航天恒星数据系统科技有限公司 变焦倍数识别及目标重识别数据集制作方法
CN117935172A (zh) * 2024-03-21 2024-04-26 南京信息工程大学 一种基于光谱信息过滤的可见光红外行人重识别方法及系统

Also Published As

Publication number Publication date
CN112651262B (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
CN112651262B (zh) 一种基于自适应行人对齐的跨模态行人重识别方法
CN111259786B (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN111126360A (zh) 基于无监督联合多损失模型的跨域行人重识别方法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN111260594A (zh) 一种无监督的多模态图像融合方法
CN112733656B (zh) 基于多流空间注意力图卷积sru网络的骨架动作识别方法
CN111597876A (zh) 一种基于困难五元组的跨模态行人重识别方法
CN109508663A (zh) 一种基于多层次监督网络的行人重识别方法
CN115713679A (zh) 基于多源信息融合、热红外和三维深度图的目标检测方法
CN113743544A (zh) 一种跨模态神经网络构建方法、行人检索方法及系统
CN113870160B (zh) 一种基于变换器神经网络的点云数据处理方法
CN111259837A (zh) 一种基于部位注意力的行人重识别方法及系统
CN113538218A (zh) 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法
CN116434033A (zh) 面向rgb-d图像稠密预测任务的跨模态对比学习方法及系统
Zang et al. Pose estimation at night in infrared images using a lightweight multi-stage attention network
CN115984330A (zh) 一种边界感知的目标跟踪模型及目标跟踪方法
Yin Object Detection Based on Deep Learning: A Brief Review
Zhang [Retracted] Sports Action Recognition Based on Particle Swarm Optimization Neural Networks
CN113761995A (zh) 一种基于双变换对齐与分块的跨模态行人重识别方法
Zhang et al. Two-stage domain adaptation for infrared ship target segmentation
CN117576149A (zh) 一种基于注意力机制的单目标跟踪方法
CN116740480A (zh) 多模态图像融合目标跟踪方法
CN116052057A (zh) 基于自监督学习和预训练模型的跨模态行人重识别方法
CN115049894A (zh) 一种基于图学习的全局结构信息嵌入网络的目标重识别方法
Liu et al. [Retracted] Mean Shift Fusion Color Histogram Algorithm for Nonrigid Complex Target Tracking in Sports Video

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant