CN112651262B - 一种基于自适应行人对齐的跨模态行人重识别方法 - Google Patents
一种基于自适应行人对齐的跨模态行人重识别方法 Download PDFInfo
- Publication number
- CN112651262B CN112651262B CN201910951963.2A CN201910951963A CN112651262B CN 112651262 B CN112651262 B CN 112651262B CN 201910951963 A CN201910951963 A CN 201910951963A CN 112651262 B CN112651262 B CN 112651262B
- Authority
- CN
- China
- Prior art keywords
- image
- visible light
- phi
- pedestrian
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000009466 transformation Effects 0.000 claims abstract description 30
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 26
- 238000005070 sampling Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 6
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 6
- 208000032538 Depersonalisation Diseases 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims 1
- 230000003044 adaptive effect Effects 0.000 abstract description 7
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 238000004458 analytical method Methods 0.000 abstract description 2
- 238000012937 correction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 208000001318 Ataxia-telangiectasia variant Diseases 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000002679 ablation Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012407 engineering method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于自适应行人对齐的跨模态行人重识别方法。首先,利用基于残差网络预训练模型ResNet50的多路径网络分别提取红外图像和可见光图像的特征;然后,利用可见光图像的高层特征,线性地回归一组仿射变换参数,用于对可见光图像进行自适应地仿射变换;生成对齐矫正后的图像后,提取其特征并与原可见光图像提取的特征融合,作为可见光图像的最终特征;最后,将红外图像和可见光图像的特征映射到同一个特征空间中,结合身份损失函数和最难批次采样损失函数进行训练,最终达到相较于一般的跨模态行人重识别方法更高的识别精度。本发明主要应用于视频监控智能分析应用系统中,在图像检索,智能安防等领域具有开阔的应用前景。
Description
技术领域
本发明涉及一种基于自适应行人对齐的跨模态行人重识别方法,以及一种新的网络模型MAPAN(Multipath Adaptive Pedestrian Alignment Network),涉及视频智能监控领域中的跨模态行人重识别问题,属于计算机视觉与智能信息处理领域。
背景技术
行人重识别(Re-Identification)是计算机视觉领域中的一种技术,旨在匹配不同摄像机监控视频中具有相同身份(通常使用数字代替)的特定行人,通常被认为是图像检索的一个子问题。不同摄像机拍摄的行人图像,由于视角、行人姿态变化、光照变化等原因,可能会造成行人外观上的差异,也可能存在摄像机分辨率低、遮挡等多种挑战。行人重识别在视频监控,智能安防等领域开阔的应用前景,引起了工业界和学术界的广泛关注,使其成为计算机视觉领域一个既很有研究价值又极具挑战性的研究热点。
近年来,传统的行人重识别研究已经取得了巨大的进步,然而,传统的行人重识别都是利用可见光图像来匹配可见光图像,但是,在实际的应用场景中,可见光摄像机在夜晚是完全无法捕捉到清晰的图像的,难以满足视频智能监控系统的全天候视频分析的要求。随着社会和技术的发展,如今大部分的摄像机都配备了红外摄像功能,可以捕获行人夜晚或者白天的红外热像信息,为可见光图像以及红外图像的跨模态行人重识别VT-REID(Visible Thermal Cross-modality Person Re-identification)提供了有利条件。与传统的行人重识别不同,可见光图像及红外图像跨模态行人重识别VT-REID主要解决跨模态图像的匹配,比如,使用红外行人图像搜索跨摄像机设备的可见光图像。
近年来,深度学习方法,尤其是卷积神经网络CNN(Convolutional NeuralNetwork)在计算机视觉等领域取得了巨大成功。传统的特征工程方法经常难以取得同深度学习相当的识别精度,比如局部最大出现特征LOMO(Local Maximal OccurrenceRepresentation)应用于跨模态的行人重识别,就表现出很差的适应性以及识别精度。由于红外图像和可见光图像本身存在的巨大异构数据差异,很多现有的工作几乎都使用深度学习来构建跨模态识别模型,同时均试图通过尽可能地减少异构数据的跨模态差异来提高行人匹配精度。比如,有的工作通过共同优化特定模态和共享模态信息来得到跨模态分层匹配网络模型,或通过结合身份损失和排序损失来提高跨模态行人匹配准确率,或通过生成式对抗网络(GAN,Generative Adversarial Network)来生成一些匹配认证信息从而提高识别精度,或通过同时施加特征层和图像层的限制来提高识别精度等。但是,在图像数据采集过程中,由于摄像机拍摄角度不理想以及图像后处理误差等原因,单模态内的图像间就可能存在着大量的图像错位及不对齐现象,从而造成在单模态的可见光图像内部就可能存在着巨大的差异。因此,在针对跨模态的行人重识别,不仅需要减少异构数据的跨模态差异,同时还应尽可能减小单模态内的图像间由于图像不对齐带来的图像差异,从而提高跨模态行人重识别的精度。
发明内容
本发明提出了一种基于自适应行人对齐的跨模态行人重识别方法,设计了一种多路径输入的网络结构MAPAN(Multipath Adaptive Pedestrian Alignment Network),分别采用一个批次数量的可见光图像和一个批次的红外图像作为输入。在标签信息的监督下,利用神经网络的自我学习能力,对错位严重的可见光图像进行自适应的对齐矫正,从而达到提高跨模态行人重识别精度的目的。
本发明通过以下技术方案来实现上述目的:
(1)多路径输入的网络结构MAPAN包含红外图像路径,可见光基础分支以及可见光仿射变换分支,利用红外图像分支,可见光基础分支分别提取红外图像Z的特征φ(Z)和可见光图像X的特征φ(X);
(2)利用可见光路径提取的高层特征线性回归一组仿射变换参数Aθ,并生成图像变换网格,再通过双线性采样生成对齐矫正后的图像X′;
(3)通过仿射变换路径中的残差网络对矫正图像X′提取特征后φ′(X′),将其与原可见光路径提取的特征融合,作为可见光图像的最终特征通过仿射变换分支中的残差网络对矫正图像X′提取特征φ′(X′)后,将其与原可见光分支提取的特征φ(X)通过加权相加的方式融合,即将λφ(X)+(1-λ)φ′(X′)整体作为可见光图像的最终特征,再与红外图像Z的特征φ(Z)进行度量学习;
(4)将红外图像的特征φ(Z)和可见光图像的特征λφ(X)+(1-λ)φ′(X′)映射到同一个特征空间中,结合身份损失和最难批次采样损失进行训练,最终提高跨模态行人重识别精度。
附图说明
图1一种基于自适应行人对齐的跨模态行人重识别方法;
具体实施方式
下面结合附图对本发明作进一步说明:
MAPAN模型网络结构和原理具体如下:
该网络模型框架以端到端的方式学习特征表示和距离度量,同时保持较高的可分辨性。它主要由两部分组成:用于特征提取的多径网络和用于特征嵌入的全连接层。具体来说,多径网络由三个分支组成:可见光仿射变换分支、可见光基础分支和红外图像分支,它们都不共享权值。可见光基础分支与红外图像分支结构相同,均使用残差网络ResNet50作为预训练模型,其包括5个下采样块和1个平均池化层。可见光仿射变换分支由网格网络、双线性采样器和残差网络ResNet50组成。所有输出特征向量的长度为2048。可见光仿射变换分支由双线性采样器、网格网络和具有与可见光基础分支相同结构的残差网络组成。网格网络包含一个平均池化层和两个全连接层。可见光仿射变换分支有两个输入张量,它们都来自可见光基础分支,一个是输入的可见光图像,另一个是从可见光基础分支中提取的第五残差块特征,形状为2048×9×5。
红外图像分支和可见光基础分支输入分别是三通道红外图像和可见光图像,高度和宽度分别为288和144。假设使用X(Z)表示可见光图像(红外图像)。在红外图像分支中,为红外图像Z提取的特征用φ(Z)表示,由可见光基础分支和可见光仿射变换分支提取的特征分别用φ(X)和φ′(X′)表示,其中X′表示可见光仿射变换分支中对X仿射变换获得的矫正图像。
高级特征图包含原始图像的低级特征图,并反映局部模式信息,从而可见光基础分支的高层响应注意力大部分集中在行人身上,且通常输入的可见光图像中存在较多的错位现象,因此,将可见光基础分支的第五残差块的特征图输入到网格网络中,回归出一组6维的变换参数Aθ,用于仿射变换对输入可见光行人图像进行对齐。具体地说,学习的转换参数Aθ用于生成双线性采样器的图像网格,从目标图像到源图像的坐标转换过程被定义为:
其中,是变换图像的规则网格中的第k个目标坐标,是输入图像中采样点的源坐标,Aθ是仿射变换矩阵,其中θ11,θ12,θ21和θ22主要控制转换图像的大小和旋转变化,而θ13和θ23控制转换图像的偏移。注意,坐标映射是从目标图像映射到输入图像的。由于转换矩阵Aθ包含连续可导的小数,并且目标坐标是离散的,所以源坐标是连续变化的。因此,当通过公式(1)建立目标坐标和源坐标之间的对应关系时,就需要某种采样策略来获取转换后的图像。在这里,本发明使用常用的双线性采样,那么采样器的输入图像X和输出图像X′之间的对应关系为:
其中,Xi′j表示目标图像中每个通道中坐标(i,j)位置的像素值,Xnm表示源图像中每个通道中(n,m)坐标处的像素值,H和W表示目标图像(或源图像)的高度和宽度。双线性采样是连续可导的,因此上述方程式连续可导,并允许损失梯度反向传播,从而实现自适应行人对齐。关于Xnm和的偏导数分别为:
通过以上三个分支,可以得到前述特征φ(Z),φ(X),φ′(X′)。由于φ(X)和φ′(X′)都是对X提取的特征,为了充分利用这两种特征,本发明选择通过加权相加的方式融合φ(X)和φ′(X′),即将λφ(X)+(1-λ)φ′(X′)整体作为对X提取的最终特征,其中λ是范围从0到1预定义权衡参数,以平衡两个特征的贡献。因此,后面仅考虑输入红外图像特征φ(Z)和输入可见光图像融合特征λφ(X)+(1-λ)φ′(X′)的距离度量学习。
由于跨模态图像检索任务实质上是将不同模态的可见光图像与红外图像匹配,因此有必要将可见光图像和红外图像的特征映射到同一特征空间,以减少红外图像和可见光图像之间的交叉模态差异。本发明将φ(Z)和λφ(X)+(1-λ)φ′(X′)通过同一个嵌套函数fθ(本质上为一个全连接层,假设其参数为θ)映射到一个相同的特征空间,以获得嵌套特征fθ(φ(Z))和fθ(λφ(X)+(1-λ)φ′(X′))。为了简洁,将fθ(φ(Z))和fθ(λφ(X)+(1-λ)φ′(X′))简写为fθ(Z)和fθ(X)。
本发明使用常规的交叉熵损失来预测行人身份。对输入图片每个批次的采样策略是,在每个批次中,对于包含N个身份(ID)的数据集,首先随机选择P个身份,对于每个行人身份,然后随机抽取K个可见光行人图像和K个红外行人图像,从而将2×P×K张行人图像送进网络中训练。
特征嵌套层中的全连接层fθ(·)和fβ(·)分别输出长度为512的一维特征向量fθ(X),fθ(Z)和长度为N的一维特征向量fβ(fθ(Z)),fβ(fθ(X))。为了简洁表示,使用来表示一个可见光图像批次X中的第i个人(即身份为i)的第j张图像,对于红外图像批次Z也是如此表示。
LossID(θ;X,Z)仅仅考虑了每个输入样本的身份,并未强调成对输入的样本是否属于同一身份。为了进一步减轻红外图像和可见光图像之间的跨模态差异,考虑使用单批次最难三元组采样损失函数。其核心思想是,对于一个批次中的每个红外图像样本可以在该批次中的可见光图像中,搜索身份ID与相同的“最难”的正样本所谓“最难”,指的是在该嵌套特征空间中,在该批次中的所有身份与相同的可见光图像中,在特征空间中与的距离最远。同理,对于也可以在该批次的所有可见光图像中,搜索身份ID与不同的“最难”的负样本即在该批次中的所有身份与不同的可见光图像中,在特征空间中距离最近。由于是单批次“最难”采样,因此称其为批次最难三元组损失:
其中,margin是预定义的正阈值,用于控制正负样本特征之间的最小距离,此处设置margin=1.2,D(·)表示欧氏距离度量。最终,总损失函数定义为:
Loss=LossID+αLossBH (7)
其中α是预定义的加权参数,用于平衡身份损失LossID和三元组损失LossBH的贡献。
本发明在SYSU-MM01数据集和RegDB数据集上进行了网络结构消融研究,其中Baseline表示基准网络,v-AT表示仅仅对可见光图像X进行仿射变换矫正且仅使用身份损失(LossID),t-AT表示仅对红外图像Z进行仿射变换矫正且仅使用身份损失(LossID),v-AT+t-AT表示同时对可见光图像X和红外图像Z进行仿射变换矫正且仅使用身份损失(LossID),v-AT+triplet表示仅仅对可见光图像X进行仿射变换矫正且使用身份损失(LossID)和最难三元组损失(LossBH),即本发明的网络结构MAPAN(Multipath Adaptive PedestrianAlignment Network)。另外还和一些主流算法进行了比较,使用单一查询设置进行评估,并使用Rank-k精度(k=1、5、10)和平均匹配精度(mAP)作为评价指标。实验结果如表1,表2和表3所示,实验精度相比于基准网络和其他对比算法均有较大提高。
表1网络结构消融研究
表2 RegDB数据集上与主流算法结果对比
表3 SYSU-MM01数据集上与主流算法结果对比
Claims (3)
1.一种基于自适应行人对齐的跨模态行人重识别方法,其特征在于以下步骤:
(1)分别使用红外图像分支,可见光基础分支中的残差网络模型提取红外图像Z的特征φ(Z)和可见光图像X的特征φ(X);
(2)利用可见光分支中提取的高层特征,在网格网络中线性回归一组仿射变换参数Aθ,并生成图像变换网格,再通过双线性采样生成对齐矫正后的图像X′;
(3)通过仿射变换分支中的残差网络对矫正图像X′提取特征φ′(X′)后,将其与原可见光分支提取的特征φ(X)通过加权相加的方式融合,即将λφ(X)+(1-λ)φ′(X′)整体作为可见光图像的最终特征,其中λ是0到1区间的预定义权衡参数,以平衡两个特征的贡献,因此,仅考虑输入红外图像特征φ(Z)和输入可见光图像融合特征λφ(X)+(1-λ)φ′(X′)之间的距离度量;
(4)为减少红外图像和可见光图像之间的交叉模态差异,通过同一个嵌套函数fθ将可见光图像特征λφ(X)+(1-λ)φ′(X′)和红外图像特征φ(Z)和映射到同一特征空间,以获得嵌套特征fθ(φ(Z))和fθ(λφ(X)+(1-λ)φ′(X′)),简写为fθ(Z)和fθ(X);特征嵌套层中的全连接层fθ(·)和fβ(·)分别输出长度为512的一维特征向量fθ(X),fθ(Z)和长度为N的一维特征向量fβ(fθ(X)),fβ(fθ(Z));使用来表示一个可见光图像批次X中的第i个人的第j张图像,对于一个批次的红外图像Z也是如此表示;和分别代表输入行人和的身份预测概率,其中,使用和表示真实身份为i的输入图像和真实身份为i的输入图像的标注信息; 和一个批次中使用交叉熵损失预测身份的身份损失函数定义为:
LossID(θ;X,Z)仅仅考虑了每个输入样本的身份,并未强调成对输入的样本是否属于同一身份;为了进一步缓解红外图像和可见光图像之间的跨模态差异,使用单批次最难三元组采样损失函数,其核心思想是,对于一个批次中的每个红外图像样本在该批次中的可见光图像中,搜索身份ID与相同的“最难”的正样本所谓“最难”,指的是在该特征空间中,在该批次中的所有身份与相同的可见光图像中,在特征空间中与的距离最远;对于在该批次的所有可见光图像中,搜索身份ID与不同的“最难”的负样本即在该批次中的所有身份与不同的可见光图像中,在特征空间中距离最近;由于是单批次“最难”采样,因此将其称为最难三元组采样损失函数:
其中,margin是预定义的正阈值,用于控制正负样本特征之间的最小距离,此处设置margin=2;D(.)表示欧氏距离度量;最终,总损失函数定义为:
Loss=LossID+αLossBH (3)
其中α为预定义参数,用于平衡身份损失LossID和三元组损失LossBH的贡献。
2.根据权利要求1所述的方法,其特征在于步骤(1)中多路径网络对输入图片每个批次的采样策略是,在每个批次中,对于包含N个身份(ID)的数据集,首先随机选择P个身份,对于每个行人身份,随机获取K张可见光行人图像和K张红外行人图像,从而将2×P×K张行人图像送进网络中训练;多路径网络各分支分别提取红外图像Z和可见光图像X的深层次特征,分别使用φ(Z)和φ(X)表示;所有输出特征向量的长度为2048。
3.根据权利要求1所述的方法,其特征在于步骤(2)中利用可见光基础分支提取的高层特征线性回归出一组仿射变换参数Aθ,然后通过下式建立仿射变换前后图像的坐标对应关系:
其中,是目标图像的规则网格中的第k个目标坐标,是输入图像中采样点的源坐标,Aθ是仿射变换矩阵,其中θ11,θ12,θ21和θ22主要控制转换图像的大小和旋转变化,而θ13和θ23控制转换图像的偏移;仿射变换时使用双线性采样对图像网格进行采样,因此双线性采样器的输入图像X和输出图像X′之间的对应关系为:
其中,X′ij表示目标图像中每个通道中坐标(i,j)位置的像素值,Xnm表示源图像中每个通道中(n,m)坐标处的像素值,H和W表示目标图像的高度和宽度;双线性采样是连续可导的,因此上述方程式(5)是连续可导并允许梯度反向传播,从而实现自适应行人对齐;关于Xnm和的偏导数分别为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910951963.2A CN112651262B (zh) | 2019-10-09 | 2019-10-09 | 一种基于自适应行人对齐的跨模态行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910951963.2A CN112651262B (zh) | 2019-10-09 | 2019-10-09 | 一种基于自适应行人对齐的跨模态行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112651262A CN112651262A (zh) | 2021-04-13 |
CN112651262B true CN112651262B (zh) | 2022-10-14 |
Family
ID=75342300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910951963.2A Active CN112651262B (zh) | 2019-10-09 | 2019-10-09 | 一种基于自适应行人对齐的跨模态行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112651262B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361466B (zh) * | 2021-06-30 | 2024-03-12 | 江南大学 | 一种基于多模态交叉指导学习的多光谱目标检测方法 |
CN113503975A (zh) * | 2021-09-13 | 2021-10-15 | 四川大学 | 一种标定板及红外测温映射标定方法 |
CN113989851B (zh) * | 2021-11-10 | 2023-04-07 | 合肥工业大学 | 一种基于异构融合图卷积网络的跨模态行人重识别方法 |
CN114241517B (zh) * | 2021-12-02 | 2024-02-27 | 河南大学 | 基于图像生成和共享学习网络的跨模态行人重识别方法 |
CN114841970B (zh) * | 2022-05-09 | 2023-07-18 | 抖音视界有限公司 | 检查图像的识别方法、装置、可读介质和电子设备 |
CN114663737B (zh) * | 2022-05-20 | 2022-12-02 | 浪潮电子信息产业股份有限公司 | 物体识别方法、装置、电子设备及计算机可读存储介质 |
CN117528233B (zh) * | 2023-09-28 | 2024-05-17 | 哈尔滨航天恒星数据系统科技有限公司 | 变焦倍数识别及目标重识别数据集制作方法 |
CN117935172B (zh) * | 2024-03-21 | 2024-06-14 | 南京信息工程大学 | 一种基于光谱信息过滤的可见光红外行人重识别方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
CN107977656A (zh) * | 2017-12-26 | 2018-05-01 | 北京大学 | 一种行人重识别方法及系统 |
CN109101865A (zh) * | 2018-05-31 | 2018-12-28 | 湖北工业大学 | 一种基于深度学习的行人重识别方法 |
CN109614996A (zh) * | 2018-11-28 | 2019-04-12 | 桂林电子科技大学 | 基于生成对抗网络的弱可见光与红外图像融合的识别方法 |
CN109829430A (zh) * | 2019-01-31 | 2019-05-31 | 中科人工智能创新技术研究院(青岛)有限公司 | 基于异构层次化注意机制的跨模态行人再识别方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019089591A1 (en) * | 2017-10-30 | 2019-05-09 | Mobileye Vision Technologies Ltd. | Vehicle navigation based on human activity |
-
2019
- 2019-10-09 CN CN201910951963.2A patent/CN112651262B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
CN107977656A (zh) * | 2017-12-26 | 2018-05-01 | 北京大学 | 一种行人重识别方法及系统 |
CN109101865A (zh) * | 2018-05-31 | 2018-12-28 | 湖北工业大学 | 一种基于深度学习的行人重识别方法 |
CN109614996A (zh) * | 2018-11-28 | 2019-04-12 | 桂林电子科技大学 | 基于生成对抗网络的弱可见光与红外图像融合的识别方法 |
CN109829430A (zh) * | 2019-01-31 | 2019-05-31 | 中科人工智能创新技术研究院(青岛)有限公司 | 基于异构层次化注意机制的跨模态行人再识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
"基于深度特征的跨模态行人重识别技术研究";王海彬;《中国优秀硕士学位论文全文数据库》;20190715;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112651262A (zh) | 2021-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112651262B (zh) | 一种基于自适应行人对齐的跨模态行人重识别方法 | |
CN110728263B (zh) | 一种基于距离选择的强判别特征学习的行人重识别方法 | |
CN111126360A (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN105138998B (zh) | 基于视角自适应子空间学习算法的行人重识别方法及系统 | |
CN111597876A (zh) | 一种基于困难五元组的跨模态行人重识别方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN109508663A (zh) | 一种基于多层次监督网络的行人重识别方法 | |
CN115690479A (zh) | 一种基于卷积Transformer的遥感图像分类方法及系统 | |
CN113743544A (zh) | 一种跨模态神经网络构建方法、行人检索方法及系统 | |
CN112434654B (zh) | 一种基于对称卷积神经网络的跨模态行人重识别方法 | |
CN109492528A (zh) | 一种基于高斯和深度特征的行人再识别方法 | |
CN111259837A (zh) | 一种基于部位注意力的行人重识别方法及系统 | |
CN113538218A (zh) | 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 | |
CN116434033A (zh) | 面向rgb-d图像稠密预测任务的跨模态对比学习方法及系统 | |
Zang et al. | Pose estimation at night in infrared images using a lightweight multi-stage attention network | |
CN113761995A (zh) | 一种基于双变换对齐与分块的跨模态行人重识别方法 | |
CN115393404A (zh) | 双光图像配准方法、装置及设备、存储介质 | |
Zhang et al. | Two-stage domain adaptation for infrared ship target segmentation | |
CN114067273A (zh) | 一种夜间机场航站楼热成像显著人体分割检测方法 | |
Casagrande et al. | Abnormal motion analysis for tracking-based approaches using region-based method with mobile grid | |
CN116740480A (zh) | 多模态图像融合目标跟踪方法 | |
CN116052057A (zh) | 基于自监督学习和预训练模型的跨模态行人重识别方法 | |
CN115049894A (zh) | 一种基于图学习的全局结构信息嵌入网络的目标重识别方法 | |
Liu et al. | [Retracted] Mean Shift Fusion Color Histogram Algorithm for Nonrigid Complex Target Tracking in Sports Video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |