CN116758117B - 可见光与红外图像下的目标跟踪方法及系统 - Google Patents

可见光与红外图像下的目标跟踪方法及系统 Download PDF

Info

Publication number
CN116758117B
CN116758117B CN202310770109.2A CN202310770109A CN116758117B CN 116758117 B CN116758117 B CN 116758117B CN 202310770109 A CN202310770109 A CN 202310770109A CN 116758117 B CN116758117 B CN 116758117B
Authority
CN
China
Prior art keywords
images
rgb
features
module
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310770109.2A
Other languages
English (en)
Other versions
CN116758117A (zh
Inventor
江倩
王国睿
金鑫
高学帅
李淑婷
李致远
邵鑫凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yunnan University YNU
Original Assignee
Yunnan University YNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yunnan University YNU filed Critical Yunnan University YNU
Priority to CN202310770109.2A priority Critical patent/CN116758117B/zh
Publication of CN116758117A publication Critical patent/CN116758117A/zh
Application granted granted Critical
Publication of CN116758117B publication Critical patent/CN116758117B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种可见光与红外图像下的目标跟踪系统,包括:双模态双分支特征提取模块:用于从RGB和TIR图像中提取可见光特定特征、红外特定特征,以及从两种模态图像的共同特征;跨模态融合动态卷积模块:用于通过动态卷积将双模态双分支特征提取模块输出的所有特征相融合,得到特征图RGB‑T,以捕捉RGB和TIR图像之间的互补特征;区域建议网络的融合模块:用于通过融合模板特征与目标特征的分类分支对得到的特征图RGB‑T进行最终的分类与回归,以得到目标的边界框。本发明还公开了一种可见光与红外图像下的目标跟踪方法。本发明解决了现有方法下场景目标容易丢失或者模糊的问题。

Description

可见光与红外图像下的目标跟踪方法及系统
技术领域
本发明属于计算机视觉技术领域,特别是涉及一种可见光与红外图像下的目标跟踪方法及系统。
背景技术
目标跟踪是计算机视觉的一个重要领域,涉及到检测和跟踪视频流中的物体的任务。目标跟踪是指在摄像机或视频传感器捕获的一连串帧中定位和跟踪一个特定的物体。目标跟踪的应用多种多样,包括视频监控、交通监测、人机交互、机器人和增强现实。近年来,基于深度学习的目标跟踪算法由于其高精确度和稳健性而获得了极大的关注。基于深度学习的物体追踪算法使用卷积神经网络(CNN)从输入视频帧中提取特征,并使用这些特征来预测目标物体在下一帧中的位置。使用最广泛的基于深度学习的物体追踪算法之一是连体网络。连体网络是CNN的一种,它接收两个输入并输出一个相似度分数。其在目标跟踪的背景下,一个输入是目标物体的模板图像,另一个输入是下一帧的搜索图像。连体网络输出的相似度分数,代表两幅图像之间的相似度,而目标物体的位置是根据最大分数的位置来估计的。由于各种因素,如遮挡、外观变化和运动模糊。
RGB和TIR图像是同一场景的两种不同的光谱表示。尽管成像技术不同,但它们都能反映某些场景信息,如物体边界信息、细粒度的纹理信息等,被称为典型的模态特征。RGB图像提供了更真实和美观的场景描述,同时提供了更高的空间分辨率,因为它们能够捕捉到可见光谱内物体的颜色和纹理。TIR图像是通过检测物体发出的热辐射获得的,使它们能够熟练地辨别温度差异,并在低能见度的条件下,如烟雾和雾中,在可见光发生散射或吸收的情况下有效。此外,TIR图像能够在完全黑暗的环境中进行可视化,从而增强了其在夜间监控和相关应用中的效用。上述RGB和TIR图像之间不一致的信息被称为特定模式特征。通过使用RGB和TIR图像的特定模式和模式共享信息,分别表达特定模式和特定模式特征。在获得差异化的特征后,通过特征融合来增强特定的特征,以实现跨模式的互动,最后将增强和融合的特征用于目标位置估计。到目前为止,各种RGB-T追踪器已经被提出。早期的研究依赖于手工提取的特征。这些方法在光线不足、曝光过度和阴影等环境下效果不佳。继CNN在RGB追踪中取得成功后,深度CNN的显著特征提取和表示能力使这些新建立的RGB-T追踪器超越了旧的追踪器。因此,近年来,基于多域网络的不同追踪器开始发展起来。然而,由于它们的速率比实时慢得多,这些追踪器很难执行实时任务,如自主驾驶、反无人机等。最近的研究集中在开发采用连体网络的RGB-T追踪器来解决这个问题。其中一个追踪器是由Guo等人提出的RGBT连体追踪器,被称为DuSiamRT。虽然这个追踪器表现出了很高的实时性,但它的追踪精度却比不上其他同类型的RGB-T追踪器。
目前简单的多模态融合算法倾向于以类似的方式提取不同模态的特征,忽略了每种模态和区域对检测的不同贡献。因此,这种方法往往导致红外图像的噪声区域部分过拟合。在现实世界中,由于红外成像的局限性,包括过多的噪声、图像对比度差、信噪比低、边缘模糊、视觉效果模糊和灰度范围受限,而RGB和TIR图像的特点不同,图像中某些场景目标要么丢失,要么模糊,尤其是在背景和物体边界附近。为了应对这些挑战,本研究提出了一种基于注意力的RGB-T多模态信息融合机制,该机制可以减少TIR图像噪声的负面影响,最大限度地提高多模态特征的互补性。
发明内容
本发明实施例的目的在于提供一种可见光与红外图像下的目标跟踪方法及系统,以解决现有方法下场景目标容易丢失或者模糊的问题。
为解决上述技术问题,本发明所采用的技术方案是,一种可见光与红外图像下的目标跟踪系统,包括:
双模态双分支特征提取模块:用于从RGB和TIR图像中提取可见光特定特征、红外特定特征,以及从两种模态图像的共同特征;
跨模态融合动态卷积模块:用于通过动态卷积将双模态双分支特征提取模块输出的所有特征相融合,得到特征图RGB-T,以捕捉RGB和TIR图像之间的互补特征;
区域建议网络的融合模块:用于通过融合模板特征与目标特征的分类分支对得到的特征图RGB-T进行最终的分类与回归,以得到目标的边界框。
进一步地,所述双模态双分支特征提取模块包括上部分的模板图像特征提取部分和下部分的检测图像特征提取部分,其中,模板图像特征提取部分包括RGB模板图像特征提取部分和TIR模板图像特征提取部分,检测图像特征提取部分包括RGB检测图像特征提取部分和TIR检测图像特征提取部分;
所述RGB模板图像特征提取部分、TIR模板图像特征提取部分、RGB检测图像特征提取部分、TIR检测图像特征提取部分均由四个卷积模块组成,四个卷积模块中前两个卷积模块包含一个卷积层、一个归一化层、一个最大池化层和一个激活函数层,后两个卷积模块包含一个卷积层、一个归一化层和一个激活函数层。
进一步地,所述双模态双分支特征提取模块还包括特征解耦模块,用于对RGB和TIR图像的原始特征进行解耦,得到可见光特定特征、红外特定特征,以及从两种模态图像中提取的共同特征,所述特征解耦模块的表达式如下:
其中,分别代表可见光、热红外图像的原始特征;FRS、FTS、FMC分别代表特征解偶模块中的可见光特定特征、红外特定特征、从两种模态图像中提取的共同特征的输出模块;/>分别表示特征解耦模块输出的可见光特定特征、红外特定特征、从两种模态图像中提取的共同特征。
进一步地,所述跨模态融合动态卷积模块包括卷积核以及对卷积核的关注机制,所述对卷积核的关注机制表示为:
seex(Z,W)
=σ(Wse2δ(Wse1Wc))
Fex代表通道注意力操作,z代表的是一个可学习的矩阵,W代表的是输入的特征,δ表示第一个全连接层对Wse1与特征矩阵Wc进行全连接操作,通过Wse1对Wc进行抽象信息提取,σ表示通道注意力操作通过Wse2对δ(Wse1Wc)进行通道调整;Wse1是一个可学习的矩阵,通过与Wc矩阵相乘提取多维子空间信息;Wse2是一个可学习的矩阵,其维度是Kse×Kc,Kc为卷积核的通道数,Kse是δ(Wse1Wc)的维度;Wse2通过与δ(Wse1Wc)矩阵相乘将多维子空间信息浓缩一种对多个卷积核的关注机制,权重应用于卷积核。
进一步地,所述区域建议网络的融合模块包括两个分类分支、两个回归分支和区域建议网络RPN,所述分类分支和回归分支均用于增强区域建议网络RPN;所述分类分支由一个3×3大小的卷积层构成,输出通道数为2n,n代表锚盒个数;所述回归分支由一个3×3大小的卷积层构成,输出通道数为4n;
所述区域建议网络的融合模块还包括双分支融合模块,用于对两个分类分支的特征值进行融合以及对两个回归分支的特征值进行融合。
进一步地,所述区域建议网络的融合模块中两个分类分支的特征值的融合表示为:
Rcls=[ψ(xrc)]cls×[ψ(zr)]cls
Mcls=[ψ(xmc)]cls×[ψ(zm)]cls
Lcls=Mcls+Rcls
其中,Rcls表示两种模态的原始地图上对应位置处的每个锚帧被预测为背景和目标的概率,Mcls表示两种模态的原始地图上对应位置处的每个锚帧被预测为背景和目标的标签的损失;xrc代表可见光模态的分类分支特征,xmc代表融合模态的分类分支特征,zr和zm分别代表与该原始图像所对应的分类标签;Lcls为最终的分类结果;
两个回归分支的特征值融合表示为:
Rreg=[ψ(xrr)]reg×[ψ(zr)]reg
Mreg=[ψ(xmr)]reg×[ψ(zm)]reg
Lreg=Mreg+Rreg
其中,ψ代表损失函数,xrr代表可见光模态的回归分支特征,xmr代表融合模态的回归分支特征,Rreg表示两种模态的原始地图上对应位置处的每个锚帧被所预测偏移量的损失,Mreg表示两种模态的原始地图上对应位置处的每个锚帧被所预测标签的损失,Lreg表示锚框和对应的地面真值框之间的预测偏移损失综合。
本发明还提供了一种可见光与红外图像下的目标跟踪系统的跟踪方法,包括以下步骤:
S0:输入源图像,包括RGB模板图像、TIR模板图像和RGB检测图像、TIR检测图像;
S1:获取RGB-T图像对,将图像转换成Tensor的数据格式,然后根据所需要的目标作为模板裁剪,之后通过图像预处理进行重建,再根据目标进行裁剪;
S2:将S1裁剪后的图像输入到双模态双分支特征提取模块,对源模板图像和目标图像进行特征提取,得到两种模态的独有特征图以及模态间共有的特征图;
S3:将S2提取的两种模态解耦后的独有特征图输入到跨模态融合动态卷积模块中,通过动态卷积的方法将其融合,以使得RGB和TIR图像的模态间独立信息得到充分融合;
S4:通过将融合模板特征与目标特征的分类分支得到的特征图输入区域建议网络的融合模块,进行最终的分类与回归;
S5:将S4得到的数据进行后处理最终得到目标所在坐标;
S6:按照固定批次将RGB和TIR图像输入到模型中,并依次循环S0-S5,实现动态跟踪。
本发明的有益效果是:
本发明的特征解耦模块在可以提取特征图的同时还实现了特征信息的融合,而区域建议网络则根据RGB与TIR模态信息量的不同进行优化,以实现高质量的多模态目标跟踪算法。此外,还构建了一种跨模态融合动态卷积机制,以实现降低特征信息丢失和聚焦关键信息的作用。本发明根据提出的特征解耦的跨模态融合动态卷积模块和区域建议网络的融合模块,充分了利用两种模态图像的协同性,高效融合了两种模态图像互补的细节和光谱信息。本发明有效利用不同模态特征的差异性和互补性,用于各种极端环境的目标跟踪任务。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的目标跟踪系统的总体架构图。
图2是本发明实施例的多模态双分支特征提取模块结构示意图。
图3是本发明实施例的跨模态融合动态卷积模块结构示意图。
图4是本发明实施例的跨模态融合动态卷积模块与普通模块视觉分析对比图。
图5是本发明实施例的区域建议网络的融合模块结构示意图。
图6是本发明实施例的各方法效果对比图。
图7是本发明实施例的各方法对比实验数据图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种可见光与红外图像下的目标跟踪系统(SiamTDR),参见图1,包括多模态双分支特征提取模块、跨模态融合动态卷积模块(DP-MF)和区域建议网络的融合模块(DBF)。RGB图像和TIR图像被作为模型的输入,被跟踪目标的位置坐标作为输出。多模态双分支特征提取模块用于提取RGB和TIR图像的视觉外观的信息与温度分布的信息。特征解耦的跨模态融合动态卷积模块可以看作是将上一层输出的两种模态特征相融合,提高两种协同互补性。最后本发明的SiamTDR性能得益于特征解耦的重构能力以及两个融合模块的抗干扰能力,使该网络能有效利用不同模态特征的差异性和互补性,用于各种极端环境的目标跟踪任务。基于上述系统,本发明还提供了一种可见光与红外图像下的目标跟踪方法,具体包括以下步骤:
S0、输入源图像并计算训练图像的分类和回归标签信息(即目标在Detection图像的位置信息,以便通过后续Loss函数计算损失,优化可学习参数),包括RGB模板图像(Template-RGB)、TIR模板图像(Template-TIR)和RGB检测图像(Detection-RGB)、TIR检测图像(Detection-TIR)。
S1、双分支特征提取模块:利用特征提取模块对Template图像(RGB模板图像、TIR模板图像)和Detection图像(RGB检测图像、TIR检测图像)进行特征提取,得到两种模态的独有特征与模态间共有的特征图。
S1.1、特征提取模块作为模型的头部由两个部分(即模板特征提取和检测特征提取两部分)构成,参见图2。两部分结构相似并且有部分相同的参数,表1展示了特征提取模块的细节。特征提取模块获得图像信息对后面的模块极为重要,可表示为:
其中,FPE代表图像经过双分支特征提取模块,image RGB表示RGB图像,imageTIR表示TIR图像。
表1特征提取模块
RGB与TIR图像被用于该模块的输入,但因为两张图片规格相同,特征提取模块被设计为上下两部分,包括上部分的Template图像特征提取部分和下部分的Detection图像特征提取部分,均由四个卷积模块组成。其中前两个卷积模块包含一个卷积层、一个归一化层、一个最大池化层和一个激活函数层,后两个卷积模块包含一个卷积层、一个归一化层和一个激活函数层。使用ReLU作为激活函数,其推导更容易,训练速度更快。
获取不同模态的权重方式如式(11-1)所示:
其中,dim代表不同的通道,cat代表将Frgb(RGB特征)与Ft(红外特征)在dim维度上进行拼接,Wc代表获取的不同模态的权重,X代表可见光与热红外特征拼接后的特征,Fsq是一个全局池化操作,i与j分别是在特征值的横纵坐标。H与W代表特征图的长和宽。
S1.2、特征解耦模块。本发明根据可见光模态与热红外模态互补的特性分别将可见光模态解耦成可见光特定特征、红外特定特征和从两种模态图像中提取的共同特征,它的主要作用是将原始特征中的相关性降低,使得不同模态特征之间的影响减少,从而提高提取的特征的独立性和判别性。具体来说,特征解耦可以通过一些线性或非线性变换,将原始特征映射到一个新的空间中,使得不同特征在新的空间中的相关性降低,从而使得这些特征更容易被SiamTDR(本发明的模型)区分前景与背景。通过特征解耦,可以减少特征空间的维度,提高模型的泛化能力,同时还可以降低模型的复杂度和计算成本。此外,特征解耦还可以提高算法的鲁棒性,使得模型对噪声和干扰的抗性更强,从而提高模型的性能和稳定性。
分别代表可见光与热红外图像的原始特征。FRS、FTS、FMC分别代表特征解偶模块的可见光特定特征、红外特定特征和从两种模态图像中提取的共同特征的输出模块。/>分别表示特征解耦模块输出的可见光特定特征、红外特定特征和从两种模态图像中提取的共同特征。/>和/>是完全独立的,以保证模态特征提取过程的差异性,同时接受可见光和红外图像作为输入,意味着两种模态图像共享模型结构和参数,使用同一模型对两种模态图像产生一致的特征表示。特征解耦模块可以用等式(11-2)描述。
S2、跨模态融合动态卷积模块:将特征提取网络提取的可见光与红外模态解耦后的独立特征图输入到跨模态融合动态卷积模块中,通过动态卷积的方法将其融合,以使得RGB和TIR图像的模态间独立信息得到充分融合。
S2.1、其详细结构如图3所示。用于模板和检测的RGB和TIR特征分别从双分支特征提取模块的特征解耦模块获得,下一步是融合这些特征用于目标跟踪。用于最终跟踪的融合模板特征是通过将来自特征解耦模块可见光特定特征、红外特定特征和从两种模态图像中提取的共同特征融合得到。对于本发明来说,跨模态融合动态卷积模块成功地融合这三种特征以捕捉RGB和热红外图像之间的多模式互补特征。
RGB-T融合图像包含互补特征,有助于提高检测精度,但融合多模态特征的常见方法是元素相加和串联。然而,由于噪声的存在和不同模态特征对物体检测的贡献不同,平等地融合RGB和TIR图像是不公平的。在融合多模态信息时,应根据不同模态的特点来设定权重。考虑到每种模式数据的特征可靠性,基于内容依赖性加权的融合策略通常比简单的元素求和或基于串联的融合策略表现得更好。尽管如此,现有的融合策略大多没有考虑融合过程中输入的多模态RGB和热红外图像之间的特征差异。本发明在融合模块中引入了多模态特征的动态感知来实现这一目标。本发明的跨模态融合动态卷积模块可以自适应地选择需要关注的来自不同模态的空间和通道维度的特征。卷积核针对不同模态的图像特征进行动态调整,用更合适的卷积参数进行处理。在高质量的RGB图像的帮助下,它避免了过度拟合的噪声区域。
跨模态融合动态卷积模块的结构如图3所示,主要由卷积核和对卷积核的关注机制组成,具有两个输入,即RGB特征图(包括共同特征中的RGB特征部分)和TIR特征图(包括共同特征中的TIR特征部分),先将两个特征图进行在通道维度进行拼接,之后会由这个拼接的特征图产生对卷积核的关注机制,并根据每个注意力机制中的不同特征图生成更合适的卷积核,并使用该卷积核进行特征提取以生成更好的特征。具体来说,首先通过核大小为3×3的n个过滤器,根据不同的特征输入以动态调整每个过滤器的信道纬度权重和每个过滤器的权重。随后,在信道注意力进行最终调整之前,对调整后的过滤器进行简单求和。在数学上,动态生成过滤器可以表示为(11-3)。
多模态的互补信息,有助于区分重叠和遮挡等对象。Fex代表通道注意力操作,z代表的是一个可学习的矩阵,W代表的是输入的特征,δ表示第一个全连接层对Wse1与Wc进行全连接操作,通过Wse1对特征矩阵Wc进行抽象信息提取,σ表示通道注意力操作通过Wse2对δ(Wse1Wc)进行通道调整,Wse1是一个可学习的矩阵,通过与Wc矩阵相乘提取多维子空间信息;Wse2同样是一个可学习的矩阵,其维度是Kse×Kc(Kc为卷积核的通道数,Kse是δ(Wse1Wc)的维度),Wse2通过与δ(Wse1Wc)矩阵相乘将多维子空间信息浓缩一种对多个卷积核的关注机制,权重应用于卷积核。对于不同的输入,使用不同的卷积核。然后,对于这些不同的卷积核,对注意力进行加权。为了证明本发明提出的方法的有效性,本实施例对所选帧的调制特征进行了视觉分析。如图4所示,本发明的跨模态融合动态卷积模块在RGB-T跟踪任务的特征表示方面表现出明显的增强。
S3、区域建议网络的融合模块:通过融合模板特征与目标特征的分类分支对得到的特征图进行最终的分类与回归。
区域建议网络(RPN)在分类前景和背景以及回归边界框方面起着关键作用。在RGB-T目标跟踪中,本发明引入了两个分类分支和两个回归分支来增强RPN。分类分支由一个3×3大小的卷积层构成,其输出通道数为2n(n代表锚盒个数);回归分支由一个3×3大小的卷积层构成,其输出通道数为4n(n代表锚盒个数);其中分类分支是通过跨模态融合动态卷积模块所产生的特征信息定位目标的位置,回归分支是通过跨模态融合动态卷积模块所产生的特征信息确定目标的形状。同时为了增强跟踪推理阶段的鲁棒性,本发明提出了一种双分支融合模块(DBF),具体参见图5,该模块是分别将两个分类分支与两个回归分支的特征值相加,该模块将融合后回归分支与分类分支结合为最终回归特征,通过最终融合分类特征来确定目标的大体位置,最终融合回归特征来精确描述目标的边界框。具体地说,通过特征求和来集成两个回归分支,以产生更好的边界框定位。类似地,通过特征求和将两个分类分支合并以获得最终分类特征,然后对其进行后处理以产生最终结果。
Rcls=[ψ(xrc)]cls×[ψ(zr)]cls
Mcls=[ψ(xmc)]cls×[ψ(zm)]cls
Rcls和Mcls表示两种模态的原始地图上对应位置处的每个锚帧被分别预测为背景和目标的概率与标签的损失。xrc代表可见光模态的分类分支特征,xmc代表融合模态的分类分支特征,zr和zm分别代表与该原始图像所对应的分类标签然后,通过特征求和操作来融合这两个分类结果,从而可以获得最终的分类结果Lcls
Lcls=Mcls+Rcls
该模块中的回归分支对锚框进行回归,以获得更好的边界框。具体的,使用关于RGB和TIR模态的信息来回归边界框。因为需要dx,dy,dw,dh(dx代表对目标中心横坐标的偏移量,dy代表对目标中心横坐标的偏移量,dw代表锚盒宽度的调整量,dh代表锚盒高度的调整量)来计算锚盒和地面真相之间的距离,所以回归分支的通道数为4n(n代表在每一点上锚盒数量)。参考分类分支,可以获得以下公式:
Rreg=[ψ(xrr)]reg×[ψ(zr)]reg
Mreg=[ψ(xmr)]reg×[ψ(zm)]reg
Lreg=Mreg+Rreg
ψ代表损失函数,xrr代表可见光模态的回归分支特征,xmr代表融合模态的回归分支特征,zr和zm分别代表与该原始图像所对应的标签,Rreg和Mreg分别表示两种模态的原始地图上对应位置处的每个锚帧被所预测偏移量与标签的损失,Lreg表示锚框和对应的地面真值框之间的预测偏移损失综合,根据数学规则将其转录为向量k代表锚盒个数;同时,每个锚框和相应地面真值框的实际偏移记录为ci,i∈[0,k)。本发明使用平滑L1损失和Faster r-cnn中使用的归一化坐标来监督回归分支的训练:
S4、损失函数:通过将后处理的坐标与标签图像进行计算LOSS差值并反向传播优化网络。
在训练阶段,将epoch设置为50,batchsize为128,优化器为SDG,学习率设置为余弦退火。在任何模型中损失函数都是极其重要的,损失函数影响模型的训练过程,直至影响生成的结果。本发明采用L1作为损失函数,其方程可以用下式表示。L1表示坐标框的均方误差,其中Ψ表示模型输出,Y则为标签。
S5、按照固定批次将RGB和TIR图像输入到模型中,并依次循环S0-S4
S6、若仍有目标需要跟踪则循环S5,一直到不再有目标需要跟踪为止。
实施例一
参见图1的架构,提出了一种基于双分支特征解耦的跨模态融合动态卷积机制的可见光与红外图像下的目标跟踪方法,其包括以下步骤:
S0:输入源图像Input=[Template-RGB,Template_TIR]和[Detection-RGB,Detection-T]。
S1:获取RGB-T图像对,将图像转换成Tensor的数据格式,然后根据所需要的目标作为模板裁剪,之后通过算法的图像预处理模块重建为127×127×3,再根据目标裁剪一个大小为271×271×3的数据。
S2:将RGB-T图像预处理后的4个图像输入到特征提取模块,利用特征提取网络对源模板图像和目标图像进行特征提取,得到两种模态的独有特征与模态间共有的特征图。
S3:将S2提取的两种模态解耦后的独立特征图输入到跨模态融合动态卷积模块中,通过动态卷积的方法将其融合,以使得RGB和TIR图像的模态间独立信息得到充分融合。
S4:通过将融合模板特征与目标特征的分类分支得到的特征图进行最终的分类与回归。
S5:将S4得到的数据进行后处理最终得到目标所在坐标。
S6:按照固定批次将RGB和TIR图像输入到模型中,并依次循环S0-S5。
实施例二
本实施例选取了多RGB-T图像对进行融合,并与现有的多种融合算法进行对比,以验证本发明方法的优势。
采用GTOT与RGB-T234图像数据集,其中包含原始高分辨率RGB图像和与之配准的TIR图像。本实施例将该RGB与TIR裁剪为搜索区域后模板图像以及目标图像作为网络的输入。将整幅高分辨率RGB与TIR图像分别分割并整理为127×127、27×27的图像对,若图像边缘部分不够裁剪,再计算图像的像素平均值,以补充边缘不足的区域。其中训练数据集共有64万对图像,测试数据集共有1.2万对图像。数据集的图像均为随机选择。
为了验证本发明方法在遥感图像融合中的先进性和有效性。本实施例使用了8种方法SiamBAN,CMRT,SiamRPN++,ATOM,DiMP,SiamFT,SGT,mfDiMP进行对比分析。以上方法的代码均公开,参数没有变动。而且被测试的图像均遵循目标的多元化。本实施例还对整个实验做了定量评价和定性评价,其中定量评价方法被分为有参考评价指标和无参考评价指标。如表2所示,实验结果表明,本发明提出的SiamTDR的表现优于其他八个跟踪器。其中OCC代表数据集中目被遮挡的图像跟踪表现。LSV代表数据集中目标具有大尺度变化的图像。FM代表目标快速运动的图像。LI代表数据集中目标热量与周围环境相近的图像。DEF代表被跟踪目标为小目标的图像(像素数小于400)。DEF代表数据集中目标形变较大的图像。本发明提出的SiamTDR在总指标取得了0.885的PR和0.714的SR,分别比排名第二的跟踪器mfDiMP(PR为0.836,SR为0.697)提高了0.051和0.017。这些结果证明了本发明提出的方法的卓越性能。此外,与基线跟踪器SiamRPN相比,本实施例提出的SiamTDR记录了0.088的PR和0.065的SR增长,进一步肯定了本发明提出的SiamTDR跟踪器在跟踪应用中的稳健性。在分类指标中也十分具有竞争力。
表2对比试验
本实施例在RGB-T234数据集上评估了本发明的追踪器SiamTDR的性能。为了比较其有效性,将其与其他15个跟踪器进行评估,其中包括CSR-DCF+RGBT、SOWP+RGBT、MEEM+RGBT、CFnet+RGBT、KCF+RGBT,C-COT,ECO,SGT,SOWP,DSST,SRDCF,CSR,CFnet,L1-PF,JSR。最初的5个追踪器利用了RGBT数据,而其余的追踪器只依靠RGB数据。如图7所示,研究结果显示,与其他方法相比,本发明的SiamTDR在RGB-T234数据集上取得了卓越的性能。具体来说,本实施例的跟踪器获得了0.772的PR分和0.551的SR分,分别比排名第二的SGT和CFnet+RGBT提高了0.063和0.221,这表明了本发明方法及系统的优越性。
如图6所示,将本文所提出的算法与其他当前流行的目标跟踪算法的跟踪结果进行可视化,结果表明相较于其他算法本算法的结果最为准确。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (5)

1.一种可见光与红外图像下的目标跟踪系统,其特征在于,包括:
双模态双分支特征提取模块:用于从RGB和TIR图像中提取可见光特定特征、红外特定特征,以及从两种模态图像的共同特征;
跨模态融合动态卷积模块:用于通过动态卷积将双模态双分支特征提取模块输出的所有特征相融合,得到特征图RGB-T,以捕捉RGB和TIR图像之间的互补特征;
区域建议网络的融合模块:用于通过融合模板特征与目标特征的分类分支对得到的特征图RGB-T进行最终的分类与回归,以得到目标的边界框;
所述双模态双分支特征提取模块包括上部分的模板图像特征提取部分和下部分的检测图像特征提取部分,其中,模板图像特征提取部分包括RGB模板图像特征提取部分和TIR模板图像特征提取部分,检测图像特征提取部分包括RGB检测图像特征提取部分和TIR检测图像特征提取部分;
所述RGB模板图像特征提取部分、TIR模板图像特征提取部分、RGB检测图像特征提取部分、TIR检测图像特征提取部分均由四个卷积模块组成,四个卷积模块中前两个卷积模块包含一个卷积层、一个归一化层、一个最大池化层和一个激活函数层,后两个卷积模块包含一个卷积层、一个归一化层和一个激活函数层;
所述跨模态融合动态卷积模块包括卷积核以及对卷积核的关注机制,所述对卷积核的关注机制表示为:
Sse=Fex(z,W)
=σ(Wse2δ(Wse1Wc))
Fex代表通道注意力操作,z代表的是一个可学习的矩阵,W代表的是输入的特征,δ表示第一个全连接层对Wse1与特征矩阵Wc进行全连接操作,通过Wse1对Wc进行抽象信息提取,σ表示通道注意力操作通过Wse2对δ(Wse1Wc)进行通道调整;Wse1是一个可学习的矩阵,通过与Wc矩阵相乘提取多维子空间信息;Wse2是一个可学习的矩阵,其维度是Kse×Kc,Kc为卷积核的通道数,Kse是δ(Wse1Wc)的维度;Wse2通过与δ(Wse1Wc)矩阵相乘将多维子空间信息浓缩一种对多个卷积核的关注机制,权重应用于卷积核。
2.根据权利要求1所述的一种可见光与红外图像下的目标跟踪系统,其特征在于,所述双模态双分支特征提取模块还包括特征解耦模块,用于对RGB和TIR图像的原始特征进行解耦,得到可见光特定特征、红外特定特征,以及从两种模态图像中提取的共同特征,所述特征解耦模块的表达式如下:
其中,分别代表可见光、热红外图像的原始特征;FRS、FTS、FMC分别代表特征解偶模块中的可见光特定特征、红外特定特征、从两种模态图像中提取的共同特征的输出模块;分别表示特征解耦模块输出的可见光特定特征、红外特定特征、从两种模态图像中提取的共同特征。
3.根据权利要求1所述的一种可见光与红外图像下的目标跟踪系统,其特征在于,所述区域建议网络的融合模块包括两个分类分支、两个回归分支和区域建议网络RPN,所述分类分支和回归分支均用于增强区域建议网络RPN;所述分类分支由一个3×3大小的卷积层构成,输出通道数为2n,n代表锚盒个数;所述回归分支由一个3×3大小的卷积层构成,输出通道数为4n;
所述区域建议网络的融合模块还包括双分支融合模块,用于对两个分类分支的特征值进行融合以及对两个回归分支的特征值进行融合。
4.根据权利要求3所述的一种可见光与红外图像下的目标跟踪系统,其特征在于,所述区域建议网络的融合模块中两个分类分支的特征值的融合表示为:
Rcls=[ψ(xrc)]cls×[ψ(zr)]cls
Mcls=[ψ(xmc)]cls×[ψ(zm)]cls
Lcls=Mcls+Rcls
其中,Rcls表示两种模态的原始地图上对应位置处的每个锚帧被预测为背景和目标的概率,Mcls表示两种模态的原始地图上对应位置处的每个锚帧被预测为背景和目标的标签的损失;xrc代表可见光模态的分类分支特征,xmc代表融合模态的分类分支特征,zr和zm分别代表与该原始图像所对应的分类标签;Lcls为最终的分类结果;ψ代表损失函数;
两个回归分支的特征值融合表示为:
Rreg=[ψ(xrr)]reg×[ψ(zr)]reg
Mreg=[ψ(xmr)]reg×[ψ(zm)]reg
Lreg=Mreg+Rreg
其中,ψ代表损失函数,xrr代表可见光模态的回归分支特征,xmr代表融合模态的回归分支特征,Rreg表示两种模态的原始地图上对应位置处的每个锚帧被所预测偏移量的损失,Mreg表示两种模态的原始地图上对应位置处的每个锚帧被所预测标签的损失,Lreg表示锚框和对应的地面真值框之间的预测偏移损失综合。
5.一种如权利要求1~4任一项所述的可见光与红外图像下的目标跟踪系统的跟踪方法,其特征在于,包括以下步骤:
S0:输入源图像,包括RGB模板图像、TIR模板图像和RGB检测图像、TIR检测图像;
S1:获取RGB-T图像对,将图像转换成Tensor的数据格式,然后根据所需要的目标作为模板裁剪,之后通过图像预处理进行重建,再根据目标进行裁剪;
S2:将S1裁剪后的图像输入到双模态双分支特征提取模块,对源模板图像和目标图像进行特征提取,得到两种模态的独有特征图以及模态间共有的特征图;
S3:将S2提取的两种模态解耦后的独有特征图输入到跨模态融合动态卷积模块中,通过动态卷积的方法将其融合,以使得RGB和TIR图像的模态间独立信息得到充分融合;
S4:通过将融合模板特征与目标特征的分类分支得到的特征图输入区域建议网络的融合模块,进行最终的分类与回归;
S5:将S4得到的数据进行后处理最终得到目标所在坐标;
S6:按照固定批次将RGB和TIR图像输入到模型中,并依次循环S0-S5,实现动态跟踪。
CN202310770109.2A 2023-06-28 2023-06-28 可见光与红外图像下的目标跟踪方法及系统 Active CN116758117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310770109.2A CN116758117B (zh) 2023-06-28 2023-06-28 可见光与红外图像下的目标跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310770109.2A CN116758117B (zh) 2023-06-28 2023-06-28 可见光与红外图像下的目标跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN116758117A CN116758117A (zh) 2023-09-15
CN116758117B true CN116758117B (zh) 2024-02-09

Family

ID=87960665

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310770109.2A Active CN116758117B (zh) 2023-06-28 2023-06-28 可见光与红外图像下的目标跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN116758117B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019084769A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 用于跟踪拍摄的方法和设备
WO2021088300A1 (zh) * 2019-11-09 2021-05-14 北京工业大学 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN113628249A (zh) * 2021-08-16 2021-11-09 电子科技大学 基于跨模态注意力机制与孪生结构的rgbt目标跟踪方法
CN113920171A (zh) * 2021-12-09 2022-01-11 南京理工大学 基于特征级和决策级融合的双模态目标跟踪算法
CN114332166A (zh) * 2021-12-31 2022-04-12 安徽大学 基于模态竞争协同网络的可见光红外目标跟踪方法及装置
CN115205337A (zh) * 2022-07-28 2022-10-18 西安热工研究院有限公司 一种基于模态差异补偿的rgbt目标跟踪方法
CN115984323A (zh) * 2022-12-15 2023-04-18 南京理工大学 基于空频域均衡的双级融合rgbt跟踪算法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110049921B (zh) * 2017-11-03 2022-12-23 深圳市大疆创新科技有限公司 用于红外跟踪的方法和系统
CN109828596A (zh) * 2019-02-28 2019-05-31 深圳市道通智能航空技术有限公司 一种目标跟踪方法、装置和无人机

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019084769A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 用于跟踪拍摄的方法和设备
WO2021088300A1 (zh) * 2019-11-09 2021-05-14 北京工业大学 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN113628249A (zh) * 2021-08-16 2021-11-09 电子科技大学 基于跨模态注意力机制与孪生结构的rgbt目标跟踪方法
CN113920171A (zh) * 2021-12-09 2022-01-11 南京理工大学 基于特征级和决策级融合的双模态目标跟踪算法
CN114332166A (zh) * 2021-12-31 2022-04-12 安徽大学 基于模态竞争协同网络的可见光红外目标跟踪方法及装置
CN115205337A (zh) * 2022-07-28 2022-10-18 西安热工研究院有限公司 一种基于模态差异补偿的rgbt目标跟踪方法
CN115984323A (zh) * 2022-12-15 2023-04-18 南京理工大学 基于空频域均衡的双级融合rgbt跟踪算法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
DRF: Disentangled representation for visible and infrared image fusion;H. Xu等;IEEE Trans. Instrum. Meas.;第70卷;第2-13页 *
Dynamic convolution: Attention over convolution kernels;Y. Chen等;IEEE/CVF Conf. Comput. Vis. Pattern Recognit.;第11030-11039页 *
Multi-modal fusion for end-to-end RGB-T tracking[;Zhang L;Proceedings of the IEEE;全文 *
RGBT双模态加权相关滤波跟踪算法;熊跃军等;信号处理(第09期);全文 *
SiamFT: An RGB-infrared fusion tracking method via fully convolutional Siamese networks;X. Zhang等;IEEE Access;第7卷;第122122-122133页 *
基于动态卷积的可见光-红外目标跟踪研究;刘亮;万方学位论文全文库;全文 *
基于卷积神经网络的可见光和红外跟踪算法;徐宁文等;计算机仿真(第04期);全文 *

Also Published As

Publication number Publication date
CN116758117A (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
CN110298262B (zh) 物体识别方法及装置
Rangesh et al. Driver gaze estimation in the real world: Overcoming the eyeglass challenge
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
Fang et al. A shape-independent method for pedestrian detection with far-infrared images
An et al. Robust visual tracking for UAVs with dynamic feature weight selection
WO2021016873A1 (zh) 基于级联神经网络的注意力检测方法、计算机装置及计算机可读存储介质
CN114782298B (zh) 一种具有区域注意力的红外与可见光图像融合方法
Xu et al. Dktnet: dual-key transformer network for small object detection
CN113378675A (zh) 一种同时检测和特征提取的人脸识别方法
Ding et al. Thermal infrared single-pedestrian tracking for advanced driver assistance system
Zhang et al. Unsupervised depth estimation from monocular videos with hybrid geometric-refined loss and contextual attention
Ma et al. AVS-YOLO: object detection in aerial visual scene
Yang et al. RADCU-Net: Residual attention and dual-supervision cascaded U-Net for retinal blood vessel segmentation
Chen et al. IGT: Illumination-guided RGB-T object detection with transformers
Rangesh et al. Gaze preserving CycleGANs for eyeglass removal and persistent gaze estimation
Abdulwahab et al. Monocular depth map estimation based on a multi-scale deep architecture and curvilinear saliency feature boosting
CN116805360B (zh) 一种基于双流门控渐进优化网络的显著目标检测方法
Hu et al. Decision-level fusion detection method of visible and infrared images under low light conditions
Duan Deep learning-based multitarget motion shadow rejection and accurate tracking for sports video
CN116758117B (zh) 可见光与红外图像下的目标跟踪方法及系统
CN116681976A (zh) 用于红外小目标检测的渐进式特征融合方法
Wang et al. SiamTDR: Time-efficient RGBT Tracking via Disentangled Representations
Zhao et al. Deep learning-based laser and infrared composite imaging for armor target identification and segmentation in complex battlefield environments
Pei et al. FGO-Net: Feature and Gaussian Optimization Network for visual saliency prediction
Liu et al. FSFM: a feature square tower fusion module for multimodal object detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant