CN116778177A - 一种在可见光-红外图像弱对齐下的目标检测方法 - Google Patents
一种在可见光-红外图像弱对齐下的目标检测方法 Download PDFInfo
- Publication number
- CN116778177A CN116778177A CN202310754391.5A CN202310754391A CN116778177A CN 116778177 A CN116778177 A CN 116778177A CN 202310754391 A CN202310754391 A CN 202310754391A CN 116778177 A CN116778177 A CN 116778177A
- Authority
- CN
- China
- Prior art keywords
- visible light
- infrared
- graph
- feature
- visible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000005286 illumination Methods 0.000 claims abstract description 35
- 238000010586 diagram Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 14
- 230000000295 complement effect Effects 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及一种在可见光‑红外图像弱对齐下的目标检测方法,属于基于深度学习的图像处理技术领域。将可见光和红外图像输入到特征提取网络中,提取可见光和红外图像的全局特征;将可见光图像输入到光照感知模块中,提取光照信息;将可见光和红外图像特征输入到多尺度空间对齐模块中进行特征对齐,得到在同一潜在物理空间下对齐的可见光和红外图像特征;将可见光和红外图像特征输入到特征融合模块中,融合可见光和红外图像特征的目标互补信息,得到融合后的特征图;将光照信息和特征图输入到检测器进行目标检测。本发明能有效在特征层面对齐可见光和红外图像各维度特征,增强目标检测器对各维度信息不对齐的可见光和红外图像的检测鲁棒性。
Description
技术领域
本发明涉及一种在可见光-红外图像弱对齐下的目标检测方法,属于基于深度学习的图像处理技术领域。
背景技术
以可见光和红外图像为多模态数据训练目标检测网络,是增强单模态目标检测算法在复杂环境下的鲁棒性的有效途径。但由于数据采集传感器时空同步不准、立体视差以及可见光和红外图像配准时存在误差等原因,同一个目标在可见光和红外图像中的位置并不是完全重合的,可见光和红外图像存在不对齐现象,这加深了模型挖掘可见光和红外图像互补信息困难度。
针对该问题,国内外相关研究者进行了多方面探究:图像不对齐问题的一个常见解决方法是进行图像配准,虽然图像配准技术已经成熟,但其主要是对图像进行低层次变换,图像预处理时间长、基于卷积神经网络的检测器无法以端到端方式进行训练是其主要缺点。由于深度学习技术的发展,图像配准的特征检测、特征描述过程可以使用深度学习方式来解决,使得获取到的特征具有通用性,令图像转换过程更具鲁棒性。此外,不仅仅局限于特征提取、特征描述过程,还有学者基于区域建议网络对齐区域建议框策略以对齐不同模态特征,缓解弱对齐图像对检测效果的负面影响。与上述基于区域建议网络对齐策略不同的是,Zhou等人通过在网络中设计可变形卷积模块去回归目标特征偏差;Kim等人通过使用多标签策略去促使模型学习到可见光和红外图像中关于目标更具差异性的特征;Shacht等人提出了可学习的形变对齐方法,实时校正模态间目标的位置偏移,其形变对齐过程由三个不同转换层组成,以由粗到细的方式进行特征对齐;2022年,Tu等人提出了一种新颖的深度相关网络,从空间、特征、语义层面考虑了模态之间的相关性,设计了模态对齐模块,通过隐式学习空间仿射变换并动态生成中间表示来鲁棒性地学习模态间的相关性;同年,Yuan等人设计了一个平移-尺度-旋转对齐模块,以预测可见光和红外图像中目标的偏差关系,并通过偏差关系校准可见光和红外图像特征图,以缓解弱对齐可见光和红外图像导致的模型检测效果差问题。
目前的大多数研究都是基于二阶段的Faster-RCNN策略,它首先使用双分支网络生成区域建议框,然后通过对齐区域建议框以达到可见光和红外特征对齐的目的,然而该类对齐算法推理速度慢,计算负荷大,这不利于实际应用。此外,上述研究没有充分考虑到可见光和红外图像目标大小、位置、角度和扭曲的不一致性,仅对某一问题进行探究是存在局限的。因此,如何将各维度信息对齐,为模型提供具有物理空间一致性的可见光和红外图像特征,缓解因可见光和红外图像多维度信息不对齐带来的模型目标检测性能影响是一个亟待解决问题。
发明内容
本发明要解决的技术问题是提供一种在可见光-红外图像弱对齐下的目标检测方法,用于对齐可见光和红外图像特征各维度信息,缓解可见光和红外图像目标多尺度不对齐对多维度信息有效匹配融合的影响,提升模型对不对齐可见光和红外图像的检测效果。
本发明的技术方案是:一种在可见光-红外图像弱对齐下的目标检测方法,具体步骤为:
Step1:将可见光和红外图像输入到特征提取网络中,提取可见光和红外图像的全局特征;
Step2:将可见光图像输入到光照感知模块中,提取光照信息;
Step3:将Step1得到的可见光和红外图像特征输入到多尺度空间对齐模块中进行特征对齐,得到在同一潜在物理空间下对齐的可见光和红外图像特征;
Step4:将Step3得到的可见光和红外图像特征输入到特征融合模块中,以融合可见光和红外图像特征的目标互补信息,得到融合后的特征图;
Step5:将Step2得到的光照信息和Step4得到的特征图输入到检测器进行目标检测。
进一步的,Step1中所述特征提取网络为基于SSD算法的主干网络,将SSD算法的主干网络复制为两个分支,一个分支提取可见光图像特征,另一个分支提取红外图像特征,具体为:
Fr=SSD(rgb_images) (1)
Ft=SSD(thermal_images) (2)
式中,SSD表示SSD算法的主干网络,rgb_images和ithermal_images分别表示可见光和红外图像,Fr和Ft分别表示提取到的可见光和红外图像特征。
进一步的,Step2中所述光照信息是指通过光照感知模块提取到的两个权重,其中光照感知模块由卷积层和全连接层组成,具体为:
Ws,Wl=l_m(rgb_images) (3)
式中,l_m表示光照感知模块,Ws和Wl分别表示提取到的两个权重。
进一步的,Step3中所述多尺度空间对齐模块由图模型构建、图注意力网络、图数据转换和空间变换操作组成,通过将特征图划分为特征块方式构建相应图模型,然后使用图注意力网络更新图模型信息,最后将图数据转换为矩阵形式,使用空间变换操作对红外图像特征进行矫正处理。其中,图模型构建具体方式如下式:
式中,w'、h'和c分别表示特征块fri和fti的宽度、高度、通道数,通过选择适当的w'及h'值,确保特征图是完全可分的,FR_r和FR_t代表特征块集合。
然后,将得到的特征块转换为图模型节点特征形式,其可被下式表示:
式中,flatten(·)代表将特征块展平为向量操作,和/>分别代表由特征块fri和fti展平得到的向量,Vr和Vt分别表示相应图模型中所有图节点的集合,1×h'w'c表示图节点的特征数量,Er和Et分别表示相应图模型中图节点间边的集合,/>和Gt(Vt,Et)分别代表由特征图Fr和Ft构造的图模型。
所述的更新图模型信息如下式:
式中,GAT(·)代表图注意力网络,G'r(V'r,E'r)和G't(V't,E't)分别代表经图注意力网络更新后得到的可见光和红外图像特征图模型。
所述的将图数据转换成矩阵形式为先将图模型所有节点特征合并为向量,然后将向量转为矩阵形式,如下式:
Mr=Trans_Add(Vr') (10)
Mt=Trans_Add(Vt') (11)
式中,Trans_Add(·)代表将图模型所有节点特征合并操作及转换为矩阵操作,Mr和Mt分别代表最终建模得到的可见光和红外图像的偏差矩阵。
所述的空间变化操作如下式:
式中,Ft'代表经空间变换操作矫正操作得到的红外图像特征。
进一步的,Step4中所述特征融合模块加入通道注意力机制,具体为:
式中,CAM(·)表示通道注意力机制,代表逐元素相加操作,/>代表对特征图进行全局相乘操作,F'r_cam和F't_cam表示融合后的可见光和红外图像特征。
所述通道注意力机制的计算公式如下:
式中,H和W分别表示特征图的高和宽,σ表示双曲正切激活函数。
进一步的,所述Step5具体为:
cls,conf,box=d_m(Ws,Wl,F'r_cam,F't_cam) (17)
式中,d_m(·)表示检测器,cls,conf,box分别表示预测图像中目标的类别,置信度以及包围框的坐标。
所述可见光图像输入到光照感知模块是指将可见光图像尺寸修剪为56*56,再输入到光照感知模块中提取光照信息。
所述目标检测是指根据特定任务需求,对图像中所具有的目标进行检测,其预测的结果为目标在输入图像中所对应的包围框,输出结果包括分类和回归。
本发明的有益效果是:本发明利用基于深度学习的图像处理技术,以SSD为主干网络,通过引入多尺度空间对齐模块,将可见光和红外图像特征图划分为多种不同大小的特征块,以此构建多个图模型,再使用图注意力网络建模可见光和红外图像偏差关系,基于偏差关系将可见光和红外图像特征对齐在统一潜在物理空间下。最终缓解可见光和红外图像多尺度目标不对齐对多维度信息匹配融合的影响,提升模型对不对齐可见光和红外图像的检测效果。
附图说明
图1是本发明的流程图;
图2是本发明的网络框架图;
图3是本发明的多尺度空间对齐模块图;
图4是本发明的图偏置模块图;
图5是本发明的特征融合模块图;
图6是本发明的检测结果示例图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:本发明实施例采用改进的SSD算法,通过联合可见光和红外图像来训练该网络,实现在可见光和红外图像弱对齐的情况下,算法仍然具有高精度检测目标能力的目标。
为了有效对齐可见光和红外图像特征,本发明实施例采用SSD算法为主干网络,对网络作出改进。基于SSD算法主干网络加入多尺度空间对齐模块,建模可见光和红外图像偏差关系,将可见光和红外图像特征对齐在同一潜在物理空间下。然后将对齐处理后得到的特征图输入到密集特征融合模块中,以融合可见光和红外图像特征互补信息,检测流程图如图1所示,算法网络框架图如图2所示。该算法网络基于Tensorflow框架完成搭建及训练,训练数据集采用CVC-14行人检测数据集,训练过程中采用Adam优化方法,初始学习率为0.0001,每6轮将学习率下调10-1,训练时长为30轮。
Step1:首先,将可见光和红外图像分别输入到特征提取模块中,提取可见光和红外图像的全局特征;所述特征提取模块为基于SSD算法的主干网络,将SSD算法的主干网络复制为两个分支,一分支提取可见光图像特征,另一分支提取红外图像特征。具体为:
Fr=SSD(rgb_images) (1)
Ft=SSD(thermal_images) (2)
式中,SSD表示SSD算法的主干网络,rgb_images和ithermal_images分别表示可见光和红外图像,其尺寸大小512*640*3,Fr和Ft分别表示提取到的可见光和红外图像特征,其大小为128*160*256。
Step2:光照信息作为一个先验条件,有利于检测器做出正确的检测结果,因此,网络引入光照感知模块,将可见光图像输入到光照感知模块中,提取光照信息,在后续的检测过程中,基于光照信息指导性做出检测;所述光照信息是指通过光照感知模块提取到的两个权重,具体为:
Ws,Wl=l_m(rgb_images) (3)
式中,l_m表示光照感知模块,Ws和Wl分别表示提取到的两个权重,具体意义为光照条件好和光照条件差的权重,并且Ws和Wl的关系为:1=Ws+Wl。
Step3:将步骤一得到的可见光和红外图像特征输入到多尺度空间对齐模块中进行特征对齐,得到在同一潜在物理空间下对齐的可见光和红外图像特征。所述多尺度空间对齐模块由图模型构建、图注意力网络、图数据转换和空间变换操作组成,通过将特征图划分为特征块方式构建相应图模型,然后使用图注意力网络更新图模型信息,最后将图数据转换为矩阵形式,使用空间变换操作对红外图像特征进行矫正处理,多尺度空间对齐模块结构图如图3和图4所示。其中,图模型构建具体方式如下式:
式中,w's、h's、c和ns分别表示s尺度下特征块的宽度、高度、通道和数量,FR_r_s和FR_t_s分别表示s尺度下的可见光和红外图像特征块集合,fr_s_i和ft_s_i分别表示特征块集合FR_r_s和FR_t_s中的第i个特征块。本发明实施例以4×10、8×20、16×40三种不同尺度将特征图Fr和Ft进行划分。
然后,将得到的特征块转换为图模型节点特征形式,其可被下式表示:
式中,flatten(·)代表将特征块展平为向量操作,和/>分别表示由fr_s_i和ft_s_i转换得到的节点特征向量;Vr_s和Vt_s分别表示s尺度下相应图模型中所有图节点的集合;Er_s和Et_s分别代表相应图模型中图节点之间边的集合;Gr_s(Vr_s,Er_s)和Gt_s(Vt_s,Et_s)分别表示由特征图Fr和Ft在s尺度下构建的图模型。
所述的更新图模型信息如下式:
式中,GAT(·)代表图注意力网络,G'r_s(V'r_s,E'r_s)和G't_s(V't_s,E't_s)分别代表经图注意力网络更新后得到的可见光和红外图像特征图模型。
所述的将图数据转换成矩阵形式为先将图模型所有节点特征合并为向量,然后将向量转为矩阵形式,如下式:
Mr_s=Trans_Add(V'r_s) (10)
Mt_s=Trans_Add(V't_s) (11)
式中,Trans_Add(·)代表将图模型所有节点特征合并操作及转换为矩阵操作,Mr_s和Mt_s分别代表最终建模得到的可见光和红外图像的偏差矩阵。
所述的空间变化操作如下式:
式中,F't_s代表经偏差矩阵变换操作得到的红外图像特征。
为了更稳健地对齐不同尺度的目标特征,本发明实施例合并了上述三个不同偏移矩阵变换后得到的红外特征图:F't_1、F't_2、F't_3。具体地,首先对 进行全连接运算,以生成相应的权重W1、W2、W3,以此权重衡量不同偏差矩阵对对齐红外特征图的贡献程度,如下式:
F't=Add(W1F't_1,W2F't_2,W3F't_3) (13)
式中,Add(·)代表相加操作,Ft'代表经已对齐可见光特征图。
Step4:将步骤三所得的可见光和红外图像特征输入到特征融合模块中,以融合可见光和红外图像特征的目标互补信息,得到融合后的特征图,特征融合模块结构图如图5所示;所述特征融合模块加入通道注意力机制。首先将可见光和红外图像特征进行逐元素相减的操作,相减后得到的特征就代表是可见光和红外图像特征的差异特征,将该差异特征视为互补信息。然后将该差异特征输入到通道注意力机制中,得到通道权重。最后将该通道权重与对应的可见光和红外图像特征相乘,从而放大差异特征,并与其另一模态特征相加得到最终融合后的特征。因此,经融合后得到的特征包含了与另一模态的差异特征,经此,达到融合互补信息的目的。具体的计算公式如下:
式中,CAM(·)表示通道注意力机制,代表逐元素相加操作,/>代表对特征图进行全局相乘操作,F'r_cam和F't_cam表示融合后的可见光和红外图像特征。
所述通道注意力机制的计算公式如下:
式中,H和W分别表示特征图的高和宽,σ表示双曲正切激活函数。
Step5:将步骤二得到的光照信息和步骤四得到的特征图输入到检测器进行目标检测,具体为:
cls,conf,box=d_m(Ws,Wl,F'r_cam,F't_cam) (17)
式中,d_m(·)表示检测器,cls,conf,box分别表示预测图像中目标的类别,置信度以及包围框的坐标。
最后,该网络的损失函数分为四部分:光照损失Li、类别损失Lcls和回归框损失Lreg,其中光照损失Li使用交叉熵损失,类别损失Lcls使用Focal loss,回归框损失Lreg使用smoothL1loss。最终的目标函数为:
L=Li+Lcls+Lreg (18)
通过优化L达到收敛状态,最终使用训练好的模型对可见光和红外图像进行目标检测。通过实验验证,本发明实施例在CVC-14行人检测数据集全集、白天、夜晚子集上的漏检率分别为22.59%、25.14%、17.23%,所取得的漏检率已达最低。从图6所示的检测结果示例图可观察到,与对比算法相比,本发明实施例具有更好的检测性能,可以准确地、不遗漏地检测到目标,即使本发明实施例和对比算法都检测到相同测试图像中的目标,但很明显,本发明实施例回归到的目标边界框更贴近目标。原因在于:对比算法融合了未对齐的可见光和红外图像特征,其获得的特征将在目标特征区域附近产生重影,使得目标区域变大,从而导致检测到的目标边界框偏大。然而,本发明实施例首先对齐可见光和红外图像特征,以使可见光和红外图像目标信息在空间上一致,融合后获得的特征避免了重影问题,因此,本发明实施例检测到的目标边界框更能准确地包围目标。
以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (8)
1.一种在可见光-红外图像弱对齐下的目标检测方法,其特征在于:
Step1:将可见光和红外图像输入到特征提取网络中,提取可见光和红外图像的全局特征;
Step2:将可见光图像输入到光照感知模块中,提取光照信息;
Step3:将Step1得到的可见光和红外图像特征输入到多尺度空间对齐模块中进行特征对齐,得到在同一潜在物理空间下对齐的可见光和红外图像特征;
Step4:将Step3得到的可见光和红外图像特征输入到特征融合模块中,以融合可见光和红外图像特征的目标互补信息,得到融合后的特征图;
Step5:将Step2得到的光照信息和Step4得到的特征图输入到检测器进行目标检测。
2.根据权利要求1所述的在可见光-红外图像弱对齐下的目标检测方法,其特征在于:Step1中所述特征提取网络为基于SSD算法的主干网络,将SSD算法的主干网络复制为两个分支,一个分支提取可见光图像特征,另一个分支提取红外图像特征,具体为:
Fr=SSD(rgb_images) (1)
Ft=SSD(thermal_images) (2)
式中,SSD表示SSD算法的主干网络,rgb_images和ithermal_images分别表示可见光和红外图像,Fr和Ft分别表示提取到的可见光和红外图像特征。
3.根据权利要求1所述的在可见光-红外图像弱对齐下的目标检测方法,其特征在于:Step2中所述光照信息是指通过光照感知模块提取到的两个权重,其中光照感知模块由卷积层和全连接层组成,具体为:
Ws,Wl=l_m(rgb_images) (3)
式中,l_m表示光照感知模块,Ws和Wl分别表示提取到的两个权重。
4.根据权利要求1所述的在可见光-红外图像弱对齐下的目标检测方法,其特征在于:Step3中所述多尺度空间对齐模块由图模型构建、图注意力网络、图数据转换和空间变换操作组成,通过将特征图划分为特征块方式构建相应图模型,然后使用图注意力网络更新图模型信息,最后将图数据转换为矩阵形式,使用空间变换操作对红外图像特征进行矫正处理;其中,图模型构建具体方式如下式:
式中,w'、h'和c分别表示特征块fri和fti的宽度、高度、通道数,FR_r和FR_t代表特征块集合;
然后,将得到的特征块转换为图模型节点特征形式,如下式:
式中,flatten(·)代表将特征块展平为向量操作,和/>分别代表由特征块fri和fti展平得到的向量,Vr和Vt分别表示相应图模型中所有图节点的集合,1×h'w'c表示图节点的特征数量,Er和Et分别表示相应图模型中图节点间边的集合,Gr=(Vr,Er)和Gt(Vt,Et)分别代表由特征图Fr和Ft构造的图模型;
所述的更新图模型信息如下式:
G′r(Vr',E′r)=GAT(Gr=(Vr,Er)) (8)
Gt'(Vt',E′t)=GAT(Gr=(Vr,Er)) (9)
式中,GAT(·)代表图注意力网络,G′r(Vr',E′r)和G′t(Vt',E′t)分别代表经图注意力网络更新后得到的可见光和红外图像特征图模型;
所述的将图数据转换成矩阵形式为先将图模型所有节点特征合并为向量,然后将向量转为矩阵形式,如下式:
Mr=Trans_Add(Vr') (10)
Mt=Trans_Add(Vt') (11)
式中,Trans_Add(·)代表将图模型所有节点特征合并操作及转换为矩阵操作,Mr和Mt分别代表最终建模得到的可见光和红外图像的偏差矩阵;
所述的空间变化操作如下式:
式中,Ft'代表经空间变换操作矫正得到的红外图像特征。
5.根据权利要求1所述的在可见光-红外图像弱对齐下的目标检测方法,其特征在于:Step4中所述特征融合模块加入通道注意力机制,具体为:
式中,CAM(·)表示通道注意力机制,代表逐元素相加操作,/>代表对特征图进行全局相乘操作,F′r_cam和F′t_cam分别表示融合后的可见光和红外图像特征;
所述通道注意力机制的计算公式如下:
式中,H和W分别表示特征图的高和宽,σ表示双曲正切激活函数。
6.根据权利要求1所述的在可见光-红外图像弱对齐下的目标检测方法,其特征在于:所述Step5具体为:
cls,conf,box=d_m(Ws,Wl,F′r_cam,F′t_cam) (17)
式中,d_m(·)表示检测器,cls,conf,box分别表示预测图像中目标的类别,置信度以及包围框的坐标。
7.根据权利要求1或3所述的可见光-红外图像弱对齐下的目标检测方法,其特征在于:所述可见光图像输入到光照感知模块是指将可见光图像尺寸修剪为56*56,再输入到光照感知模块中提取光照信息。
8.根据权利要求1所述的可见光-红外图像弱对齐下的目标检测方法,其特征在于:所述目标检测是指根据特定任务需求,对图像中所具有的目标进行检测,其预测的结果为目标在输入图像中所对应的包围框,输出结果包括分类和回归。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310754391.5A CN116778177A (zh) | 2023-06-26 | 2023-06-26 | 一种在可见光-红外图像弱对齐下的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310754391.5A CN116778177A (zh) | 2023-06-26 | 2023-06-26 | 一种在可见光-红外图像弱对齐下的目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116778177A true CN116778177A (zh) | 2023-09-19 |
Family
ID=88011152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310754391.5A Pending CN116778177A (zh) | 2023-06-26 | 2023-06-26 | 一种在可见光-红外图像弱对齐下的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116778177A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117078920A (zh) * | 2023-10-16 | 2023-11-17 | 昆明理工大学 | 一种基于可变形注意力机制的红外-可见光目标检测方法 |
-
2023
- 2023-06-26 CN CN202310754391.5A patent/CN116778177A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117078920A (zh) * | 2023-10-16 | 2023-11-17 | 昆明理工大学 | 一种基于可变形注意力机制的红外-可见光目标检测方法 |
CN117078920B (zh) * | 2023-10-16 | 2024-01-23 | 昆明理工大学 | 一种基于可变形注意力机制的红外-可见光目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Multi-temporal remote sensing image registration using deep convolutional features | |
CN109949316B (zh) | 一种基于rgb-t融合的电网设备图像弱监督实例分割方法 | |
CN107392097A (zh) | 一种单目彩色视频的三维人体关节点定位方法 | |
CN105447473A (zh) | 一种基于PCANet-CNN的任意姿态人脸表情识别方法 | |
CN112785848B (zh) | 一种交通数据预测方法以及系统 | |
CN116778177A (zh) | 一种在可见光-红外图像弱对齐下的目标检测方法 | |
CN113160291B (zh) | 一种基于图像配准的变化检测方法 | |
CN112633088B (zh) | 一种基于航拍图像中光伏组件识别的电站容量估测方法 | |
Banzi et al. | Learning a deep predictive coding network for a semi-supervised 3D-hand pose estimation | |
CN114707611B (zh) | 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备 | |
CN117689702A (zh) | 一种基于几何注意力机制的点云配准方法和装置 | |
CN114882328B (zh) | 一种联合可见光图像和红外图像的目标检测方法 | |
CN116994137A (zh) | 一种基于多尺度形变建模和区域精细提取的目标检测方法 | |
An et al. | PointTr: Low-Overlap Point Cloud Registration with Transformer | |
CN109740405B (zh) | 一种非对齐相似车辆前窗差异信息检测方法 | |
Qiao et al. | Objects matter: learning object relation graph for robust camera relocalization | |
CN102201119B (zh) | 一种基于控制点无偏变换的图像配准方法及系统 | |
Xiao et al. | ADRNet: Affine and Deformable Registration Networks for Multimodal Remote Sensing Images | |
CN114386527A (zh) | 一种用于域自适应目标检测的类别正则化方法及系统 | |
CN112348038A (zh) | 一种基于胶囊网络的视觉定位方法 | |
Wu et al. | Loop closure detection for visual slam based on superpoint network | |
WO2024217115A1 (zh) | 基于多模态融合与深度注意力机制的三维目标检测方法 | |
Wei et al. | Matching filter-based vslam optimization in indoor environments | |
Xu et al. | Vehicle type detection based on RetinaNet with adaptive learning rate attenuation | |
CN118297991B (zh) | 一种遥感图像配准模型训练方法及训练系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |