CN112668648A - 基于对称融合网络的红外可见光融合识别方法 - Google Patents

基于对称融合网络的红外可见光融合识别方法 Download PDF

Info

Publication number
CN112668648A
CN112668648A CN202011587399.XA CN202011587399A CN112668648A CN 112668648 A CN112668648 A CN 112668648A CN 202011587399 A CN202011587399 A CN 202011587399A CN 112668648 A CN112668648 A CN 112668648A
Authority
CN
China
Prior art keywords
infrared
visible light
fusion
image
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011587399.XA
Other languages
English (en)
Other versions
CN112668648B (zh
Inventor
秦翰林
岳童
罗国慧
延翔
梁毅
孙鹏
岳恒
蔡彬彬
冯冬竹
周慧鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202011587399.XA priority Critical patent/CN112668648B/zh
Publication of CN112668648A publication Critical patent/CN112668648A/zh
Application granted granted Critical
Publication of CN112668648B publication Critical patent/CN112668648B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

本发明公开了一种基于对称融合网络的红外和可见光船只精确识别方法,对已有的红外图像和可见光图像数据集分别进行图像各自深层特征提取,获得红外图像特征图和可见光图像特征图;分别对红外图像特征图和可见图光像特征图进行张量拼接和特征融合,获得红外融合图像和可见光融合图像;根据权重偏移系数调整红外融合图像和可见光融合图像中红外和可见光的特征比例,获得最终的检测识别结果。本发明设计自适应权值分配模块,引入注意力机制,对提取到的特征进行了权值分配,提升精度。

Description

基于对称融合网络的红外可见光融合识别方法
技术领域
本发明属于红外可见光融合识别领域,具体涉及一种基于对称融 合网络的红外可见光融合识别方法。
背景技术
单波段目标特征表达能力有限,为实现全天时的船只目标智能化 识别,本报告利用可见光图像在白天能见度较高的成像条件下,图像 分辨率较高;而光照条件不足的条件下,利用红外图像自身和背景温 差成像方式可得到较为清晰的目标图像,本报告提出了一种对称融合 网络结构实现不同波段的特征级融合识别。
现阶段对红外和可见光图像信息综合处理主要运用在三个阶段, 即基于像素级的融合、特征级融合和决策级的融合。基于像素级的融 合是直接对每张图像的像素点进行综合处理的过程。该种方法尽可能 多地保留原图像中的信息,使融合后的图像在内容和细节上都有较大 的提高。然而数据未经处理,不同传感器之间获得的原始图像信息的 优缺点会叠加,容易受到噪声的污染;另外在进行后续数据处理中, 信息量较大。如:基于非多尺度变化的方法、基于像素极大值法等。
基于特征级融合是将原始图像经过特征提取和整合分析以后得 到的特征属性重组的过程,从而为后续的目标检测和识别奠定基础。 融合手段多种多样,利用神经网络将多通道输入经过非线性变化得到 一个多维特征张量,这样的变换产生一个端对端的数据映射模型,然 后利用张量拼接或加权平均都可以把多源数据变换为单个数据。与基 于像素级融合方式相比,特征级融合方式极大的降低了数据维度,减 少处理过程中内存和时间消耗,而且特征级融合原始图像的匹配精度 的要求较低,但以提取图像特征作为融合基础,会丢失目标部分细节。
发明内容
鉴于此,本发明的主要目的在于提供一种基于对称融合网络的红 外可见光融合识别方法。
为达到上述目的,本发明实施例的技术方案是这样实现的:
本发明实施例提供一种基于对称融合网络的红外和可见光船只 精确识别方法,该方法为:
对已有的红外图像和可见光图像数据集分别进行图像各自深层 特征提取,获得红外图像特征图和可见光图像特征图;
分别对红外图像特征图和可见图光像特征图进行张量拼接和特 征融合,获得红外融合图像和可见光融合图像;
根据权重偏移系数调整红外融合图像和可见光融合图像中红外 和可见光的特征比例,获得最终的检测识别结果。
上述方案中,所述对已有的红外图像和可见光图像数据集分别进 行图像各自深层特征提取,获得红外图像特征图和可见光图像特征图, 具体为:由五个独立的Block卷积模块和RPN构成双流特征提取模块, Block2包括大小为1×1×64、3×3×64和1×1×256组成的卷积核; Block3包括大小为1×1×128、3×3×128和1×1×512组成的卷积 核;Block4包括大小为1×1×256、3×3×256和1×1×1024组成 的卷积核;Block5包括大小为1×1×512、3×3×512和1×1×2048 组成的卷积核,Block卷积之间采用类似于残差结构跳跃连接进行红 外和可见光的特征提取。
上述方案中,所述对已有的红外图像和可见光图像数据集分别进 行图像各自深层特征提取,获得红外图像特征图和可见光图像特征图 之后,该方法还包括:利用RPN结构实现基于融合特征船只目标的回 归和分类,每个RPN建立在第五层卷积子模块之上,当回归层提供建 议的位置时,分类层给出评分,利用anchor机制,为每个anchor分 配9种不同的比例,每个RPN在输入特征图上可生成441个建议,所 有的建议区域经过softmax分类和logistic回归后得到红外和可见 光的目标分类和定位得分。
上述方案中,分别对红外图像特征图和可见图光像特征图进行张 量拼接和特征融合,获得红外融合图像和可见光融合图像,具体为: 一对红外融合图像和可见光融合图像被传递到前五个卷积层,然后对 两个通道的特征映射进行融合,通过张量拼接生成红外和可见光的双 流特征,获得红外融合图像和可见光融合图像。
上述方案中,所述根据权重偏移系数调整红外融合图像和可见光 融合图像中红外和可见光的特征比例,获得最终的检测识别结果,具 体为:自适应注意力权值分配模块将通道特征作为N维向量输入通过 f(x)转置和g(x)矩阵乘得到S矩阵,S矩阵能表达各像素点之间的相 关性,将S矩阵逐行用Softmax归一化得到B矩阵,每行代表一种注 意力方式,将这N种注意力方式应用到h(x)上,即每个像素点都与 特征图相关,通过线性关系,将系数初始化为0,然后自适应的给生 成器和判别器模型分配更多的权重,最后使用交替训练的方式最小化 对抗损失,最终输出权重偏移系数ω。
上述方案中,在对称融合网络中损失函数是由偏置损失和检测损 失两部分组成,D-cls和N-cls分别计算可见光子路和红外子路的分 类得分,D-box和N-box分别生成可见光子路和红外子路的预目标边 界框,这些子网络的输出通过自适应权重分配模块中计算的权重偏移 系数进行组合,产生最终的检测结果。
上述方案中,所述自适应权值分配模块的最后一层为Softmax函 数,输出一个长度为二的一维向量,代表着红外和可见光子路中模型 预测结果中占有的比例,偏置损失可定义为:
Figure BDA0002867603580000041
其中,ω1和ω2是可见光子网络和红外子网络的预测权重值,其中 ω2=1-ω1
Figure BDA0002867603580000042
Figure BDA0002867603580000043
是可见光和红外对应的偏移标签,其中
Figure BDA0002867603580000044
如果训练图像是在能见度较好条件下拍摄的,则设
Figure BDA0002867603580000045
为1,否则设
Figure BDA0002867603580000046
为0。
上述方案中,所述双流特征提取模块的最后一层为分类和回归层, 输出一个长度为n+4n(n目标种类数)的一维向量,代表着模型在原 始输入中的位置和类别,检测损失LD定义为:
Figure BDA0002867603580000047
其中,LD是分类损失Lf和回归损失Lb的组合,
Figure BDA0002867603580000048
定义了它们之 间的正则化参数,H定义了一个小批量的训练样本集,如果训练样本 与一个目标真实边界框的交并比大于0.5,则认为训练样本为正,否 则为负,将训练标签为正样本时设置
Figure BDA0002867603580000051
负样本设置为
Figure BDA0002867603580000052
对于 每个正样本,利用真实边界框
Figure BDA0002867603580000053
计算与预测边界框回归损失,分类损 失Lf可表示为:
Figure BDA0002867603580000054
回归损失Lb可表示为:
Figure BDA0002867603580000055
其中,ci和bi分别表示模型预测的分类得分和目标边界框,以学 习bi
Figure BDA0002867603580000056
之间的变换映射,在对称融合网络中,ci是计算为可见光路 分类得分c1和红外路分类得分c2的加权和,ci可表示为:
ci=ω·c1+(1-ω)·c2
(5)
bi是由模型预测的可见光路位置回归得分b1和红外路位置回归得 分b2的加权和,bi可表示为:
bi=ω·b1+(1-ω)·b2
(6)
所以对称融合网络的总的损失函数Lall可定义为:
Lall=Lw+LD (7)。
与现有技术相比,本发明的有益效果:
(1)本发明设计自适应权值分配模块,引入注意力机制,对提 取到的特征进行了权值分配,提升精度;
(2)更换了损失函数,精度有所提升。
附图说明
图1为本发明的流程图;
图2为本发明的基于对称融合网络结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明实施例提供一种基于对称融合网络的红外和可见光船只 精确识别方法,该方法为:对已有的红外图像和可见光图像数据集分 别进行图像各自深层特征提取,获得红外图像特征图和可见光图像特 征图;
分别对红外图像特征图和可见图光像特征图进行张量拼接和特 征融合,获得红外融合图像和可见光融合图像;
根据权重偏移系数调整红外融合图像和可见光融合图像中红外 和可见光的特征比例,获得最终的检测识别结果。
本发明实施例提供一种基于对称融合网络的红外和可见光船只 精确识别方法,如图1所示,该方法具体通过以下步骤实现:
步骤101:首先将红外和可见光图像分别输入到双流特征提取模 块中,完成红外和可见光的低层和高层的特征提取。
具体地,以五个独立的Block卷积模块和RPN结构组成双流特征提取模块。 Block1包括大小为7×7×64的卷积核;Block2包括大小为1×1×64、3×3× 64和1×1×256组成的卷积核;Block3包括大小为1×1×128、3×3×128和 1×1×512组成的卷积核;Block4包括大小为1×1×256、3×3×256和1×1 ×1024组成的卷积核;Block5包括大小为1×1×512、3×3×512和1×1×2048 组成的卷积核,这些Block之间采用残差结构跳跃连接,来提升网络的深度。 两个子网络可单独实现红外和可见光的特征提取。
步骤102:经过张量拼接以后,利用RPN结构实现基于融合特征 船只目标的回归和分类。
具体地,假设输入图像的分辨率为224×224,经过特征提取结 构作用后,输出特征图表示7×7;利用anchor机制,为每个anchor 分配9种不同的比例,每个RPN在输入特征图上可生成441个建议; 所有的建议区域经过softmax分类和logistic回归后得到红外和可 见光的目标分类score和定位score。
步骤103:通过自适应权值分配模块计算权重偏移系数,确定不 同场景下的红外和可见光的决策的权重比例。
具体地,自适应注意力权值分配模块引入自注意力机制的生成对 抗网络,生成器与判别器能够有效构建各个区域之间的关系。f(x)、 g(x)和h(x)都是普通的1×1卷积,将f(x)的输出转置,并和g(x) 的输出相乘,再经过softmax归一化得到一个注意力特征图,再将注 意力特征图和h(x)逐像素点相乘,得到自适应的注意力特征图。
一对可见光和红外图像被传递到前五个卷积层,然后对两个通道 的特征映射进行融合,通过张量拼接生成红外和可见光的双流特征。 自适应注意力权值分配模块将通道特征作为N维向量输入通过f(x) 转置和g(x)矩阵乘得到S矩阵,S矩阵能表达各像素点之间的相关性。 将S矩阵逐行用Softmax归一化得到B矩阵,每行代表一种注意力方 式,将这N种注意力方式应用到h(x)上,即每个像素点都与特征图 相关,通过线性关系,将系数初始化为0,然后自适应的给生成器和 判别器模型分配更多的权重,最后使用交替训练的方式最小化对抗损 失,最终输出权重偏移系数ω。
步骤104:调整对称融合网络的损失函数。
具体地,对称融合网络的损失函数由偏置损失和检测损失两部分 组成。D-cls和N-cls分别计算可见光子路和红外子路的分类得分, D-box和N-box分别生成可见光子路和红外子路的预目标边界框。这 些子网络的输出通过自适应权重分配模块中计算的权重偏移系数进 行组合,产生最终的检测结果。
自适应权值分配模块的最后一层为Softmax函数,输出一个长度 为二的一维向量,代表着红外和可见光子路中模型预测结果中占有的 比例。偏置损失可定义为:
Figure BDA0002867603580000081
其中,ω1和ω2是可见光子网络和红外子网络的预测权重值,其中 ω2=1-ω1
Figure BDA0002867603580000082
Figure BDA0002867603580000083
是可见光和红外对应的偏移标签,其中
Figure BDA0002867603580000084
如果训练图像是在能见度较好条件下拍摄的,则设
Figure BDA0002867603580000085
为1,否则设
Figure BDA0002867603580000086
为0。
双流特征提取模块最后一层为分类和回归层,输出一个长度为 n+4n(n目标种类数)的一维向量,代表着模型在原始输入中的位置 和类别。检测损失LD定义为:
Figure BDA0002867603580000091
其中,LD是分类损失Lf和回归损失Lb的组合,
Figure BDA0002867603580000092
定义了它们之 间的正则化参数。H定义了一个小批量的训练样本集。如果训练样本 与一个目标真实边界框的交并比大于0.5,则认为训练样本为正,否 则为负。将训练标签为正样本时设置
Figure BDA0002867603580000093
负样本设置为
Figure BDA0002867603580000094
对于 每个正样本,利用真实边界框
Figure BDA0002867603580000095
计算与预测边界框回归损失。分类损 失Lf可表示为:
Figure BDA0002867603580000096
回归损失Lb可表示为:
Figure BDA0002867603580000097
其中,ci和bi分别表示模型预测的分类得分和目标边界框。以学 习bi
Figure BDA0002867603580000098
之间的变换映射。在对称融合网络中,ci是计算为可见光路 分类得分c1和红外路分类得分c2的加权和。ci可表示为:
ci=ω·c1+(1-ω)·c2
(5)
bi是由模型预测的可见光路位置回归得分b1和红外路位置回归得 分b2的加权和。bi可表示为:
bi=ω·b1+(1-ω)·b2
(6)
所以对称融合网络的总的损失函数Lall可定义为:
Lall=Lw+LD (7)
通过上述的自适应权值分配模块和双流特征提取模块互相作用, 在能见度较高的情况下,可见光子网络产生的结果(分类和回归)将 优先学习与目标相关的特征,对最终的分类和回归结果产生较大的影 响;另一方面,当目标有阴影遮挡或光线较暗的情况下,利用红外子 网络产生的多光谱特征图,在能见度较低的条件下产生可靠的检测识 别结果。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明 的保护范围。

Claims (8)

1.一种基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,该方法为:
对已有的红外图像和可见光图像数据集分别进行图像各自深层特征提取,获得红外图像特征图和可见光图像特征图;
分别对红外图像特征图和可见图光像特征图进行张量拼接和特征融合,获得红外融合图像和可见光融合图像;
根据权重偏移系数调整红外融合图像和可见光融合图像中红外和可见光的特征比例,获得最终的检测识别结果。
2.根据权利要求1所述的一种基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,所述对已有的红外图像和可见光图像数据集分别进行图像各自深层特征提取,获得红外图像特征图和可见光图像特征图,具体为:由五个独立的Block卷积模块和RPN构成双流特征提取模块,Block2包括大小为1×1×64、3×3×64和1×1×256组成的卷积核;Block3包括大小为1×1×128、3×3×128和1×1×512组成的卷积核;Block4包括大小为1×1×256、3×3×256和1×1×1024组成的卷积核;Block5包括大小为1×1×512、3×3×512和1×1×2048组成的卷积核,Block卷积之间采用类似于残差结构跳跃连接进行红外和可见光的特征提取。
3.根据权利要求1或2所述的基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,所述对已有的红外图像和可见光图像数据集分别进行图像各自深层特征提取,获得红外图像特征图和可见光图像特征图之后,该方法还包括:利用RPN结构实现基于融合特征船只目标的回归和分类,每个RPN建立在第五层卷积子模块之上,当回归层提供建议的位置时,分类层给出评分,利用anchor机制,为每个anchor分配9种不同的比例,每个RPN在输入特征图上可生成441个建议,所有的建议区域经过softmax分类和logistic回归后得到红外和可见光的目标分类和定位得分。
4.根据权利要求3所述的基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,分别对红外图像特征图和可见图光像特征图进行张量拼接和特征融合,获得红外融合图像和可见光融合图像,具体为:一对红外融合图像和可见光融合图像被传递到前五个卷积层,然后对两个通道的特征映射进行融合,通过张量拼接生成红外和可见光的双流特征,获得红外融合图像和可见光融合图像。
5.根据权利要求4所述的基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,所述根据权重偏移系数调整红外融合图像和可见光融合图像中红外和可见光的特征比例,获得最终的检测识别结果,具体为:自适应注意力权值分配模块将通道特征作为N维向量输入通过f(x)转置和g(x)矩阵乘得到S矩阵,S矩阵能表达各像素点之间的相关性,将S矩阵逐行用Softmax归一化得到B矩阵,每行代表一种注意力方式,将这N种注意力方式应用到h(x)上,即每个像素点都与特征图相关,通过线性关系,将系数初始化为0,然后自适应的给生成器和判别器模型分配更多的权重,最后使用交替训练的方式最小化对抗损失,最终输出权重偏移系数ω。
6.根据权利要求5所述的基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,在对称融合网络中损失函数是由偏置损失和检测损失两部分组成,D-cls和N-cls分别计算可见光子路和红外子路的分类得分,D-box和N-box分别生成可见光子路和红外子路的预目标边界框,这些子网络的输出通过自适应权重分配模块中计算的权重偏移系数进行组合,产生最终的检测结果。
7.根据权利要求6所述的基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,所述自适应权值分配模块的最后一层为Softmax函数,输出一个长度为二的一维向量,代表着红外和可见光子路中模型预测结果中占有的比例,偏置损失可定义为:
Figure FDA0002867603570000031
其中,ω1和ω2是可见光子网络和红外子网络的预测权重值,其中ω2=1-ω1
Figure FDA0002867603570000032
Figure FDA0002867603570000033
是可见光和红外对应的偏移标签,其中
Figure FDA0002867603570000034
如果训练图像是在能见度较好条件下拍摄的,则设
Figure FDA0002867603570000035
为1,否则设
Figure FDA0002867603570000036
为0。
8.根据权利要求7所述的基于对称融合网络的红外和可见光船只精确识别方法,其特征在于,所述双流特征提取模块的最后一层为分类和回归层,输出一个长度为n+4n(n目标种类数)的一维向量,代表着模型在原始输入中的位置和类别,检测损失LD定义为:
Figure FDA0002867603570000037
其中,LD是分类损失Lf和回归损失Lb的组合,
Figure FDA0002867603570000038
定义了它们之间的正则化参数,H定义了一个小批量的训练样本集,如果训练样本与一个目标真实边界框的交并比大于0.5,则认为训练样本为正,否则为负,将训练标签为正样本时设置
Figure FDA0002867603570000041
负样本设置为
Figure FDA0002867603570000042
对于每个正样本,利用真实边界框
Figure FDA0002867603570000043
计算与预测边界框回归损失,分类损失Lf可表示为:
Figure FDA0002867603570000044
回归损失Lb可表示为:
Figure FDA0002867603570000045
其中,ci和bi分别表示模型预测的分类得分和目标边界框,以学习bi
Figure FDA0002867603570000046
之间的变换映射,在对称融合网络中,ci是计算为可见光路分类得分c1和红外路分类得分c2的加权和,ci可表示为:
ci=ω·c1+(1-ω)·c2
(5)
bi是由模型预测的可见光路位置回归得分b1和红外路位置回归得分b2的加权和,bi可表示为:
bi=ω·b1+(1-ω)·b2
(6)
所以对称融合网络的总的损失函数Lall可定义为:
Lall=Lw+LD (7)。
CN202011587399.XA 2020-12-29 2020-12-29 基于对称融合网络的红外可见光融合识别方法 Active CN112668648B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011587399.XA CN112668648B (zh) 2020-12-29 2020-12-29 基于对称融合网络的红外可见光融合识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011587399.XA CN112668648B (zh) 2020-12-29 2020-12-29 基于对称融合网络的红外可见光融合识别方法

Publications (2)

Publication Number Publication Date
CN112668648A true CN112668648A (zh) 2021-04-16
CN112668648B CN112668648B (zh) 2023-06-20

Family

ID=75411627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011587399.XA Active CN112668648B (zh) 2020-12-29 2020-12-29 基于对称融合网络的红外可见光融合识别方法

Country Status (1)

Country Link
CN (1) CN112668648B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927172A (zh) * 2021-05-10 2021-06-08 北京市商汤科技开发有限公司 图像处理网络的训练方法和装置、电子设备和存储介质
CN113284124A (zh) * 2021-06-07 2021-08-20 南京航空航天大学 一种基于无人机视觉的光伏面板缺陷检测方法
CN113723511A (zh) * 2021-08-31 2021-11-30 厦门大学 一种基于遥感电磁辐射和红外图像的目标检测方法
CN113963240A (zh) * 2021-09-30 2022-01-21 西南电子技术研究所(中国电子科技集团公司第十研究所) 多源遥感图像融合目标综合检测方法
CN115115919A (zh) * 2022-06-24 2022-09-27 国网智能电网研究院有限公司 一种电网设备热缺陷识别方法及装置
CN116342455A (zh) * 2023-05-29 2023-06-27 湖南大学 一种多源图像高效融合方法、系统及介质
CN117274899A (zh) * 2023-09-20 2023-12-22 中国人民解放军海军航空大学 基于可见光和红外光图像特征融合的仓储隐患检测方法
CN117726979A (zh) * 2024-02-18 2024-03-19 合肥中盛水务发展有限公司 一种基于神经网络的管廊管线管理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674878A (zh) * 2019-09-26 2020-01-10 苏州航韧光电技术有限公司 一种双模决策级图像融合的目标检测方法及设备
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN111611905A (zh) * 2020-05-18 2020-09-01 沈阳理工大学 一种可见光与红外融合的目标识别方法
CN111881918A (zh) * 2020-06-11 2020-11-03 中国人民解放军战略支援部队信息工程大学 一种多尺度旋转船舶目标检测算法
US20200356724A1 (en) * 2019-05-06 2020-11-12 University Of Electronic Science And Technology Of China Multi-hop attention and depth model, method, storage medium and terminal for classification of target sentiments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
US20200356724A1 (en) * 2019-05-06 2020-11-12 University Of Electronic Science And Technology Of China Multi-hop attention and depth model, method, storage medium and terminal for classification of target sentiments
CN110674878A (zh) * 2019-09-26 2020-01-10 苏州航韧光电技术有限公司 一种双模决策级图像融合的目标检测方法及设备
CN111611905A (zh) * 2020-05-18 2020-09-01 沈阳理工大学 一种可见光与红外融合的目标识别方法
CN111881918A (zh) * 2020-06-11 2020-11-03 中国人民解放军战略支援部队信息工程大学 一种多尺度旋转船舶目标检测算法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DANIEL KONIG ET AL: "Fully Convolutional Region Proposal Networks for Multispectral Person Detection", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW)》 *
孙俭: "可见光与远红外相融合的动态目标识别方法研究", 《中国优秀硕士学位论文全文数据库》 *
杨鹏等: "基于注意力机制的交互式神经网络模型在细粒度情感分类中的应用", 《计算机应用与软件》 *
肖旭光: "空间目标融合识别算法设计与系统实现", 《中国优秀硕士学位论文全文数据库》 *
陈梓华等: "煤矿安全隐患智能语义采集与智慧决策支持系统", 《工矿自动化》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927172A (zh) * 2021-05-10 2021-06-08 北京市商汤科技开发有限公司 图像处理网络的训练方法和装置、电子设备和存储介质
CN113284124A (zh) * 2021-06-07 2021-08-20 南京航空航天大学 一种基于无人机视觉的光伏面板缺陷检测方法
CN113284124B (zh) * 2021-06-07 2022-02-11 南京航空航天大学 一种基于无人机视觉的光伏面板缺陷检测方法
CN113723511B (zh) * 2021-08-31 2023-12-22 厦门大学 一种基于遥感电磁辐射和红外图像的目标检测方法
CN113723511A (zh) * 2021-08-31 2021-11-30 厦门大学 一种基于遥感电磁辐射和红外图像的目标检测方法
CN113963240A (zh) * 2021-09-30 2022-01-21 西南电子技术研究所(中国电子科技集团公司第十研究所) 多源遥感图像融合目标综合检测方法
CN113963240B (zh) * 2021-09-30 2022-12-16 西南电子技术研究所(中国电子科技集团公司第十研究所) 多源遥感图像融合目标综合检测方法
CN115115919A (zh) * 2022-06-24 2022-09-27 国网智能电网研究院有限公司 一种电网设备热缺陷识别方法及装置
CN116342455A (zh) * 2023-05-29 2023-06-27 湖南大学 一种多源图像高效融合方法、系统及介质
CN116342455B (zh) * 2023-05-29 2023-08-08 湖南大学 一种多源图像高效融合方法、系统及介质
CN117274899A (zh) * 2023-09-20 2023-12-22 中国人民解放军海军航空大学 基于可见光和红外光图像特征融合的仓储隐患检测方法
CN117274899B (zh) * 2023-09-20 2024-05-28 中国人民解放军海军航空大学 基于可见光和红外光图像特征融合的仓储隐患检测方法
CN117726979A (zh) * 2024-02-18 2024-03-19 合肥中盛水务发展有限公司 一种基于神经网络的管廊管线管理方法

Also Published As

Publication number Publication date
CN112668648B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN112668648B (zh) 基于对称融合网络的红外可见光融合识别方法
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
CN111899172A (zh) 一种面向遥感应用场景的车辆目标检测方法
CN109034184B (zh) 一种基于深度学习的均压环检测识别方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN113158943A (zh) 一种跨域红外目标检测方法
CN111353988B (zh) Knn动态自适应的双图卷积图像分割方法和系统
CN115661777A (zh) 一种联合语义的雾天道路目标检测算法
CN114723994A (zh) 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN114445461A (zh) 基于非配对数据的可见光红外目标跟踪训练方法及装置
CN117237884A (zh) 一种基于泊位定位的互动式巡检机器人
Chowdhury et al. Automated augmentation with reinforcement learning and gans for robust identification of traffic signs using front camera images
CN113869418A (zh) 一种基于全局注意力关系网络的小样本船舶目标识别方法
CN106650814B (zh) 一种基于车载单目视觉室外道路自适应分类器生成方法
CN117011515A (zh) 基于注意力机制的交互式图像分割模型及其分割方法
CN115630361A (zh) 一种基于注意力蒸馏的联邦学习后门防御方法
CN113409351B (zh) 基于最优传输的无监督领域自适应遥感图像分割方法
CN112465836B (zh) 基于轮廓信息的热红外语义分割无监督领域自适应方法
CN115424026A (zh) 一种基于知识嵌入的端到端雾天图像多目标检测模型
CN113420823A (zh) 自然图像中天气状况翻译方法
CN114386527A (zh) 一种用于域自适应目标检测的类别正则化方法及系统
Liu et al. A novel deep transfer learning method for sar and optical fusion imagery semantic segmentation
CN111274893A (zh) 基于部件分割与特征融合的飞行器图像细粒度识别方法
CN113743410B (zh) 图像处理方法、装置和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant