CN113269704B - 一种红外与可见光图像融合方法 - Google Patents

一种红外与可见光图像融合方法 Download PDF

Info

Publication number
CN113269704B
CN113269704B CN202110724273.0A CN202110724273A CN113269704B CN 113269704 B CN113269704 B CN 113269704B CN 202110724273 A CN202110724273 A CN 202110724273A CN 113269704 B CN113269704 B CN 113269704B
Authority
CN
China
Prior art keywords
image
layer
fusion
detail
fused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110724273.0A
Other languages
English (en)
Other versions
CN113269704A (zh
Inventor
李威
李忠民
李士骥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN202110724273.0A priority Critical patent/CN113269704B/zh
Publication of CN113269704A publication Critical patent/CN113269704A/zh
Application granted granted Critical
Publication of CN113269704B publication Critical patent/CN113269704B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种红外与可见光图像融合方法,所述方法包括以下步骤,(1)利用多尺度保边技术(EPF)对图像进行多层次分解,得到红外图像的细节层
Figure DDA0003137920330000011
基础层BSA和粗糙层
Figure DDA0003137920330000012
以及可见光图像的细节层
Figure DDA0003137920330000013
基础层BSB,粗糙层
Figure DDA0003137920330000014
(2)细节层和粗糙层利用改进的参数自适应脉冲耦合神经网络(PA‑PCNN)进行融合得到融合后的细节层图像FSi和粗糙层图像CSi,基础层利用显著性能量融合规则(EA)进行融合得到融合后的基础层BSF;(4)对融合后的各尺度图像求和重构得到融合图像F。

Description

一种红外与可见光图像融合方法
技术领域
本发明涉及图像融合技术领域,具体涉及一种红外与可见光图像融合方法。
背景技术
红外和可见光图像融合是计算机视觉中的重要部分,该技术产生具有鲁棒性的单幅图像,在实际生活需求中能够提供极大的选择决策权。红外图像可以根据目标物体的热辐射效应识别出需要辨识的跟踪目标,并且红外传感器能够全天候工作,基本不受外界环境的干扰;相比之下,可见光图像在纹理和细节方面有较高的空间识别度,能够很好地勾勒出目标物体的轮廓框架,符合人体视觉系统感知。因此将这两种典型的图像相互结合是很有必要的,为了满足在方面的生产及工作需求,大量研究人员致力于融合技术的提升,并且尝试着将其应用于民用和军用领域,如目标识别、目标跟踪、遥感等。
一般情况下,图像融合可以分为三个方面:决策级融合、特征级融合、像素极融合。而现阶段,研究和应用最多的是像数级图像融合,根据不同的融合理论,可以初略的分为几个方面,如:多尺度融合、基于显著性特征提取、稀疏变换、神经网络和其他。总的来说,每个融合算法策略都具有各自的优点和不足,通常情况下,存在以下几个层面的不足:1.提取图像特征信息过程过于复杂;2.算法的稳定性不是很好,有人造伪影的现象出现。为了尽可能克服上述两点,本专利提出了EPF(edge-preserving filtering)域内红外与可见光融合算法。该算法首先基于EPF技术提取不同尺度信息;其次采用EA(energy attribute)融合策略以及PA-PCNN(parameter adaptive fusion pulse coupled neural network)模型进行多尺度信息融合;最后重构源图像。
发明内容
本发明所要解决的问题是提供一种红外与可见光图像融合方法,本方法实现的图像融合方法能将红外与可见光图像中的优势信息进行融合,并且适用于以图像融合为背景下的目标识别系统。
本发明为解决上述问题所提供的技术方案为:一种红外与可见光图像融合方法,所述方法包括以下步骤:
(1)、利用多尺度保边滤波技术(edge-preserving filtering,EPF)对红外与可见光图像多尺度分解,得到红外图像的细节层
Figure BDA0003137920310000011
基础层BSA和粗糙层
Figure BDA0003137920310000012
以及可见光图像的细节层
Figure BDA0003137920310000013
基础层BSB,粗糙层
Figure BDA0003137920310000014
(2)、对红外与可见光图像的细节层图像
Figure BDA0003137920310000021
以及对应的粗糙层图像
Figure BDA0003137920310000022
利用参数自适应融合脉冲耦合神经网络(PA-PCNN)融合得到融合后的细节层图像
Figure BDA0003137920310000023
与粗糙层图像
Figure BDA0003137920310000024
(3)、对红外与可见光图像的基础层BSA和BSB利用显著性能量融合规则(EA)得到融合后的基础层图像BS;
(4)、对融合后的细节层图像
Figure BDA0003137920310000025
粗糙层图像
Figure BDA0003137920310000026
和基础层图像BS求和重构得到融合图像F。
进一步的,步骤1采用一种新颖的多尺度保边滤波技术,该技术联合滑动窗口滤波器和高斯滤波器对输入图像进行快速提取各个尺度的不同特征信息。
进一步的,步骤2通过改变PA-PCNN模型的输入参数值,以局部像素信息值作为输入点,更加适应于以提取细节信息的PA-PCNN模型。
进一步的,步骤1中EPF域内的多尺度分解具体步骤为:
式(1-3):
Figure BDA0003137920310000027
Figure BDA0003137920310000028
Figure BDA0003137920310000029
其中,I∈{A,B}是输入图像,
Figure BDA00031379203100000210
是经过第i次滑动窗口滤波后的图像,
Figure BDA00031379203100000211
是经过第i次高斯滤波后的图像。
进一步的,步骤2对细节层和粗糙层进行PA-PCNN融合具体步骤如下:
(1)在进行PA-PCNN之前,利用修正的细节拉普拉斯函数对细节层和粗糙层图像进行局部细节信息提取,提升细节层和粗糙层的融合质量;DSML函数表达式如下式(4-5):
Figure BDA00031379203100000212
Figure BDA00031379203100000213
其中I是待输入处理的图像,R为I图像的尺寸大小,m和n分别为权重矩阵W横纵方向上的尺寸值,W矩阵初始化为
Figure BDA0003137920310000031
(2)将(1)预处理后的各尺度图像代入PA-PCNN模型进行融合,PA-PCNN的数学描述如下:
Fij[n]=Sij[n]=DSMLI (6)
Figure BDA0003137920310000032
Figure BDA0003137920310000033
Figure BDA0003137920310000034
Figure BDA0003137920310000035
αf=log(1/σ(S)) (11)
Figure BDA0003137920310000036
Figure BDA0003137920310000037
Figure BDA0003137920310000038
其中,DSMLI上一步预处理后的各个尺度图像,Fij[n]和Lij[n]分别为第n次迭代中(i,j)位置上的神经元的馈入输入和连接输入,Sij为输入的图像,VL为连接输入幅度,Lij[n]为内部激励阈值,Wijkl为突触权重常量,αf为指数衰减系数,Yij[n]为着火条件,β为神经元的链接强度,αe和VE分别为模型输出Eij[n]的指数衰减系数和幅度值;σ(S)为图像S的标准差,其取值范围为[0,1],S'和Smax分别为输入图像的归一化阈值和图像最大强度。
进一步的,步骤3对基础层进行EA融合具体步骤如下:
(1)利用基础层图像的平均值和中位值得到基础层图像的固有特性值:
PA=μA+MeA (15)
PB=μB+MeB (16)
其中,μ表示BS的平均值,Me表示BS的中位值;
(2)计算基础层图像各自的能量函数值:
Figure BDA0003137920310000041
Figure BDA0003137920310000042
其中,α表示调制参数;
(3)通过加权平均得到融合后的基础层BS:
Figure BDA0003137920310000043
进一步的,步骤4图像重构的融合图像F由式(20)得到
F=FSi+CSi+BS (20)
与现有的技术相比,本发明的优点是:本发明提出了一种新的红外与可见光图像融合方法,在该方法当中,首先,我们采用一种新颖的多尺度EPF分解技术,减小了传统的多尺度分解的复杂度,得到源图像对应的细节层,粗糙层和基础层;其次,利用改进的PA-PCNN模型对细节层和粗糙层进行融合,而基础层选择EA融合规则进行融合;最后通过上述处理后的各个尺度的图像进行重构得到融合图像。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明的融合流程图。
附图标注:A:红外图像,B:可见光图像,EPF:多尺度保边滤波技术(edge-preserving filtering,EPF),
Figure BDA0003137920310000044
红外图像的细节层图像,
Figure BDA0003137920310000045
可见光图像的细节层图像,BSA:红外图像的基础层图像,BSB:可见光图像的基础层图像,
Figure BDA0003137920310000046
红外图像的粗糙层图像,
Figure BDA0003137920310000047
可见光图像的粗糙层图像,PA-PCNN:参数自适应融合脉冲耦合神经网络(parameter adaptive fusion pulse coupled neural network,PA-PCNN),EA:显著性能量融合规则,FSi:细节层融合图像,BS:基础层融合图像,CSi:粗糙层融合图像,F:融合图像。
图2是本发明所用的EPF模型图。
附图标注:I:输入图像,I∈{A,B},GF:高斯滤波,Ig1,Ig2,和Ig3分别是输入图像经过高斯滤波得到的图像;SWF:滑动窗口滤波,Is1,Is2和Is3分别是输入图像经过滑动保边滤波得到的图像;FS1,FS2和FS3分别为输入图像的细节层图像,CS1,CS2和CS3分别为输入图像的粗糙层图像,BS:基础层图像。
图3是本发明所用的PA-PCNN模型图。
附图标注:Fij[n]:第n次迭代中(i,j)位置上的神经元的馈入输入,Lij[n]:第n次迭代中(i,j)位置上的神经元的连接输入,Sij:输入的图像,VL:连接输入幅度,Lij[n]:内部激励阈值,Wijkl:突触权重常量,αf:指数衰减系数,Yij[n]:着火条件,β:神经元的链接强度,αe:模型输出Eij[n]的指数衰减系数,VE:模型输出Eij[n]的幅度值。
具体实施方式
以下将配合附图及实施例来详细说明本发明的实施方式,藉此对本发明如何应用技术手段来解决技术问题并达成技术功效的实现过程能充分理解并据以实施。
一种红外与可见光图像融合方法:
Step 1:EPF域内的多尺度分解;
利用EPF对红外图像A和可见光图像B多尺度分解,得到红外图像的细节层
Figure BDA0003137920310000051
基础层BSA和粗糙层
Figure BDA0003137920310000052
以及可见光图像的细节层
Figure BDA0003137920310000053
基础层BSB,粗糙层
Figure BDA0003137920310000054
具体步骤如下式(1-3):
Figure BDA0003137920310000055
Figure BDA0003137920310000056
Figure BDA0003137920310000057
其中,I∈{A,B}是输入图像,
Figure BDA0003137920310000058
是经过第i次滑动窗口滤波后的图像,
Figure BDA0003137920310000059
是经过第i次高斯滤波后的图像。
Step 2:对细节层和粗糙层进行PA-PCNN融合;
对红外图像和可见光图像对应的细节层
Figure BDA00031379203100000510
和粗糙层
Figure BDA00031379203100000511
进行参数自适应融合脉冲耦合神经网络(PA-PCNN)融合后的细节层图像
Figure BDA0003137920310000061
与粗糙层图像
Figure BDA0003137920310000062
具体步骤如下:
(1)在进行PA-PCNN之前,本发明利用修正的细节拉普拉斯函数(DSML)对细节层和粗糙层图像进行局部细节信息提取,从而提升细节层和粗糙层的融合质量。DSML函数表达式如下式(4-5):
Figure BDA0003137920310000063
Figure BDA0003137920310000064
其中I是待输入处理的图像,R为I图像的尺寸大小,m和n分别为权重矩阵W横纵方向上的尺寸值,W矩阵初始化为
Figure BDA0003137920310000065
(2)将(1)预处理后的各尺度图像代入PA-PCNN模型进行融合,PA-PCNN的数学描述如下:
Fij[n]=Sij[n]=DSMLI (6)
Figure BDA0003137920310000066
Figure BDA0003137920310000067
Figure BDA0003137920310000068
Figure BDA0003137920310000069
αf=log(1/σ(S)) (11)
Figure BDA00031379203100000610
Figure BDA00031379203100000611
Figure BDA00031379203100000612
其中,DSMLI上一步预处理后的各个尺度图像,Fij[n]和Lij[n]分别为第n次迭代中(i,j)位置上的神经元的馈入输入和连接输入,Sij为输入的图像,VL为连接输入幅度,Lij[n]为内部激励阈值,Wijkl为突触权重常量,αf为指数衰减系数,Yij[n]为着火条件,β为神经元的链接强度,αe和VE分别为模型输出Eij[n]的指数衰减系数和幅度值;σ(S)为图像S的标准差,其取值范围为[0,1],S'和Smax分别为输入图像的归一化阈值和图像最大强度。
Step 3:对基础层进行EA融合;
对基础层BSA和BSB利用显著性能量融合规则EA融合得到BSF
具体步骤如下:
(1)利用基础层图像的平均值和中位值得到基础层图像的固有特性值:
PA=μA+MeA (15)
PB=μB+MeB (16)
其中,μ表示BS的平均值,Me表示BS的中位值。
(2)计算基础层图像各自的能量函数值:
Figure BDA0003137920310000071
Figure BDA0003137920310000072
其中,α表示调制参数。
(3)通过加权平均得到融合后的基础层BS:
Figure BDA0003137920310000073
Step 4:图像重构;
融合图像F由式(20)得到
F=FSi+CSi+BS (20)
本发明的有益效果是:本文提出的一种红外和可见光图像融合算法,本发明提出了一种新的红外与可见光图像融合方法,在该方法当中,首先,我们采用一种新颖的多尺度EPF分解技术,减小了传统的多尺度分解的复杂度,得到源图像对应的细节层,粗糙层和基础层;其次,利用改进的PA-PCNN模型对细节层和粗糙层进行融合,而基础层选择EA融合规则进行融合;最后通过上述处理后的各个尺度的图像进行重构得到融合图像。该方法不仅能够避免传统多尺度算法的复杂度,而且将EPF技术与PA-PCNN模型进行结合,很好的规避了人造伪影的产生,并且能够运用于以图像融合为背景下的目标识别系统。
以上仅就本发明的最佳实施例作了说明,但不能理解为是对权利要求的限制。本发明不仅局限于以上实施例,其具体结构允许有变化。凡在本发明独立权利要求的保护范围内所作的各种变化均在本发明保护范围内。

Claims (1)

1.一种红外与可见光图像融合方法,其特征是所述方法包括以下步骤:
(1)、利用多尺度保边滤波技术对红外与可见光图像多尺度分解,得到红外图像的细节层
Figure FDA0003680335960000011
基础层BSA和粗糙层
Figure FDA0003680335960000012
以及可见光图像的细节层
Figure FDA0003680335960000013
基础层BSB,粗糙层
Figure FDA0003680335960000014
(2)、对红外与可见光图像的细节层图像
Figure FDA0003680335960000015
以及对应的粗糙层图像
Figure FDA0003680335960000016
利用参数自适应融合脉冲耦合神经网络融合得到融合后的细节层图像
Figure FDA0003680335960000017
与粗糙层图像
Figure FDA0003680335960000018
(3)、对红外与可见光图像的基础层BSA和BSB利用显著性能量融合规则得到融合后的基础层图像BS;
(4)、对融合后的细节层图像
Figure FDA0003680335960000019
粗糙层图像
Figure FDA00036803359600000110
和基础层图像BS求和重构得到融合图像F;
步骤(1)采用一种多尺度保边滤波技术,该技术联合滑动窗口滤波器和高斯滤波器对输入图像进行快速提取各个尺度的不同特征信息;
步骤(2)通过改变PA-PCNN模型的输入参数值,以局部像素信息值作为输入点,更加适应于以提取细节信息的PA-PCNN模型;
步骤(1)中EPF域内的多尺度分解具体步骤为:
式(1-3):
Figure FDA00036803359600000111
Figure FDA00036803359600000112
Figure FDA00036803359600000113
其中,I∈{A,B}是输入图像,
Figure FDA00036803359600000114
是经过第i次滑动窗口滤波后的图像,
Figure FDA00036803359600000115
是经过第i次高斯滤波后的图像;
步骤(2)对细节层和粗糙层进行PA-PCNN融合具体步骤如下:
(1)在进行PA-PCNN之前,利用修正的细节拉普拉斯函数对细节层和粗糙层图像进行局部细节信息提取,提升细节层和粗糙层的融合质量;DSML函数表达式如下式(4-5):
Figure FDA0003680335960000021
Figure FDA0003680335960000022
其中I是待输入处理的图像,R为I图像的尺寸大小,m和n分别为权重矩阵W横纵方向上的尺寸值,W矩阵初始化为
Figure FDA0003680335960000023
(2)将(1)预处理后的各尺度图像代入PA-PCNN模型进行融合,PA-PCNN的数学描述如下:
Fij[n]=Sij[n]=DSMLI (6)
Figure FDA0003680335960000024
Figure FDA0003680335960000025
Figure FDA0003680335960000026
Figure FDA0003680335960000027
αf=log(1/σ(S)) (11)
Figure FDA0003680335960000028
Figure FDA0003680335960000029
Figure FDA00036803359600000210
其中,DSMLI上一步预处理后的各个尺度图像,Fij[n]和Lij[n]分别为第n次迭代中(i,j)位置上的神经元的馈入输入和连接输入,Sij为输入的图像,VL为连接输入幅度,Lij[n]为内部激励阈值,Wijkl为突触权重常量,αf为指数衰减系数,Yij[n]为着火条件,β为神经元的链接强度,αe和VE分别为模型输出Eij[n]的指数衰减系数和幅度值;σ(S)为图像S的标准差,其取值范围为[0,1],S'和Smax分别为输入图像的归一化阈值和图像最大强度;
步骤(3)对基础层进行EA融合具体步骤如下:
(1)利用基础层图像的平均值和中位值得到基础层图像的固有特性值:
PA=μA+MeA (15)
PB=μB+MeB (16)
其中,μ表示BS的平均值,Me表示BS的中位值;
(2)计算基础层图像各自的能量函数值:
Figure FDA0003680335960000031
Figure FDA0003680335960000032
其中,α表示调制参数;
(3)通过加权平均得到融合后的基础层BS:
Figure FDA0003680335960000033
步骤(4)图像重构的融合图像F由式(20)得到
F=FSi+CSi+BS (20)。
CN202110724273.0A 2021-06-29 2021-06-29 一种红外与可见光图像融合方法 Active CN113269704B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110724273.0A CN113269704B (zh) 2021-06-29 2021-06-29 一种红外与可见光图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110724273.0A CN113269704B (zh) 2021-06-29 2021-06-29 一种红外与可见光图像融合方法

Publications (2)

Publication Number Publication Date
CN113269704A CN113269704A (zh) 2021-08-17
CN113269704B true CN113269704B (zh) 2022-07-29

Family

ID=77236146

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110724273.0A Active CN113269704B (zh) 2021-06-29 2021-06-29 一种红外与可见光图像融合方法

Country Status (1)

Country Link
CN (1) CN113269704B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115187584A (zh) * 2022-08-24 2022-10-14 哈尔滨工业大学 神经胶质瘤分级中的多模脑图像融合方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053382A (zh) * 2017-12-25 2018-05-18 北京航空航天大学 一种视觉特性去雾稳像探测系统
CN110796629A (zh) * 2019-10-28 2020-02-14 杭州涂鸦信息技术有限公司 一种图像融合方法及系统
CN111489319A (zh) * 2020-04-17 2020-08-04 电子科技大学 基于多尺度双边滤波和视觉显著性的红外图像增强方法
CN112288758A (zh) * 2020-05-25 2021-01-29 国网江苏省电力有限公司常州供电分公司 一种电力设备红外与可见光图像配准方法
WO2021077706A1 (zh) * 2019-10-21 2021-04-29 浙江宇视科技有限公司 图像融合方法、装置、存储介质及电子设备
CN112950518A (zh) * 2021-03-19 2021-06-11 中国科学院长春光学精密机械与物理研究所 基于潜在低秩表示嵌套滚动引导图像滤波的图像融合方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7498111B2 (en) * 2004-06-08 2009-03-03 Konica Minolta Holdings, Inc. Electrophotographic photoreceptor and an image forming method employing the same
CN107194904B (zh) * 2017-05-09 2019-07-19 西北工业大学 基于增补机制和pcnn的nsct域图像融合方法
WO2019078335A1 (ja) * 2017-10-19 2019-04-25 ソニー株式会社 撮像装置および方法、並びに、画像処理装置および方法
CN110021002A (zh) * 2018-01-10 2019-07-16 青柠优视科技(北京)有限公司 一种图像融合方法及装置
CN108389158A (zh) * 2018-02-12 2018-08-10 河北大学 一种红外和可见光的图像融合方法
CN108985365B (zh) * 2018-07-05 2021-10-01 重庆大学 基于深度子空间切换集成学习的多源异构数据融合方法
CN109215003B (zh) * 2018-07-09 2021-09-28 上海海事大学 一种图像融合方法及装置
CN110930311B (zh) * 2018-09-19 2023-04-25 杭州萤石软件有限公司 一种提高红外图像与可见光图像融合的信噪比方法与装置
CN112017139B (zh) * 2020-09-14 2023-04-07 南昌航空大学 一种红外与可见光图像感知融合方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053382A (zh) * 2017-12-25 2018-05-18 北京航空航天大学 一种视觉特性去雾稳像探测系统
WO2021077706A1 (zh) * 2019-10-21 2021-04-29 浙江宇视科技有限公司 图像融合方法、装置、存储介质及电子设备
CN110796629A (zh) * 2019-10-28 2020-02-14 杭州涂鸦信息技术有限公司 一种图像融合方法及系统
CN111489319A (zh) * 2020-04-17 2020-08-04 电子科技大学 基于多尺度双边滤波和视觉显著性的红外图像增强方法
CN112288758A (zh) * 2020-05-25 2021-01-29 国网江苏省电力有限公司常州供电分公司 一种电力设备红外与可见光图像配准方法
CN112950518A (zh) * 2021-03-19 2021-06-11 中国科学院长春光学精密机械与物理研究所 基于潜在低秩表示嵌套滚动引导图像滤波的图像融合方法

Also Published As

Publication number Publication date
CN113269704A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN107153816B (zh) 一种用于鲁棒人脸识别的数据增强方法
CN101261677A (zh) 人脸和虹膜混合识别的新方法——特征提取层融合
Bhalla et al. Fusion of Infrared and Visible Images Using Fuzzy Based Siamese Convolutional Network.
CN107239759B (zh) 一种基于深度特征的高空间分辨率遥感图像迁移学习方法
CN110060273B (zh) 基于深度神经网络的遥感影像滑坡测图方法
CN110189286B (zh) 一种基于ResNet的红外与可见光图像融合方法
CN108537777A (zh) 一种基于神经网络的作物病害识别方法
Panigrahy et al. Parameter adaptive unit-linking dual-channel PCNN based infrared and visible image fusion
CN112017139B (zh) 一种红外与可见光图像感知融合方法
CN113269704B (zh) 一种红外与可见光图像融合方法
CN109034184A (zh) 一种基于深度学习的均压环检测识别方法
CN108875645B (zh) 一种煤矿井下复杂光照条件下的人脸识别方法
CN112184646A (zh) 基于梯度域导向滤波和改进pcnn的图像融合方法
CN114581560B (zh) 基于注意力机制的多尺度神经网络红外图像彩色化方法
CN112184604A (zh) 一种基于图像融合的彩色图像增强方法
CN107516083A (zh) 一种面向识别的远距离人脸图像增强方法
Luo et al. Infrared and visible image fusion based on visibility enhancement and hybrid multiscale decomposition
Gao et al. Improving the performance of infrared and visible image fusion based on latent low-rank representation nested with rolling guided image filtering
CN113421200A (zh) 基于多尺度变换与脉冲耦合神经网络的图像融合方法
CN111179208A (zh) 基于显著图与卷积神经网络的红外-可见光图像融合方法
CN112686336A (zh) 一种基于神经网络的烧伤创面深度分类系统
CN111539246A (zh) 一种跨光谱人脸识别方法、装置、电子设备及其存储介质
CN109509299A (zh) 一种具有人脸识别的自动售货机
Tasdizen et al. Improving the robustness of convolutional networks to appearance variability in biomedical images
CN114387195A (zh) 一种基于非全局预增强的红外图像与可见光图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant