CN113421200A - 基于多尺度变换与脉冲耦合神经网络的图像融合方法 - Google Patents
基于多尺度变换与脉冲耦合神经网络的图像融合方法 Download PDFInfo
- Publication number
- CN113421200A CN113421200A CN202110696686.2A CN202110696686A CN113421200A CN 113421200 A CN113421200 A CN 113421200A CN 202110696686 A CN202110696686 A CN 202110696686A CN 113421200 A CN113421200 A CN 113421200A
- Authority
- CN
- China
- Prior art keywords
- image
- fusion
- transformation
- band
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009466 transformation Effects 0.000 title claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 21
- 230000008878 coupling Effects 0.000 title claims abstract description 20
- 238000010168 coupling process Methods 0.000 title claims abstract description 20
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 20
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 40
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000001914 filtration Methods 0.000 claims abstract description 9
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000004971 IR microspectroscopy Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000012060 immune response imaging Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 210000002569 neuron Anatomy 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 5
- 238000003331 infrared imaging Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 102000010954 Link domains Human genes 0.000 description 1
- 108050001157 Link domains Proteins 0.000 description 1
- 239000003245 coal Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
Abstract
本发明的目的在于提供一种基于多尺度变换与脉冲耦合神经网络的图像融合方法,该方法直接面向图像融合技术,将对齐后的可见光与红外图像进行多尺度变换,采用非下采样剪切波变换把输入图像分解成高低子频带,采用快速引导滤波进行显著性检测,改进脉冲耦合神经网络的模型,采用PA‑PCNN从空间纹理分布以及亮度分布上对图像进行多区域划分,最后对处理后的高低子频带进行逆NSST变换生成融合图像。该方法既解决了基于区域的图像融合方法所获得的图像细节不够丰富,易出现伪影的问题,又提高了算法的执行效率,且显著性检测也使得融合的图像具有良好的视觉效果。
Description
技术领域
本发明属于图像融合方法领域,尤其涉及一种基于多尺度变换与脉冲耦合神经网络的图像融合方法。
背景技术
图像融合是信息融合学科领域的一部分,是对同一场景中采用多种传感器获取的多个图像集合成一幅图像,从中增强信息的可读性,根据良好的细节信息和显著的目标特征从而实现对图像更精准全面又可靠的解读。图像融合技术现已广泛应用于医学诊断、遥感探测、矿产勘探以及军事与安防监控等诸多领域。可见光成像具有丰富的颜色、形状与纹理信息,但是在低光照高浓度粉尘烟雾以及雨雪夜间等环境下,受背景噪声干扰严重,成像质量较差。而在这些特殊环境下红外成像具有一定的优势,但红外成像分辨率低,边缘纹理易受损模糊。可见光与红外图像传感器的成像特点及其局限性使得利用单一的传感器难以完成不同场景条件下的识别、探测与跟踪等任务,而通过可见光成像和红外成像互补,可以弥补特殊环境对可见光成像的影响,改善红外成像的边缘质量与分辨率,便于获得更加完备、精准的目标图像信息。
已有可见光与红外图像的融合方法可分为基于变换域的融合和基于空间域的融合,基于变换域的融合,近年来集中于多尺度变换方法,传统的算法如拉普拉斯金字塔、主成分分析、高斯金字塔、小波变换、曲波变换、轮廓波变换,这些方法具有特征提取效率低、信息冗余等问题,改进算法有非下采样轮廓波变换、非下采样剪切波变换、非下采样双树复轮廓波变换等,而这些方法进行多尺度多方向分解及逆变换时比较耗时,变换域的融合策略普遍存在融合效果不高的问题。基于空间域的融合策略直接在图像像素上进行操作,在执行效率上具有一定的优势,可见光与红外图像的目标区域和背景区域具有显著不同的特性,为了凸显目标特征,分解背景区域保留细节,降低融合边缘伪影现象,如何进行基于区域的图像融合以及融合规则的制定是基于空间域融合面临的问题。
因此,需要一种解决或至少改善现有技术中固有的一个或多个问题的图像融合方法。
发明内容
为解决上述问题,本发明提出一种基于多尺度变换与脉冲耦合神经网络的融合方法。将对齐后的可见光与红外图像进行多尺度变换,获取不同尺度下的图像信息,采用非下采样剪切波变换把输入图像分解成高低子频带,采用快速引导滤波进行显著性检测,改善伪影问题。提高算法执行效率,改进脉冲耦合神经网络的模型,采用自适应脉冲耦合神经网络从空间纹理分布以及亮度分布上对图像进行多区域划分,满足可见光与红外图像融合过程中保留红外目标亮度信息和可见光背景纹理信息的需求。该方法既解决了基于区域的图像融合方法所获得的图像细节不够丰富,易出现伪影的问题,又提高了算法的执行效率,且显著性检测也使得融合的图像具有良好的视觉效果。
根据一种实施例形式,提供一种基于可见光和红外图像融合的煤岩界面识别方法,其特征在于包括以下步骤:
A.取同一场景下同一时刻的可见光图像IVI与红外图像IIR;
B.对IVI与IVI进行配准,以红外图像为基准,将可见光图像与其对齐,得到对齐的可见光
图像AIVI;
C.通过多尺度变换与脉冲耦合神经网络对图像AIVI与IIR进行融合,其图像融合过程与融合规则如下步骤:
C1.将图像AIVI进行非下采样剪切波变换NSST得到高频子带HAIVI与低频子带LAIVI,将图像IIR进行NSST变换得到高频子带HIIR与低频子带LIIR;
C2.采用快速引导滤波算法将图像AIVI与IIR分别进行显著性检测,通过SI(x,y)=||Iμ-IFT(x,y)||2可获得AIVI的显著性特征和IIR的显著性特征,通过对SI(x,y)进行归一化处理,然后通过对Smap(x,y)进行对比度拉伸变换,获取图像AIVI的显著性特征权重系数SVI(x,y)和IIR的显著性特征权重系数SIR(x,y),其中(x,y)为图像像素位置坐标,Iμ为输入图像的像素均值,IFT(x,y)为输入图像经快速引导滤波后在(x,y)处的像素值,||.||2为L2范数,minSI与maxSI为显著特征SI(x,y)最小灰度值和最大灰度值,t与为常数,t∈[0,1],
C3.通过SVI(x,y)和SIR(x,y)对NSST变换后的低频子带LAIVI、LIIR进行加权融合,通过LF(x,y)=ω1(x,y)×LAIVI(x,y)+ω2(x,y)×LIIR(x,y),ω1(x,y)+ω2(x,y)=1可得融合的低频子带LF(x,y),融合系数为其中ω1(x,y)、ω2(x,y)为融合低频子带LF(x,y)的系数;
附图说明
通过以下说明,附图实施例变得显而易见,其仅以结合附图描述的至少一种优选但非限制性实施例的示例方式给出。
图1是本发明所述基于多尺度变换与脉冲耦合神经网络的图像融合方法的工作流程图。
图2是本发明中基于可见光与红外图像融合算法流程图。
图3是本法明中自适应脉冲耦合神经网络中改进的神经元模型图。
具体实施方式
一种基于多尺度变换与脉冲耦合神经网络的图像融合方法,包括如下步骤(流程见图1):
A.采集可见光与红外图像,取同一场景下同一时刻成对的可见光图像IVI与红外图像IIR;
B.对IVI与IIR进行配准,以红外图像为基准,调整图像大小均为200×200,采用Canny算子进行边缘提取,将可见光图像与红外图像对齐,得到对齐的可见光图像AIVI;
C.通过多尺度变换与脉冲耦合神经网络对图像AIVI与IIR进行融合,其图像融合过程如下步骤:采用多尺度变换和脉冲耦合神经网络将对齐的图像AIVI与IIR进行融合,利用可见光图像与红外图像互补关系获得显著性特征明显且边缘信息丰富的融合图像:将配准后的AIVI与IIR分别进行非下采样剪切波变换NSST获得各自的高频子带与低频子带,将配准后的图像AIVI与IIR分别采用快速引导滤波算法进行显著性检测,获得可见光图像显著性特征和红外图像显著性特征,然后对显著特征进行归一化和拉伸处理,获得显著性特征权重系数SVI(x,y)和SIR(x,y),通过低频子带融合规则计算出融合系数和融合低频子带LF(x,y),采用自适应脉冲耦合神经网络PA-PCNN对NSST分解的高频子带进行处理,根据输入的子带在PA-PCNN中的点火次数与融合规则计算出融合高频子带HF(x,y),最后将融合后的高、低频子带信息进行非下采样剪切波逆变换,获得显著性特征明显且边缘信息丰富的融合煤岩图像,融合规则算法的具体过程包括如下步骤(流程见图2):
C1.将图像AIVI进行NSST变换得到高频子带HAIVI与低频子带LAIVI,将图像IIR进行NSST变换得到高频子带HIIR与低频子带LIIR;
C2.采用快速引导滤波算法将图像AIVI与IIR分别进行显著性检测,通过SI(x,y)=||Iμ-IFT(x,y)||2可获得AIVI的显著性特征和IIR的显著性特征,通过对SI(x,y)进行归一化处理,然后通过对Smap(x,y)进行对比度拉伸变换,获取图像AIVI的显著性特征权重系数SVI(x,y)和IIR的显著性特征权重系数SIR(x,y),其中(x,y)为图像像素位置坐标,Iμ为输入图像的像素均值,IFT(x,y)为输入图像经快速引导滤波后在(x,y)处的像素值,||.||2为L2范数,minSI与maxSI为显著特征SI(x,y)最小灰度值和最大灰度值,t与为常数,设定t=0.5,获取可见光与红外图像对应的显著性系数SVI(x,y)和SIR(x,y),生成显著性系数矩阵;
C3.通过上一步的显著性系数矩阵对NSST变换后的低频子带LAIVI、LIIR进行加权融合,融合规则LF(x,y)=ω1(x,y)×LAIVI(x,y)+ω2(x,y)×LIIR(x,y),ω1(x,y)+ω2(x,y)=1可得融合的低频子带LF(x,y),融合系数为 其中ω1(x,y)、ω2(x,y)为融合低频子带LF(x,y)的系数;
C4.改进脉冲耦合神经网络,简化模型见图3,融合规则算法的具体过程包括如下步骤:
自适应脉冲耦合神经网络PA-PCNN的神经元模型:
Fij(n)=Sij
Uij(n)=Fij(n)(1+βLij(n))
Tij(n)=Tij(n-1)+Yij(n)
式中,Sij为神经元受到的外部刺激即输入的图像,n为迭代次数,ij表示位置为(i,j)的神经元,kl表示区域为(k,l)的局部领域,Fij为反馈输入,Lij为链接输入,Yij为脉冲输出,耦合链接域Lij的放大系数和衰减时间常数分别为VL和αL,Wij,kl为耦合链接域的链接权重系数,Uij为神经元内部活动项,β为神经元之间的链接强度系数,θij为动态输出阈值θij的放大系数和衰减时间常数分别为Vθ和αθ,Tij为神经元点火次数,当Uij(n)>θij(n)时,神经元激活,点火一次,输出Yij=1,反之Yij=0,其中,神经元链接强度β的求解过程如下:
其中,M×N表示中心坐标为(m,n)的局部领域(M,N),Clk表示可见光或者红外图像经NSST变换后在(i,j)点处像素点对应的高频子带的系数,为位置在(i,j)处M×N局部邻域内的平均梯度,平均梯度越大,图像局部区域越清晰,对应β值越大,相应神经元点火越早。可以根据平均梯度自适应调整链接系数β,这使得PA-PCNN能有效地保留图像细节信息,提高图像融合的效果。可选择3×3邻域,αL=0.02,VL=1.0,αθ=0.03,Vθ=1.0,n=100,β=0.2,
Claims (1)
1.一种基于多尺度变换与脉冲耦合神经网络的图像融合方法,其特征在于包括以下步骤:
A.取同一场景下同一时刻的可见光图像IVI与红外图像IIR;
B.对IVI与IVI进行配准,以红外图像为基准,将可见光图像与其对齐,得到对齐的可见光图像AIVI;
C.通过多尺度变换与脉冲耦合神经网络对图像AIVI与IIR进行融合,其图像融合过程如下步骤:
C1.将图像AIVI进行非下采样剪切波变换NSST得到高频子带HAIVI与低频子带LAIVI,将图像IIR进行NSST变换得到高频子带HIIR与低频子带LIIR;
C2.采用快速引导滤波算法将图像AIVI与IIR分别进行显著性检测,通过SI(x,y)=||Iμ-IFT(x,y)||2可获得AIVI的显著性特征和IIR的显著性特征,通过对SI(x,y)进行归一化处理,然后通过对Smap(x,y)进行对比度拉伸变换,获取图像AIVI的显著性特征权重系数SVI(x,y)和IIR的显著性特征权重系数SIR(x,y),其中(x,y)为图像像素位置坐标,Iμ为输入图像的像素均值,IFT(x,y)为输入图像经快速引导滤波后在(x,y)处的像素值,||·|||2为L2范数,minSI与maxSI为显著特征SI(x,y)最小灰度值和最大灰度值,t与为常数,t∈[0,1],
C3.通过SVI(x,y)和SIR(x,y)对NSST变换后的低频子带LAIVI、LIIR进行加权融合,通过LF(x,y)=ω1(x,y)×LAIVI(x,y)+ω2(x,y)×LIIR(x,y),ω1(x,y)+ω2(x,y)=1可得融合的低频子带LF(x,y),融合系数为其中ω1(x,y)、ω2(x,y)为融合低频子带LF(x,y)的系数;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696686.2A CN113421200A (zh) | 2021-06-23 | 2021-06-23 | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696686.2A CN113421200A (zh) | 2021-06-23 | 2021-06-23 | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113421200A true CN113421200A (zh) | 2021-09-21 |
Family
ID=77716258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110696686.2A Pending CN113421200A (zh) | 2021-06-23 | 2021-06-23 | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421200A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114897882A (zh) * | 2022-06-10 | 2022-08-12 | 大连民族大学 | 一种基于加权平均曲率滤波分解的遥感图像融合方法 |
CN117544863A (zh) * | 2024-01-10 | 2024-02-09 | 深圳市索智科技股份有限公司 | 一种基于记录仪的信息采集方法、系统及记录仪 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101980290A (zh) * | 2010-10-29 | 2011-02-23 | 西安电子科技大学 | 抗噪声环境多聚焦图像融合方法 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
CN105139371A (zh) * | 2015-09-07 | 2015-12-09 | 云南大学 | 一种基于pcnn与lp变换的多聚焦图像融合方法 |
CN109242888A (zh) * | 2018-09-03 | 2019-01-18 | 中国科学院光电技术研究所 | 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法 |
CN109242812A (zh) * | 2018-09-11 | 2019-01-18 | 中国科学院长春光学精密机械与物理研究所 | 基于显著性检测与奇异值分解的图像融合方法及装置 |
CN109360175A (zh) * | 2018-10-12 | 2019-02-19 | 云南大学 | 一种红外与可见光的图像融合方法 |
CN109447909A (zh) * | 2018-09-30 | 2019-03-08 | 安徽四创电子股份有限公司 | 基于视觉显著性的红外与可见光图像融合方法及系统 |
CN109934887A (zh) * | 2019-03-11 | 2019-06-25 | 吉林大学 | 一种基于改进的脉冲耦合神经网络的医学图像融合方法 |
US20190318463A1 (en) * | 2016-12-27 | 2019-10-17 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for fusing infrared image and visible light image |
CN111047530A (zh) * | 2019-11-29 | 2020-04-21 | 大连海事大学 | 基于多特征融合的水下图像颜色校正和对比度增强方法 |
CN112017139A (zh) * | 2020-09-14 | 2020-12-01 | 南昌航空大学 | 一种红外与可见光图像感知融合方法 |
-
2021
- 2021-06-23 CN CN202110696686.2A patent/CN113421200A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101980290A (zh) * | 2010-10-29 | 2011-02-23 | 西安电子科技大学 | 抗噪声环境多聚焦图像融合方法 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
CN105139371A (zh) * | 2015-09-07 | 2015-12-09 | 云南大学 | 一种基于pcnn与lp变换的多聚焦图像融合方法 |
US20190318463A1 (en) * | 2016-12-27 | 2019-10-17 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for fusing infrared image and visible light image |
CN109242888A (zh) * | 2018-09-03 | 2019-01-18 | 中国科学院光电技术研究所 | 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法 |
CN109242812A (zh) * | 2018-09-11 | 2019-01-18 | 中国科学院长春光学精密机械与物理研究所 | 基于显著性检测与奇异值分解的图像融合方法及装置 |
CN109447909A (zh) * | 2018-09-30 | 2019-03-08 | 安徽四创电子股份有限公司 | 基于视觉显著性的红外与可见光图像融合方法及系统 |
CN109360175A (zh) * | 2018-10-12 | 2019-02-19 | 云南大学 | 一种红外与可见光的图像融合方法 |
CN109934887A (zh) * | 2019-03-11 | 2019-06-25 | 吉林大学 | 一种基于改进的脉冲耦合神经网络的医学图像融合方法 |
CN111047530A (zh) * | 2019-11-29 | 2020-04-21 | 大连海事大学 | 基于多特征融合的水下图像颜色校正和对比度增强方法 |
CN112017139A (zh) * | 2020-09-14 | 2020-12-01 | 南昌航空大学 | 一种红外与可见光图像感知融合方法 |
Non-Patent Citations (2)
Title |
---|
ZHAOBIN WANG等: "Multi-focus Image Fusion Based on the Improved PCNN and Guided Filter", 《NEURAL PROCESS LETT》 * |
沈瑜等: "基于显著矩阵与神经网络的红外与可见光图像融合", 《激光与光电子学进展》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114897882A (zh) * | 2022-06-10 | 2022-08-12 | 大连民族大学 | 一种基于加权平均曲率滤波分解的遥感图像融合方法 |
CN114897882B (zh) * | 2022-06-10 | 2024-04-19 | 大连民族大学 | 一种基于加权平均曲率滤波分解的遥感图像融合方法 |
CN117544863A (zh) * | 2024-01-10 | 2024-02-09 | 深圳市索智科技股份有限公司 | 一种基于记录仪的信息采集方法、系统及记录仪 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108876741A (zh) | 一种复杂光照条件下的图像增强方法 | |
CN109801250A (zh) | 基于adc-scm与低秩矩阵表达的红外与可见光图像融合方法 | |
CN107274365A (zh) | 一种基于反锐化掩模和nsct算法的矿井图像增强方法 | |
CN113421200A (zh) | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 | |
CN108875645B (zh) | 一种煤矿井下复杂光照条件下的人脸识别方法 | |
CN113837974B (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
CN104036455B (zh) | 基于二代小波的红外图像细节增强方法 | |
CN111768350B (zh) | 一种红外图像增强方法及系统 | |
CN110097617B (zh) | 基于卷积神经网络与显著性权重的图像融合方法 | |
Baohua et al. | A multi-focus image fusion algorithm based on an improved dual-channel PCNN in NSCT domain | |
CN106815819A (zh) | 多策略粮虫视觉检测方法 | |
Luo et al. | Infrared and visible image fusion based on visibility enhancement and hybrid multiscale decomposition | |
CN112017139A (zh) | 一种红外与可见光图像感知融合方法 | |
CN113870135A (zh) | 一种基于天牛须优化算法的nsst域红外图像增强方法 | |
CN111815550B (zh) | 一种基于灰度共生矩阵的红外与可见光图像融合方法 | |
CN111179208A (zh) | 基于显著图与卷积神经网络的红外-可见光图像融合方法 | |
CN114612359A (zh) | 基于特征提取的可见光与红外图像融合方法 | |
CN113850725A (zh) | 一种滤波增强深度学习的被动式太赫兹图像目标检测方法 | |
CN110751667B (zh) | 基于人类视觉系统的复杂背景下红外弱小目标检测方法 | |
CN114862710A (zh) | 红外和可见光图像融合方法及装置 | |
Chen et al. | Attention-based hierarchical fusion of visible and infrared images | |
Laavanya et al. | Residual learning of transfer-learned AlexNet for image denoising | |
CN106504208A (zh) | 基于有序最小值与小波滤波的高光谱图像宽条带去除方法 | |
Kumar et al. | Enhancement of satellite and underwater image utilizing luminance model by color correction method | |
Li et al. | A practical medical image enhancement algorithm based on nonsubsampled contourlet transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |