CN110148083A - 基于快速bemd和深度学习的图像融合方法 - Google Patents
基于快速bemd和深度学习的图像融合方法 Download PDFInfo
- Publication number
- CN110148083A CN110148083A CN201910412600.1A CN201910412600A CN110148083A CN 110148083 A CN110148083 A CN 110148083A CN 201910412600 A CN201910412600 A CN 201910412600A CN 110148083 A CN110148083 A CN 110148083A
- Authority
- CN
- China
- Prior art keywords
- image
- fast
- emd
- fusion
- max
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 230000004927 fusion Effects 0.000 claims abstract description 40
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 36
- 238000002156 mixing Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 239000004615 ingredient Substances 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims 2
- 238000013527 convolutional neural network Methods 0.000 claims 1
- 238000007500 overflow downdraw method Methods 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 4
- 230000016776 visual perception Effects 0.000 abstract 1
- 230000009466 transformation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002844 melting Methods 0.000 description 2
- 230000008018 melting Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
基于快速BEMD和深度学习的图像融合方法,属于图像处理技术领域。本发明使用快速BEMD对待融合图像进行多尺度分解得到频率从高到低的二维经验模态分解分量(Bidimensional Empirical Mode Component,BEMC),对各分量分别进行融合,最后经过BEMD重构可获取融合结果图。利用深度学习可提取图像特征的特点,设计了一种基于深度学习的图像融合规则。实验表明基于该融合方法的融合结果图具有最佳的视觉效果,满足人眼的视觉感知。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及基于快速BEMD和深度学习的图像融合方法。
背景技术
图像融合的目的在于利用信息分析手段在特定条件下对不同时间或者空间的图像进行处理,综合多源图像的互补信息,剔除冗余信息,从而得到满足特定应用场景的图像。近年来,图像融合的理论研究迅速发展,图像融合的方法主要分为六大类,分别为多尺度分析法、神经网络法、稀疏表示法、子空间法、图像显著法和混合法。基于多尺度分析的图像融合方法假设图像可分解为多个不同空间尺度的子图像,对子图像分别进行融合。基于神经网络的图像融合方法模仿人脑处理神经信息的感知行为,具有良好的容错性和抗噪能力。基于稀疏表示的图像融合方法假设图像可由一组超完备基线性表示,根据稀疏系数和完备基进行融合。基于子空间的图像融合方法将图像从高维空间映射到低维空间或者子空间,在子空间内进行融合,可降低存储空间和提高处理速度。基于图像显著性的融合方法利用人眼对于物体或者局部明显区域敏感的特点,可保证显著的目标或者区域在融合结果图中的完整性。混合图像融合方法结合了各个方法的优点,进一步改善融合效果。
基于多尺度分析的图像融合算法是研究的热点,图像多尺度分析的方法主要有金字塔变换、小波变换、二维经验模态分解等等。金字塔分解的各尺度之间存在相关性,使得图像融合效果不理想。小波变换是一种正交分解的方法,可提取图像低频信息和水平、垂直、对角三个方向的高频信息,小波变换具有方向性和时频特征,小波变换的关键在于小波函数的选取和预先定义的滤波器,不同的应用场景需要选取不同的小波函数和滤波器,没有统一的标准进行相关选择。同时小波变换存在信号能量泄漏,在边缘处的能量和频率会出现较严重的失真,在图像融合中会出现边缘效应。
二维经验模态分解是由一种对图像信号进行自适应多尺度分析的方法,适用于处理非线性非平稳的图像信号。BEMD根据图像信号特征对图像进行自适应分解得到一系列的高频分量和低频分量,各分量之间具有较强的局部正交性,能够有效地表示图像的特征信息。传统的BEMD算法存在计算量大、分解效率低下等弊端,快速BEMD算法不仅运行速度快,而且也能够获取较好的图像分解效果,可应用于图像融合。
发明内容
为了解决上述存在的问题,本发明提供基于快速BEMD和深度学习的图像融合方法,使用快速BEMD对待融合的两幅图像进行多尺度分解,可获取多个二维经验模态分解分量。再对两幅图像相同尺度的分量采用基于深度学习的图像融合规则进行融合,综合进行BEMD重构可得到融合结果图。采用该融合方法可获得满足人眼视觉系统的的融合结果图,便于进一步的图像处理,为达此目的,本发明提供基于快速BEMD和深度学习的图像融合方法,所述基于快速BEMD和深度学习的图像融合方法的待融合图像的多尺度分析和图像的融合规则,方法包括如下步骤:
(1)先采用快速BEMD算法对待融合图像进行多尺度分解,获取一系列频率从高到低的二维经验模态分解分量;
(2)再利用基于深度学习的图像融合规则,对相应的二维本征模态分解分量进行融合。
作为本发明进一步改进,所述步骤(1)具体步骤如下,先采用快速BEMD算法对待融合图像进行多尺度分解,可获取二维经验模态分解分量,快速BEMD算法的具体步骤为:
步骤2.1:快速BEMD算法对图像进行分解可生成频率从高到底的二维本征模态分量和一个残余分量,二维本征模态分量和残余分量合称为二维经验模态分解分量(BEMC),不同的BIMF反映了图像在不同尺度上的细节信息,残余分量表示图像的轮廓信息,假设源图像为f(x,y),BIMFi(x,y)表示第i个二维本征模态函数,R(x,y)表示残余分量,BEMCi(x,y)表示图像的第i个经验模态分解分量,初始化i=1,hi(x,y)表示快速BEMD第i次分解的中间量,h1(x,y)=f(x,y);
步骤2.2:快速BEMD采用基于顺序统计滤波器即均值滤波器的包络曲面估计法,通过窗函数法获得hi(x,y)的局部极值大点集mmax(x,y)和局部极小值点集mmin(x,y),局部极大值点严格大于其邻域点,局部极小值点严格小于其邻域点,根据局部极值点集分别确定邻域极大距离矩阵dadj-max和邻域极小距离矩阵dadj-min,由dadj-max、dadj-min确定顺序统计滤波器的窗长wen-g,窗长有四种选择方式,分别定义为Type-1、Type-2、Type-3、Type-4,如下所示:
wen-g=d1=min{min{dadj-max},min{dadj-min}}
wen-g=d2=max{min{dadj-max},min{dadj-min}}
wen-g=d3=min{max{dadj-max},max{dadj-min}}
wen-g=d4=max{max{dadj-max},max{dadj-min}}
在快速BEMD分解图像的过程中,空间中极值点的距离越来越大,即空间域中的分辨率越来越大,顺序统计滤波器的窗长会越来越长,曲面拟合会引入更多的误差。利用自适应领域限制法,根据Type4的窗口宽度w,对其进行自适应缩小调整之后获得wen,将wen作为顺序统计滤波器窗长,wen计算公式如下所示:
wen=w/i
步骤2.3:采用均值滤波器生成hi(x,y)的均值包络曲面,hi(x,y)表示快速BEMD第i次分解过程的中间量,如下式所示:
Zxy表示以点(x,y)为中心,大小为wen×wen的方形区域,emean-i在点(x,y)的值表示hi在Zxy区域内的均值。根据均值包络曲面,计算第i个BIMF:
BIMFi(x,y)=hi(x,y)-emean-i(x,y)
计算新的中间变量hi+1(x,y)=hi(x,y)-BIMFi(x,y),如果hi+1(x,y)中的极值点个数小于下限值或分解尺度达到了BIMF要求的上限,那么R(x,y)=hi(x,y),结束分解过程;否则i=i+1,返回步骤2.2。
步骤2.4图像f(x,y)经过I次分解,最终分解结果为:
作为本发明进一步改进,所述步骤(2)具体步骤如下,利用基于深度学习的图像融合规则,对各分量分别进行融合,设计方法为:
采用在ImageNet数据集上预训练的VGG-19作为特征提取网络,VGG-19包含有19层卷积/全连接层,每层输出均可作为输入图像的特征图,根据不同类型的特征确定图像的融合权重,突出图像中的显著信息,可获得更可靠的融合结果,选用Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层输出的特征图确定候选融合权重;
假设输入图像为BEMCi,表示第i个二维经验模态分解成分,特征图为Fi k,c,表示VGG-19第k个选定层输出的第c个特征图,k∈{1,2,3,4},分别表示Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层,c∈{1,2,...,C},C表示选定层的特征图总数,C=64×2k-1。每层输出的多张特征图,采用L1范数为处理多张特征图生成一张具有代表性的特征图,实现方法如下式所示:
Fi k(x,y)=||Vi k,1:C(x,y)||1
Vi k,1:C(x,y)表示第k个选定层输出的所有特征图在坐标点(x,y)处的值组成的C维向量,Fi k为第k个选定层具有代表性的特征图;
根据待融合图像A的和图像B的采用基于窗口局部能量融合规则确定初始融合权重窗口大小设为3或者5,在卷积神经网络中,池化操作是下采样的过程,VGG-19网络中,第k个选定层输出的特征图大小相比于网络输入图像大小缩小了2k倍,采用上采样操作使得融合权重矩阵大小与输入图像大小一致,最终候选融合权重如下式所示:
对于根据4对选定层的特征图确定了4对候选融合权重k∈{1,2,3,4},对融合权重矩阵取算术平均可得到最终的融合权重wA-i(x,y)、wB-i(x,y),如下式所示:
待融合图像A的和图像B的的融合结果可由下式获得:
本发明基于快速BEMD和深度学习的图像融合方法,可以生成符合人眼视觉系统的融合结果图。本发明采用快速BEMD对待融合图像进行自适应分解,对相应尺度的分量利用基于深度学习的融合规则。本发明适用于红外图像与可见光图像的融合场景,红外图像可反映出目标的轮廓,可见光图像具有丰富的光谱信息。采用本发明方案融合红外图像与可见光图像,可丰富图像细节和光谱信息,提高分辨率,使人产生更完整的场景感知。
附图说明
图1为本发明基于快速BEMD和深度学习的图像融合方法框图;
图2为本发明VGG-19网络结构图;
图3为本发明基于深度学习的融合规则的框图;
图4为本发明源图像和融合结果图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供基于快速BEMD和深度学习的图像融合方法,使用快速BEMD对待融合的两幅图像进行多尺度分解,可获取多个二维经验模态分解分量。再对两幅图像相同尺度的分量采用基于深度学习的图像融合规则进行融合,综合进行BEMD重构可得到融合结果图。采用该融合方法可获得满足人眼视觉系统的的融合结果图,便于进一步的图像处理。
下面基于PC机(Intel(R)Core(TM)i5-7200U CPU 2.70GHz)上的MATLAB 2017工具,以OCTEC图像为例,图1为本发明基于快速BEMD和深度学习的图像融合方法框图,图2为VGG-19网络结构图,图3为基于深度学习的融合规则的框图,图4为源图像和融合结果图,图4(a)为可见光图像,图4(b)为红外图像,结合附图对本发明基于快速BEMD和深度学习的图像融合方案的具体实施方式作进一步详细说明。
步骤1:对待融合图像进行预处理,对彩色的可见光图像进行颜色空间转换,从RGB颜色空间转换到HIS颜色空间,得到亮度分量I(x,y)。根据I(x,y)灰度值的分布,对红外图像IR(x,y)灰度值进行线性变换得到New_IR(x,y),假设红外图像灰度值的分布范围为[Min_IR,Max_IR],可见光图像I分量值分布范围为[Min_I,Max_I],可对红外图像的灰度值进行如下的简单线性变换:
步骤2:用快速BEMD同时分解红外图像的New_IR(x,y)和可见光图像的I(x,y),表示快速BEMD第i次分解红外图像的中间量,表示快速BEMD第i次分解可见光图像的中间量,初始化i=1,
步骤3:通过窗函数法分别获得和的局部极值大点集和局部极小值点集根据局部极值点集分别确定邻域极大距离矩阵和邻域极小距离矩阵由初步确定顺序统计滤波器的窗长由初步确定顺序统计滤波器的窗长采用Type4的方式确定顺序统计滤波器窗长:
因需控制两幅图像相应分量的尺度一致,于是统一两幅图像的顺序统计滤波器窗长,采用极大值准则:
采用自适应邻域限制法对顺序统计滤波器窗长wen-g进行自适应缩小调整,获得最终的wen:
wen=wen-g/i
步骤4:采用均值滤波器生成和的均值包络曲面,如下式所示:
根据均值包络曲面,计算分别计算红外图像和可见光图像的第i个BIMF:
计算新的中间变量:
如果和中的极值点个数总和小于下限值或分解尺度达到了BIMF要求的上限,那么结束分解过程;否则i=i+1,返回步骤3。
步骤5:红外图像和可见光图像经过K次分解,最终分解结果为:
步骤6:采用在ImageNet数据集上预训练的VGG-19作为特征提取网络,图2展示了VGG-19的网络结构图,选用Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层输出的特征图确定候选融合权重。VGG-19网络输入BEMCi,特征图为表示VGG-19第k个选定层输出的第c个特征图,k∈{1,2,3,4},分别表示Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层,c∈{1,2,...,C},C表示选定层的特征图总数,C=64×2k-1。每层输出的多张特征图,采用L1范数为处理多张特征图生成一张具有代表性的特征图,实现方法如下式所示:
Fi k(x,y)=||Vi k,1:C(x,y)||1
Vi k,1:C(x,y)表示第k个选定层输出的所有特征图在坐标点(x,y)处的值组成的C维向量,Fi k为第k个选定层具有代表性的特征图。
根据BIMFi New_IR(x,y)的和BIMFi I(x,y)的采用基于窗口局部能量融合规则确定初始融合权重窗口大小设为3。采用上采样操作使得融合权重矩阵大小与输入图像大小一致,最终候选融合权重如下式所示:
对于根据4对选定层的特征图确定了4对候选融合权重k∈{1,2,3,4},对融合权重矩阵取算术平均可得到最终的融合权重wNew_IR-i(x,y)、wI-i(x,y),如下式所示:
红外图像的和可见光图像的的融合结果可由下式获得:
步骤7:根据融合结果进行快速BEMD重构,可获得融合的亮度分量:
步骤8:最后根据融合的亮度分量F_I(x,y),进行HIS逆变换到RGB颜色空间,获得融合结果图。图4(c)为图4(a)与图4(c)的融合结果图,可显示出烟雾中的人物,同时色彩分布均匀,边界连贯,最大程度地保留了可见光图像的色彩信息和红外图像的边缘轮廓,有较好的视觉效果。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。
Claims (3)
1.基于快速BEMD和深度学习的图像融合方法,其特征在于:所述基于快速BEMD和深度学习的图像融合方法的待融合图像的多尺度分析和图像的融合规则,方法包括如下步骤:
(1)先采用快速BEMD算法对待融合图像进行多尺度分解,获取一系列频率从高到低的二维经验模态分解分量;
(2)再利用基于深度学习的图像融合规则,对相应的二维本征模态分解分量进行融合。
2.根据权利要求1所述的基于快速BEMD和深度学习的图像融合方法,其特征在于:所述步骤(1)具体步骤如下,先采用快速BEMD算法对待融合图像进行多尺度分解,可获取二维经验模态分解分量,快速BEMD算法的具体步骤为:
步骤2.1:快速BEMD算法对图像进行分解可生成频率从高到底的二维本征模态分量和一个残余分量,二维本征模态分量和残余分量合称为二维经验模态分解分量(BEMC),不同的BIMF反映了图像在不同尺度上的细节信息,残余分量表示图像的轮廓信息,假设源图像为f(x,y),BIMFi(x,y)表示第i个二维本征模态函数,R(x,y)表示残余分量,BEMCi(x,y)表示图像的第i个经验模态分解分量,初始化i=1,hi(x,y)表示快速BEMD第i次分解的中间量,h1(x,y)=f(x,y);
步骤2.2:快速BEMD采用基于顺序统计滤波器即均值滤波器的包络曲面估计法,通过窗函数法获得hi(x,y)的局部极值大点集mmax(x,y)和局部极小值点集mmin(x,y),局部极大值点严格大于其邻域点,局部极小值点严格小于其邻域点,根据局部极值点集分别确定邻域极大距离矩阵dadj-max和邻域极小距离矩阵dadj-min,由dadj-max、dadj-min确定顺序统计滤波器的窗长wen-g,窗长有四种选择方式,分别定义为Type-1、Type-2、Type-3、Type-4,如下所示:
wen-g=d1=min{min{dadj-max},min{dadj-min}}
wen-g=d2=max{min{dadj-max},min{dadj-min}}
wen-g=d3=min{max{dadj-max},max{dadj-min}}
wen-g=d4=max{max{dadj-max},max{dadj-min}}
在快速BEMD分解图像的过程中,空间中极值点的距离越来越大,即空间域中的分辨率越来越大,顺序统计滤波器的窗长会越来越长,曲面拟合会引入更多的误差。利用自适应领域限制法,根据Type4的窗口宽度w,对其进行自适应缩小调整之后获得wen,将wen作为顺序统计滤波器窗长,wen计算公式如下所示:
wen=w/i
步骤2.3:采用均值滤波器生成hi(x,y)的均值包络曲面,hi(x,y)表示快速BEMD第i次分解过程的中间量,如下式所示:
Zxy表示以点(x,y)为中心,大小为wen×wen的方形区域,emean-i在点(x,y)的值表示hi在Zxy区域内的均值。根据均值包络曲面,计算第i个BIMF:
BIMFi(x,y)=hi(x,y)-emean-i(x,y)
计算新的中间变量hi+1(x,y)=hi(x,y)-BIMFi(x,y),如果hi+1(x,y)中的极值点个数小于下限值或分解尺度达到了BIMF要求的上限,那么R(x,y)=hi(x,y),结束分解过程;否则i=i+1,返回步骤2.2。
步骤2.4图像f(x,y)经过I次分解,最终分解结果为:
3.根据权利要求1所述的基于快速BEMD和深度学习的图像融合方法,其特征在于:所述步骤(2)具体步骤如下,利用基于深度学习的图像融合规则,对各分量分别进行融合,设计方法为:
采用在ImageNet数据集上预训练的VGG-19作为特征提取网络,VGG-19包含有19层卷积/全连接层,每层输出均可作为输入图像的特征图,根据不同类型的特征确定图像的融合权重,突出图像中的显著信息,可获得更可靠的融合结果,选用Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层输出的特征图确定候选融合权重;
假设输入图像为BEMCi,表示第i个二维经验模态分解成分,特征图为Fi k,c,表示VGG-19第k个选定层输出的第c个特征图,k∈{1,2,3,4},分别表示Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层,c∈{1,2,...,C},C表示选定层的特征图总数,C=64×2k-1。每层输出的多张特征图,采用L1范数为处理多张特征图生成一张具有代表性的特征图,实现方法如下式所示:
Fi k(x,y)=||Vi k,1:C(x,y)||1
Vi k,1:C(x,y)表示第k个选定层输出的所有特征图在坐标点(x,y)处的值组成的C维向量,Fi k为第k个选定层具有代表性的特征图;
根据待融合图像A的和图像B的采用基于窗口局部能量融合规则确定初始融合权重窗口大小设为3或者5,在卷积神经网络中,池化操作是下采样的过程,VGG-19网络中,第k个选定层输出的特征图大小相比于网络输入图像大小缩小了2k倍,采用上采样操作使得融合权重矩阵大小与输入图像大小一致,最终候选融合权重如下式所示:
对于根据4对选定层的特征图确定了4对候选融合权重k∈{1,2,3,4},对融合权重矩阵取算术平均可得到最终的融合权重wA-i(x,y)、wB-i(x,y),如下式所示:
待融合图像A的和图像B的的融合结果可由下式获得:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910412600.1A CN110148083B (zh) | 2019-05-17 | 2019-05-17 | 基于快速bemd和深度学习的图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910412600.1A CN110148083B (zh) | 2019-05-17 | 2019-05-17 | 基于快速bemd和深度学习的图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110148083A true CN110148083A (zh) | 2019-08-20 |
CN110148083B CN110148083B (zh) | 2023-04-07 |
Family
ID=67595639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910412600.1A Active CN110148083B (zh) | 2019-05-17 | 2019-05-17 | 基于快速bemd和深度学习的图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110148083B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563577A (zh) * | 2020-04-21 | 2020-08-21 | 西北工业大学 | 基于Unet的跳跃层分频和多尺度鉴别的本征图像分解方法 |
CN112669249A (zh) * | 2021-01-15 | 2021-04-16 | 西安中科立德红外科技有限公司 | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 |
CN112837360A (zh) * | 2021-01-07 | 2021-05-25 | 北京百度网讯科技有限公司 | 深度信息处理方法、装置、设备、存储介质和程序产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129676A (zh) * | 2010-01-19 | 2011-07-20 | 中国科学院空间科学与应用研究中心 | 一种基于二维经验模态分解的显微图像融合方法 |
CN106981059A (zh) * | 2017-03-30 | 2017-07-25 | 中国矿业大学 | 结合pcnn和压缩感知的二维经验模态分解图像融合方法 |
CN108629757A (zh) * | 2018-05-08 | 2018-10-09 | 山东理工大学 | 基于复数剪切波变换与深度卷积神经网络的图像融合方法 |
-
2019
- 2019-05-17 CN CN201910412600.1A patent/CN110148083B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129676A (zh) * | 2010-01-19 | 2011-07-20 | 中国科学院空间科学与应用研究中心 | 一种基于二维经验模态分解的显微图像融合方法 |
CN106981059A (zh) * | 2017-03-30 | 2017-07-25 | 中国矿业大学 | 结合pcnn和压缩感知的二维经验模态分解图像融合方法 |
CN108629757A (zh) * | 2018-05-08 | 2018-10-09 | 山东理工大学 | 基于复数剪切波变换与深度卷积神经网络的图像融合方法 |
Non-Patent Citations (1)
Title |
---|
杨金库: "基于二维经验模态分解的图像融合算法研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563577A (zh) * | 2020-04-21 | 2020-08-21 | 西北工业大学 | 基于Unet的跳跃层分频和多尺度鉴别的本征图像分解方法 |
CN111563577B (zh) * | 2020-04-21 | 2022-03-11 | 西北工业大学 | 基于Unet的跳跃层分频和多尺度鉴别的本征图像分解方法 |
CN112837360A (zh) * | 2021-01-07 | 2021-05-25 | 北京百度网讯科技有限公司 | 深度信息处理方法、装置、设备、存储介质和程序产品 |
CN112837360B (zh) * | 2021-01-07 | 2023-08-11 | 北京百度网讯科技有限公司 | 深度信息处理方法、装置、设备、存储介质和程序产品 |
CN112669249A (zh) * | 2021-01-15 | 2021-04-16 | 西安中科立德红外科技有限公司 | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110148083B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814875B (zh) | 基于样式生成对抗网络的红外图像中舰船样本扩充方法 | |
CN103927531B (zh) | 一种基于局部二值和粒子群优化bp神经网络的人脸识别方法 | |
CN106327459B (zh) | 基于udct和pcnn的可见光与红外图像融合方法 | |
CN110223370B (zh) | 一种从单视点图片生成完整人体纹理贴图的方法 | |
CN110148083A (zh) | 基于快速bemd和深度学习的图像融合方法 | |
CN107680158A (zh) | 一种基于卷积神经网络模型的三维人脸重建方法 | |
CN106981080A (zh) | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 | |
CN110390638A (zh) | 一种高分辨率三维体素模型重建方法 | |
CN108932536A (zh) | 基于深度神经网络的人脸姿态重建方法 | |
CN110097609A (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
CN107316004A (zh) | 基于深度学习的空间目标识别方法 | |
CN109523513A (zh) | 基于稀疏重建彩色融合图像的立体图像质量评价方法 | |
CN109242812A (zh) | 基于显著性检测与奇异值分解的图像融合方法及装置 | |
JP2021077365A5 (zh) | ||
CN117079098A (zh) | 一种基于位置编码的空间小目标检测方法 | |
CN115546338A (zh) | 基于Transformer与生成对抗网络的图像着色方法 | |
CN106296749B (zh) | 基于l1范数约束的rgb-d图像本征分解方法 | |
CN106780468A (zh) | 基于视觉感知正反馈的显著性检测方法 | |
CN109658508A (zh) | 一种多尺度细节融合的地形合成方法 | |
CN101964055A (zh) | 一种模仿视觉感知机制的自然场景类型辨识方法 | |
CN109840924A (zh) | 一种基于串联对抗网络的产品图像快速生成方法 | |
CN110176057A (zh) | 三维户型模型生成方法、装置、设备及存储介质 | |
CN114445586B (zh) | 一种基于生成对抗网络的三维仿生设计方法 | |
Ma | A comparison of art style transfer in Cycle-GAN based on different generators | |
Wang et al. | Hyb-NeRF: A Multiresolution Hybrid Encoding for Neural Radiance Fields |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |