CN104616274B - 一种基于显著性区域提取的多聚焦图像融合方法 - Google Patents
一种基于显著性区域提取的多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN104616274B CN104616274B CN201510066177.6A CN201510066177A CN104616274B CN 104616274 B CN104616274 B CN 104616274B CN 201510066177 A CN201510066177 A CN 201510066177A CN 104616274 B CN104616274 B CN 104616274B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msubsup
- mtr
- mtd
- spatial frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于显著性区域提取的多聚焦图像融合算法,其包括以下步骤:1、利用GBVS算法得到两幅源图像的显著图;2、二值化显著图并分别计算其空间频率,得到空间频率图;3、利用分水岭算法检测空间频率图的微弱边缘,得到封闭区域并分类,通过比较不同区域的空间频率,找到其中的伪聚焦区域并将其滤除,剩余区域利用形态学方法得到聚焦区域;4、将源图像聚焦区域直接融合,离焦区域通过Shearlet变换分解得到其高频和低频子带系数,分别基于PCNN和拉普拉斯金字塔变换融合;5、重构融合系数,得到融合图像。本发明融合算法灰度级分布更加分散,图像纹理较丰富,细节突出。
Description
技术领域
本发明涉及一种图像处理技术领域的方法,具体涉及一种基于显著性区域提取的多聚焦图像融合方法。
背景技术
光学系统有限的聚焦范围难以清晰地呈现场景中的所有目标,摄取的图像一般由聚焦区域和离焦区域组成。为了获取清晰真实的场景,得到包含图像不同聚焦区域特征信息的全聚焦融合图像,研究者不断提出各类多聚焦图像融合算法。
根据人的视觉注意机制,区域之间有不同的显著性,注视焦点通常会落在显著性较高的区域。从视觉角度分析,聚焦区域属于特殊的显著性区域,在多聚焦图像中,聚焦区域对应于图像中最能吸引人们注意、最能表现图像内容的显著部分.显著性检测得到的显著图可以较好地区分前景和背景,尤其在不同深度物体的边缘处更加准确。通过显著图可以准确定位聚焦区域的边缘,实现聚焦区域与离焦区域的精确分离。
自底向上的显著图计算模型,根据图像的颜色、亮度、方向三个特征信息,得到对应的多尺度显著图。GBVS模型简化了Itti显著图计算模型,该模型计算得到的显著图可以在复杂的背景中精确捕获目标物体所在位置及目标物体的轮廓。但是由于显著区域分布与图像的局域对比度相关,所以若模糊区域包含了部分对比度比较高的区域,在显著性分析中也会被划分为显著区域,影响对聚焦区域的判别。考虑到聚焦区域往往是清晰区域,而空间频率是区域清晰度度量,对清晰区域敏感,其值与边缘细节信息相关,而与像素的灰度值之间没有直接关系,可以计算局域空间频率检测并滤除这部分伪聚焦区域。
发明内容
本发明所要解决的技术问题是:提供一种基于显著性区域提取的多聚焦图像融合方法,丰富图像的背景信息,最大限度地保护图像中的细节。
本发明的技术方案是:一种基于显著性区域提取的多聚焦图像融合方法,包括以下步骤:
(1)利用GBVS算法分别计算源图像A和B的显著性分布图G1和G2;
(2)二值化显著性分布图G1和G2,并分别计算其空间频率,得到空间频率图S1和S2;其中,求取显著性分布图G1和G2的灰度均值Tas和Tbs做为二值化阈值;
(3)利用分水岭算法检测空间频率图S1和S2的微弱边缘,连接边缘得到封闭区域 其中,s=1,2,…n,n为封闭区域个数,并将分类,比较不同区域的空间频率通过公式(1)找到其中的伪聚焦区域Ft,其中,t=1,2,…p,p<n,并将其滤除;利用形态学方法,先腐蚀后膨胀合并剩余封闭区域,即聚焦区域,将源图像分为聚焦区域M1、M2和离焦区域U1、U2;
(4)将源图像聚焦区域直接融合,离焦区域通过Shearlet变换分别进行三层分解,获得各自的一个低频子带:Al、Bl和三层高频子带:Am,k、Bm,k,m=1,2,3,其中1-3层分别包含10,10,18个方向子带;分别基于脉冲耦合神经网络PCNN和拉普拉斯金字塔变换融合,具体为:
分别建立融合规则:
低频子带Al、Bl利用拉普拉斯金字塔分解,得到分解系数通过公式(2)的比较取大法选择低频融合系数LF,ij;
其中,i,j分别表示LF,ij的行数和列数;
通过基于脉冲耦合神经网络的融合规则融合高频子带Am,k、Bm,k的系数,具体步骤如下:
①将Am,k、Bm,k分别输入到PCNN的两个输入端,利用公式(3)计算系数的对比敏感度因子CSF作为PCNN的外部激励;
CSF(f)=2.6×(0.0192+0.114f)exp[-(0.114f)1.1] (3)
其中,是空间频率,fx、fy分别是水平和竖直方向的空间频率,
其中,M为源图像行数,N为源图像列数;
②根据公式(6)比较得到各方向子带的融合系数:
其中,m指第m层分解,k指第k个方向子带;是Am,k、Bm,k在(i,j)点的系数,Am,k、Bm,k是高频子带。
③利用Shearlet反变换重构LF,ij和得到融合系数F;
其中,i,j分别表示和的行数和列数;
(5)重构融合系数F,得到融合图像。
本发明与现有技术相比的优点在于:
本发明首先利用人眼视觉机制,通过GBVS算法在源图像中搜索聚焦区域,得到包含源图像边缘信息的显著图,再利用空间频率分布和分水岭算法去除显著图中的伪聚焦区域,精确定位聚焦区域,聚焦区域的像素直接融合,剩余区域通过shearlet变换分解为高频和低频系数,通过PCNN和拉普拉斯金字塔分别选择融合系数,最后重构获得融合图像。本方法所生成的融合图像具有较大的局部梯度,灰度级分布更加分散,图像纹理较丰富,细节突出。
附图说明
图1为聚焦区域提取流程图。
图2为本发明融合算法结构图。
图3为融合结果比较示意图。
具体实施方式
下面结合附图对本发明做进一步的详细描述。
聚焦区域提取流程如图1所示。
如图2所示,一种基于显著性区域提取的多聚焦图像融合方法,包括以下步骤:
(1)利用GBVS算法分别计算源图像A和B的显著性分布图G1和G2;
(2)二值化显著性分布图G1和G2,并分别计算其空间频率,得到空间频率图S1和S2;其中,求取显著性分布图G1和G2的灰度均值Tas和Tbs做为二值化阈值;
(3)利用分水岭算法检测空间频率图S1和S2的微弱边缘,连接边缘得到封闭区域 其中,s=1,2,…n,n为封闭区域个数,并将分类,比较不同区域的空间频率通过公式(1)找到其中的伪聚焦区域Ft,其中,t=1,2,…p,p<n,并将其滤除;利用形态学方法,先腐蚀后膨胀合并剩余封闭区域,即聚焦区域,将源图像分为聚焦区域M1、M2和离焦区域U1、U2;
(4)将源图像聚焦区域直接融合,离焦区域通过Shearlet变换分别进行三层分解,获得各自的一个低频子带:Al、Bl和三层高频子带:Am,k、Bm,k,m=1,2,3,其中1-3层分别包含10,10,18个方向子带;分别基于脉冲耦合神经网络PCNN和拉普拉斯金字塔变换融合,具体为:
分别建立融合规则:
低频子带Al、Bl利用拉普拉斯金字塔分解,得到分解系数通过公式(2)的比较取大法选择低频融合系数LF,ij;
其中,i,j分别表示LF,ij的行数和列数;
通过基于脉冲耦合神经网络的融合规则融合高频子带Am,k、Bm,k的系数,具体步骤如下:
①将Am,k、Bm,k分别输入到PCNN的两个输入端,利用公式(3)计算系数的对比敏感度因子CSF作为PCNN的外部激励;
CSF(f)=2.6×(0.0192+0.114f)exp[-(0.114f)1.1] (3)
其中,是空间频率,fx、fy分别是水平和竖直方向的空间频率,
其中,M为源图像行数,N为源图像列数;
②根据公式(6)比较得到各方向子带的融合系数:
其中,m指第m层分解,k指第k个方向子带;是_Am,k、Bm,k在(i,j)点的系数,Am,k、Bm,k是高频子带,由步骤(2)得到。
③利用Shearlet反变换重构LF,ij和得到融合系数F;
其中,i,j分别表示和的行数和列数;
(5)重构融合系数F,得到融合图像。
如图3所示的本发明方法与其它几种融合方法的效果比较图。(a)为左聚焦图,(b)为(a)的显著图,(c)为右聚焦图,(d)为(c)的显著图,图3(e)-(j)分别为利用基于拉普拉斯金字塔变换(Laplacian)、离散小波变换(DWT)、平稳离散小波变换(SIDWT)、FSD pyramid、梯度信息(gradient)和本发明方法进行融合的效果图,通过效果比较可以看到,利用本发明方法进行融合不仅有效地丰富了图像的背景信息,而且最大限度地保护了图像中的细节,符合人眼视觉特性。
在表1所示的客观评价指标表中,通过相关系数(MI),边缘梯度信息(QAB/F)衡量不同融合方法获得的融合图像质量,相关系数,边缘梯度信息越大,说明融合图像中特征信息越丰富,与源图像越接近,融合效果越好。由表1中数据可以看到,本发明方法指标和其他方法相比都有明显改善,显示本方法所生成的融合图像具有较大的局部梯度,灰度级分布更加分散,图像纹理较丰富,细节突出。
表1
Claims (1)
1.一种基于显著性区域提取的多聚焦图像融合方法,其特征在于,包括以下步骤:
(1)利用GBVS算法分别计算源图像A和B的显著性分布图G1和G2;
(2)二值化显著性分布图G1和G2,并分别计算其空间频率,得到空间频率图S1和S2;其中,求取显著性分布图G1和G2的灰度均值Tas和Tbs做为二值化阈值;
(3)利用分水岭算法检测空间频率图S1和S2的微弱边缘,连接边缘得到封闭区域 其中,s=1,2,...n,n为封闭区域个数,并将分类,比较不同区域的空间频率通过公式(1)找到其中的伪聚焦区域Ft,其中,t=1,2,...p,p<n,并将其滤除;利用形态学方法,先腐蚀后膨胀合并剩余封闭区域,即聚焦区域,将源图像分为聚焦区域M1、M2和离焦区域U1、U2;
<mrow>
<msub>
<mi>F</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>D</mi>
<mi>s</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>D</mi>
<mi>s</mi>
<mi>A</mi>
</msubsup>
<mo><</mo>
<msubsup>
<mi>D</mi>
<mi>s</mi>
<mi>B</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>D</mi>
<mi>s</mi>
<mi>B</mi>
</msubsup>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>D</mi>
<mi>s</mi>
<mi>A</mi>
</msubsup>
<mo>></mo>
<msubsup>
<mi>D</mi>
<mi>s</mi>
<mi>B</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
(4)将源图像聚焦区域直接融合,离焦区域通过Shearlet变换分别进行三层分解,获得各自的一个低频子带:Al、Bl和三层高频子带:Am,k、Bm,k,m=1,2,3,其中1-3层分别包含10,10,18个方向子带;分别基于脉冲耦合神经网络PCNN和拉普拉斯金字塔变换融合,具体为:
分别建立融合规则:
低频子带Al、Bl利用拉普拉斯金字塔分解,得到分解系数通过公式(2)的比较取大法选择低频融合系数LF,ij;
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>F</mi>
<mo>,</mo>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>A</mi>
<mrow>
<mi>l</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
<mi>l</mi>
</msubsup>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>A</mi>
<mrow>
<mi>l</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
<mi>l</mi>
</msubsup>
<mo>&GreaterEqual;</mo>
<msubsup>
<mi>B</mi>
<mrow>
<mi>l</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
<mi>l</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>B</mi>
<mrow>
<mi>l</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
<mi>l</mi>
</msubsup>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>A</mi>
<mrow>
<mi>l</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
<mi>l</mi>
</msubsup>
<mo><</mo>
<msubsup>
<mi>B</mi>
<mrow>
<mi>l</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
<mi>l</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,i,j分别表示LF,ij的行数和列数;
通过基于脉冲耦合神经网络的融合规则融合高频子带Am,k、Bm,k的系数,具体步骤如下:
①将Am,k、Bm,k分别输入到PCNN的两个输入端,利用公式(3)计算系数的对比敏感度因子CSF作为PCNN的外部激励;
<mrow>
<mi>C</mi>
<mi>S</mi>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>2.6</mn>
<mo>&times;</mo>
<mrow>
<mo>(</mo>
<mn>0.0192</mn>
<mo>+</mo>
<mn>0.114</mn>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mi>exp</mi>
<mo>&lsqb;</mo>
<mo>-</mo>
<msup>
<mrow>
<mo>(</mo>
<mn>0.114</mn>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mn>1.1</mn>
</msup>
<mo>&rsqb;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,是空间频率,fx、fy分别是水平和竖直方向的空间频率,
<mrow>
<msub>
<mi>f</mi>
<mi>x</mi>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<mfrac>
<mn>1</mn>
<mrow>
<mi>M</mi>
<mi>N</mi>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>M</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>f</mi>
<mi>y</mi>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<mfrac>
<mn>1</mn>
<mrow>
<mi>M</mi>
<mi>N</mi>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>M</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,M为源图像行数,N为源图像列数;
②根据公式(6)比较得到各方向子带的融合系数:
<mrow>
<msubsup>
<mi>H</mi>
<mrow>
<mi>F</mi>
<mo>,</mo>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mi>m</mi>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>A</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<mi>C</mi>
<mi>S</mi>
<mi>F</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>A</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>></mo>
<mi>C</mi>
<mi>S</mi>
<mi>F</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<mi>C</mi>
<mi>S</mi>
<mi>F</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>A</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo><</mo>
<mi>C</mi>
<mi>S</mi>
<mi>F</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,m指第m层分解,k指第k个方向子带,是高频子带Am,k,Bm,k在(i,j)点的系数;
③利用Shearlet反变换重构LF,ij和得到融合系数F;
其中,i,j分别表示和的行数和列数;
(5)重构融合系数F,得到融合图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510066177.6A CN104616274B (zh) | 2015-02-09 | 2015-02-09 | 一种基于显著性区域提取的多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510066177.6A CN104616274B (zh) | 2015-02-09 | 2015-02-09 | 一种基于显著性区域提取的多聚焦图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104616274A CN104616274A (zh) | 2015-05-13 |
CN104616274B true CN104616274B (zh) | 2018-02-02 |
Family
ID=53150707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510066177.6A Active CN104616274B (zh) | 2015-02-09 | 2015-02-09 | 一种基于显著性区域提取的多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104616274B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881855B (zh) * | 2015-06-10 | 2017-07-28 | 北京航空航天大学 | 一种利用形态学和自由边界条件活动轮廓模型的多聚焦图像融合方法 |
CN105139371B (zh) * | 2015-09-07 | 2019-03-15 | 云南大学 | 一种基于pcnn与lp变换的多聚焦图像融合方法 |
CN105225213B (zh) * | 2015-09-29 | 2018-03-09 | 云南大学 | 一种基于s‑pcnn与拉普拉斯金字塔的彩色图像融合方法 |
CN105678723B (zh) * | 2015-12-29 | 2018-06-15 | 内蒙古科技大学 | 基于稀疏分解和差分图像的多聚焦图像融合方法 |
CN105931209B (zh) * | 2016-04-07 | 2019-05-31 | 重庆邮电大学 | 一种基于离散正交多项式变换的多聚焦图像融合方法 |
CN107341501B (zh) * | 2017-05-31 | 2019-10-08 | 三峡大学 | 一种基于pcnn和分级聚焦技术的图像融合方法及装置 |
CN107909075A (zh) * | 2017-11-28 | 2018-04-13 | 上海电科智能系统股份有限公司 | 一种基于Laplacian扩展算子的车牌图像二值化方法 |
CN107993218B (zh) * | 2018-01-30 | 2021-09-07 | 重庆邮电大学 | 基于代数多重网格和分水岭分割的图像融合方法 |
CN108665436B (zh) * | 2018-05-10 | 2021-05-04 | 湖北工业大学 | 一种基于灰度均值参照的多聚焦图像融合方法和系统 |
CN109376638B (zh) * | 2018-10-15 | 2022-03-04 | 西安建筑科技大学 | 一种基于遥感图像和地理信息系统的文地率计算方法 |
CN109886903A (zh) * | 2019-01-23 | 2019-06-14 | 湖北工业大学 | 一种基于灰度中列数参照的多聚焦图像融合方法和系统 |
CN110110667B (zh) * | 2019-05-08 | 2022-09-23 | 广东工业大学 | 一种硅藻图像的处理方法、系统及相关组件 |
CN110738628B (zh) * | 2019-10-15 | 2023-09-05 | 湖北工业大学 | 一种基于wiml比较图的自适应焦点检测多聚焦图像融合方法 |
CN115965844B (zh) * | 2023-01-04 | 2023-08-18 | 哈尔滨工业大学 | 基于视觉显著性先验知识的多聚焦图像融合方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077762A (zh) * | 2014-06-26 | 2014-10-01 | 桂林电子科技大学 | 一种基于nsst与聚焦区域检测的多聚焦图像融合方法 |
-
2015
- 2015-02-09 CN CN201510066177.6A patent/CN104616274B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077762A (zh) * | 2014-06-26 | 2014-10-01 | 桂林电子科技大学 | 一种基于nsst与聚焦区域检测的多聚焦图像融合方法 |
Non-Patent Citations (4)
Title |
---|
Combination of images with diverse focus using the spatial frequency;Shutao Li等;《Information Fusion》;20010930;第2卷(第3期);第2页倒数第3段至第3页第3段 * |
Graph-Based Visual Saliency;Jonathan Harel等;《Advances in neural information processing systems》;20061231;摘要 * |
基于多尺度变换的多聚焦图像合算法研究;刘璇;《中国优秀硕士论文全文数据库信息科技辑》;20141015;第2014年卷(第10期);第26页第3段 * |
基于视觉显著度的多聚焦图像融合方法;侯庆岑等;《计算机工程》;20150131;第41卷(第1期);第3页左栏第1段、图2 * |
Also Published As
Publication number | Publication date |
---|---|
CN104616274A (zh) | 2015-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104616274B (zh) | 一种基于显著性区域提取的多聚焦图像融合方法 | |
Bhalla et al. | A fuzzy convolutional neural network for enhancing multi-focus image fusion | |
Meher et al. | A survey on region based image fusion methods | |
CN105894483B (zh) | 一种基于多尺度图像分析和块一致性验证的多聚焦图像融合方法 | |
CN105075264B (zh) | 用精确的运动信息增强运动图片 | |
CN101601287A (zh) | 产生照片级真实感图像缩略图的设备和方法 | |
CN107909560A (zh) | 一种基于SiR的多聚焦图像融合方法及系统 | |
Bhatnagar et al. | An image fusion framework based on human visual system in framelet domain | |
Chen et al. | Saliency-directed image interpolation using particle swarm optimization | |
CN109034136A (zh) | 图像处理方法、装置、摄像设备及存储介质 | |
Lei et al. | Evaluation and modeling of depth feature incorporated visual attention for salient object segmentation | |
Singh et al. | A review of image fusion: Methods, applications and performance metrics | |
Yang et al. | Deep networks with detail enhancement for infrared image super-resolution | |
Wang et al. | An enhanced YOLOv4 model with self-dependent attentive fusion and component randomized mosaic augmentation for metal surface defect detection | |
CN109166088A (zh) | 基于非降采样小波变换的双波段灰度熔池图像融合方法 | |
CN113763300A (zh) | 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法 | |
CN117079117B (zh) | 水下图像处理及目标识别的方法及装置、存储介质及电子设备 | |
JP2014132433A (ja) | 画像生成装置および画像生成方法 | |
Jeon et al. | Real-time image processing systems using fuzzy and rough sets techniques | |
CN115965844B (zh) | 基于视觉显著性先验知识的多聚焦图像融合方法 | |
Mahmood et al. | 3D shape recovery from image focus using kernel regression in eigenspace | |
Zhang et al. | A framework for the efficient enhancement of non-uniform illumination underwater image using convolution neural network | |
Tong et al. | Visual attention inspired distant view and close-up view classification | |
Lai et al. | Super resolution of car plate images using generative adversarial networks | |
Su et al. | Real-time enhancement of image and video saliency using semantic depth of field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |