CN101976436B - 一种基于差分图修正的像素级多聚焦图像融合方法 - Google Patents

一种基于差分图修正的像素级多聚焦图像融合方法 Download PDF

Info

Publication number
CN101976436B
CN101976436B CN2010105079774A CN201010507977A CN101976436B CN 101976436 B CN101976436 B CN 101976436B CN 2010105079774 A CN2010105079774 A CN 2010105079774A CN 201010507977 A CN201010507977 A CN 201010507977A CN 101976436 B CN101976436 B CN 101976436B
Authority
CN
China
Prior art keywords
image
pixel
zone
images
row
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2010105079774A
Other languages
English (en)
Other versions
CN101976436A (zh
Inventor
王红梅
邢超
张科
李言俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN2010105079774A priority Critical patent/CN101976436B/zh
Publication of CN101976436A publication Critical patent/CN101976436A/zh
Application granted granted Critical
Publication of CN101976436B publication Critical patent/CN101976436B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及一种基于差分图修正的像素级多聚焦图像融合方法,技术特征在于:首先对待融合图像进行下采样,并计算待融合下采样图像的空间频率,然后通过比较空间频率的大小得到初始融合图像;接着对初始融合图像与待融合下采样图像的差分图像进行两次修正,第一次修正使用中值滤波,用于消除选择错误的孤立像素,第二次修正则通过计算各区域的面积进行区域的合并,最后对两次修正后得到的修正图进行插值放大,得到最终的标记图,依据该标记图即可得到融合图像。仿真实验表明融合图像的清晰度较传统的平均法及其一些改进算法有了较大的提高,同时熵、标准差和互信息等客观评价指标值得到了提高,是一种有效的像素级图像融合方法。

Description

一种基于差分图修正的像素级多聚焦图像融合方法
技术领域
本发明涉及一种像素级多聚焦图像融合方法,属于图像处理技术领域,具体涉及一种基于差分图修正的像素级多聚焦图像融合方法,在军事和民用等领域均有广泛的应用前景。
背景技术
图像融合技术是在20世纪70年代末提出的图像处理新技术,是信息融合技术的一个重要分支。利用图像融合技术,可以克服单一图像在几何、光谱和空间分辨率等方面存在的局限性和差异性,增加置信度,改善分类性能等,获得对目标场景的更精确、更全面和更可靠的描述,因此更有利于后续的目标识别等工作。
由于成像系统的聚焦范围有限,所以,在一幅图像中,除聚焦良好的物体外,该物体前后一定距离外的所有目标都将呈现出不同程度的模糊。为了更加全面、真实地反映某一场景的信息,希望获得场景内所有物体都清晰的图像。解决这一问题的一种方法就是对场景中的不同物体分别聚焦,得到多幅该场景的多聚焦图像,然后对这些多聚焦图像进行融合处理,提取各自的清晰区域,从而得到该场景中所有物体都清晰的融合图像,即多聚焦图像融合。
像素级多聚焦图像融合算法主要分为两类:空间域和变换域图像融合。空间域像素级多聚焦图像融合算法不需要对源图像进行任何变换,仅根据源图像中像素点的灰度值进行融合,算法简单,其又可分为基于像素点的融合算法(如加权平均法、像素灰度值取大和取小等)和分块区域融合算法。基于区域的融合算法根据像素点所在区域的特征因子计算加权系数,该类算法不仅考虑了单个像素点的灰度值,还考虑了该像素点所在区域内各像素点之间的相关性,因此其得到的融合图像在清晰度和对比度等方面比基于像素点的融合方法结果更好。
由于具有和人眼视觉相似的特性,基于多尺度、多分辨分析的图像融合方法在近年来得到了人们的广泛关注,目前已经从基于金字塔分解的图像融合方法发展到了基于多尺度几何分析的图像融合方法。该类方法首先对各源图像进行多分辨率分解,得到源图像在不同分解层上的子带图像,然后对分解得到的各子带图像进行融合,在对子带图像进行融合时,可以采用不同的融合规则,最后将融合后的各子带图像进行逆变换得到融合图像。
现有的方法,需要进行变换域中进行图像融合时的分解和重构运算及分解层数的选取等问题,需要人为设置的参数较多。另外,由于不能对错分的像素进行了修正,因此融合图像的质量较差。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于差分图修正的像素级多聚焦图像融合方法,达到提高融合图像质量的目的。
技术方案
一种基于差分图修正的多聚焦图像融合方法,其特征在于步骤如下:
步骤1:对原始待融合图像image1和image2进行下采样:对待融合图像image1和image2分别进行隔行隔列的像素抽取,得到像素数减半的待融合下采样图像A和B;
步骤2:计算下采样图像A和B的空间频率:
下采样图像A的空间频率:
Figure BSA00000296539400021
其中:RFA为图像A在OA区域的行频率:
Figure BSA00000296539400022
CFA为图像A在Q区域的列频率:
Figure BSA00000296539400031
所述OA为在下采样图像A中选择大小为WA1×WA2的区域图像,i和j为像素的行坐标和列坐标,WA1和WA2为区域OA的行高和列宽,所述行高WA1和列宽WA2为等值;
下采样图像B的空间频率:
Figure BSA00000296539400032
其中:RFB为图像B在OB区域的行频率:
Figure BSA00000296539400033
CFB为图像B在OB区域的列频率:
Figure BSA00000296539400034
所述OB为在下采样图像B中选择大小为WB1×WB2的区域图像;B(i,j)为B在位置(i,j)处的灰度值,i和j为像素的行坐标和列坐标,WB1和WB2为区域OB的行高和列宽,所述行高WB1和列宽WB2为等值;
步骤3:计算图像A以像素(i,j)为中心的一个区域的空间频率值的和SFA_sum和图像B以像素(i,j)为中心的一个区域的空间频率值的和SFB_sum:
SFA _ sum ( i , j ) = Σ x = - p p Σ y = - q q SF A ( i - x : i + x , j - y : j + y )
SFB _ sum ( i , j ) = Σ x = - p p Σ y = - q q SF B ( i - x : i + x , j - y : j + y )
其中:p和q为累加空间频率值时的区域值,所述p和q为等值;
步骤4:当SFA_sum(i,j)>SFB_sum(i,j)时,初始融合图像F(i,j)=A(i,j),否则初始融合图像F(i,j)=B(i,j);
步骤5:计算初始融合图像与待融合下采样图像A的差得到差分图像Diff=F-A;
步骤6:选择7×7的窗口对差分图像使用中值滤波,得到第一次修正的结果图
Diff_correction1=median(Diff);其中median是传统的中值滤波算法,其基本原理是把数字图像中某一点的值用该点一个邻域中各点值的中值代替;
步骤7:采用8邻域标记方法对步骤6得到图像中的各个区域进行标记,然后计算标记区域的面积,得到最大面积区域和次大面积区域;
 步骤8:当某一标记区域被最大区域包围时将该区域所有像素的灰度值改为最大区域中像素的灰度值,当某一标记区域被次大区域包围时将该区域所有像素的灰度值改为次大区域中像素的灰度值,得到下采样图像A和B融合时所对应的标记图像Diff_correction2;
步骤9:采用最近邻法对Diff_correction2进行插值放大,得到image1和image2融合所使用的最终标记图Diff_correction,进而确定最终融合结果Result,即当Diff_correction(i,j)=1时,Result(i,j)=image1(i,j),否则Result(i,j)=image2(i,j)。
步骤5中差分图像为计算初始融合图像与待融合下采样图像B的差得到差分图像Diff=F-B。
步骤6中选择9×9的窗口对差分图像使用中值滤波。
步骤9中采用最近邻法对Diff_correction2进行插值放大。
有益效果
本发明提出的一种基于差分图修正的像素级多聚焦图像融合方法,是一种空间域图像融合方法,避免了变换域中进行图像融合时的分解和重构运算及分解层数的选取等问题,需要人为设置的参数较少。另外,由于对错分的像素进行了修正,因此较一些传统的空间域法在一定程度上提高了融合图像的质量。
本发明的方法直接在空间域进行处理,算法简单,避免了在变换域进行图像融合所需要的分解和重构等运算。另外,本发明的方法需要人为设定的参数较少,主要是空间频率计算时窗口的大小和中值滤波窗口大小的选择。同时,与已有的一些基于空间域的图像融合方法相比,本发明的方法对图像进行了下采样操作,降低了图像尺寸,从而达到提高图像融合算法速度的目的,此外,本发明对初始融合结果中存在的错分像素进行了两次修正,在一定程度上改善了融合图像的质量。
附图说明
图1:本发明基于差分图修正的像素级多聚焦图像融合方法流程图。
图2:对多聚焦图像使用平均法、简单空间频率法(即只使用空间频率进行融合图像像素的选取,未进行选择错误像素的修正)和本发明方法融合后得到的结果。
图3:本发明方法融合过程中计算得到的中间结果。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
步骤1:对原始待融合图像image1和image2进行下采样:即进行隔行隔列的像素抽取,得到像素减半的待融合下采样图像A和B。若image1和和image2的尺寸为M×N,则经过下采样后图像的尺寸变为
步骤2:计算下采样图像A和B的空间频率:
空间频率反映了1幅图像空间的总体活跃程度。对于1个大小为m×n的图像I(I取A或B),在I中以(i,j)为中心、选择大小为W1×W2的区域Q,则空间频率的定义如下:
SF = ( RF ) 2 + ( CF ) 2
那么,下采样图像A的空间频率:
Figure BSA00000296539400053
其中:RFA为图像A在OA区域的行频率:
Figure BSA00000296539400054
CFA为图像A在Q区域的列频率:
Figure BSA00000296539400055
所述OA为在下采样图像A中选择大小为WA1×WA2的区域图像,i和j为像素的行坐标和列坐标,WA1和WA2为区域OA的行高和列宽,所述行高WA1和列宽WA2为等值,取值均为7;
下采样图像B的空间频率:
Figure BSA00000296539400061
其中:RFB为图像B在OB区域的行频率:
Figure BSA00000296539400062
CFB为图像B在OB区域的列频率:所述OB为在下采样图像B中选择大小为WB1×WB2的区域图像;B(i,j)为B在位置(i,j)处的灰度值,i和j为像素的行坐标和列坐标,WB1和WB2为区域OB的行高和列宽,所述行高WB1和列宽WB2为等值,取值均为7;
步骤3:计算图像A以像素(i,j)为中心的一个区域的空间频率值的和SFA_sum和图像B以像素(i,j)为中心的一个区域的空间频率值的和SFB_sum:
SFA _ sum ( i , j ) = Σ x = - p p Σ y = - q q SF A ( i - x : i + x , j - y : j + y )
SFB _ sum ( i , j ) = Σ x = - p p Σ y = - q q SF B ( i - x : i + x , j - y : j + y )
其中:p和q为累加空间频率值时的区域值,所述p和q为等值,取值均为13;
步骤4:当SFA_sum(i,j)>SFB_sum(i,j)时,初始融合图像F(i,j)=A(i,j),否则初始融合图像F(i,j)=B(i,j);
上述方法得到的融合结果F依赖于空间频率计算时所选用的窗口大小,目前尚未有很好的办法能够自适应确定窗口的大小。仅使用空间频率计算得到的融合结果中会存在一些错分的像素(即(i,j)位置的像素本应取自图像A,但因计算存在的不足,该位置的像素却取自图像B),像素错分便会导致融合图像降质,因此需要对这些错分的像素进行修正以达到提高融合图像质量的目的。本发明的方法则使用两次修正过程达到错分像素修正的目的。
步骤5:计算初始融合图像与待融合下采样图像A的差分图像Diff=F-A;或计算初始融合图像与待融合下采样图像B的差得到差分图像Diff=F-B;
步骤6:选择7×7或9×9的窗口对差分图像使用中值滤波,得到第一次修正的结果图
Diff_correction1=median(Diff);其中median是传统的中值滤波算法,其基本原理是把数字图像中某一点的值用该点一个邻域中各点值的中值代替;
经过上述修正处理后,差分图像Diff_correction1中仍然存在一些错分的像素,这些错分的像素在Diff_correction1中则表现为一些孤立的、面积较小的区域,因此可对这些区域进行第二次修正处理,得到最终的标记图像。首先对这些孤立的区域使用8邻域标记方法进行区域标记,然后计算这些标记区域的面积,确定最大面积和次大面积区域;接着逐个判断这些被标记区域的面积是否是最大或次大;如果不是,则判断它是被最大区域包围还是次大区域包围,如果是被最大区域包围,则将该区域所有像素的灰度值改为最大区域中像素的灰度值,如果是被次大区域包围,则将该区域所有像素的灰度值改为次大区域中像素的灰度值,通过上述步骤即可得到下采样图像A和B融合时所对应的标记图像Diff_correction2。
步骤7:采用8邻域标记方法对步骤6得到图像中的各个区域进行标记,然后计算标记区域的面积,得到最大面积区域和次大面积区域;
步骤8:当某一标记区域被最大区域包围时将该区域所有像素的灰度值改为最大区域中像素的灰度值,当某一标记区域被次大区域包围时将该区域所有像素的灰度值改为次大区域中像素的灰度值,得到下采样图像A和B融合时所对应的标记图像Diff_correction2;
步骤9:采用最近邻法对Diff_correction2进行插值放大或采用最近邻法对Diff_correction2进行插值放大,得到image1和image2融合所使用的最终标记图Diff_correction,进而确定最终融合结果Result,即当Diff_correction(i,j)=1时,Result(i,j)=image1(i,j),否则Result(i,j)=image2(i,j)。
图2(a)和图2(b)分别为待融合图像(其大小为512×512),图2(c)是使用平均法得到的融合图像,图2(d)是使用简单空间频率法得到的融合结果,图2(e)本发明方法的融合结果。对于本发明的方法,首先使用空间频率计算待融合下采样图像(其大小为256×256)3(a)和3(b)的清晰程度,然后通过比较空间频率值的大小确定初始融合图像,由于初始融合图像受空间频率计算时所选择的窗口大小等因素的影响,因此,在融合结果中存在部分选择错误的像素,对于这一问题,本发明使用两次修正过程来进行改善。首先计算初始融合图像与待融合下采样图像3(a)或3(b)的差分图,见图3(c),然后使用7×7的滤波窗口进行中值滤波,得到第一次修正的差分图,如图3(d)所示;经过第一次差分修正后,差分图中依然存在一些错分的像素,表现在第一次差分图中则是一些面积比较小的区域,所以本发明对其进行了第二次修正,即选择面积小于最大面积和次大面积的区域并进行区域合并,得到第二次修正后的差分图,见图3(e)。可以看出,经过上述两次差分修正后,错分的像素数目有所减少,达到了提高融合图像质量的目的。最后,对经过两次差分修正的图象进行插值放大,见图3(f),并将其作为最终融合图象选取的依据。
对于图像融合结果的评价,除了主观观察外,还需通过从客观角度进一步计算来评判。本发明中使用的客观评价指标值有熵、平均梯度、标准差和互信息。通常情况下,这四个指标的值越大,表明融合图像的质量越好。
1、熵:
图像的熵是衡量图像信息丰富程度的一个重要指标。根据Shannon信息论的原理,一幅图像的信息熵定义为:
E = - Σ i = 0 L - 1 p i log 2 ( p i )
其中pi为图像第i级灰度值的概率密度,L为图像的总灰度级。
2、平均梯度
平均梯度可敏感地反映图像对微小细节反差表达的能力,可用来评价图像的清晰程度。一般来说,平均梯度越大,图像越清晰。设F是大小为M×N的图像,F在位置(i,j)处的灰度值为F(i,j),平均梯度计算方法如下
G ‾ = 1 ( M - 1 ) ( N - 1 ) Σ i = 1 M - 1 Σ j = 1 N - 1 ( ∂ F ( i , j ) ∂ i ) 2 + ( ∂ F ( i , j ) ∂ j ) 2 2
3、标准差
标准差反映了图像灰度相对于灰度平均值的离散情况。在某种程度上,标准差可以用来评价图像反差的大小。若标准差大,则图像的对比度大,图像包含更多的信息。标准差定义为
std = Σ i = 1 M Σ j = 1 N ( F ( i , j ) - μ ) 2 MN
式中μ是图像的均值,F(i,j)是图像F在(i,j)处的灰度值,图像大小为M×N。
4、交互信息量
交互信息量是信息论中一个非常重要的概念,它可作为两个变量之间相关性的量度,或一个变量包含另一个变量的信息量的量度。因此,我们可以通过计算各个源图像和融合图像之间的交互信息量来评价融合算法的优劣。设MIFA和MIFB分别表示融合图像F与源图像A和B的交互信息量,则:
MI FA = Σ i = 0 L - 1 Σ j = 0 L - 1 p FA ( i , j ) log 2 ( p FA ( i , j ) p F ( i ) p A ( j ) )
MI FB = Σ i = 0 L - 1 Σ j = 0 L - 1 p FB ( i , j ) log 2 ( p FB ( i , j ) p F ( i ) p B ( j ) )
其中pF、pA和pB分别表示融合图像F、源图像A以及源图像B的概率密度,pFA和pFB则分别表示图像F与图像A和图像B的联合概率密度,这两个值可以从图像F与图像A和图像B的联合灰度直方图中计算得到,L表示图像的灰度级。最后,融合图像F包含A和B的信息量可以用MIFA和MIFB的总和来表示,即:
MI F AB = MI FA + MI FB
Figure BSA00000296539400102
的值越大,则融合图像的质量越好,反之则融合图像的质量较差。
表1是用不同方法进行多聚焦图像融合后计算得到的客观评价指标值。
表1不同方法得到的客观评价指标值
Figure BSA00000296539400103
从图2中可以看出,基于平均法的图像融合方法得到的图像清晰度最低;基于简单空间频率法的融合图像的清晰度有所提高,但是在清晰区域和模糊区域的边界却存在一些伪影(虚假轮廓),这主要是由于边界区域的判决错误而导致的;相比而言,本发明的方法由于加入了两次误差修正过程,伪影得到了很好的抑制,因此得到的融合图像质量最好。同时,从表1也可以看出,平均法计算得到的各项指标值最低,基于简单空间频率法的指标值次低,而本发明方法计算得到的指标值较高,这也从客观角度说明了本发明的方法是有效的。
表2给出了对不同大小的图像进行下采样和非下采样方法所耗费的时间,算法仿真是在Matlab7.0环境中进行的。可以看出,对图像进行下采样后融合时间得到了明显缩短。
表2不同算法所耗费的时间
Figure BSA00000296539400111

Claims (6)

1.一种基于差分图修正的多聚焦图像融合方法,其特征在于步骤如下:
步骤1:对原始待融合图像image1和image2进行下采样:对待融合图像image1和image2分别进行隔行隔列的像素抽取,得到像素数减半的待融合下采样图像A和B;
步骤2:计算下采样图像A和B的空间频率:
下采样图像A的空间频率:
Figure FSB00000656697600011
其中:RFA为图像A在OA区域的行频率:
Figure FSB00000656697600012
CFA为图像A在OA区域的列频率:所述OA为在下采样图像A中选择大小为WA1×WA2的区域图像,i和j为像素的行坐标和列坐标,WA1和WA2为区域OA的行高和列宽,所述行高WA1和列宽WA2为等值;
下采样图像B的空间频率:
Figure FSB00000656697600014
其中:RFB为图像B在OB区域的行频率:
Figure FSB00000656697600015
CFB为图像B在OB区域的列频率:
Figure FSB00000656697600016
所述OB为在下采样图像B中选择大小为WB1×WB2的区域图像;B(i,j)为B在位置(i,j)处的灰度值,i和j为像素的行坐标和列坐标,WB1和WB2为区域OB的行高和列宽,所述行高WB1和列宽WB2为等值;
步骤3:计算图像A以像素(i,j)为中心的一个区域的空间频率值的和SFA_sum和图像B以像素(i,j)为中心的一个区域的空间频率值的和SFB_sum:
SFA _ sum ( i , j ) = Σ x = - p p Σ y = - p q SF A ( i - x : i + x , j - y : j + y )
SFB _ sum ( i , j ) = Σ x = - p p Σ y = - p q SF B ( i - x : i + x , j - y : j + y )
其中:p和q为累加空间频率值时的区域值,所述p和q为等值;
步骤4:当SFA_sum(i,j)>SFB_sum(i,j)时,初始融合图像F(i,j)=A(i,j),否则初始融合图像F(i,j)=B(i,j);
步骤5:计算初始融合图像与待融合下采样图像A的差得到差分图像Diff=F-A;
步骤6:选择7×7的窗口对差分图像使用中值滤波,得到第一次修正的结果图
Diff_correction1=median(Diff);其中median是传统的中值滤波算法,其基本原理是把数字图像中某一点的值用该点一个邻域中各点值的中值代替;
步骤7:采用8邻域标记方法对步骤6得到图像中的各个区域进行标记,然后计算标记区域的面积,得到最大面积区域和次大面积区域;
步骤8:当某一标记区域被最大区域包围时将该区域所有像素的灰度值改为最大区域中像素的灰度值,当某一标记区域被次大区域包围时将该区域所有像素的灰度值改为次大区域中像素的灰度值,得到下采样图像A和B融合时所对应的标记图像Diff_correction2:
步骤9:采用最近邻法对Diff_correction2进行插值放大,得到image1和image2融合所使用的最终标记图Diff_correction,进而确定最终融合结果Result,即当Diff_correction(i,j)=1时,Result(i,j)=image1(i,j),否则Result(i,j)=image2(i,j)。
2.根据权利要求1所述的基于差分图修正的多聚焦图像融合方法,其特征在于:步骤5中差分图像为计算初始融合图像与待融合下采样图像B的差得到差分图像Diff=F-B。
3.根据权利要求1所述的基于差分图修正的多聚焦图像融合方法,其特征在于:步骤6中选择9×9的窗口对差分图像使用中值滤波。
4.根据权利要求1所述的基于差分图修正的多聚焦图像融合方法,其特征在于:所述行高WA1和列宽WA2取值均为7。
5.根据权利要求1所述的基于差分图修正的多聚焦图像融合方法,其特征在于:所述行高WB1和列宽WB2取值均为7。
6.根据权利要求1所述的基于差分图修正的多聚焦图像融合方法,其特征在于:所述p和q取值均为13。
CN2010105079774A 2010-10-14 2010-10-14 一种基于差分图修正的像素级多聚焦图像融合方法 Expired - Fee Related CN101976436B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010105079774A CN101976436B (zh) 2010-10-14 2010-10-14 一种基于差分图修正的像素级多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010105079774A CN101976436B (zh) 2010-10-14 2010-10-14 一种基于差分图修正的像素级多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN101976436A CN101976436A (zh) 2011-02-16
CN101976436B true CN101976436B (zh) 2012-05-30

Family

ID=43576318

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010105079774A Expired - Fee Related CN101976436B (zh) 2010-10-14 2010-10-14 一种基于差分图修正的像素级多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN101976436B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105100579B (zh) 2014-05-09 2018-12-07 华为技术有限公司 一种图像数据的采集处理方法及相关装置
CN104881855B (zh) * 2015-06-10 2017-07-28 北京航空航天大学 一种利用形态学和自由边界条件活动轮廓模型的多聚焦图像融合方法
CN105139371B (zh) * 2015-09-07 2019-03-15 云南大学 一种基于pcnn与lp变换的多聚焦图像融合方法
CN105931209B (zh) * 2016-04-07 2019-05-31 重庆邮电大学 一种基于离散正交多项式变换的多聚焦图像融合方法
CN106842496B (zh) * 2017-01-24 2019-03-19 青岛大学 基于频域比较法的自动调节焦点的方法
CN108537773B (zh) * 2018-02-11 2022-06-17 中国科学院苏州生物医学工程技术研究所 针对胰腺癌与胰腺炎性疾病进行智能辅助鉴别的方法
CN109523494A (zh) * 2018-10-11 2019-03-26 南昌航空大学 一种多聚焦图像融合方法
CN110363734B (zh) * 2019-06-27 2021-07-13 上海交通大学 厚样本显微荧光图像重构方法及系统
CN111815690B (zh) * 2020-09-11 2020-12-08 湖南国科智瞳科技有限公司 一种用于显微图像实时拼接的方法、系统和计算机设备
CN115205181B (zh) * 2022-09-15 2022-11-18 季华实验室 一种多聚焦图像融合方法、装置、电子设备及存储介质
CN115393243B (zh) * 2022-10-28 2023-02-24 北京开运联合信息技术集团股份有限公司 多聚焦图像的融合方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1545064A (zh) * 2003-11-27 2004-11-10 上海交通大学 红外与可见光图像融合方法
CN101305397A (zh) * 2005-10-12 2008-11-12 有源光学有限公司 基于多个图像帧形成图像的方法,图像处理系统和数字照相机
CN101339653A (zh) * 2008-01-30 2009-01-07 西安电子科技大学 基于彩色传递及熵信息的红外与彩色可见光图像融合方法
CN101540045A (zh) * 2009-03-25 2009-09-23 湖南大学 基于同步正交匹配追踪的多源图像融合方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1545064A (zh) * 2003-11-27 2004-11-10 上海交通大学 红外与可见光图像融合方法
CN101305397A (zh) * 2005-10-12 2008-11-12 有源光学有限公司 基于多个图像帧形成图像的方法,图像处理系统和数字照相机
CN101339653A (zh) * 2008-01-30 2009-01-07 西安电子科技大学 基于彩色传递及熵信息的红外与彩色可见光图像融合方法
CN101540045A (zh) * 2009-03-25 2009-09-23 湖南大学 基于同步正交匹配追踪的多源图像融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李美丽,李言俊,王红梅.多聚焦图像融合的Contourlet变换方法.《计算机工程与应用》.2009, *

Also Published As

Publication number Publication date
CN101976436A (zh) 2011-02-16

Similar Documents

Publication Publication Date Title
CN101976436B (zh) 一种基于差分图修正的像素级多聚焦图像融合方法
CN108229490B (zh) 关键点检测方法、神经网络训练方法、装置和电子设备
CN109272489B (zh) 基于背景抑制与多尺度局部熵的红外弱小目标检测方法
Zhuang et al. Strategies combining spectral angle mapper and change vector analysis to unsupervised change detection in multispectral images
CN107169475B (zh) 一种基于kinect相机的人脸三维点云优化处理方法
CN103473764B (zh) 一种遥感影像目标变化检测方法
CN105184779B (zh) 一种基于快速特征金字塔的车辆多尺度跟踪方法
CN102800074B (zh) 基于轮廓波变换的sar图像变化检测差异图生成方法
CN104134200B (zh) 一种基于改进加权融合的运动场景图像拼接方法
Correal et al. Automatic expert system for 3D terrain reconstruction based on stereo vision and histogram matching
CN107705288A (zh) 伪目标运动强干扰下的危险气体泄漏红外视频检测方法
CN112862824A (zh) 新型冠状病毒肺炎病灶检测方法、系统、装置和存储介质
CN110033009B (zh) 在连接网络中处理图像数据的方法
CN106204617B (zh) 基于残差图像直方图循环移位的自适应图像二值化方法
CN101650439A (zh) 基于差异边缘和联合概率一致性的遥感图像变化检测方法
CN105335952B (zh) 匹配代价计算方法和装置、以及视差值计算方法和设备
US6751341B2 (en) Image position matching method and apparatus
Song et al. Non‐destructive automatic leaf area measurements by combining stereo and time‐of‐flight images
CN107610144A (zh) 一种改进的基于最大类间方差法的红外图像分割算法
Lo et al. Depth map super-resolution via Markov random fields without texture-copying artifacts
CN107463895A (zh) 基于邻域向量pca的弱小损伤目标检测方法
Chen et al. A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery
CN117557565B (zh) 一种锂电池极片的检测方法及其装置
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
US8126275B2 (en) Interest point detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120530

Termination date: 20141014

EXPY Termination of patent right or utility model