CN101853500A - 一种彩色多聚焦图像融合方法 - Google Patents
一种彩色多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN101853500A CN101853500A CN201010171886A CN201010171886A CN101853500A CN 101853500 A CN101853500 A CN 101853500A CN 201010171886 A CN201010171886 A CN 201010171886A CN 201010171886 A CN201010171886 A CN 201010171886A CN 101853500 A CN101853500 A CN 101853500A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- liveness
- fdm
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种彩色多聚焦图像融合方法,首先提取出原始彩色多聚焦图像对应的亮度分量图像IX和IY;利用àtrous小波变换对亮度分量图像IX和IY进行分解,得到边缘特征图像EFX和EFY;计算图像EFX或EFY中每一点p的活跃度得到活跃度函数图像LAX和LAY;对活跃度函数图像中各像素点的清晰度进行比较得到初级决策图,利用多数滤波器对IDM中各像素点进行一致性检验,得到最终决策图;依据最终决策图在原始RGB空间各彩色通道中选取像素点,生成各通道的融合图像。本发明提高了对源图像污染以及误匹配的免疫力,改善了图像质量,提高了融合可靠性,简单、快速,克服了不连续性,优于现有方法。
Description
技术领域
本发明涉及彩色图像的成像处理方法,尤其是一种彩色图像的融合方法。
背景技术
由于光学系统的聚焦范围有限,对某一场景拍摄时,普通的光学成像系统难以对该场景中不同距离上的物体都形成清晰的像。当焦点聚集在某个物体上时,它可在像平面上形成一个清晰的像。这时,位于其它位置上的物体,在像平面上所形成的像将呈现不同程度的模糊。因此,光学镜头的成像机理使得成像系统在分辨率不断提高的同时,无法避免有限的聚焦范围对成像图片整体效果的影响,即仅依靠成像系统难以得到同一场景中所有物体都清晰的图像。通过多聚焦图像融合技术可以有效地解决该问题。
实际应用中,为了得到某一场景的清晰化图像,主要是通过对多幅多聚焦图像进行融合的方法来实现。现有的融合方法主要在变换域或空间域中实施。以Samuel Cheng等提出的方法为代表的基于变换域的融合方法(参见文献Proceedings of SPIE,6144(Q):1-8,2006)首先将原始多聚焦图像进行某种变换,然后利用不同策略对变换域中的系数进行融合,最后通过反变换得到清晰图像。以Li Shutao等提出的方法为代表的基于空间域的融合方法则是先将原始多聚焦图像划分成若干子块,然后利用某种清晰度(或模糊度)测量手段对每一子块的清晰度(或模糊度)进行检测,最后提取所有清晰图像块组成一幅清晰图像(参见文献Information Fusion,2(3):169-176,2001)。
上述的两大主流融合现有技术均有不足之处。基于变换域的融合技术在融合结果中极易出现振铃效应或Gibbs现象,并且其计算复杂度高,运算量大;而基于空间域的融合技术由于图像子块的划分不能有效地针对实际多聚焦图像的特点,故在图像的清晰与模糊之间的过渡带容易出现不连续现象或块效应现象,影响了融合质量。
发明内容
为了克服现有技术计算复杂、运算量大或者融合质量不高的不足,本发明提供一种针对彩色多聚焦图像的融合方法,克服了在拍摄照片时传感器自身聚焦范围的物理限制,通过对两幅或多幅彩色多聚焦图像进行融合,使得不同成像距离的物体能够清晰地呈现在一幅图像中,从而有效地提高了图像信息的利用率和对目标探测识别的可靠性,可广泛应用于彩色数码照相以及显微镜成像领域。
本发明解决其技术问题所采用的技术方案包括以下步骤:
第一步、预处理:
利用PAL制系统的YUV彩色模型提取出原始彩色多聚焦图像的亮度分量I。由于原始彩色多聚焦图像所在的RGB彩色空间混合了图像的亮度和色度属性,即R、G、B分量(通道)不仅代表了亮度也表示色度,分量本身存在很大的相关性。如果对三个分量分别进行融合难以保证融合图像中某一像素点对应的三个分量来自同一源图像,从而破坏它们之间的原始比例关系,导致颜色信息的丢失和混乱。因此,需要对原始RGB彩色空间进行预处理以便真实地反映出彩色图像清晰度方面的性能。
本阶段的输出信号为两幅灰度多聚焦图像,即原始彩色多聚焦图像X与Y对应的亮度分量图像IX和IY。
第二步、特征提取:
利用àtrous小波变换对亮度分量图像IX和IY进行分解,得到J个多分辨率小波平面dj(j=1,...,J)和残留图像AJ,J为分解层数。
输入图像IX和IY利用àtrous算法被分解成一系列的小波平面,图中的边缘特征被连续地保留下来。经过分解后,其小波系数均在0值附近波动,波动的幅度越大表明该处灰度变化越明显,对应原始图像中出现的边缘、轮廓或者纹理信息就更为丰富。图像中同一边缘在不同小波平面里对应位置的系数是同号的(同正或同负),而在同一边缘附近的区域内的小波系数在不同的小波平面会出现异号的现象。因此,我们对每幅源图像对应的所有小波平面的绝对值求和,提取准确的边缘特征(Edge Feature,EF),计算如下式
得到的边缘特征图像EFX和EFY作为本阶段输出信号,用于清晰度检测。
第三步、清晰度检测:
图像中每一点的清晰程度可以由活跃度来描述,而活跃度的计算依赖于输入图像的特点。考虑到输入图像EFX和EFY的特点,需要引入二阶导数算子-Laplacian算子来增强其灰度级的变化。
图像EFX(或EFY)中每一点p的活跃度由Laplacian算子按下式计算得到
其中Rp是点p的k×k正方形邻域(k取3,5,7,9),q是该邻域中除p以外的其它点。综合更多的信息,计算区域内的平均值,我们提出了一种更可靠且光滑的活跃度函数图像LA,得到原始彩色多聚焦图像X对应的活跃度函数图像LAX,定义如下:
其中W是以点p为中心,大小为h×h的正方形区域(h取3,5,7,9),q是区域W中除p以外的其它点,nW是区域W中的像素数目。
按照同样的方法还可以得到另一幅图像的活跃度函数图像LAY。
LAX和LAY作为清晰度检测结果是基于边缘特征针对各像素点清晰度的判断,还需由点到面进行扩展,即构建决策图,形成对聚焦(清晰)区域和非聚焦(模糊)区域的判决。
第四步、构建决策图:
决策图(Decision Map,DM)是融合方案的关键,因为它决定了融合图像中各像素点的选取方式。
对于活跃度函数图像LAX和LAY,首先对图像中各像素点的清晰度进行比较,得到初级决策图(Initial DM,IDM),具体按下式进行
初级决策图IDM为二值图像,为1的像素点表示选自源图像X,为-1的像素点表示选自源图像Y。由于IDM仅对每一个像素点计算得到,而没有参考其相邻点,需要引入多数滤波器(Majority Filter)进行一致性检验(Consistency Verification),保证图中各像素点所在区域内的其它像素点均来自同一源图像。
这样,利用滑动窗对IDM中各像素点进行一致性检测(可参见文献M.Santos等,LNCS,2652:919-926,2003),即对初级决策图IDM进行提纯,得到最终决策图(FinalDM,FDM)。
第五步、输出:
依据最终决策图FDM,在原始RGB空间“指导”各彩色通道中每个像素点的选取,生成各通道的融合图像。
得到的融合图像Z的各彩色通道RZ、GZ、BZ像素点的选择如下式:
本发明的有益效果是:本发明首先利用YUV模型得到原始彩色图像的亮度分量,然后在小波域提取出特征信息并生成决策图,最后在空间域对各彩色通道实施融合。本发明将变换域和空间域两种技术相结合,不仅提高了对源图像噪声污染以及误匹配的免疫力,而且还有效地改善了融合图像的质量,提高了融合结果的可靠性。采用决策图指导各彩色通道进行融合的思想,保持了源图像各个分量之间的原始比例关系,解决了其它融合技术易导致颜色失真的问题。此外,本发明比基于变换域融合技术更简单、快速,同时又克服了基于空域融合技术在过渡带上的不连续性。利用空间频率和互信息量对不同的方法进行评价,可以证实本发明优于Li Shutao及Samuel Cheng的方法。
方法 | 空间频率 | 互信息量 |
Li Shutao的方法 | 26.6087 | 2.49695 |
Samuel Cheng的方法 | 26.5092 | 2.47738 |
本发明 | 26.7543 | 2.69532 |
下面结合附图和实施例对本发明进一步说明。
附图说明
图1是本发明的原理示意图;
图2是本发明的流程图;
具体实施方式
方法实施例:参照图1和图2,采用SONY T5数码相机拍摄得到一对彩色多聚焦图像,图像大小480×640,场景中的两本书与相机间距不同,即一远一近。通过对两本书分别对焦得到两幅彩色多聚焦图像X和Y。本发明包括以下步骤:
第一步预处理
两幅输入图像X和Y,对应的各彩色通道RX、GX、BX和RY、GY、BY经YUV模型计算分别得到其亮度分量IX和IY,亮度分量计算如下式:
IX=0.299×RX+0.587×GX+0.114×BX
IY=0.299×RY+0.587×GY+0.114×BY
得到的亮度分量IX和IY对应图像的灰度,与颜色信息无关,能很好地体现彩色图像的清晰度特征。在预处理阶段仅对亮度分量进行提取一方面保持了融合图像中各像素点对应的三个分量之间的原始比例关系,避免了融合过程中对图像彩色信息的破坏;另一方面将彩色多聚焦图像融合转化成了灰度多聚焦图像融合,使处理对象由三个分量变成一个分量,降低了运算复杂度。
第二步特征提取
亮度分量IX和IY经“àtrous”小波5级分解(J=5),得到边缘特征图像EFX和EFY。
通常,在图像中灰度值有明显变化的点(边缘)通常被认为是视觉上最重要的特征。针对输入图像IX和IY的特点,因不同聚焦而导致的边缘细节模糊问题引起了我们对边缘特征的重视。小波变换是对多尺度边缘检测的有效工具。àtrous小波变换是一种非正交多分辨率分解,可以把信号或图像的高低频信息分离,将其分解为不同频率通道上的近似信号(相似平面或零级小波平面)和小波平面,可以保证图像高频细节的空间连续性。
得到的边缘特征图像EFX和EFY能够准确地描述图像的边缘特征,尤其是图像平滑区域的细微边缘,将边缘的检测精度提高到了亚像素级。
第三步清晰度检测
按公式(2)和(3)计算,W的尺寸选为5×5,故nW=25,得到对边缘特征图像EFX和EFY的清晰度检测结果LAX和LAY。这里使用的Laplacian算子对图像中小的细节更为敏感,更有利于对“细”边缘的定位和增强。
第四步构建决策图
对LAX和LAY中各点比较并进行一致性检测,得到最终决策图。最终决策图中的白色区域表示像素点选择来自源图像X,而黑色区域则表示像素点选择来自源图像Y。
第五步输出
按照最终决策图的指导,在原始RGB彩色空间对源彩色图像X和Y的各个通道进行融合,得到融合结果。
Claims (1)
1.一种彩色多聚焦图像融合方法,其特征在于包括下述步骤:
第一步、利用PAL制系统的YUV彩色模型提取出原始彩色多聚焦图像X与Y对应的亮度分量图像IX和IY;
第二步、利用àtrous小波变换对亮度分量图像IX和IY进行分解,得到J个多分辨率小波平面dj和残留图像AJ,j=1,...,J,J为分解层数;通过下式
得到边缘特征图像EFX和EFY;
第三步、图像EFX或EFY中每一点p的活跃度由Laplacian算子按下式计算得到
其中Rp是点p的k×k正方形邻域,k取3,5,7,9,q是该邻域中除p以外的其它点;得到原始彩色多聚焦图像X对应的活跃度函数图像LAX,定义如下:
其中W是以点p为中心,大小为h×h的正方形区域,h取3,5,7,9,q是区域W中除p以外的其它点,nW是区域W中的像素数目;
按照同样的方法得到另一幅图像的活跃度函数图像LAY;
第四步、对活跃度函数图像LAX和LAY中各像素点的清晰度进行比较,得到初级决策图利用多数滤波器对IDM中各像素点进行一致性检验,得到最终决策图;
第五步、依据最终决策图在原始RGB空间各彩色通道中选取像素点,生成各通道的融合图像,融合图像的各彩色通道RZ、GZ、BZ像素点的选择如下式:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010171886A CN101853500A (zh) | 2010-05-13 | 2010-05-13 | 一种彩色多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010171886A CN101853500A (zh) | 2010-05-13 | 2010-05-13 | 一种彩色多聚焦图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101853500A true CN101853500A (zh) | 2010-10-06 |
Family
ID=42804965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010171886A Pending CN101853500A (zh) | 2010-05-13 | 2010-05-13 | 一种彩色多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101853500A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104182952A (zh) * | 2014-08-19 | 2014-12-03 | 中国科学院西安光学精密机械研究所 | 多聚焦序列图像融合方法 |
CN104867125A (zh) * | 2015-06-04 | 2015-08-26 | 北京京东尚科信息技术有限公司 | 获取图像的方法以及装置 |
CN105453538A (zh) * | 2013-07-31 | 2016-03-30 | 三星电子株式会社 | 电子装置及其控制方法,以及图像再现装置和方法 |
CN107909560A (zh) * | 2017-09-22 | 2018-04-13 | 洛阳师范学院 | 一种基于SiR的多聚焦图像融合方法及系统 |
CN108133475A (zh) * | 2017-12-22 | 2018-06-08 | 西安烽火电子科技有限责任公司 | 一种局部聚焦模糊图像的检测方法 |
CN108399611A (zh) * | 2018-01-31 | 2018-08-14 | 西北工业大学 | 基于梯度正则化的多聚焦图像融合方法 |
CN109246339A (zh) * | 2013-08-01 | 2019-01-18 | 核心光电有限公司 | 具有自动聚焦的纤薄多孔径成像系统及其使用方法 |
-
2010
- 2010-05-13 CN CN201010171886A patent/CN101853500A/zh active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105453538B (zh) * | 2013-07-31 | 2019-09-06 | 三星电子株式会社 | 电子装置及其控制方法,以及非瞬时性计算机可读记录介质 |
CN105453538A (zh) * | 2013-07-31 | 2016-03-30 | 三星电子株式会社 | 电子装置及其控制方法,以及图像再现装置和方法 |
US10237491B2 (en) | 2013-07-31 | 2019-03-19 | Samsung Electronics Co., Ltd. | Electronic apparatus, method of controlling the same, for capturing, storing, and reproducing multifocal images |
CN109246339A (zh) * | 2013-08-01 | 2019-01-18 | 核心光电有限公司 | 具有自动聚焦的纤薄多孔径成像系统及其使用方法 |
CN104182952B (zh) * | 2014-08-19 | 2017-04-05 | 中国科学院西安光学精密机械研究所 | 多聚焦序列图像融合方法 |
CN104182952A (zh) * | 2014-08-19 | 2014-12-03 | 中国科学院西安光学精密机械研究所 | 多聚焦序列图像融合方法 |
CN104867125B (zh) * | 2015-06-04 | 2018-03-02 | 北京京东尚科信息技术有限公司 | 获取图像的方法以及装置 |
CN104867125A (zh) * | 2015-06-04 | 2015-08-26 | 北京京东尚科信息技术有限公司 | 获取图像的方法以及装置 |
CN107909560A (zh) * | 2017-09-22 | 2018-04-13 | 洛阳师范学院 | 一种基于SiR的多聚焦图像融合方法及系统 |
CN108133475A (zh) * | 2017-12-22 | 2018-06-08 | 西安烽火电子科技有限责任公司 | 一种局部聚焦模糊图像的检测方法 |
CN108133475B (zh) * | 2017-12-22 | 2021-04-09 | 西安烽火电子科技有限责任公司 | 一种局部聚焦模糊图像的检测方法 |
CN108399611A (zh) * | 2018-01-31 | 2018-08-14 | 西北工业大学 | 基于梯度正则化的多聚焦图像融合方法 |
CN108399611B (zh) * | 2018-01-31 | 2021-10-26 | 西北工业大学 | 基于梯度正则化的多聚焦图像融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110246108B (zh) | 一种图像处理方法、装置及计算机可读存储介质 | |
He et al. | Haze removal using the difference-structure-preservation prior | |
CN107679520B (zh) | 一种适用于复杂条件下的车道线视觉检测方法 | |
CN101853500A (zh) | 一种彩色多聚焦图像融合方法 | |
CN102006425A (zh) | 一种基于多摄像机的视频实时拼接方法 | |
CN106846289A (zh) | 一种基于显著性迁移与细节分类的红外光强与偏振图像融合方法 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
Hua et al. | Extended guided filtering for depth map upsampling | |
CN105678318B (zh) | 交通标牌的匹配方法及装置 | |
Chai et al. | Stereo matching algorithm based on joint matching cost and adaptive window | |
CN111179202B (zh) | 一种基于生成对抗网络的单幅图像去雾增强方法和系统 | |
CN101976436A (zh) | 一种基于差分图修正的像素级多聚焦图像融合方法 | |
CN117036641A (zh) | 一种基于双目视觉的公路场景三维重建与缺陷检测方法 | |
CN108829711A (zh) | 一种基于多特征融合的图像检索方法 | |
CN110717935B (zh) | 一种基于图像特征信息的图像匹配方法,装置与系统 | |
CN110348442A (zh) | 一种基于支持向量机的船载雷达图像海上油膜识别方法 | |
CN106021610B (zh) | 一种基于显著区域的视频指纹提取方法 | |
CN113989245B (zh) | 多视角多尺度图像篡改检测方法 | |
Li et al. | Single image dehazing via model-based deep-learning | |
CN107273804A (zh) | 基于支持向量机和深度特征的行人识别方法 | |
Swarnalatha et al. | A centroid model for the depth assessment of images using rough fuzzy set techniques | |
Ross et al. | Learning static object segmentation from motion segmentation | |
Li et al. | A novel edge detector for color images based on MCDM with evidential reasoning | |
CN104867149B (zh) | 基于局部平面线性点的翻拍图像鉴别方法 | |
Anandh et al. | Visual Enhancement of Underwater Images Using Transmission Estimation and Multi-Scale Fusion. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20101006 |