CN103455990A - 结合视觉注意机制和pcnn的图像融合方法 - Google Patents

结合视觉注意机制和pcnn的图像融合方法 Download PDF

Info

Publication number
CN103455990A
CN103455990A CN2013100677648A CN201310067764A CN103455990A CN 103455990 A CN103455990 A CN 103455990A CN 2013100677648 A CN2013100677648 A CN 2013100677648A CN 201310067764 A CN201310067764 A CN 201310067764A CN 103455990 A CN103455990 A CN 103455990A
Authority
CN
China
Prior art keywords
pcnn
source images
coefficient
image
low frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100677648A
Other languages
English (en)
Other versions
CN103455990B (zh
Inventor
张基宏
邓苗
柳伟
杨秀林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Information Technology
Original Assignee
Shenzhen Institute of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Information Technology filed Critical Shenzhen Institute of Information Technology
Priority to CN201310067764.8A priority Critical patent/CN103455990B/zh
Publication of CN103455990A publication Critical patent/CN103455990A/zh
Application granted granted Critical
Publication of CN103455990B publication Critical patent/CN103455990B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明适用于图像技术领域,提供了一种结合视觉注意机制和PCNN的图像融合方法,所述方法包括:将源图像A和源图像B分别进行视觉显示计算得到源图像A的显著图A、源图像B的显著图B;将源图像A和源图像B分别进行多尺度变换得到源图像A的高频系数A和低频系数A、源图像B的高频系数B和低频系数B;得到低频融合系数,依据高频系数A和高频系数B得到高频融合系数;根据低频融合系数、高频融合系数得到融合图像。本发明提供的技术方案具有融合效果好的优点。

Description

结合视觉注意机制和PCNN的图像融合方法
技术领域
本发明属于图像技术领域,尤其涉及一种结合视觉注意机制和PCNN的图像融合方法。
背景技术
图像融合是通过某种融合系统,将两个或多个互补的波段、传感器的有用信息综合成统一图像或综合图像特征以供观察或进一步处理,达到对目标或场景更为精确、全面的识别、分析和判决的图像处理方法。
目前存在三种典型的视觉注意机制计算方法:
第一种典型方法于1998年提出的一种经典的图像显著度方法,该方法首先在多种预注意特征通道(亮度、红绿对比色、蓝黄对比色、方向等)上计算中心-四周对比度,然后将将对比度线性组合得到显著图。
第二种典型方法由Harel等将图像定义为有向完全图,他们将节点定义为像素,然后通过计算任意两个像素的差异来获得边的权重,此后,通过随机游走的方法,在图上寻找被访问次数较少的节点,并赋予这些节点较高的显著度。
第三种典型方法由Hou定义的一种图像显著度(基于图像DCT变换的符号函数)方法。
视觉注意机制(Visualattentionmechanism,VAM)是模拟人类视觉过程对场景进行迅速选择少数感兴趣区域以供后续处理的机制,是人类视觉特性研究中的一个重要分支。基于视觉注意机制的模型能够将显著目标从背景分离,从而又有利于对背景和物象区别对待,降低分析难度,提高计算效率。将视觉注意机制结合到图像融合过程中将有助于保留源图像中的显著信息,因此该方面研究已受到极大关注,并已经有一些初步的研究成果。
脉冲耦合神经网络(Pulse-coupledNeuralNetwork,PCNN)是由若干个PCNN的神经元互连所构成的反馈型网络,每一个神经元都由接收域、调制部分和脉冲发生器3部分组成。脉冲耦合神经网络的方法是图像处理的研究热点。PCNN具有同步脉冲发送和全局耦合特性,与传统的加权平均、取极值以及基于区域能量的图像融合规则相比,PCNN是一种非线性处理方式,不单考虑单个像素或者局部特征,而且兼顾全局特征,与人类视觉神经系统对视觉信息的处理方式非常相似,有利于差异化显著目标特征与非显著目标特征,从而更加有效地区分信号,已被广泛地应用于图像分割、图像识别、决策优化和图像融合等方面。
在实现现有技术的过程中,发现现有技术存在如下问题:
1.现有PCNN链接强度自适应构造方法常用于多聚焦图像融合,不适用于红外与可见光等异源图像融合;
2.在大部分使用PCNN进行图像处理的文献中,所有的神经元的链接强度β都是采用相同的数值,且是根据实验或者经验选择一个合适的数值来使用;这一点对于处理的自动化和普遍适用性是一个较大的限制,事实上,真实神经元的链接强度不可能完全相同;
3.在图像融合中,低频部分的融合规则影响到融合图像的整体亮度变化,在多传感器图像融合中尤为重要。此时简单的加权平均方法并不能全面地保护来自源图像中的显著目标。
所以现有技术图像的融合效果差。
发明内容
本发明实施例的目的在于提供一种结合视觉注意机制和PCNN的图像融合方法,旨在解决现有技术中的图像的融合效果差的问题。
本发明实施例是这样实现的,一种结合视觉注意机制和PCNN的图像融合方法,所述方法包括:
将源图像A和源图像B分别进行视觉显示计算得到源图像A的显著图A、源图像B的显著图B;
将源图像A和源图像B分别进行多尺度变换得到源图像A的高频系数A和低频系数A、源图像B的高频系数B和低频系数B;
将显著图A作为PCNN模型的链接输入,将低频系数A作为PCNN模型的反馈输入,依据公式1和显著图A构造自适应链接系数βij.A;对PCNN模型点火得到点火映射图TA(i,j);
将显著图B作为PCNN模型的链接输入,将低频系数B作为PCNN模型的反馈输入,依据公式1和显著图B构造自适应链接系数βij.B;对PCNN模型点火得到点火映射图TB(i,j);
β ij = 1 1 + e - ηS ( i , j ) + 2.5 公式1
其中η为调节因子,S(i,j)为像素(i,j)的显著度值,βij为自适应链接系数;
根据公式2得到低频融合系数,依据高频系数A和高频系数B得到高频融合系数;
ω A ( i , j ) = 1 , if T A ( i , j ) ≥ T B ( i , j ) 0 , else 公式2
其中,ωA(i,j)为低频融合系数,TA(i,j)为源图像A的点火映射图TB(i,j)为源图像B的点火映射图;
根据低频融合系数、高频融合系数得到融合图像。
可选的,所述PCNN控制域传递函数为:U=F*(L*βij+1);其中L为PCNN控制域的链接输入,F为PCNN控制域的反馈输入;βij为自适应链接系数,U为输出结果。
可选的,所述多尺度变换为形态非抽样小波变换。
本发明实施例与现有技术相比,本发明提供的方法合理利用了视觉显著计算的结果,充分反映出人眼对像素点的感知强度,在融合图像中最大程度地保留源图像中的显著信息,因此能获得较好的融合效果。
附图说明
图1是本发明实施例提供的结合视觉注意机制和PCNN的图像融合方法的流程图;
图2是本发明提供的PCNN模型图;
图3是本发明实验一提供的红外和可见光图像实验融合结果比较图;
其中图(a)为红外线源图像,图(b)为可见光源图像,图(c)为形态非抽样小波融合结果,图(d)为显著图直接加权融合结果,图(e)本发明提供方法的融合结果;
图4是本发明实验一中的显著图及得到的低频权值图;
其中图(a)为红外线源图的显著图,图(b)为可见光源图的显著图,图(c)为本发明提供方法得到的低频权值图;
图5是本发明实验二提供的红外和可见光图像实验融合结果比较图;
其中图(a)为红外线源图像,图(b)为可见光源图像,图(c)为形态非抽样小波融合结果,图(d)为显著图直接加权融合结果,图(e)本发明提供方法的融合结果;
图6是本发明实验二中的显著图及得到的低频权值图;
其中图(a)为红外线源图的显著图,图(b)为可见光源图的显著图,图(c)为本发明提供方法得到的低频权值图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明具体实施方式提供一种结合视觉注意机制和PCNN的图像融合方法,该方法如图1所示,包括:
S101、将源图像A和源图像B分别进行视觉显示计算得到源图像A的显著图A、源图像B的显著图B;
S102、将源图像A和源图像B分别进行多尺度变换得到源图像A的高频系数A和低频系数A、源图像B的高频系数B和低频系数B;
S103、将显著图A作为PCNN模型的链接输入,将低频系数A作为PCNN模型的反馈输入,依据公式1和显著图A构造自适应链接系数βij.A;对PCNN模型点火得到点火映射图TA(i,j);
S104、将显著图B作为PCNN模型的链接输入,将低频系数B作为PCNN模型的反馈输入,依据公式1和显著图B构造自适应链接系数βij.B;对PCNN模型点火得到点火映射图TB(i,j);
β ij = 1 1 + e - ηS ( i , j ) + 2.5 公式1
其中η为调节因子,S(i,j)为像素(i,j)的显著度值,βij为自适应链接系数。
S105、根据公式2得到低频融合系数,依据高频系数A和高频系数B得到高频融合系数;
ω A ( i , j ) = 1 , if T A ( i , j ) ≥ T B ( i , j ) 0 , else 公式2
其中,ωA(i,j)为低频融合系数,TA(i,j)为源图像A的点火映射图TB(i,j)为源图像B的点火映射图;
S106、根据低频融合系数、高频融合系数得到融合图像。
上述PCNN模型控制域示意图如图2所示,其中PCNN控制域传递函数可以为:U=F*(L*βij+1);其中L为PCNN控制域的链接输入,F为PCNN控制域的反馈输入;βij为自适应链接系数,U为输出结果。
其中上述S106中得到融合图像的方法具体可以为:多尺度变换重够,具体的方法可以采用形态非抽样小波变换作为我们的多尺度变换的方法。
我们选取形态非抽样小波(MorphologicalUn-DecimatedWavelet,MUDW)变换来作为多尺度变换工具。这种多尺度变换具有运算效率实时、良好的多尺度分解特性、较好的图像融合效果等优点。它的一般框架,如式(3)到(5)所示:
x j + 1 = ψ j ↑ ( x j ) = T ( x j ) - - - ( 3 )
y j + 1 = ω j ↑ ( x j ) = ( id - T ) ( x j ) - - - ( 4 )
ψ j ↓ ( ψ j ↑ ( x j ) , ω j ↑ ( x j ) ) = ψ j ↑ ( x j ) + ω j ↑ ( x j ) = T ( x j ) + ( id - T ) ( x j ) = id ( x j ) - - - ( 5 )
其中,Xj是分解后第j个尺度上的低频分量;
Figure BDA00002881527900064
是低通分析算子;Yj是分解后第j个尺度上的高频分量;
Figure BDA00002881527900065
是高通分析算子;T()为数学形态算子,可以根据信号处理的不同需求,选择基本形态算子或基本算子的某种组合形式;id是等同算子(identityoperator),即id(xj)=xj
Figure BDA00002881527900066
是合成算子。
本发明提供的方法合理利用了视觉显著计算的结果,充分反映出人眼对像素点的感知强度,在融合图像中最大程度地保留源图像中的显著信息,因此能获得较好的融合效果。
因本发明提供的方法是对已有的多尺度图像融合中低频融合规则的改进,对其高频融合规则并没有改动,因此主要和低频加权平均规则比较。针对红外和可见光的图像融合,并采用形态非抽样小波变换作为我们的多尺度变换方法,将本文融合方法和采用基本的平均加权规则,以及显著图直接生成加权函数(不经过PCNN)的图像融合进行比较,来验证我们的方法能有效地保护来自源图中的显著目标。在进行图像变换时,图像分解的层数为5层。采用了两组红外和可见光图像融合实验。
为对融合质量进行评价,选取的客观评价指标包括:
互信息(MI):体现了从源图提取的信息量的多少,值越大说明提取了越多的信息量,融合效果越好。
信息熵(Entropy):指融合图像所包含信息量的大小,在保证图像不失真和处理中没引入噪声的情况下,值越大说明图像融合效果越好。
平均梯度(AVG):值越大说明融合图像层次越多,也就越清晰。
边缘保持度(QAB/F):值越大说明源图有越多的边缘信息量得到了保留。
实验一
实验一的结果如图3所示。从图3(c)中可看出,如果采用简单的平均加权的低频融合规则,则红外线源图像中的显著目标在融合图像中将会变暗,起不到保护的作用。从图3(e)中可看出,本文的方法能很好地保护来自两幅源图的显著目标。图4给出了两幅源图所得到的显著计算结果,以及本文方法最终得到的低频权值图。从图4(a)和图4(b)中可看出,本文选择的视觉计算方法所得到的结果能很好地符合人眼的视觉特性。从图4(c)中可以看出本文方法得到的低频权值图合理地体现了源图中的显著特性,亮的部分表示来自红外线源图,而暗的部分表示来自可见光源图。
表1给出了评价指标的比较,可以看到,本文方法能得到比平均加权、显著图加权的方法更好的评价指标。
表1实验一客观评价指标比较
Figure BDA00002881527900081
实验二
实验二的相关结果如图5、图6和表2所示。得到的结论和实验一相同,因此不再赘述。
表2实验二客观评价指标比较
Figure BDA00002881527900082
另外,本领域普通技术人员可以理解实现上述各实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,相应的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘或光盘等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种结合视觉注意机制和PCNN的图像融合方法,其特征在于,所述方法包括:
将源图像A和源图像B分别进行视觉显示计算得到源图像A的显著图A、源图像B的显著图B;
将源图像A和源图像B分别进行多尺度变换得到源图像A的高频系数A和低频系数A、源图像B的高频系数B和低频系数B;
将显著图A作为PCNN模型的链接输入,将低频系数A作为PCNN模型的反馈输入,依据公式1和显著图A构造自适应链接系数βij.A;对PCNN模型点火得到点火映射图TA(i,j);
将显著图B作为PCNN模型的链接输入,将低频系数B作为PCNN模型的反馈输入,依据公式1和显著图B构造自适应链接系数βij.B;对PCNN模型点火得到点火映射图TB(i,j);
β ij = 1 1 + e - ηS ( i , j ) + 2.5 公式1
其中η为调节因子,S(i,j)为像素(i,j)的显著度值,βij为自适应链接系数;
根据公式2得到低频融合系数,依据高频系数A和高频系数B得到高频融合系数;
ω A ( i , j ) = 1 , if T A ( i , j ) ≥ T B ( i , j ) 0 , else 公式2
其中,ωA(i,j)为低频融合系数,TA(i,j)为源图像A的点火映射图TB(i,j)为源图像B的点火映射图;
根据低频融合系数、高频融合系数得到融合图像。
2.根据权利要求1所述的方法,其特征在于,所述PCNN控制域传递函数为:U=F*(L*βij+1);其中L为PCNN控制域的链接输入,F为PCNN控制域的反馈输入;βij为自适应链接系数,U为输出结果。
3.根据权利要求1所述的方法,其特征在于,所述多尺度变换为形态非抽样小波变换。
CN201310067764.8A 2013-03-04 2013-03-04 结合视觉注意机制和pcnn的图像融合方法 Expired - Fee Related CN103455990B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310067764.8A CN103455990B (zh) 2013-03-04 2013-03-04 结合视觉注意机制和pcnn的图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310067764.8A CN103455990B (zh) 2013-03-04 2013-03-04 结合视觉注意机制和pcnn的图像融合方法

Publications (2)

Publication Number Publication Date
CN103455990A true CN103455990A (zh) 2013-12-18
CN103455990B CN103455990B (zh) 2016-12-28

Family

ID=49738322

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310067764.8A Expired - Fee Related CN103455990B (zh) 2013-03-04 2013-03-04 结合视觉注意机制和pcnn的图像融合方法

Country Status (1)

Country Link
CN (1) CN103455990B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463821A (zh) * 2014-11-28 2015-03-25 中国航空无线电电子研究所 一种红外图像与可见光图像的融合方法
CN104835129A (zh) * 2015-04-07 2015-08-12 杭州电子科技大学 一种使用局部窗口视觉注意提取的双波段图像融合方法
CN106056606A (zh) * 2016-05-30 2016-10-26 乐视控股(北京)有限公司 图像处理方法及装置
CN106611408A (zh) * 2016-10-26 2017-05-03 成都易云知科技有限公司 一种图像融合方法
CN108509949A (zh) * 2018-02-05 2018-09-07 杭州电子科技大学 基于注意力地图的目标检测方法
CN111815550A (zh) * 2020-07-04 2020-10-23 淮阴师范学院 一种基于灰度共生矩阵的红外与可见光图像融合方法
CN116091882A (zh) * 2023-03-28 2023-05-09 中国科学院光电技术研究所 一种基于自适应双通道pcnn的偏振图像融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李敏 等: "基于修正PCNN的多传感器图像融合方法", 《中国图象图形学报》 *
赵彩云 等: "基于小波核支持度变换的图像融合改进方法", 《计算机工程与应用》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463821A (zh) * 2014-11-28 2015-03-25 中国航空无线电电子研究所 一种红外图像与可见光图像的融合方法
CN104835129A (zh) * 2015-04-07 2015-08-12 杭州电子科技大学 一种使用局部窗口视觉注意提取的双波段图像融合方法
CN104835129B (zh) * 2015-04-07 2017-10-31 杭州电子科技大学 一种使用局部窗口视觉注意提取的双波段图像融合方法
CN106056606A (zh) * 2016-05-30 2016-10-26 乐视控股(北京)有限公司 图像处理方法及装置
CN106611408A (zh) * 2016-10-26 2017-05-03 成都易云知科技有限公司 一种图像融合方法
CN108509949A (zh) * 2018-02-05 2018-09-07 杭州电子科技大学 基于注意力地图的目标检测方法
CN108509949B (zh) * 2018-02-05 2020-05-15 杭州电子科技大学 基于注意力地图的目标检测方法
CN111815550A (zh) * 2020-07-04 2020-10-23 淮阴师范学院 一种基于灰度共生矩阵的红外与可见光图像融合方法
CN111815550B (zh) * 2020-07-04 2023-09-15 淮阴师范学院 一种基于灰度共生矩阵的红外与可见光图像融合方法
CN116091882A (zh) * 2023-03-28 2023-05-09 中国科学院光电技术研究所 一种基于自适应双通道pcnn的偏振图像融合方法
CN116091882B (zh) * 2023-03-28 2023-12-22 中国科学院光电技术研究所 一种基于自适应双通道pcnn的偏振图像融合方法

Also Published As

Publication number Publication date
CN103455990B (zh) 2016-12-28

Similar Documents

Publication Publication Date Title
CN103455990A (zh) 结合视觉注意机制和pcnn的图像融合方法
CN110517487B (zh) 基于热力图变化识别的城市区域交通资源调控方法及系统
JP6798854B2 (ja) 目的物個数推定装置、目的物個数推定方法及びプログラム
CN107154048A (zh) 一种脉冲耦合神经网络模型的遥感图像分割方法及装置
CN110119687A (zh) 基于图像处理和卷积神经网络相结合的道路表面裂痕缺陷的检测方法
CN106709511A (zh) 基于深度学习的城市轨道交通全景监控视频故障检测方法
CN102902956B (zh) 一种地基可见光云图识别处理方法
CN104036495A (zh) 一种焊接缺陷提取方法及焊接缺陷检测方法
CN101930604B (zh) 基于低频相关性分析的全色图像与多光谱图像融合方法
CN109711401A (zh) 一种基于Faster Rcnn的自然场景图像中的文本检测方法
CN109493309A (zh) 一种保持显著性信息的红外与可见光图像变分融合方法
CN114241511B (zh) 一种弱监督行人检测方法、系统、介质、设备及处理终端
CN105139371A (zh) 一种基于pcnn与lp变换的多聚焦图像融合方法
Jiang et al. Application of back propagation neural network in the classification of high resolution remote sensing image: take remote sensing image of Beijing for instance
CN105447837A (zh) 基于自适应云模型的多模态脑部图像融合方法
CN113205462B (zh) 一种基于神经网络学习先验的光子反射率图像去噪方法
Tang et al. EgeFusion: Towards Edge Gradient Enhancement in Infrared and Visible Image Fusion With Multi-Scale Transform
CN104951800A (zh) 一种面向资源开采型地区的遥感影像融合方法
Xing et al. Infrared and visible image fusion based on nonlinear enhancement and NSST decomposition
CN113139511B (zh) 水土保持生产建设项目扰动图斑提取方法、介质和设备
Wang et al. SCGRFuse: An infrared and visible image fusion network based on spatial/channel attention mechanism and gradient aggregation residual dense blocks
CN107705274A (zh) 一种基于数学形态学多尺度的微光与红外图像融合方法
Wang et al. Multi-scale crown closure retrieval for moso bamboo forest using multi-source remotely sensed imagery based on geometric-optical and Erf-BP neural network models
Ghiasi-Freez et al. The automated Dunham classification of carbonate rocks through image processing and an intelligent model
Guo et al. A multi-branch network based on weight sharing and attention mechanism for hyperspectral image classification

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20161228

CF01 Termination of patent right due to non-payment of annual fee