CN109614976A - 一种基于Gabor特征的异源图像融合方法 - Google Patents
一种基于Gabor特征的异源图像融合方法 Download PDFInfo
- Publication number
- CN109614976A CN109614976A CN201811298091.6A CN201811298091A CN109614976A CN 109614976 A CN109614976 A CN 109614976A CN 201811298091 A CN201811298091 A CN 201811298091A CN 109614976 A CN109614976 A CN 109614976A
- Authority
- CN
- China
- Prior art keywords
- detail
- levels
- image
- fused
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/446—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于Gabor特征的异源图像融合方法,将待融合图像分解为基础层和细节层,计算基础层和细节层的加权映射系数,使用待融合图像对基础层和细节层的加权映射系数进行加权最小二乘滤波,得到基础层和细节层的融合系数,分别使用基础层和细节层的融合系数对基础层和细节层进行融合,将融合的基础层和细节层进行组合得到融合结果。本发明采用Gabor滤波来构建待融合图像的细节层,Gabor滤波器的频率和方向与人类视觉系统类似,特别适合于纹理表示;由于采用像素局部显著性与加权最小二乘滤波构建融合系数,计算复杂度低,便于实时实现。
Description
技术领域
本发明涉及图像处理和计算机视觉技术领域,尤其是一种异源图像融合方法。
背景技术
图像传感器是战争中获取目标信息的重要资源,但是单一的传感器在许多应用中并不能完全提供全面的环境和目标视觉信息。图像融合技术的发展使得多种传感器协同工作成为可能。利用不同探测器在时空上的相关性及信息上的互补性,取长补短,发挥各自优势,弥补各自不足,提供具有更高的可信度、较少的不确定性以及更好的可理解性的目标和图像信息,从而反映出对事物更客观更丰富更本质的认识,达到改善图像视觉效果,强化图像有用信息,实现对该场景中景物更全面、清晰的描述。
依据信息融合理论,按照融合过程在异源图像融合系统中所处位置的不同,图像融合可分为像素级、特征级和决策级这三个由低到高的层次。像素级图像融合(也叫像元级融合),即直接对图像中的像素点进行信息综合处理,优点是准确性高,缺点是冗余度高、实时性差;特征级图像融合,优点是实现了信息压缩、便于实时处理;决策级图像融合,对源图像的特征信息进行分类、识别等处理,优点是处理的数据量少,对传感器的依赖性和要求低,缺点是损失的信息量大。
发明内容
为了克服现有技术的不足,本发明提供一种基于Gabor特征的异源图像融合方法。本发明针对异源图像融合技术中计算冗余度高、实时性差、信息损失量大等缺点,提出一种异源图像融合方法,以特征级融合作为研究对象,以空域中提取的有用信息来实现异源图像的融合。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:将待融合图像分解为基础层和细节层;
使用待融合图像I本身作为图像基础层IBaseLayer,第n个待融合图像In的基础层表示为:
使用六个方向的Gabor滤波器对待融合图像I进行滤波,将六个方向的滤波结果累加,构建图像细节层IDetailLayer;
其中Gabor滤波器的设计过程如下:
取m=[0,1,2,3,4,5]代表Gabor滤波器的六个方向,第m个方向Gabor滤波器Hm的设计公式为:
其中,x,y代表滤波器的尺度,取值范围为x=[-j,-(j-1),...-1,0,1,2,...,j],
y=[-j,-(j-1),...-1,0,1,2,...,j],其中,i为虚数单位,
Kreal=real(K),Kimag=imag(K),NK=Kreal 2+Kimag 2,使用Hm对第n个待融合图像In滤波,结果记为将6个方向的滤波结果累加构建图像的细节层,则第n个待融合图像In的细节层表示为:
步骤2:计算基础层和细节层的加权映射系数;
使用基础层的绝对值来表征基础层像素的显著度图,第n个待融合图像基础层的显著度图表示为:
比较基础层显著度图得到第n个待融合图像基础层的加权映射系数的计算公式为:
其中,N为待融合图像的数目;
使用细节层的绝对值表征细节层像素的显著度图,第n个待融合图像细节层的显著度图表示为:
比较细节层的显著度图,得到第n个待融合图像细节层的加权映射系数的计算公式为:
步骤3:使用待融合图像对基础层和细节层的加权映射系数进行加权最小二乘滤波,得到基础层和细节层的融合系数;
使用第n个待融合图像In,按照下式计算沿x,y方向的平滑权重系数ax、ay:
其中,分别为待融合图像In沿x,y方向的偏导,,ε是为了防止分母为零的小数,取值范围为[0.001~0.0001],以平滑权重系数ax、ay作为对角线元素,构建对角矩阵Ax和Ay,对Ax和Ay分别沿x,y方向做前向与后向差分运算并相加,得到中间变量Lg为:
其中,Dx和分别是沿x方向的前向与后向差分算子,Dy和分别是沿y方向的前向与后向差分算子;
将中间变量Lg、基础层加权映射系数带入式(11),求解第n个待融合图像基础层的融合系数为:
同理,将中间变量Lg、细节层加权映射系数带入式(12),求解第n个待融合图像细节层的融合系数为:
其中λ为权重系数,取值范围为[0.1~0.9];
步骤4:分别使用基础层和细节层的融合系数对基础层和细节层进行融合;
根据基础层和细节层的融合系数,分别对基础层和细节层进行图像融合,得到融合后的基础层FBaseLayer和细节层FDetailLayer为:
其中·为点乘运算;
步骤5:将融合的基础层和细节层进行组合得到融合结果;
将融合后的基础层FBaseLayer和细节层FDetailLayer相加,得到最终的融合结果F为:
F=FBaseLayer+β·FDetailLayer
其中,β为调节系数,用于调节细节强度,取值范围为0-1之间。
本发明的有益效果在于由于采用Gabor滤波来构建待融合图像的细节层,Gabor滤波器的频率和方向与人类视觉系统类似,特别适合于纹理表示;由于采用像素局部显著性与加权最小二乘滤波构建融合系数,计算复杂度低,便于实时实现。
附图说明
图1为本发明方法的步骤流程图。
图2为本发明对原图像处理的结果。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:将待融合图像分解为基础层和细节层;
使用待融合图像I本身作为图像基础层IBaseLayer,第n个待融合图像In的基础层表示为:
使用六个方向的Gabor滤波器对待融合图像I进行滤波,将六个方向的滤波结果累加,构建图像细节层IDetailLayer;
其中Gabor滤波器的设计过程如下:
取m=[0,1,2,3,4,5]代表Gabor滤波器的六个方向,第m个方向Gabor滤波器Hm的设计公式为:
其中,x,y代表滤波器的尺度,取值范围为x=[-j,-(j-1),...-1,0,1,2,...,j],y=[-j,-(j-1),...-1,0,1,2,...,j],其中,i为虚数单位,Kreal=real(K),Kimag=imag(K),NK=Kreal 2+Kimag 2,使用Hm对第n个待融合图像In滤波,结果记为将6个方向的滤波结果累加构建图像的细节层,则第n个待融合图像In的细节层表示为:
步骤2:计算基础层和细节层的加权映射系数;
使用基础层的绝对值来表征基础层像素的显著度图,第n个待融合图像基础层的显著度图表示为:
比较基础层显著度图得到第n个待融合图像基础层的加权映射系数的计算公式为:
其中,N为待融合图像的数目;
使用细节层的绝对值表征细节层像素的显著度图,第n个待融合图像细节层的显著度图表示为:
比较细节层的显著度图,得到第n个待融合图像细节层的加权映射系数的计算公式为:
步骤3:使用待融合图像对基础层和细节层的加权映射系数进行加权最小二乘滤波,得到基础层和细节层的融合系数;
使用第n个待融合图像In,按照下式计算沿x,y方向的平滑权重系数ax、ay:
其中,分别为待融合图像In沿x,y方向的偏导,,ε是为了防止分母为零的小数,取值范围为[0.001~0.0001],以平滑权重系数ax、ay作为对角线元素,构建对角矩阵Ax和Ay,对Ax和Ay分别沿x,y方向做前向与后向差分运算并相加,得到中间变量Lg为:
其中,Dx和分别是沿x方向的前向与后向差分算子,Dy和分别是沿y方向的前向与后向差分算子;
将中间变量Lg、基础层加权映射系数带入式(11),求解第n个待融合图像基础层的融合系数为:
同理,将中间变量Lg、细节层加权映射系数带入式(12),求解第n个待融合图像细节层的融合系数为:
其中λ为权重系数,取值范围为[0.1~0.9];
步骤4:分别使用基础层和细节层的融合系数对基础层和细节层进行融合;
根据基础层和细节层的融合系数,分别对基础层和细节层进行图像融合,得到融合后的基础层FBaseLayer和细节层FDetailLayer为:
其中·为点乘运算;
步骤5:将融合的基础层和细节层进行组合得到融合结果;
将融合后的基础层FBaseLayer和细节层FDetailLayer相加,得到最终的融合结果F为:
F=FBaseLayer+β·FDetailLayer
其中,β为调节系数,用于调节细节强度,取值范围为0-1之间。
如图1所示,以红外和可见光图像为例,本发明的实施例具体步骤如下:
步骤1:将待融合图像分解为基础层和细节层;
附图2(a)上图为待融合的红外图像IIR,下图为待融合的可见光图像ITV。红外图像的基础层与可见光图像的基础层均由图像本身构成,即:
红外图像的细节层与可见光图像的细节层由Gabor滤波器对待融合图像滤波后构成。首先,生成六个方向,大小为7×7的Gabor滤波器。假设m代表入射的方向,第m个方向Gabor滤波器Hm的设计公式为:
其中,m=[0,1,2,3,4,5],x,y=[-3,-2,-1,0,1,2,3],Kreal=real(K),Kimag=imag(K),NK=Kreal 2+Kimag 2
使用Hm对待融合的红外图像IIR进行滤波,结果记为
其中,代表卷积运算,将6个方向的滤波结果累加构建红外图像的细节层
同理,可见光图像的细节层为:
使用上述方法构建的基础层与细节层结果如图2(b)所示。
步骤2:计算基础层和细节层的加权映射系数;
使用基础层与细节层的绝对值来分别表征基础层与细节层像素的局部显著度,待融合红外图像与可见光图像的显著度图可以分别表示为:
其中与代表红外与可见光图像的基础层显著度图,与代表红外与可见光图像的细节层显著度图。比较红外与可见光图像的基础层显著度图,各自的加权映射系数的计算公式为
同理,比较红外与可见光图像的细节层显著度图,各自的加权映射系数的计算公式为
该步骤中,显著度结果如图2(c)所示,加权映射系数如图2(d)所示。
步骤3:使用待融合图像对基础层和细节层的加权映射系数进行最小二乘滤波,得到基础层和细节层的融合系数;以红外图像为例,使用待融合红外图像IIR,按照下式计算沿x,y方向的平滑权重ax、ay,其中ε是为了防止分母为零的小数,取值范围为[0.001~0.0001],
以平滑权重ax、ay作为对角线元素,构建对角矩阵Ax和Ay。对Ax和Ay分别沿x,y方向做前向与后向差分运算并相加,得到Lg:
Dx和分别是沿x方向的前向与后向差分算子,Dy和分别是沿y方向的前向与后向差分算子。分别将Lg、红外图像基础层与细节层的加权映射系数与带入下式进行最小二乘滤波,得到红外图像基础层与细节层的融合系数与
λ为权重系数,对基础层滤波时取0.9,对细节层滤波时取0.1。可见光图像基础层与细节层的融合系数与计算过程同上,概不赘述,融合系数结果如图2(e)所示。
步骤4:使用基础层和细节层的融合系数对基础层和细节层进行融合。红外与可见光基础层的融合结果如下:
红外与可见光细节层的融合结果如下:
其中·为点乘运算,基础层与细节层融合的结果如图2(f)所示。
步骤5:在将融合的基础层和细节层进行组合得到融合结果;
将红外与可见光融合后的基础层FB和细节层FD相加,得到最终的融合结果F
F=FB+β·FD
其中,β为调节系数,用于调节细节强度,取值为0.5,最终融合结果如图2(g)所示。
Claims (1)
1.一种基于Gabor特征的异源图像融合方法,其特征在于包括下述步骤:
步骤1:将待融合图像分解为基础层和细节层;
使用待融合图像I本身作为图像基础层IBaseLayer,第n个待融合图像In的基础层表示为:
使用六个方向的Gabor滤波器对待融合图像I进行滤波,将六个方向的滤波结果累加,构建图像细节层IDetailLayer;
其中Gabor滤波器的设计过程如下:
取m=[0,1,2,3,4,5]代表Gabor滤波器的六个方向,第m个方向Gabor滤波器Hm的设计公式为:
其中,x,y代表滤波器的尺度,取值范围为x=[-j,-(j-1),...-1,0,1,2,...,j],y=[-j,-(j-1),...-1,0,1,2,...,j],其中,i为虚数单位,Kreal=real(K),Kimag=imag(K),NK=Kreal 2+Kimag 2,使用Hm对第n个待融合图像In滤波,结果记为将6个方向的滤波结果累加构建图像的细节层,则第n个待融合图像In的细节层表示为:
步骤2:计算基础层和细节层的加权映射系数;
使用基础层的绝对值来表征基础层像素的显著度图,第n个待融合图像基础层的显著度图表示为:
比较基础层显著度图得到第n个待融合图像基础层的加权映射系数的计算公式为:
其中,N为待融合图像的数目;
使用细节层的绝对值表征细节层像素的显著度图,第n个待融合图像细节层的显著度图表示为:
比较细节层的显著度图,得到第n个待融合图像细节层的加权映射系数的计算公式为:
步骤3:使用待融合图像对基础层和细节层的加权映射系数进行加权最小二乘滤波,得到基础层和细节层的融合系数;
使用第n个待融合图像In,按照下式计算沿x,y方向的平滑权重系数ax、ay:
其中,分别为待融合图像In沿x,y方向的偏导,,ε是为了防止分母为零的小数,取值范围为[0.001~0.0001],以平滑权重系数ax、ay作为对角线元素,构建对角矩阵Ax和Ay,对Ax和Ay分别沿x,y方向做前向与后向差分运算并相加,得到中间变量Lg为:
其中,Dx和分别是沿x方向的前向与后向差分算子,Dy和分别是沿y方向的前向与后向差分算子;
将中间变量Lg、基础层加权映射系数带入式(11),求解第n个待融合图像基础层的融合系数为:
同理,将中间变量Lg、细节层加权映射系数带入式(12),求解第n个待融合图像细节层的融合系数为:
其中λ为权重系数,取值范围为[0.1~0.9];
步骤4:分别使用基础层和细节层的融合系数对基础层和细节层进行融合;
根据基础层和细节层的融合系数,分别对基础层和细节层进行图像融合,得到融合后的基础层FBaseLayer和细节层FDetailLayer为:
其中·为点乘运算;
步骤5:将融合的基础层和细节层进行组合得到融合结果;
将融合后的基础层FBaseLayer和细节层FDetailLayer相加,得到最终的融合结果F为:
F=FBaseLayer+β·FDetailLayer
其中,β为调节系数,用于调节细节强度,取值范围为0-1之间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811298091.6A CN109614976B (zh) | 2018-11-02 | 2018-11-02 | 一种基于Gabor特征的异源图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811298091.6A CN109614976B (zh) | 2018-11-02 | 2018-11-02 | 一种基于Gabor特征的异源图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109614976A true CN109614976A (zh) | 2019-04-12 |
CN109614976B CN109614976B (zh) | 2022-11-01 |
Family
ID=66002045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811298091.6A Active CN109614976B (zh) | 2018-11-02 | 2018-11-02 | 一种基于Gabor特征的异源图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109614976B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445421A (zh) * | 2020-04-08 | 2020-07-24 | Oppo广东移动通信有限公司 | 图像滤波方法、装置、存储介质及移动设备 |
CN112884690A (zh) * | 2021-02-26 | 2021-06-01 | 中国科学院西安光学精密机械研究所 | 一种基于三种尺度分解的红外与可见光图像融合方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909560A (zh) * | 2017-09-22 | 2018-04-13 | 洛阳师范学院 | 一种基于SiR的多聚焦图像融合方法及系统 |
CN107977950A (zh) * | 2017-12-06 | 2018-05-01 | 上海交通大学 | 基于多尺度指导滤波的快速有效视频图像融合方法 |
CN108230282A (zh) * | 2017-11-24 | 2018-06-29 | 洛阳师范学院 | 一种基于agf的多聚焦图像融合方法及系统 |
-
2018
- 2018-11-02 CN CN201811298091.6A patent/CN109614976B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909560A (zh) * | 2017-09-22 | 2018-04-13 | 洛阳师范学院 | 一种基于SiR的多聚焦图像融合方法及系统 |
CN108230282A (zh) * | 2017-11-24 | 2018-06-29 | 洛阳师范学院 | 一种基于agf的多聚焦图像融合方法及系统 |
CN107977950A (zh) * | 2017-12-06 | 2018-05-01 | 上海交通大学 | 基于多尺度指导滤波的快速有效视频图像融合方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445421A (zh) * | 2020-04-08 | 2020-07-24 | Oppo广东移动通信有限公司 | 图像滤波方法、装置、存储介质及移动设备 |
CN112884690A (zh) * | 2021-02-26 | 2021-06-01 | 中国科学院西安光学精密机械研究所 | 一种基于三种尺度分解的红外与可见光图像融合方法 |
CN112884690B (zh) * | 2021-02-26 | 2023-01-06 | 中国科学院西安光学精密机械研究所 | 一种基于三种尺度分解的红外与可见光图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109614976B (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN112184604B (zh) | 一种基于图像融合的彩色图像增强方法 | |
CN112733950A (zh) | 一种基于图像融合与目标检测结合的电力设备故障诊断方法 | |
CN110956581B (zh) | 一种基于双通道生成-融合网络的图像模态变换方法 | |
CN108389226A (zh) | 一种基于卷积神经网络和双目视差的无监督深度预测方法 | |
CN103020933B (zh) | 一种基于仿生视觉机理的多源图像融合方法 | |
CN108932710B (zh) | 遥感时空信息融合方法 | |
CN1932882A (zh) | 基于目标检测的红外与可见光序列图像特征级融合方法 | |
CN107845145B (zh) | 一种电子显微场景下的三维重构系统及方法 | |
CN113902657A (zh) | 图像拼接方法、装置和电子设备 | |
CN112560619B (zh) | 一种基于多聚焦图像融合的多距离鸟类精准识别方法 | |
Ding et al. | U 2 D 2 Net: Unsupervised unified image dehazing and denoising network for single hazy image enhancement | |
CN112651469A (zh) | 一种红外与可见光图像融合方法及系统 | |
CN106897986A (zh) | 一种基于多尺度分析的可见光图像与远红外图像融合方法 | |
CN109614976A (zh) | 一种基于Gabor特征的异源图像融合方法 | |
CN111539888A (zh) | 一种基于金字塔通道特征注意力的神经网络图像去雾方法 | |
CN108694708A (zh) | 基于图像边缘提取的小波变换图像融合方法 | |
CN114996814A (zh) | 一种基于深度学习与三维重建的家具设计系统 | |
CN115311186A (zh) | 一种红外与可见光图像跨尺度注意力对抗融合方法及终端 | |
CN111861949A (zh) | 一种基于生成对抗网络的多曝光图像融合方法及系统 | |
CN110245660B (zh) | 基于显著性特征融合的网页扫视路径预测方法 | |
Jia et al. | Research on the decomposition and fusion method for the infrared and visible images based on the guided image filtering and Gaussian filter | |
CN111881925B (zh) | 一种基于相机阵列选择性光场重聚焦的显著性检测方法 | |
CN107301625B (zh) | 基于亮度融合网络的图像去雾方法 | |
Wang et al. | A fusion algorithm of remote sensing image based on discrete wavelet packet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |