CN110148104B - 基于显著性分析与低秩表示的红外与可见光图像融合方法 - Google Patents
基于显著性分析与低秩表示的红外与可见光图像融合方法 Download PDFInfo
- Publication number
- CN110148104B CN110148104B CN201910397498.2A CN201910397498A CN110148104B CN 110148104 B CN110148104 B CN 110148104B CN 201910397498 A CN201910397498 A CN 201910397498A CN 110148104 B CN110148104 B CN 110148104B
- Authority
- CN
- China
- Prior art keywords
- image
- visible light
- infrared
- fusion
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 24
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims abstract description 85
- 230000004927 fusion Effects 0.000 claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 22
- 238000001914 filtration Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012271 agricultural production Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于显著性分析与低秩表示的红外与可见光图像融合方法,包括:步骤(1)、分别对输入的待融合红外图像与可见光图像执行图像块的划分,得到红外图像的图像块数据矩阵和可见光图像的图像块数据矩阵;步骤(2)、构建一个分层树形结构;步骤(3)、利用输入源图像,构建背景字典D;步骤(4)、构建分层联合低秩表示模型,然后执行分层联合低秩表示,得到红外/可见光图像的低秩表示系数矩阵以及代表显著信息的稀疏重构误差系数矩阵;步骤(5)、将系数矩阵分别执行融合操作,得到融后的表示系数矩阵,然后利用融合后的表示系数矩阵重构出粗融合图像IF;步骤(6)、利用引导滤波算法对粗融合结果IF进行进一步处理,得到最终的融合图像
Description
技术领域
本发明公开了基于显著性分析与低秩表示的红外与可见光图像融合方法,属于多源图像融合技术领域。
背景技术
图像融合技术旨在将多个成像传感器获得的关于同一场景的多幅图像融合成一幅图像,使得融合得到的图像能够综合每幅输入图像中的互补信息,同时尽可能地减少图像之间的冗余信息,实现对场景的更加全面和准确的描述,便于人眼和机器视觉的感知,以及后续的图像处理工作。
红外与可见光图像融合技术作为图像融合领域的一个重要分支,其主要目标在于通过图像融合,不仅能够提取红外图像中的热目标信息,并且要求较好地保留可见光图像中丰富的纹理细节信息。红外与可见光图像融合技术能够广泛应用于军事管理、安防监控、工农业生产等重要领域。
现有的基于稀疏表示理论或低秩表示理论的红外与可见光图像融合方法通常包括如下几个处理步骤:(1)利用滑动窗技术将输入图像划分为一系列具有一定像素重叠的图像块,得到源图像的向量化矩阵;(2)使用一定的优化求解算法,并结合字典,对源图像的向量化矩阵进行编码,得到图像块的稀疏或低秩表示系数;(3)根据表示系数向量计算活动度水平,并设计融合规则,得到融合后的稀疏或低秩表示系数;(4)利用融合后的表示系数,结合字典,重构出融合图像。这类方法在设计融合规则时通常只根据当前图像块的表示系数向量来确定其活动度水平,再根据活动水平来将当前对应位置的图像块加以融合,即由源图像的局部特征来确定该局部区域像素的活跃度(重要程度)。得到的融合结果虽然考虑了局部图像块的重要性,但是并不能反映出源图像中目标的全局显著特性,造成融合图像中目标对比度降低,以及其他细节信息存在不同程度的丢失。
发明内容
发明目的:本发明的目的在于克服上述现有技术的不足,提供一种基于显著性分析与低秩表示的红外与可见光图像融合方法。本发明公开的技术方案能够得到更高质量的融合结果,特别是能够完整保留以及凸显出源图像中的全局显著目标信息,并且融合结果具有较高的对比度和更好的视觉保真度。
技术方案:基于显著性分析与低秩表示的红外与可见光图像融合方法,包括:
步骤(1)、分别对输入的待融合红外图像与可见光图像执行图像块的划分,并将获取的图像块按字典语义顺序拉伸成向量形式,然后将同一幅图像的所有图像块的向量按列堆叠,分别得到红外图像的图像块数据矩阵和可见光图像的图像块数据矩阵;
步骤(2)、对输入的两幅图像分别构建一个分层树形结构
利用基于图的图像分割算法,对步骤(1)中得到的待融合红外图像与可见光图像的图像块划分结果,分别按照其位置关系以及特征相似性进行不同程度的聚合,分别得到红外图像以及可见光图像在不同阈值下的由粗糙至精细的聚合结果,即构建得到两幅输入图像对应的分层树形结构;
步骤(3)、利用输入源图像,构建背景字典D;
步骤(4)、构建分层联合低秩表示模型,然后向该分层联合低秩表示模型输入步骤(1)得到的红外图像的图像块数据矩阵/可见光图像的图像块数据矩阵,以及步骤(2)得到的对应图像的分层树形结构,分别执行分层联合低秩表示,得到红外/可见光图像的低秩表示系数矩阵以及代表显著信息的稀疏重构误差系数矩阵;
步骤(5)、将步骤(4)计算得到的系数矩阵分别执行融合操作,得到融后的表示系数矩阵,然后利用融合后的表示系数矩阵重构出粗融合图像IF;
进一步地,步骤(1)包括如下步骤:
(1a)输入经过配准且大小相等的红外图像IA和可见光图像IB,其中,IA∈RH×W,IB∈RH×W,H和W分别表示源图像IA和IB的高度和宽度;
(1b)将输入图像划分为图像块
n为正整数;
(1c)将步骤(1b)得到的N个无像素重叠的子图像块按照字典语义顺序拉伸成向量形式,并将这些向量按列堆叠,得到对应输入源图像的向量化数据矩阵XA和XB,其中:
进一步地,步骤(2)包括以下步骤:
(2a)分别提取待融合红外图像与可见光图像的每个像素点的强度值、边缘、纹理特征,构成对应像素点的特征向量,然后再计算每个图像块的特征向量,其中:
每个图像块的特征向量等于该图像块中所有像素点特征向量的平均值;
(2b)基于图论的思想,将输入的整幅图像看作图论的图,将划分的图像块看作是图的节点,相邻图像块之间的特征相似性作为图的边权重。利用基于图的分割算法,将空间相邻且特征相似的图像块进行合并,通过设置多个不同的合并阈值,可以得到源图像的由粗糙至精细的分割结果,即构建得到的分层树形结构。
进一步地,步骤(3)包括以下步骤:
(3a)利用基于结构矩阵分解的图像显著性检测算法对输入的红外图像与可见光图像执行显著性检测,分别得到对应图像的显著图。在显著图中能够显示出显著目标的位置,并且显著图中像素值高的区域即为显著目标区域;
(3b)将步骤(1b)的图像块划分结果映射在显著图中,计算显著图中每个图像块所有像素点显著值的平均值,作为该图像块的显著值,并用该值作为图像块的前景概率,记作pFG(i);图像块的显著值越大,则其背景概率越小,设置一个概率阈值Th,pFG(i)小于该阈值的图像块作为背景图像块;
(3c)将得到的背景图像块作为字典学习的训练集,采用k-均值聚类算法对背景图像块进行聚类,再对属于每一类的聚类结果使用PCA算法,获取其中最主要的一部分主成分分量作为字典原子,学习得到一个子字典,最后将所有子字典加以综合,得到最终的背景字典D。
进一步地,步骤(4)包括以下步骤:
(4a)构建一种新的分层联合低秩表示模型,其表达式如下:
X∈Rn×N代表一幅输入图像的图像块数据矩阵;
D∈Rn×K代表所构建的背景字典;
Z∈RK×N为求解得到的联合低秩表示系数矩阵;
E∈Rn×N为代表着图像显著部分的稀疏重构误差系数矩阵;
参数λ>0以及β>0作为平衡因子,用来平衡模型中的三项所占的权重;
矩阵Q代表图像的对比度先验信息;
约束项Tr(ETQ)表示矩阵ETQ的迹,通过对E施加此约束,使得分解得到的E部分(显著部分)更加紧凑,能够包含完整的目标区域,并减少信息丢失;
更进一步地,矩阵Q的计算过程如下:
计算图像向量化矩阵X的每一列的均值,表示对应位置处图像块的灰度均值,如此得到所有图像块的灰度均值向量;
对某一图像块i,计算该图像块的像素灰度均值与其他图像块的像素灰度均值之差,并将所有差值的绝对值相加,结果作为该图像块的对比度先验q(i),q(i)公式表示为:
N为图像块个数;
mean(X(:,i))表示计算矩阵X的第i列的均值;
考虑到矩阵相乘的规则,对图像块灰度均值向量q∈RN扩展成矩阵Q∈Rn×N,维度与矩阵E相同。
进一步地,步骤(5)包括以下步骤:
待融合红外图像与可见光图像的第j个对应位置处的图像块融合后的低秩表示系数ZF(:,j)计算为:
ωA和ωB均为向量,其中各元素代表两幅图像的对应位置图像块的融合权重值。对于两幅输入图像的第j个图像块而言,融合权重ωA(j)与ωB(j)分别计算为:
其中,E(·)表示计算当前图像块区域的能量,具体计算为图像块数据向量所有元素的平方和;
(5c)结合背景字典,得到融合后的图像块数据矩阵XF,具体融合方式为:XF=DZF+EF;
(5d)利用得到的数据矩阵XF,按照类似于划分图像块的逆操作,重构出粗融合图像IF。
进一步地,步骤(6)包括以下步骤:
IF代表进行引导滤波的粗融合图像;
IG代表引导图像,这里选择将输入的两幅源图像的简单像素平均融合结果作为引导图像,即:IG=(IA+IB)/2;
参数r用来控制滤波半径;参数θ用来控制滤波的程度;
有益效果:本发明公开的基于显著性分析与低秩表示的红外与可见光图像融合方法与现有技术相比,具有以下有益效果:
(1)本发明在对图像进行块划分时,将源图像划分为无像素重叠的图像块,使得划分得到的图像块数量大大减少,从而降低了本发明的计算复杂度;
(2)本发明中构建输入源图像的分层树形结构,考虑了图像块的特征相似性,得到的树形结构能够反映出目标在图像中的全局显著特性。
(3)本发明中构建了一种分层联合低秩表示模型,利用此模型对输入源图像进行分解,能够有效提取出图像中的全局显著目标信息。
(4)本发明中通过简单的融合规则,能够有效地将提取出的显著信息综合在融合结果中,同时,减少了融合结果对比度的损失。并且利用引导滤波方法,有效缓解融合结果中的“块”效应,提升了融合结果的视觉效果。
附图说明
图1为本发明公开的基于显著性分析与低秩表示的红外与可见光图像融合方法的实现流程框图;
图2a~图2j为本发明公开的基于显著性分析与低秩表示的红外与可见光图像融合方法与现有技术的对比实验中用到的五组红外图像与可见光图像,图2a~图2e为红外图像,图2f~图2j为可见光图像;
图3a~图3l为本发明公开的基于显著性分析与低秩表示的红外与可见光图像融合方法与现有技术的实验对比图,其中:
图3a、图3b分别为输入的待融合红外图像与可见光图像,图3c-图3k分别为DWT,CVT,MSVD,GTF,CBF,TS,WLS,JSR,LatLRR方法的融合结果图,图3l为本发明公开的方法的融合结果图。
图4a~图4l为本发明公开的基于显著性分析与低秩表示的红外与可见光图像融合方法与现有技术的实验对比图,其中:
图4a、图4b分别为输入的待融合红外图像与可见光图像,图4c-图4k分别为DWT,CVT,MSVD,GTF,CBF,TS,WLS,JSR,LatLRR方法的融合结果图,图4l为本发明公开的方法的融合结果图。
具体实施方式:
下面对本发明的具体实施方式详细说明。
参照图1,基于显著性分析与低秩表示的红外与可见光图像融合方法,包括:
步骤(1)、分别对输入的待融合红外图像与可见光图像执行图像块的划分,并将获取的图像块按字典语义顺序拉伸成向量形式,然后将同一幅图像的所有图像块的向量按列堆叠,分别得到红外图像的图像块数据矩阵和可见光图像的图像块数据矩阵;
步骤(2)、对输入的两幅图像分别构建一个分层树形结构
利用基于图的图像分割算法,对步骤(1)中得到的待融合红外图像与可见光图像的图像块划分结果,分别按照其位置关系以及特征相似性进行不同程度的聚合,分别得到红外图像以及可见光图像在不同阈值下的由粗糙至精细的聚合结果,即构建得到两幅输入图像对应的分层树形结构;
步骤(3)、利用输入源图像,构建背景字典D;
步骤(4)、构建分层联合低秩表示模型,然后向该分层联合低秩表示模型输入步骤(1)得到的红外图像的图像块数据矩阵/可见光图像的图像块数据矩阵,以及步骤(2)得到的对应图像的分层树形结构,分别执行分层联合低秩表示,得到红外/可见光图像的低秩表示系数矩阵以及代表显著信息的稀疏重构误差系数矩阵;
步骤(5)、将步骤(4)计算得到的系数矩阵分别执行融合操作,得到融后的表示系数矩阵,然后利用融合后的表示系数矩阵重构出粗融合图像IF;
进一步地,步骤(1)包括如下步骤:
(1a)输入经过配准且大小相等的红外图像IA和可见光图像IB,其中,IA∈RH×W,IB∈RH×W,H和W分别表示源图像IA和IB的高度和宽度;
(1b)将输入图像划分为图像块
n为正整数;
(1c)将步骤(1b)得到的N个无像素重叠的子图像块按照字典语义顺序拉伸成向量形式,并将这些向量按列堆叠,得到对应输入源图像的向量化数据矩阵XA和XB,其中:
进一步地,步骤(2)包括以下步骤:
(2a)分别提取待融合红外图像与可见光图像的每个像素点的强度值、边缘、纹理特征,构成对应像素点的特征向量,然后再计算每个图像块的特征向量,其中:
每个图像块的特征向量等于该图像块中所有像素点特征向量的平均值;
(2b)基于图论的思想,将输入的整幅图像看作图论的图,将划分的图像块看作是图的节点,相邻图像块之间的特征相似性作为图的边权重。利用基于图的分割算法,将空间相邻且特征相似的图像块进行合并,通过设置多个不同的合并阈值,可以得到源图像的由粗糙至精细的分割结果,即构建得到的分层树形结构。
进一步地,步骤(3)包括以下步骤:
(3a)利用基于结构矩阵分解的图像显著性检测算法对输入的红外图像与可见光图像执行显著性检测,分别得到对应图像的显著图。在显著图中能够显示出显著目标的位置,并且显著图中像素值高的区域即为显著目标区域;
(3b)将步骤(1b)的图像块划分结果映射在显著图中,计算显著图中每个图像块所有像素点显著值的平均值,作为该图像块的显著值,并用该值作为图像块的前景概率,记作pFG(i);图像块的显著值越大,则其背景概率越小,设置一个概率阈值Th,pFG(i)小于该阈值的图像块作为背景图像块;
(3c)将得到的背景图像块作为字典学习的训练集,采用k-均值聚类算法对背景图像块进行聚类,再对属于每一类的聚类结果使用PCA算法,获取其中最主要的一部分主成分分量作为字典原子,学习得到一个子字典,最后将所有子字典加以综合,得到最终的背景字典D。
进一步地,步骤(4)包括以下步骤:
(4a)构建一种新的分层联合低秩表示模型,其表达式如下:
X∈Rn×N代表一幅输入图像的图像块数据矩阵;
D∈Rn×K代表所构建的背景字典;
Z∈RK×N为求解得到的联合低秩表示系数矩阵;
E∈Rn×N为代表着图像显著部分的稀疏重构误差系数矩阵;
参数λ>0以及β>0作为平衡因子,用来平衡模型中的三项所占的权重;
矩阵Q代表图像的对比度先验信息;
约束项Tr(ETQ)表示矩阵ETQ的迹,通过对E施加此约束,使得分解得到的E部分(显著部分)更加紧凑,能够包含完整的目标区域,并减少信息丢失;
更进一步地,矩阵Q的计算过程如下:
计算图像向量化矩阵X的每一列的均值,表示对应位置处图像块的灰度均值,如此得到所有图像块的灰度均值向量;
对某一图像块i,计算该图像块的像素灰度均值与其他图像块的像素灰度均值之差,并将所有差值的绝对值相加,结果作为该图像块的对比度先验q(i),q(i)公式表示为:
N为图像块个数;
mean(X(:,i))表示计算矩阵X的第i列的均值;
考虑到矩阵相乘的规则,对图像块灰度均值向量q∈RN扩展成矩阵Q∈Rn×N,维度与矩阵E相同。
进一步地,步骤(5)包括以下步骤:
待融合红外图像与可见光图像的第j个对应位置处的图像块融合后的低秩表示系数ZF(:,j)计算为:
ωA和ωB均为向量,其中各元素代表两幅图像的对应位置图像块的融合权重值。对于两幅输入图像的第j个图像块而言,融合权重ωA(j)与ωB(j)分别计算为:
其中,E(·)表示计算当前图像块区域的能量,具体计算为图像块数据向量所有元素的平方和;
(5c)结合背景字典,得到融合后的图像块数据矩阵XF,具体融合方式为:XF=DZF+EF;
(5d)利用得到的数据矩阵XF,按照类似于划分图像块的逆操作,重构出粗融合图像IF。
进一步地,步骤(6)包括以下步骤:
IF代表进行引导滤波的粗融合图像;
IG代表引导图像,这里选择将输入的两幅源图像的简单像素平均融合结果作为引导图像,即:IG=(IA+IB)/2;
参数r用来控制滤波半径;参数θ用来控制滤波的程度;
下面结合仿真实验,对本发明公开的基于显著性分析与低秩表示的红外与可见光图像融合方法的技术效果做进一步详细的分析。
一、实验条件
实验硬件平台为:台式机;CPU为Intel Core i5-2320,主频3.00GHz;内存大小为8G;软件平台为:电脑操作系统为Windows 7旗舰版64位,MATLAB软件版本为R2017a。
二、实验内容
实验1:
使用本发明公开的基于显著性分析与低秩表示的红外与可见光图像融合方法与现有的几种方法对同一组源图像进行融合。图3a~图3l、图4a~图4l例举了两组红外与可见光图像的融合结果,这里用白色方框在结果图中标记出源图像的目标信息。对比这些方法得到的结果图,可以发现本发明相比于现有技术,能够得到更高质量的融合结果,输入源图像中的全局显著目标能够完整准确地保留在融合结果中,并且融合图像整体对比度高,视觉效果更好。
实验2:
使用本发明与现有技术对5组源图像(图2a~图2j)进行融合,并用平均梯度(QAG)、信息熵(En)、归一化互信息(NMI)、Piella’smetric(QS)、基于结构相似性的度量指标(QY)和视觉信息保真度度量(VIFF)六种客观评价指标对融合图像进行客观评价,六种客观评价指标的值越大代表融合图像的质量越高。实验结果如表1所示。
表1.本发明与现有技术融合结果的客观对比
注:黑体加粗表示该列数据的最高值,斜体加粗表示该列数据的次高值。
从表1中可以发现本发明获得的融合图像的QAG、En、QS、QY、VIFF这5个指标均高于测试的这几种现有技术,特别是VIFF指标值明显高于其他方法,而NMI指标值也仅次于JSR方法。从而进一步表明了本发明能够得到更高质量的融合结果,特别是能够凸显源图像的显著目标信息,融合结果视觉保真度好,也即融合图像的人眼视觉效果好。
上面对本发明的实施方式做了详细说明。但是本发明并不限于上述实施方式,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (8)
1.基于显著性分析与低秩表示的红外与可见光图像融合方法,其特征在于,包括:
步骤(1)、分别对输入的待融合红外图像与可见光图像执行图像块的划分,并将获取的图像块按字典语义顺序拉伸成向量形式,然后将同一幅图像的所有图像块的向量按列堆叠,分别得到红外图像的图像块数据矩阵和可见光图像的图像块数据矩阵;
步骤(2)、对输入的两幅图像分别构建一个分层树形结构
利用基于图的图像分割算法,对步骤(1)中得到的待融合红外图像与可见光图像的图像块划分结果,分别按照其位置关系以及特征相似性进行不同程度的聚合,分别得到红外图像以及可见光图像在不同阈值下的由粗糙至精细的聚合结果,即构建得到两幅输入图像对应的分层树形结构;
步骤(3)、利用输入源图像,构建背景字典D;
步骤(4)、构建分层联合低秩表示模型,然后向该分层联合低秩表示模型输入步骤(1)得到的红外图像的图像块数据矩阵以及可见光图像的图像块数据矩阵,以及步骤(2)得到的对应图像的分层树形结构,分别执行分层联合低秩表示,得到红外图像的低秩表示系数矩阵以及可见光图像的低秩表示系数矩阵以及代表显著信息的稀疏重构误差系数矩阵;
步骤(5)、将步骤(4)计算得到的系数矩阵分别执行融合操作,得到融合后的表示系数矩阵,然后利用融合后的表示系数矩阵重构出粗融合图像IF;
步骤(6)、利用引导滤波算法对步骤(5)得到的粗融合结果IF进行进一步处理,得到最终的融合图像IF *。
2.如权利要求1所述的基于显著性分析与低秩表示的红外与可见光图像融合方法,其特征在于,步骤(1)包括如下步骤:
(1a)输入经过配准且大小相等的红外图像IA和可见光图像IB,其中,IA∈RH×W,IB∈RH×W,H和W分别表示源图像IA和IB的高度和宽度;
(1b)将输入图像划分为图像块
n为正整数;
(1c)将步骤(1b)得到的N个无像素重叠的子图像块按照字典语义顺序拉伸成向量形式,并将这些向量按列堆叠,得到对应输入源图像的向量化数据矩阵XA和XB,其中:
3.如权利要求1所述的基于显著性分析与低秩表示的红外与可见光图像融合方法,其特征在于,步骤(2)包括以下步骤:
(2a)分别提取待融合红外图像与可见光图像的每个像素点的强度值、边缘、纹理特征,构成对应像素点的特征向量,然后再计算每个图像块的特征向量,其中:
每个图像块的特征向量等于该图像块中所有像素点特征向量的平均值;
(2b)基于图论的思想,将输入的整幅图像看作图论的图,将划分的图像块看作是图的节点,相邻图像块之间的特征相似性作为图的边权重,利用基于图的分割算法,将空间相邻且特征相似的图像块进行合并,通过设置多个不同的合并阈值,可以得到源图像的由粗糙至精细的分割结果,即构建得到的分层树形结构。
4.如权利要求2所述的基于显著性分析与低秩表示的红外与可见光图像融合方法,其特征在于,步骤(3)包括以下步骤:
(3a)利用基于结构矩阵分解的图像显著性检测算法对输入的红外图像与可见光图像执行显著性检测,分别得到对应图像的显著图,在显著图中能够显示出显著目标的位置,并且显著图中像素值高的区域即为显著目标区域;
(3b)将步骤(1b)的图像块划分结果映射在显著图中,计算显著图中每个图像块所有像素点显著值的平均值,作为该图像块的显著值,并用该值作为图像块的前景概率,记作pFG(i);图像块的显著值越大,则其背景概率越小,设置一个概率阈值Th,pFG(i)小于该阈值的图像块作为背景图像块;
(3c)将得到的背景图像块作为字典学习的训练集,采用k-均值聚类算法对背景图像块进行聚类,再对属于每一类的聚类结果使用PCA算法,获取其中最主要的一部分主成分分量作为字典原子,学习得到一个子字典,最后将所有子字典加以综合,得到最终的背景字典D。
5.如权利要求1所述的基于显著性分析与低秩表示的红外与可见光图像融合方法,其特征在于,步骤(4)包括以下步骤:
(4a)构建一种新的分层联合低秩表示模型,其表达式如下:
X∈Rn×N代表一幅输入图像的图像块数据矩阵;
D∈Rn×K代表所构建的背景字典;
Z∈RK×N为求解得到的联合低秩表示系数矩阵;
E∈Rn×N为代表着图像显著部分的稀疏重构误差系数矩阵;
参数λ>0以及β>0作为平衡因子,用来平衡模型中的三项所占的权重;
矩阵Q代表图像的对比度先验信息;
约束项Tr(ETQ)表示矩阵ETQ的迹,通过对E施加此约束,使得分解得到的E部分更加紧凑,能够包含完整的目标区域,并减少信息丢失;
7.如权利要求1所述的基于显著性分析与低秩表示的红外与可见光图像融合方法,其特征在于,步骤(5)包括以下步骤:
待融合红外图像与可见光图像的第j个对应位置处的图像块融合后的低秩表示系数ZF(:,j)计算为:
ωA和ωB均为向量,其中各元素代表两幅图像的对应位置图像块的融合权重值,对于两幅输入图像的第j个图像块而言,融合权重ωA(j)与ωB(j)分别计算为:
其中,E(·)表示计算当前图像块区域的能量,具体计算为图像块数据向量所有元素的平方和;
(5c)结合背景字典,得到融合后的图像块数据矩阵XF,具体融合方式为:XF=DZF+EF;
(5d)利用得到的数据矩阵XF,按照类似于划分图像块的逆操作,重构出粗融合图像IF。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910397498.2A CN110148104B (zh) | 2019-05-14 | 2019-05-14 | 基于显著性分析与低秩表示的红外与可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910397498.2A CN110148104B (zh) | 2019-05-14 | 2019-05-14 | 基于显著性分析与低秩表示的红外与可见光图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110148104A CN110148104A (zh) | 2019-08-20 |
CN110148104B true CN110148104B (zh) | 2023-04-25 |
Family
ID=67594238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910397498.2A Active CN110148104B (zh) | 2019-05-14 | 2019-05-14 | 基于显著性分析与低秩表示的红外与可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110148104B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110827231A (zh) * | 2019-09-19 | 2020-02-21 | 北京航空航天大学 | 一种显著性驱动下的主动学习多源图像融合方法 |
CN111062905B (zh) * | 2019-12-17 | 2022-01-04 | 大连理工大学 | 一种基于显著图增强的红外和可见光融合方法 |
CN111652243B (zh) * | 2020-04-26 | 2022-09-30 | 中国人民解放军火箭军工程大学 | 基于显著性融合的红外与可见光图像融合方法 |
CN111652832B (zh) * | 2020-07-09 | 2023-05-12 | 南昌航空大学 | 一种基于滑动窗口技术的红外与可见光图像融合方法 |
CN111986132A (zh) * | 2020-08-12 | 2020-11-24 | 兰州交通大学 | 一种基于DLatLRR与VGG·Net的红外与可见光图像融合方法 |
CN112132753B (zh) * | 2020-11-06 | 2022-04-05 | 湖南大学 | 多尺度结构引导图像的红外图像超分辨率方法及系统 |
CN112465737B (zh) * | 2020-12-07 | 2023-11-07 | 中国工商银行股份有限公司 | 图像处理模型训练方法、图像处理方法及图像处理装置 |
CN112950518B (zh) * | 2021-03-19 | 2022-10-04 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示嵌套滚动引导图像滤波的图像融合方法 |
CN113362281B (zh) * | 2021-05-17 | 2024-02-06 | 杭州电子科技大学 | 基于WSN-LatLRR的红外和可见光图像融合方法 |
CN113192049B (zh) * | 2021-05-17 | 2024-02-06 | 杭州电子科技大学 | 基于LatLRR和Retinex增强的可见光和红外图像融合方法 |
CN114581354B (zh) * | 2022-03-31 | 2023-04-18 | 昆明理工大学 | 一种采用特征相似性分析和多卷积稀疏表示的矿山掘进巷道顶板变形图像融合方法 |
CN114926719B (zh) * | 2022-05-26 | 2024-06-14 | 大连理工大学 | 一种基于超图低秩表示的复杂动态系统感知特征融合方法 |
CN115620030B (zh) * | 2022-12-06 | 2023-04-18 | 浙江正泰智维能源服务有限公司 | 一种图像匹配方法、装置、设备、介质 |
CN117011196B (zh) * | 2023-08-10 | 2024-04-19 | 哈尔滨工业大学 | 一种基于组合滤波优化的红外小目标检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510465A (zh) * | 2018-01-30 | 2018-09-07 | 西安电子科技大学 | 基于一致性约束非负稀疏表示的多聚焦图像融合方法 |
CN108596866A (zh) * | 2018-03-21 | 2018-09-28 | 昆明理工大学 | 一种基于稀疏低秩分解和视觉显著性结合的医学图像融合方法 |
CN109035188A (zh) * | 2018-07-16 | 2018-12-18 | 西北工业大学 | 一种基于目标特征驱动的智能图像融合方法 |
CN109242813A (zh) * | 2018-09-11 | 2019-01-18 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示与nsst的图像融合方法及装置 |
CN109345494A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示和结构张量的图像融合方法及装置 |
-
2019
- 2019-05-14 CN CN201910397498.2A patent/CN110148104B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510465A (zh) * | 2018-01-30 | 2018-09-07 | 西安电子科技大学 | 基于一致性约束非负稀疏表示的多聚焦图像融合方法 |
CN108596866A (zh) * | 2018-03-21 | 2018-09-28 | 昆明理工大学 | 一种基于稀疏低秩分解和视觉显著性结合的医学图像融合方法 |
CN109035188A (zh) * | 2018-07-16 | 2018-12-18 | 西北工业大学 | 一种基于目标特征驱动的智能图像融合方法 |
CN109242813A (zh) * | 2018-09-11 | 2019-01-18 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示与nsst的图像融合方法及装置 |
CN109345494A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示和结构张量的图像融合方法及装置 |
Non-Patent Citations (3)
Title |
---|
Infrared and visible image fusion using Latent Low-Rank Representation;Hui Li et al.;《arxiv.org》;20180424;全文 * |
Sparse representation based multi-sensor image fusion for multi-focus and multi-modality images:A review;Qiang Zhang et al.;《Information Fusion》;20180331;全文 * |
基于稀疏表示模型的显著目标检测;张萌 等;《福州大学学报(自然科学版)》;20190402;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110148104A (zh) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110148104B (zh) | 基于显著性分析与低秩表示的红外与可见光图像融合方法 | |
Chen et al. | Deep feature learning for medical image analysis with convolutional autoencoder neural network | |
Tang et al. | Pixel convolutional neural network for multi-focus image fusion | |
CN105224942B (zh) | 一种rgb-d图像分类方法及系统 | |
Narihira et al. | Learning lightness from human judgement on relative reflectance | |
Esmaeili et al. | Fast-at: Fast automatic thumbnail generation using deep neural networks | |
CN103136516B (zh) | 可见光与近红外信息融合的人脸识别方法及系统 | |
CN108090472B (zh) | 基于多通道一致性特征的行人重识别方法及其系统 | |
CN103366180A (zh) | 一种基于自动特征学习的细胞图像分割方法 | |
CN111738265B (zh) | Rgb-d图像的语义分割方法、系统、介质及电子设备 | |
CN105512674B (zh) | 基于密集匹配子自适应相似性度量的rgb-d物体识别方法和装置 | |
CN111046868B (zh) | 基于矩阵低秩稀疏分解的目标显著性检测方法 | |
CN108389189B (zh) | 基于字典学习的立体图像质量评价方法 | |
Li et al. | Patch alignment manifold matting | |
Suo et al. | Group structured dirty dictionary learning for classification | |
Song et al. | 1000fps human segmentation with deep convolutional neural networks | |
CN112686830B (zh) | 基于图像分解的单一深度图的超分辨率方法 | |
Qu et al. | Non-local representation based mutual affine-transfer network for photorealistic stylization | |
Zuo et al. | Gradient-guided single image super-resolution based on joint trilateral feature filtering | |
Zhou et al. | Personalized and occupational-aware age progression by generative adversarial networks | |
Wang et al. | Face hallucination using multisource references and cross‐scale dual residual fusion mechanism | |
CN110097530A (zh) | 基于超像素聚类与联合低秩表示的多聚焦图像融合方法 | |
CN112232147B (zh) | 用于人脸模型超参数自适应获取的方法、装置和系统 | |
Pakulich et al. | Age recognition from facial images using convolutional neural networks | |
CN116310452B (zh) | 一种多视图聚类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |