CN111429389A - 一种保持光谱特性的可见光和近红外图像融合方法 - Google Patents
一种保持光谱特性的可见光和近红外图像融合方法 Download PDFInfo
- Publication number
- CN111429389A CN111429389A CN202010131014.2A CN202010131014A CN111429389A CN 111429389 A CN111429389 A CN 111429389A CN 202010131014 A CN202010131014 A CN 202010131014A CN 111429389 A CN111429389 A CN 111429389A
- Authority
- CN
- China
- Prior art keywords
- layer
- visible light
- band
- texture
- near infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003595 spectral effect Effects 0.000 title claims abstract description 26
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 14
- 230000004927 fusion Effects 0.000 claims abstract description 63
- 230000005540 biological transmission Effects 0.000 claims abstract description 35
- 238000001914 filtration Methods 0.000 claims abstract description 35
- 238000000149 argon plasma sintering Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 22
- 238000010586 diagram Methods 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000000694 effects Effects 0.000 claims description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000000903 blocking effect Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000000701 chemical imaging Methods 0.000 claims description 2
- 238000002329 infrared spectrum Methods 0.000 abstract description 11
- 238000001228 spectrum Methods 0.000 abstract description 8
- 125000001475 halogen functional group Chemical group 0.000 abstract description 5
- 238000005286 illumination Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- DRAFVCKNYNQOKR-GFCCVEGCSA-N (1-methoxycarbonylcyclopropyl) 3-[(1r)-1-phenylethyl]imidazole-4-carboxylate Chemical compound C=1N=CN([C@H](C)C=2C=CC=CC=2)C=1C(=O)OC1(C(=O)OC)CC1 DRAFVCKNYNQOKR-GFCCVEGCSA-N 0.000 description 1
- 238000004497 NIR spectroscopy Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003333 near-infrared imaging Methods 0.000 description 1
- 239000013618 particulate matter Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种保持光谱特性的可见光和近红外图像融合方法。首先,提出基于可见光和近红外光谱反射特性差异的反射权重模型,该模型考虑了物体表观颜色与可见光光谱反射特性的关系,以及可见光与近红外光谱反射特性的差异,避免近红外光谱干扰可见光光谱的反射特性,实现了融合图像的颜色真实自然。其次,逐层由引导滤波和高斯低通滤波获取纹理层和轮廓层,以及相应的基本层,并计算纹理层和轮廓层的梯度图,得出透射权重模型,利用近红外光谱透射特性弥补可见光散射丢失的信息,并且有效解决融合后的边缘光晕伪影现象。最后,由反射权重和透射权重逐像素点相乘,得出最终的纹理层和轮廓层的融合权重,并对可见光和近红外图像进行逐层融合,得到清晰、颜色自然的融合图像。
Description
技术领域
本发明涉及一种图像融合方法,尤其涉及一种保持光谱特性的可见光和近红外图像融合方法,属于图像视频处理领域。
背景技术
图像融合是将来源于同一场景,且具有不同特征的两幅或多幅图像通过某种方法提取每幅图像中应用所需的互补信息,最终融合成一副清晰、能够准确地表达场景信息的图像。近年来图像融合技术越来越发展为一个研究热点,作为能够提供高质量图像的图像增强技术,在安防监控、军事、医学图像等方面均得到了广泛的应用。
而由于近红外成像传感器和可见光能够共用,无需增加其他传感器(如热红外图像),所以可见光和近红外双光谱成像装置较简洁且低价,故可见光和近红外图像融合技术作为新兴的方向迅速发展。
但由于可见光和近红外光谱的波长相差较大,两种光谱具有的物理特性(反射特性和透射特性)差异显著。在土壤、潮湿地面等的植被覆盖区域,近红外光谱反射率高于可见光;在云、水、雪等区域,可见光谱反射率高于近红外;而在岩石或裸土等区域,两者近似相等。除反射特性以外,当大气中存在雾霾等小颗粒物质时,可见光往往会发生严重的散射效应,低透射率使得成像模糊,相比较来说,近红外光谱此时能够有较好的透射率,从而有较为清晰的图像。但同时,当在雾霾、光照不足以及光照不均等恶劣成像条件下,成像过程中的不同的光谱特性导致所成的图像表观特征不一致,给融合带来了巨大的挑战。在同一场景中,可见光图像具有人眼视觉自然的颜色信息,而近红外图像在恶劣天候下能够清晰成像,因此要得到一副颜色自然且场景清晰度较高的图像,我们就要进行两者融合,充分利用两者的互补信息,使得我们可以准确地对场景进行感知。
目前,传统的方法主要是基于灰度图像的多尺度变换融合,如:金字塔变换,小波变换,轮廓波变换和非下采样轮廓波变换(NSCT)等,这些方法将源图像分解为多个尺度的图像,并对每个尺度设计融合规则进行融合,最后再进行反变换得最终融合图像,这样只进行了多分辨率分析,没有对源图像进行成像光谱特性分析,而且采用简单、一致的融合规则,丢失了
可见光图像的颜色信息,而且场景纹理边缘也较容易出现光晕伪影现象,导致融合图像失真。
随后,有人提出了基于颜色空间转换的彩色融合,相比于灰度图像融合,彩色融合先对可见光的RGB颜色空间进行转换,如:HSV,HSI,Lab等的将颜色和亮度信息区分的颜色空间,然后仅在亮度通道实现融合,最后将融合的亮度信息和颜色信息转换到RGB颜色空间。虽然这种方法能够保留可见光的颜色信息,但由于近红外光谱反射特性较可见光的差异较大,近红外图像不能近似为可见光的亮度通道图像,最终的融合的彩色图像会出现较大的颜色扭曲失真现象,并且在边缘区域较易发生光晕伪影,使得融合图像的视觉效果不自然,失去真实感。因此,想要获得自然清晰的可见光和近红外融合图像,必须要考虑到两种光谱在成像过程的光谱特性差异,实现信息互补且准确。
发明内容
根据本发明的一个方面,提供了一种保持光谱特性的可见光和近红外图像融合方法,其特征在于包括如下步骤:
步骤(1):针对可见光和近红外图像的成像过程,利用Retinex模型分解,分别得到可见光三波段的反射图和近红外波段的反射图,利用植被覆盖率指数的计算方法,将可见光三波段反射图与近红外波段反射图分别相减,并进行归一化处理,得到可见光三波段用于融合的反射权重模型,
步骤(2):对于可见光三波段反射图和近红外波段反射图,通过引导滤波得到可见光三波段和近红外波段反射图的纹理基本层,将原始反射图与纹理基本层相除,得到纹理层,纹理基本层由高斯低通滤波得到轮廓基本层,再将纹理基本层与轮廓基本层相除,得到轮廓层,
步骤(3):分别计算B步骤中的纹理层和轮廓层的梯度图,并生成可见光三波段与近红外波段在纹理层和轮廓层的梯度比,得到可见光三波段用于融合的纹理层和轮廓层的透射权重模型,
步骤(4):将步骤B的反射权重模型和步骤D的投射权重模型相乘,生成可见光三波段的纹理层和轮廓层的最终融合权重,并计算得出近红外波段相应的最终融合权重,
步骤(5):针对纹理层和轮廓层,根据E步骤的最终融合权重将可见光三波段和近红外波段分别融合,得到融合后的可见光三波段的纹理层和轮廓层,计算融合后的可见光三波段轮廓层和可见光三波段的轮廓基本层的乘积,得到融合后的可见光三波段的纹理基本层,并与融合后的可见光三波段的纹理层相乘,得到最终的可见光三波段的融合图像,
其中:
在所述步骤(1)中,利用可见光三波段和近红外波段的反射特性差异,并利用以下公式计算反射权重模型:
式中Rc和Rn分别代表可见光三波段和近红外波段由Retinex分解得到的的反射图,wrc为利用植被覆盖率指数得到的初始反射权重模型,Wrc为归一化后的反射权重模型,
在所述步骤(2)中,利用引导滤波和高斯低通滤波逐层分解得到纹理基本层和轮廓基本层,并以下公式计算可见光三波段和近红外波段的纹理层和轮廓层:
在所述步骤(3)中,借助于雾天下近红外波段的透射率高的特性,利用近红外波段弥补可见光波段由于散射丢失的信息,在纹理层和轮廓层,分别利用公式计算可见光三波段和近红外波段的分块梯度比,并得到纹理层和轮廓层的透射权重模型,
附图说明
图1为根据本发明的一个实施例的基于光谱特性保持的可见光与近红外图像融合方法的流程图;
图2为可见光和近红外波段的反射对比示例图;
图3为根据本发明的纹理和轮廓层以及相应的基本层示例图;
图4-图5为根据本发明的基于光谱特性保持的可见光与近红外图像融合方法的主观结果示例图;
图6为本发明提出的可见光和近红外图像融合算法的客观结果示例图。
具体实施方式
为了克服现有可见光和近红外图像融合技术在彩色融合过程中存在的颜色扭曲,边缘光晕伪影等的视觉效果不自然问题。本实施案例提出了一种保持光谱特性的可见光与近红外图像融合方法,该方法针对传统的可见光和近红外图像融合方法不足,光谱的成像过程,对不同的光谱特性进行分析,设计具有光谱反射和透射特性的融合权重模型,根据不同的成像阶段的光谱特性采用不同的策略进行融合。
首先,提出基于可见光和近红外光谱反射特性差异的反射权重模型,在该模型中考虑了物体表观颜色与光谱反射特性的联系,同时分析总结可见光与近红外光谱反射特性的差异规律,避免在融合过程中近红外光谱反射特性对可见光光谱反射特性的干扰,通过对可见光光谱反射特性的保持实现了融合图像的颜色真实自然。
其次,考虑到在雾霾等的恶劣成像条件下,可见光和近红外光在大气传输过程中透射特性不同,导致图像中的纹理结构差异大。先由引导滤波获取纹理层及纹理基本层,再经高斯低通滤波得到轮廓层及轮廓基本层。最后分别计算纹理层和轮廓层的梯度图,得出透射权重模型,能够利用近红外光谱透射特性弥补可见光散射丢失的信息,并且有效解决融合后由于纹理结构差异大导致的边缘光晕伪影现象。
然后,由反射权重和透射权重逐像素点相乘,得出最终的纹理层和轮廓层的融合权重,并依据最终的融合权重对可见光和近红外图像进行逐层融合,最后合并基本层,得到清晰、颜色自然的融合图像。
根据本发明的一个实施例的保持光谱特性的可见光和近红外图像融合方法包括:
步骤(1):针对可见光和近红外图像的成像过程,通过Retinex模型去除光照的影响,分别得到可见光三波段的反射图和近红外波段的反射图。利用植被覆盖率指数的计算方法,将可见光三波段反射图与近红外波段反射图分别相减,并进行归一化处理,得到可见光三波段用于融合的反射权重模型;
步骤(2):对于可见光三波段反射图和近红外波段反射图,通过引导滤波得到可见光三波段和近红外波段反射图的纹理基本层,将原始反射图与纹理基本层相除,得到纹理层。再经由高斯低通滤波得到纹理基本层的轮廓基本层,再次将纹理基本层与轮廓基本层相除,得到轮廓层;
步骤(3):分别计算C步骤中的纹理层和轮廓层的梯度图,并生成可见光三波段与近红外波段在纹理层和轮廓层的梯度比,得到可见光三波段用于融合的纹理层和轮廓层的透射权重模型;
步骤(4):将步骤B的反射权重模型和步骤D的投射权重模型相乘,生成可见光三波段的纹理层和轮廓层的最终融合权重,并计算得出近红外波段相应的最终融合权重;
步骤(5):针对纹理层和轮廓层,根据E步骤的最终融合权重将可见光三波段和近红外波段分别融合,得到融合后的可见光三波段的纹理层和轮廓层。计算融合后的可见光三波段轮廓层与分解得到轮廓基本层的乘积,得到融合后的可见光三波段的纹理基本层,并与融合后的可见光三波段的纹理层相乘,得到最终的可见光三波段的融合图像。
根据本发明的一个进一步的实施例,在上述步骤(1)中,利用可见光三波段和近红外波段的反射特性差异,并利用以下公式计算反射权重模型:
式中Rc代表可见光三波段的反射图,Rn代表近红外波段的反射图,wrc为利用植被覆盖率指数得到的初始反射权重模型,Wrc为归一化后的反射权重模型。
根据本发明的一个进一步的实施例,在上述步骤(2)中,利用引导滤波和高斯低通滤波逐层得到纹理基本层和轮廓基本层,并以下公式计算可见光三波段和近红外波段的纹理层和轮廓层:
根据本发明的一个进一步的实施例,在上述步骤(3)中,在纹理层和轮廓层,分别利用公式计算可见光三波段和近红外波段的分块梯度比,并得到纹理层和轮廓层的透射权重模型。
根据本发明的一个进一步的实施例,在上述步骤(3)中,通过引导滤波的方式,消除了初始透射权重的块效应,得到最终的透射权重模型。
根据本发明的一个进一步的实施例,在上述步骤(4)中,基于光谱反射和透射特性在成像过程的关系,利用反射权重与透射权重的乘积作为纹理层和轮廓层的最终融合权重。
根据本发明的一个进一步的实施例,在上述步骤(5)中,首先计算融合后的轮廓层与轮廓基本层的乘积作为融合后的纹理基本层,其次计算融合后的纹理层与融合后的纹理基本层的乘积,得到最终的融合的图像。
根据本发明的一个进一步的实施例,在上述步骤(5)中,利用区域中可见光与近红外的光谱反射特性差异与该区域的散射效应的关系,考虑融合近红外波段信息的程度。当近红外波段的反射高于可见光时,该区域成像清晰;相反,该区域为云,雾等可见光散射强烈的区域,成像清晰度较低。
综上所述,本发明提出了一种保持光谱特性的可见光和近红外图像融合方法。该方法与当前主流方法相比,可以较好地提高融合图像颜色的自然度和清晰度,并且可以应用于实际的融合中。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,根据本发明的一个实施例的保持光谱特性的可见光和近红外图像融合方法,具体步骤包括:
(1)反射权重求解
首先近红外波段和可见光三波段的反射特性有很大差异,根据植被覆盖率指数,可以得知在雾气、天空和水等可见光易发生散射效应的区域,近红外波段的反射率小于可见光三波段,而在植被覆盖、裸土等的不易发生散射效应的区域,近红外波段的反射率高于或近似于可见光三波段。
如图2所示,(a)-(c)表示同一场景的可见光三波段的反射图,(b)表示近红外波段的反射图,可以发现在植被、树木等的区域,近红外图像的灰度值远远大于可见光三波段,而在其他区域,则小于等于可见光三波段。
其次,物体的颜色由光照和可见光三波段的反射特性决定,当光源一致时,则物体的颜色依赖于可见光三波段的反射特性。故传统方法导致的颜色的扭曲,来自于可见光三波段的反射特性被改变。有研究证实,用近红外波段代替可见光图像的三波段中的任一波段的图像,会发生颜色的失真。基于以上分析,不仅需要在可见光发生散射的情况时,自适应融入更多近红外的信息,还需要在融入近红外波段信息的同时保持可见光三波段的反射特性,避免在融合过程中可见光三波段的反射特性的改变,从而保持颜色的自然。为此本发明利用植被覆盖率指数(NDVI)设计反射权重模型,如图1的步骤(1)可以通过下式求解:
式中Rc和Rn分别代表可见光三波段和近红外波段由Retinex分解得到的的反射图,c∈{r,g,b}代表可见光三波段,n则代表近红外波段,wrc为可见光三波段的初始反射权重模型,Wrc为归一化后的反射权重模型,范围在[0,1]之间。
(2)基于引导滤波和高斯低通滤波的逐层分解
图像中的边缘纹理在融合过程中,若仅用高斯滤波,得到的融合结果易发生光晕伪影。本发明利用引导滤波和高斯低通滤波逐层分解,得到纹理层和轮廓层,如图3包括了纹理和轮廓层,以及相应的基本层。引导滤波对图像边缘的平滑程度小,能够得到图像的纹理基本层及相应的纹理层,在经过高斯低通滤波的处理,可以得到图像的轮廓基本层及轮廓层。利用如图1的步骤(2)的逐层分解的方式,计算图像的纹理基本层和轮廓基本层:
相应的纹理层和轮廓层,来自于原始图与纹理基本层的商和纹理基本层和轮廓基本层的商:
(3)透射权重求解
在得到纹理层和轮廓层后,本发明采用可见光三波段与近红外波段的梯度比作为透射权重。首先,若近红外在某一区域的纹理清晰度高于可见光,说明可见光发生了散射效应,相应的要突出近红外的信息;其次,当可见光的纹理清晰度优于近红外时,则应避免近红外波段信息的干扰。而在成像过程中,一个小邻域的透射率可以近似相等。基于上述原则,如图1的步骤(3)的透射权重的计算公式如下:
式中▽x(·)和▽y(·)代表图像的横纵的导数值,i=1代表纹理层,i=2代表轮廓层。为了消除小邻域的块效应,用引导滤波平滑初始透射权重如下:
(4)四波段的融合权重求解
在获得反射权重和透射权重模型后,如图1的步骤(4)依据光谱反射和透射特性的物理关系模型,依照下述公式计算最终的可见光融合权重:
在可见光三波段和近红外波段中,当可见光三波段的散射效应小、纹理清晰时,应保持可见光的信息;相反,则应借助近红外波段的较强的透射特性,但在融合的同时,应保持可见光三波段的反射特性。近红外波段的融合权重来自于全单位模矩阵与可见光三波段的融合权重的差值:
(5)细节层和轮廓层的逐层融合
如图1的步骤(5),由最终融合权重将可见光三波段和近红外波段分别逐层融合,先得到融合后的可见光三波段的纹理层和轮廓层,并计算融合后的可见光三波段轮廓层和可见光三波段的轮廓基本层的乘积,得到融合后的可见光三波段的,再与融合后的可见光三波段的纹理层相乘,得到最终的可见光三波段的融合图像。
为了验证本发明的有效性,将本发明与对比度保持映射融合(CPMM),比例图引导融合(VSM),引导滤波融合(GFF)等融合算法在两种类型的数据集上进行了对比,一种由于雾气导致可见光图像发生纹理丢失等降质现象,另一种则是由于光照不均匀使得可见光图像发生对比度失衡等降质现象。图4-5展示了对于在雾霾和光照不均等多种复杂成像环境下的可见光三波段图像,不同方法的融合前后的效果对比图。图6展示了上述融合算法,在平均梯度(AVG),视觉信息保真度(VIFF)和光谱扭曲度(SDI)下的客观结果。通过以上对比结果,可以看出本发明相对于其他融合算法,在近红外与可见光融合方面有明显的优势。通过本发明得到的融合图像,能够同时准确地保留可见光光谱中的反射信息以及近红外光谱中的透射信息,进而得到纹理清晰,颜色自然的融合图像。
以上公开的仅为本发明的具体实施例。根据本发明提供的技术思想,本领域的技术人员能思及的变化,都应落入本发明的保护范围内。
Claims (5)
1.一种保持光谱特性的可见光和近红外图像融合方法,其特征在于包括如下步骤:
步骤(1):针对可见光和近红外图像的成像过程,利用Retinex模型分解,分别得到可见光三波段的反射图和近红外波段的反射图,利用植被覆盖率指数的计算方法,将可见光三波段反射图与近红外波段反射图分别相减,并进行归一化处理,得到可见光三波段用于融合的反射权重模型,
步骤(2):对于可见光三波段反射图和近红外波段反射图,通过引导滤波得到可见光三波段和近红外波段反射图的纹理基本层,将原始反射图与纹理基本层相除,得到纹理层,纹理基本层由高斯低通滤波得到轮廓基本层,再将纹理基本层与轮廓基本层相除,得到轮廓层,
步骤(3):分别计算B步骤中的纹理层和轮廓层的梯度图,并生成可见光三波段与近红外波段在纹理层和轮廓层的梯度比,得到可见光三波段用于融合的纹理层和轮廓层的透射权重模型,
步骤(4):将步骤B的反射权重模型和步骤D的投射权重模型相乘,生成可见光三波段的纹理层和轮廓层的最终融合权重,并计算得出近红外波段相应的最终融合权重,
步骤(5):针对纹理层和轮廓层,根据E步骤的最终融合权重将可见光三波段和近红外波段分别融合,得到融合后的可见光三波段的纹理层和轮廓层,计算融合后的可见光三波段轮廓层和可见光三波段的轮廓基本层的乘积,得到融合后的可见光三波段的纹理基本层,并与融合后的可见光三波段的纹理层相乘,得到最终的可见光三波段的融合图像,
其中:
在所述步骤(1)中,利用可见光三波段和近红外波段的反射特性差异,并利用以下公式计算反射权重模型:
式中Rc和Rn分别代表可见光三波段和近红外波段由Retinex分解得到的的反射图,wrc为利用植被覆盖率指数得到的初始反射权重模型,Wrc为归一化后的反射权重模型,
在所述步骤(2)中,利用引导滤波和高斯低通滤波逐层分解得到纹理基本层和轮廓基本层,并以下公式计算可见光三波段和近红外波段的纹理层和轮廓层:
在所述步骤(3)中,借助于雾天下近红外波段的透射率高的特性,利用近红外波段弥补可见光波段由于散射丢失的信息,在纹理层和轮廓层,分别利用公式计算可见光三波段和近红外波段的分块梯度比,并得到纹理层和轮廓层的透射权重模型,
2.如权利要求1所述的保持光谱特性的可见光和近红外图像融合方法,其特征在于所述步骤(3)中,通过引导滤波的方式,消除了初始透射权重的块效应,得到最终的透射权重模型。
3.如权利要求1所述的保持光谱特性的可见光和近红外图像融合方法,其特征在于所述步骤(4)中,基于光谱反射和透射特性在光谱成像过程的相乘关系,利用反射权重与透射权重的乘积作为纹理层和轮廓层的最终融合权重。
4.如权利要求1所述的保持光谱特性的可见光和近红外图像融合方法,其特征在于所述步骤(5)中,首先计算融合后的轮廓层与轮廓基本层的乘积作为融合后的纹理基本层,其次计算融合后的纹理层与融合后的纹理基本层的乘积,得到最终的融合的图像。
5.如权利要求1所述的保持光谱特性的可见光和近红外图像融合方法,其特征在于所述步骤(5)中,利用区域中可见光与近红外的光谱反射特性差异与该区域的散射效应的关系,考虑融合近红外波段信息的程度,当近红外波段的反射高于可见光时,该区域成像清晰;相反,该区域为云,雾等可见光散射强烈的区域,成像清晰度较低。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010131014.2A CN111429389B (zh) | 2020-02-28 | 2020-02-28 | 一种保持光谱特性的可见光和近红外图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010131014.2A CN111429389B (zh) | 2020-02-28 | 2020-02-28 | 一种保持光谱特性的可见光和近红外图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111429389A true CN111429389A (zh) | 2020-07-17 |
CN111429389B CN111429389B (zh) | 2023-06-06 |
Family
ID=71547281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010131014.2A Active CN111429389B (zh) | 2020-02-28 | 2020-02-28 | 一种保持光谱特性的可见光和近红外图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111429389B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570561A (zh) * | 2021-07-16 | 2021-10-29 | 浙江大学 | 可见光与近红外图像联合处理的植被天空区域检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160248953A1 (en) * | 2014-01-08 | 2016-08-25 | Mitsubishi Electric Corporation | Image generation device |
CN107680054A (zh) * | 2017-09-26 | 2018-02-09 | 长春理工大学 | 雾霾环境下多源图像融合方法 |
CN107784642A (zh) * | 2016-08-26 | 2018-03-09 | 北京航空航天大学 | 一种红外视频和可见光视频自适应融合方法 |
US20190318463A1 (en) * | 2016-12-27 | 2019-10-17 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for fusing infrared image and visible light image |
CN110458877A (zh) * | 2019-08-14 | 2019-11-15 | 湖南科华军融民科技研究院有限公司 | 基于仿生视觉的红外与可见光信息融合的导航方法 |
-
2020
- 2020-02-28 CN CN202010131014.2A patent/CN111429389B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160248953A1 (en) * | 2014-01-08 | 2016-08-25 | Mitsubishi Electric Corporation | Image generation device |
CN107784642A (zh) * | 2016-08-26 | 2018-03-09 | 北京航空航天大学 | 一种红外视频和可见光视频自适应融合方法 |
US20190318463A1 (en) * | 2016-12-27 | 2019-10-17 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for fusing infrared image and visible light image |
CN107680054A (zh) * | 2017-09-26 | 2018-02-09 | 长春理工大学 | 雾霾环境下多源图像融合方法 |
CN110458877A (zh) * | 2019-08-14 | 2019-11-15 | 湖南科华军融民科技研究院有限公司 | 基于仿生视觉的红外与可见光信息融合的导航方法 |
Non-Patent Citations (2)
Title |
---|
UMIT KACAR等: "Ear Recognition With Score-Level Fusion Based On CMC In Long-Wave Infrared Spectrum" * |
高原原等: "基于多子块协同单尺度 Retinex 的浓雾图像增强" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570561A (zh) * | 2021-07-16 | 2021-10-29 | 浙江大学 | 可见光与近红外图像联合处理的植被天空区域检测方法 |
CN113570561B (zh) * | 2021-07-16 | 2023-11-28 | 浙江大学 | 可见光与近红外图像联合处理的植被天空区域检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111429389B (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Adaptive image enhancement method for correcting low-illumination images | |
CN108596849B (zh) | 一种基于天空区域分割的单幅图像去雾方法 | |
Tseng et al. | Automatic cloud removal from multi-temporal SPOT images | |
Hu et al. | Single image defogging based on illumination decomposition for visual maritime surveillance | |
Vanmali et al. | Visible and NIR image fusion using weight-map-guided Laplacian–Gaussian pyramid for improving scene visibility | |
Anwar et al. | Vision enhancement through single image fog removal | |
CN103914813B (zh) | 彩色雾霾图像去雾与光照补偿的复原方法 | |
CN111968054B (zh) | 基于潜在低秩表示和图像融合的水下图像颜色增强方法 | |
CN107862667B (zh) | 一种基于高分辨率遥感影像的城市阴影检测与去除方法 | |
Awad et al. | Adaptive near-infrared and visible fusion for fast image enhancement | |
Gao et al. | Sand-dust image restoration based on reversing the blue channel prior | |
Li et al. | A multi-scale fusion scheme based on haze-relevant features for single image dehazing | |
CN107358585B (zh) | 基于分数阶微分及暗原色先验的雾天图像增强方法 | |
Khan et al. | Localization of radiance transformation for image dehazing in wavelet domain | |
Kansal et al. | Improved color attenuation prior based image de-fogging technique | |
CN108564597A (zh) | 一种融合高斯混合模型和h-s光流法的视频前景目标提取方法 | |
Bi et al. | Haze removal for a single remote sensing image using low-rank and sparse prior | |
Mahmood et al. | Human visual enhancement using multi scale retinex | |
CN112215787B (zh) | 基于显著度分析及自适应滤波器的红外和可见光图像融合方法 | |
CN115496685A (zh) | 一种针对高分二号卫星遥感影像的快速去薄云方法 | |
Mathur et al. | Enhancement algorithm for high visibility of underwater images | |
CN115587945A (zh) | 高动态红外图像细节增强方法、系统及计算机存储介质 | |
Liang et al. | Learning to remove sandstorm for image enhancement | |
CN117575953B (zh) | 一种高分辨率林业遥感图像细节增强方法 | |
Kansal et al. | Fusion-based image de-fogging using dual tree complex wavelet transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |