CN107784642A - 一种红外视频和可见光视频自适应融合方法 - Google Patents
一种红外视频和可见光视频自适应融合方法 Download PDFInfo
- Publication number
- CN107784642A CN107784642A CN201610730651.5A CN201610730651A CN107784642A CN 107784642 A CN107784642 A CN 107784642A CN 201610730651 A CN201610730651 A CN 201610730651A CN 107784642 A CN107784642 A CN 107784642A
- Authority
- CN
- China
- Prior art keywords
- visible light
- video
- infrared
- base layer
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000005267 amalgamation Methods 0.000 title abstract 2
- 230000004927 fusion Effects 0.000 claims abstract description 74
- 230000003044 adaptive effect Effects 0.000 claims abstract description 13
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 238000002156 mixing Methods 0.000 claims description 8
- 238000007500 overflow downdraw method Methods 0.000 claims description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 4
- 230000002146 bilateral effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005295 random walk Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种红外视频和可见光视频自适应融合方法。该方法对视频进行逐帧融合,每帧融合都包括三个部分:第一,分别利用引导滤波将红外视频帧与可见光视频帧分解为基本层和细节层;第二,对于红外视频中的基本层,利用当前场景的灰度分布模型,自适应地计算红外基本层的权重图。对于可见光视频中的基本层,根据可见光视频的质量,自适应采用不同方法生成可见光基本层的权重图。利用加权平均法融合红外和可见光的基本层;第三,利用融合后的基本层和可见光帧的细节层,重构图像。该方法能够获得较好的融合结果,同时能够应用于实时的视频融合中。
Description
技术领域
本发明涉及一种视频融合方法,尤其涉及一种自适应的红外与可见光视频方法,属于视频图像处理领域。
背景技术
视频监控具有数据量大,冗余度高的特点,因此在实际的视频分析处理时会浪费许多人力和工作量。红外视频与可见光视频作为两类常用的监控视频类型,具有不同的特点和应用场景。例如,在白天可见光视频质量较好,而红外视频分辨率较低,细节表现能力较差;在夜晚可见光视频受光照影响质量较差,但是红外视频在夜晚则不受影响。基于以上红外视频和可见光视频的互补性,视频融合技术成为了近年来新兴的研究方向。
红外视频与可见光视频融合就是将同一场景同一时间下的红外视频和可见光视频通过特定的准则进行融合,最终得到一段融合视频。融合视频可以对当前场景提供更全面的描述,因此有利于人眼观察和机器分析。从融合的方式来讲,当前融合技术主要分为两大类:基于整段视频的融合和基于帧的融合。
基于整段视频的融合主要使用3D(Three-dimensional)多分辨率变换,例如3D曲波变换或3D轮廓波变换。3D多分辨率基于传统的2D多分辨率变换,只是额外增加了一个时间维度。这种方法有以下缺点:首先,必须对整段视频做3D变换之后,再进行后续处理,这表明此方法不适用于视频的实时融合,只可以进行离线的视频融合;第二,3D变换的时间复杂度高,计算复杂。
基于帧的融合是对两段视频逐帧进行融合。这种方法与图像融合的方法类似,包括空间域融合和变换域融合。空间域融合是在空间域设计某些准则对源图像进行融合。这种方法的优势是其可以充分保留原图像的纹理细节信息,但是在某些情况下会导致图像局部过亮或颜色不均衡的现象。因为这类算法仅仅关注某一些准则的最大化,而缺乏对图像空间一致性的考虑。基于数学优化的融合方法,如马尔科夫随机场或广义随机游走算法,可以很好地保留源图像的纹理细节信息,同时能保持图像空间一致性,但是这种方法需要经过多次迭代才能获得全局最优解, 导致效率十分低下。变换域融合通常是将源图像进行某种变化,在变换域涉及某些准则进行融合,最后将融合后的结果经过反变化得到融合的图像。变换域的选择很多,常见的变换域包括小波,曲波和轮廓波等。
红外视频与可见光视频的融合作为视频领域的重要分支,具有互补性强,应用范围广等特点。红外视频通常是灰度图像,其成像机理是靠空间上某点的温度成像,即空间某点温度越高,所成像的灰度值越大。但是由于红外传感器的技术原因,红外视频的分辨率相对于可见光视频而言较低,且纹理细节特征不丰富。可见光视频通常是彩色图像,其成像机理是通过可见光在物体表面的反射成像。通常可见光视频的纹理细节丰富,但是在某些低光照的恶劣环境下,如夜晚或者雾天,可见光成像质量很差。
基于上述红外传感器与可见光传感器的特性与成像机理分析可以看出,红外视频与可见光视频的融合与其余融合的策略有很大不同。现有的融合方法,一般将图像的对比度选取为融合准则,融合的目的是使融合结果能够保留源图像所有的纹理细节,进而最大限度保存所有源图像的信息。现有方法不将红外视频与可见光视频融合与其余类型融合进行区分,因此有以下两方面问题。一方面,不能正确保留红外视频中的热目标。在红外图像中,最有价值的热目标信息保存在低频的灰度信息中,并且热目标的温度与当前环境温度有关,因此在融合红外视频时需要自适应考虑红外中环境温度。另一方面,不能对可见光视频中的纹理信息做出判断。虽然在正常情况下可见光视频中纹理细节信息丰富,但是在恶劣环境中的可见光成像结果,其纹理细节部分缺失,提取出的纹理细节存在很多噪声信息,因此在融合可见光视频时还需自适应考虑可见光图像的质量。
为此,本发明提出了一种红外视频和可见光视频自适应融合方法,该方法利用灰度分布模型量化红外视频中的场景温度信息,利用信息熵量化可见光场景中的视频质量信息,通过自适应地生成红外帧与可见光帧的权重图,实现了红外与可见光的自适应融合。
发明内容
为实现上述目的,本发明采用下述技术方案。
一种红外视频和可见光视频自适应融合方法,其特征在于包括如下步骤:
(A)针对红外视频,计算红外视频的熵,并通过计算灰度分布,生成当前场景的灰度分布模型。针对可见光视频,计算可见光视频的熵。
(B)对于红外视频和可见光视频中的每一帧,通过引导滤波分别得到红外帧和可见光帧的基本层。将原始帧与对应的基本层相减,分别得到红外帧和可见光帧的细节层。
(C)对于红外视频中的,针对步骤(B)分解中的红外视频基本层,利用步骤(A)生成的当前场景的灰度分布模型,自适应地计算红外基本层的权重图。对于可见光视频中的每一帧,针对步骤(B)分解中的可见光视频基本层,利用步骤(A)生成的当前场景可见光熵,自适应地生成可见光基本层的权重图。通过加权平均法,计算红外视频和可见光视频的基本层融合后的融合基本层。
(D)将融合基本层和可见光视频中帧的细节层相加,得到融合结果帧。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(A)中,利用灰度分布模型来描述红外场景中整体温度特征,并利用以下公式计算灰度分布模型:
式中k为像素灰度,n(i)表示当前帧中灰度为i的像素数量,M和N分别为帧大小。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(C)中,利用以下公式计算红外基本层的权重图:
式中inf_w为红外帧基本层的权图,I为红外基本层,i,j分别为像素的坐标,s为惩罚因子,取值范围为[1,+∞)。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(B)中,可见光视频的熵小于红外视频的熵时,利用以下公式计算可见光基本层的初始权重图:
vis_wi,j=1-inf_wi,j (3)
式中vis_w为可见光帧基本层的权重图,i,j分别为像素的坐标。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(B)中,可见光视频的熵大于红外视频的熵时,利用以下公式计算可见光基本层的初始权重图:
Hi,j=Vi,j*L
vis_wi,j=abs(Hi,j)/max(H) (4)
式中Vi,j为可见光基本层,L为大小为3x3的拉普拉斯算子。通过步骤(B)计算出的熵,对可见光基本层的权重图做出自适应的调整:
其中ev和ei分别为可见光基本层和红外基本层的熵。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(C)中利用以下公式计算基本层的融合结果
式中Bfuse表示基本层的融合结果。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(D)中,利用细节层和融合后的基本层重构帧时,只考虑可见光的细节层,而不考虑红外的细节层。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(B)中,通过引导滤波分别计算红外帧和可见光帧的基本层,再讲红外原始帧与可见光原始帧减去对应的基本层,得到对应的细节层。
如上所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(A)中,利用灰度分布模型自适应考虑环境温度和目标温度。在环境中较热的目标对应的像素值在[0,1]区间内取较大值,在环境中较冷的目标对应的像素值在[0,1]区间内取较小值。
为此,本发明提出了一种红外视频和可见光视频自适应融合方法。该方法与当前主流方法相比,可以较好地提高融合结果的质量,并且可以应用于实际的融合中。
附图说明
下面结合附图和具体实施方式对本发明作进一步的说明。
图1为红外视频和可见光视频自适应融合方法流程图。
图2为红外视频和可见光视频自适应融合方法示意图。
图3为不同场景热目标比较示意图。
图4为同一场景下不同帧的灰度模型比较图。
图5为同一场景下不同帧的熵值比较图。
图6-图8为本发明与其他融合算法的结果对比。
图9为客观指标对比结果。
图10为不同算法运行时间对比,单位为秒。
具体实施方式
下面详述本发明的具体步骤:
(1)计算灰度分布模型和熵
红外视频中最重要的信息是其显示出了热目标,这些热目标在融合结果中是需要凸显的。对于大多数传感器来说,同一场景中热目标对应着较高的像素。但是对于不同场景,根据场景特征的不同,可能并不是较热的目标对应较高的像素。如图2所示,(a)与(b)为两幅不同的场景下红外视频中的帧。(a)拍摄的时间为冬天的晚上,场景温度很低,而(b)中场景温度较高。可以明显看出,(a)中的热目标的像素值与(b)中背景像素值近似,这是因为较低的场景温度使得(a)所有物体的像素值被整体“拉低”。由此可见,在融合时,对于热目标的处理需要考虑场景的特征信息。
基于以上分析,本发明提出了一种自适应的灰度分布模型。此模型可以准确地描述红外场景的特征信息,从而自适应地处理红外中的热目标。灰度分布模型可以通过下式计算:
式中M和N代表帧尺寸,k代表像素的灰度值,n(i)代表当前帧中灰度值为i的像素的个数。很明显,gd(k)的范围是[0,1]。
本发明提出的灰度模型,揭示出了在当前场景下,灰度值为k的像素点,是否可以被判断为较热的目标。具体为,如果gd(k)的值接近1,则可以判断其为较热的点;如果gd(k)的值接近0,则可以判断其为较冷的点。
可见光场景中最重要的信息是其纹理细节信息。一个好的融合结果中应能保持或增强可见光的纹理细节信息。但是由于在低光照,如夜间或大雾天气下,可见光成像质量较差,纹理细节很弱,很多纹理细节信息甚至可能是噪声。因此,为了能够自适应地评判可见光中纹理细节的重要程度,本发明考虑了可见光视频本身的质量信息,并用图像熵量化纹理细节的重要程度。图像的熵利用以下公式计算:
式中T代表图像的灰度级数,对于一个8位的像素值来说,T=256,PF(l)代表图像的归一化直方图。
(2)基于引导滤波的帧分解。
对于红外与可见光视频中的每一帧,需要利用引导滤波对其进行分解为基本层和细节层。利用以下公式可以计算出基本层:
Bvis=GFr,ε(Ivis,Ivis)
Binf=GFr,ε(Iinf,Iinf) (9)
式中B表示基本层,I为原始帧。r和ε分别代表引导滤波中的参数,默认值分别是4和0.12。对于红外视频与可见光视频的细节层,可以利用原始帧与基本层相减得到:
Dvis=Ivis-Bvis
Dinf=Iinf-Binf (10)
本发明首先对红外与可见光的帧进行分解,是因为红外中的热目标与可见光中的纹理细节其本质特征并不相同。红外中的热目标位于基本层,而可见光中的纹理细节位于细节层。将基本层与细节层分开融合,可以确保融合在融合时,红外中的温度细节等不需要保留的特征不会影响可见光中的纹理细节。
本发明选用了引导滤波器来抽取帧的基本层和细节层,因为引导滤波相对于双边滤波器等传统的保边去噪的滤波器,有以下几个优点:第一,当引导图像与输入图片相同时(即本发明中的情况),双边滤波器会有时导致一个梯度逆转的效应,这会影响本发明的后续步骤。而引导滤波器并不会出现这种情况。第二,引导滤波的时间复杂度是标准的O(N)时间复杂度,并不受窗口大小r的影响。与之对应的是,双边滤波器的时间复杂度是O(Nr2),经过下采样后才能近似达到O(N)的时间复杂度。而引导滤波经过下采样后,可以达到O(N/S2)的时间复杂度。因为视频融合的实时性要求,引导滤波更快速的优点使其具有天然的优势。
(3)自适应基本层融合
对于红外视频与可见光视频中每一帧的基本层,我们利用步骤(1)中的场景特征自适应地生成权重图,并通过加权平均法得到基本层融合的结果。具体做法如下:
对于红外帧的基本层,根据当前场景的灰度分布模型,通过下式计算出权重图:
式中inf_w为红外帧的权重图,I为红外基本层,i,j分别代表像素的坐标。 s为惩罚因子,取值范围为[1,+∞)。式中以0.9为阈值,如果灰度分布小于或等于0.9,则需要对其施加一个惩罚因子。因为在通常的监控视频下,热目标仅仅占据整个视频的一小部分,0.9的阈值可以在绝大部分情况下区分出热目标与背景。如果s取值为1,则惩罚因子无效,在这种情况下,红外的背景区域可能获得较大的权值,进而对可见光的背景区域产生影响,即弱化可见光的纹理细节。如果s取值太大,则红外的背景区域权值很低,使得红外权重图中权重跳跃太大,在融合后会产生空间上的不一致性,影响融合结果。因此惩罚因子s的选取需要适中,本发明默认值为s=2。
对于可见光帧的基本层,需要同时考虑可见光的纹理细节信息与可见光图像的质量。在可见光视频熵小于红外视频熵时,可见光中的细节信息很少,反而噪声较多。在这种情况下,不应过多考虑可见光的细节信息,因此本发明利用以下公式生成可见光的权重图:
vis_wi,j=1-inf_wi,j (12)
在可见光视频熵大于红外视频熵时,需根据可见光的纹理细节信息生成权重图。基本层中,纹理细节信息越多,图像质量越好,则获得的权值应该越大。首先,本发明通过拉普拉斯算子计算图像当前帧的纹理细节信息,并得到初始化的可见光权重图:
Hi,j=Vi,j*L
vis_wi,j=abs(Hi,j)/max(H) (13)
式中,vis_w代表可见光帧的权重图,V代表可见光帧的基本层,L是3x3的拉普拉斯算子,i,j代表像素的坐标。通过公式(13),可见光帧的权重图被归一化到[0,1]范围内。
公式(13)的结果仅仅体现了对可见光基本层细节信息的考虑,并没有考虑到图像的质量。为了自适应地判断可见光基本层纹理细节信息的重要性,本发明利用下式(14)调整可见光基本层的权重图:
式中ev和ei分别代表可见光场景和红外场景的熵。经过式(14)调整后的可见光基本层权重图,保证了在可见光场景熵较高时,可见光权重图的范围较大;可见光场景熵较低时,可见光权重图的范围较小。
在获得自适应的红外与可见光基本层的权重图后,本发明利用加权 平均法进行基本层的融合。首先,基本层的融合是基于可见光基本层的,因此融合结果必须突出可见光基本层的信息。其次,融合结果必须在可见光基本层的基础上,突出红外中热目标的信息。最后,可见光基本层的纹理细节信息不应该受到红外的干扰。基于上述原则,基本层的融合结果通过下式计算:
式中Bfuse表示基本层的融合结果,i,j分别表示像素的坐标。
(4)融合结果生成
在步骤(2)的帧分解过程中,红外与可见光帧被分为了基本层和细节层。红外的基本层保留绝大部分热目标的信息,细节层保留了温度的细节信息。可见光的基本层保留了大部分的低频信息和部分纹理细节信息,细节层保留了大部分的纹理细节信息。在基本层的融合过程中,红外基本层的热目标信息和可见光基本层的热目标信息都已被保留下来,而红外细节层的温度细节信息在融合中并不重要。因此,本步骤需要利用融合后的基本层和可见光的细节层,重构最终的融合结果。
本发明利用下式重构最终的融合结果:
Ifuse=Bfuse+d×Dvis (16)
式中Bfuse表示基本层的融合结果,Dvis表示可见光的细节层,Ifuse表示最终的融合结果。d这里是一个可调节参数,取值范围是[1,+∞)。如果d为1,则表明需要按照原始图像的细节丰富程度对融合结果进行重构;如果d>1,则表明融合结果相对于原始图像而言,进行了一个细节的增强。通常情况下,用一个略大于1的系数进行增强能够得到更好地结果,但在可见光图像噪声强烈的情况下,增强的结果可能反而导致噪声的增加。
为了验证本发明的有效性,将本发明与拉普拉斯金字塔融合(LAP),广义随机游走融合(GRW),引导滤波融合(GFF)等融合算法在OTCBVS,TNO,INO,Eden等数据集上进行了对比。图5-图7展示了主观对比的结果。表1展示了对于以上融合算法,在互信息(MI)和结构相似性指标(SSIM)下的客观结果。通过以上对比结果,可以看出本发明相对于其他融合算法,在红外与可见光融合方面有明显的优势。通过本发明得到的融合图像,能够同时正确,准确地保留红外视频中的热目标和可见光中的纹理细节信息。
同时,为了验证本发明的实时性,将本发明与拉普拉斯金字塔融合 (LAP),广义随机游走融合(GRW),引导滤波融合(GFF)等融合算法在OTCBVS,TNO,INO,Eden等数据集上进行了对比。表2展示了算法运行的时间比较。其中“本发明(帧)”指每帧都重新计算灰度分布模型和熵的算法运行时间;“本发明(视频)”指利用帧间相关性,只在第一帧计算灰度分布模型和熵时,每帧融合的平均运行时间。可以看出,本发明的算法运行时间较低,基本能满足实时红外与可见光视频融合的要求。
以上公开的仅为本发明的具体实施例。根据本发明提供的技术思想,本领域的技术人员能思及的变化,都应落入本发明的保护范围内。
Claims (9)
1.一种红外视频和可见光视频自适应融合方法,其特征在于包括如下步骤:
(A)针对红外视频,计算红外视频的熵,并通过计算灰度分布,生成当前场景的灰度分布模型。针对可见光视频,计算可见光视频的熵;
(B)对于红外视频和可见光视频中的每一帧,通过引导滤波分别得到红外帧和可见光帧的基本层,将原始帧与基本层相减,分别得到红外帧和可见光帧的细节层;
(C)对于红外视频中的,针对步骤(B)分解中的红外视频基本层,利用步骤(A)生成的当前场景的灰度分布模型,自适应地计算红外基本层的权重图,对于可见光视频中的每一帧,针对步骤(B)分解中的可见光视频基本层,利用步骤(A)生成的当前场景可见光熵,自适应地生成可见光基本层的权重图。通过加权平均法,计算红外视频和可见光视频的基本层融合后的融合基本层;
(D)将融合基本层和可见光视频中帧的细节层相加,得到融合结果帧。
2.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(A)中,利用灰度分布模型来描述红外场景中整体温度特征,并利用以下公式计算灰度分布模型:
<mrow>
<mi>g</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>k</mi>
</munderover>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>/</mo>
<mo>(</mo>
<mrow>
<mi>M</mi>
<mo>&times;</mo>
<mi>N</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
式中k为像素灰度,n(i)表示当前帧中灰度为i的像素数量,M和N分别为帧大小。
3.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(C)中,利用以下公式计算红外基本层的权重图:
<mrow>
<mi>inf</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>g</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>g</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>></mo>
<mn>0.9</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>g</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mi>s</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>g</mi>
<mi>d</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo><</mo>
<mo>=</mo>
<mn>0.9</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
式中inf_w为红外帧基本层的权图,I为红外基本层,i,j分别为像素的坐标,s为惩罚因子,取值范围为[1,+∞)。
4.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(B)中,可见光视频的熵小于红外视频的熵时,利用以下公式计算可见光基本层的初始权重图:
vis_wi,j=1-inf_wi,j (3)
式中vis_w为可见光帧基本层的权重图,i,j分别为像素的坐标。
5.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(B)中,可见光视频的熵大于红外视频的熵时,利用以下公式计算可见光基本层的初始权重图:
Hi,j=Vi,j*L
vis_wi,j=abs(Hi,j)/max(H) (4)
式中Vi,j为可见光基本层,L为大小为3x3的拉普拉斯算子;通过步骤(B)计算出的熵,对可见光基本层的权重图做出自适应的调整:
<mrow>
<mi>v</mi>
<mi>i</mi>
<mi>s</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>v</mi>
<mi>i</mi>
<mi>s</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>&times;</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>+</mo>
<msub>
<mi>e</mi>
<mi>v</mi>
</msub>
<mo>-</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>e</mi>
<mi>v</mi>
</msub>
<mo>></mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>v</mi>
<mi>i</mi>
<mi>s</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>/</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>+</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>e</mi>
<mi>v</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mo><</mo>
<msub>
<mi>e</mi>
<mi>v</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>v</mi>
<mi>i</mi>
<mi>s</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>e</mi>
<mi>v</mi>
</msub>
<mo>=</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中ev和ei分别为可见光基本层和红外基本层的熵。
6.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(C)中利用以下公式计算基本层的融合结果
<mrow>
<msubsup>
<mi>B</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mrow>
<mi>f</mi>
<mi>u</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>V</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>V</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>&times;</mo>
<mi>v</mi>
<mi>i</mi>
<mi>s</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>I</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>&times;</mo>
<mi>inf</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mi>v</mi>
<mi>i</mi>
<mi>s</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>+</mo>
<mi>inf</mi>
<mo>_</mo>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
式中Bfuse表示基本层的融合结果。
7.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(D)中,利用细节层和融合后的基本层重构帧时,只考虑可见光的细节层,而不考虑红外的细节层。
8.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(B)中,通过引导滤波分别计算红外帧和可见光帧的基本层,再讲红外原始帧与可见光原始帧减去对应的基本层,得到对应的细节层。
9.如权利要求1所述的红外视频和可见光视频自适应融合方法,其特征在于所述步骤(A)中,利用灰度分布模型自适应考虑环境温度和目标温度。在环境中较热的目标对应的像素值在[0,1]区间内取较大值,在环境中较冷的目标对应的像素值在[0,1]区间内取较小值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610730651.5A CN107784642B (zh) | 2016-08-26 | 2016-08-26 | 一种红外视频和可见光视频自适应融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610730651.5A CN107784642B (zh) | 2016-08-26 | 2016-08-26 | 一种红外视频和可见光视频自适应融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107784642A true CN107784642A (zh) | 2018-03-09 |
CN107784642B CN107784642B (zh) | 2019-01-29 |
Family
ID=61439807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610730651.5A Active CN107784642B (zh) | 2016-08-26 | 2016-08-26 | 一种红外视频和可见光视频自适应融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107784642B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108802845A (zh) * | 2018-07-16 | 2018-11-13 | 燕山大学 | 一种基于红外阵列传感器的室内人员占有率估计方法 |
CN109035189A (zh) * | 2018-07-17 | 2018-12-18 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN109242815A (zh) * | 2018-09-28 | 2019-01-18 | 合肥英睿系统技术有限公司 | 一种红外光图像和可见光图像融合方法及系统 |
CN109618099A (zh) * | 2019-01-10 | 2019-04-12 | 深圳英飞拓科技股份有限公司 | 双光谱摄像机图像融合方法及装置 |
WO2019196539A1 (zh) * | 2018-04-11 | 2019-10-17 | 杭州海康威视数字技术股份有限公司 | 图像融合方法及其装置 |
CN110930311A (zh) * | 2018-09-19 | 2020-03-27 | 杭州萤石软件有限公司 | 一种提高红外图像与可见光图像融合的信噪比方法与装置 |
CN111429389A (zh) * | 2020-02-28 | 2020-07-17 | 北京航空航天大学 | 一种保持光谱特性的可见光和近红外图像融合方法 |
CN111539902A (zh) * | 2020-04-16 | 2020-08-14 | 烟台艾睿光电科技有限公司 | 一种图像处理方法、系统、设备及计算机可读存储介质 |
CN111652808A (zh) * | 2019-07-29 | 2020-09-11 | 天津大学 | 一种红外图像细节增强及噪声抑制方法 |
CN111680752A (zh) * | 2020-06-09 | 2020-09-18 | 重庆工商大学 | 基于Framelet框架的红外与可见光图像融合方法 |
CN111681198A (zh) * | 2020-08-11 | 2020-09-18 | 湖南大学 | 一种形态学属性滤波多模融合成像方法、系统及介质 |
CN112053313A (zh) * | 2020-08-31 | 2020-12-08 | 西安工业大学 | 异源图像融合的夜视抗晕光视频处理方法 |
WO2021120406A1 (zh) * | 2019-12-17 | 2021-06-24 | 大连理工大学 | 一种基于显著图增强的红外和可见光融合方法 |
CN113947555A (zh) * | 2021-09-26 | 2022-01-18 | 国网陕西省电力公司西咸新区供电公司 | 基于深度神经网络的红外与可见光融合的视觉系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339653A (zh) * | 2008-01-30 | 2009-01-07 | 西安电子科技大学 | 基于彩色传递及熵信息的红外与彩色可见光图像融合方法 |
CN101425137A (zh) * | 2008-11-10 | 2009-05-06 | 北方工业大学 | 基于拉普拉斯金字塔的人脸图像融合方法 |
CN104268847A (zh) * | 2014-09-23 | 2015-01-07 | 西安电子科技大学 | 一种基于交互非局部均值滤波的红外与可见光图像融合方法 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
CN105139367A (zh) * | 2015-07-27 | 2015-12-09 | 中国科学院光电技术研究所 | 一种基于非下采样剪切波的可见光偏振图像融合方法 |
-
2016
- 2016-08-26 CN CN201610730651.5A patent/CN107784642B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339653A (zh) * | 2008-01-30 | 2009-01-07 | 西安电子科技大学 | 基于彩色传递及熵信息的红外与彩色可见光图像融合方法 |
CN101425137A (zh) * | 2008-11-10 | 2009-05-06 | 北方工业大学 | 基于拉普拉斯金字塔的人脸图像融合方法 |
CN104268847A (zh) * | 2014-09-23 | 2015-01-07 | 西安电子科技大学 | 一种基于交互非局部均值滤波的红外与可见光图像融合方法 |
CN104809734A (zh) * | 2015-05-11 | 2015-07-29 | 中国人民解放军总装备部军械技术研究所 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
CN105139367A (zh) * | 2015-07-27 | 2015-12-09 | 中国科学院光电技术研究所 | 一种基于非下采样剪切波的可见光偏振图像融合方法 |
Non-Patent Citations (2)
Title |
---|
WANG ZHIMING ET AL.: "Entropy based Multi-resolution Visible-Infrared Image Fusion", 《2012 IEEE SYMPOSIUM ON ELECTRICAL & ELECTRONICS ENGINEERING》 * |
厍向阳 等: "顾及源图像质量的可见光和红外图像融合算法", 《计算机工程与设计》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019196539A1 (zh) * | 2018-04-11 | 2019-10-17 | 杭州海康威视数字技术股份有限公司 | 图像融合方法及其装置 |
CN108802845B (zh) * | 2018-07-16 | 2019-06-28 | 燕山大学 | 一种基于红外阵列传感器的室内人员占有率估计方法 |
CN108802845A (zh) * | 2018-07-16 | 2018-11-13 | 燕山大学 | 一种基于红外阵列传感器的室内人员占有率估计方法 |
CN109035189B (zh) * | 2018-07-17 | 2021-07-23 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN109035189A (zh) * | 2018-07-17 | 2018-12-18 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN110930311A (zh) * | 2018-09-19 | 2020-03-27 | 杭州萤石软件有限公司 | 一种提高红外图像与可见光图像融合的信噪比方法与装置 |
CN109242815A (zh) * | 2018-09-28 | 2019-01-18 | 合肥英睿系统技术有限公司 | 一种红外光图像和可见光图像融合方法及系统 |
CN109242815B (zh) * | 2018-09-28 | 2022-03-18 | 合肥英睿系统技术有限公司 | 一种红外光图像和可见光图像融合方法及系统 |
CN109618099A (zh) * | 2019-01-10 | 2019-04-12 | 深圳英飞拓科技股份有限公司 | 双光谱摄像机图像融合方法及装置 |
CN109618099B (zh) * | 2019-01-10 | 2021-01-08 | 深圳英飞拓科技股份有限公司 | 双光谱摄像机图像融合方法及装置 |
CN111652808A (zh) * | 2019-07-29 | 2020-09-11 | 天津大学 | 一种红外图像细节增强及噪声抑制方法 |
WO2021120406A1 (zh) * | 2019-12-17 | 2021-06-24 | 大连理工大学 | 一种基于显著图增强的红外和可见光融合方法 |
CN111429389A (zh) * | 2020-02-28 | 2020-07-17 | 北京航空航天大学 | 一种保持光谱特性的可见光和近红外图像融合方法 |
CN111429389B (zh) * | 2020-02-28 | 2023-06-06 | 北京航空航天大学 | 一种保持光谱特性的可见光和近红外图像融合方法 |
CN111539902A (zh) * | 2020-04-16 | 2020-08-14 | 烟台艾睿光电科技有限公司 | 一种图像处理方法、系统、设备及计算机可读存储介质 |
CN111680752A (zh) * | 2020-06-09 | 2020-09-18 | 重庆工商大学 | 基于Framelet框架的红外与可见光图像融合方法 |
CN111680752B (zh) * | 2020-06-09 | 2022-07-22 | 重庆工商大学 | 基于Framelet框架的红外与可见光图像融合方法 |
CN111681198A (zh) * | 2020-08-11 | 2020-09-18 | 湖南大学 | 一种形态学属性滤波多模融合成像方法、系统及介质 |
CN112053313A (zh) * | 2020-08-31 | 2020-12-08 | 西安工业大学 | 异源图像融合的夜视抗晕光视频处理方法 |
CN113947555A (zh) * | 2021-09-26 | 2022-01-18 | 国网陕西省电力公司西咸新区供电公司 | 基于深度神经网络的红外与可见光融合的视觉系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107784642B (zh) | 2019-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107784642A (zh) | 一种红外视频和可见光视频自适应融合方法 | |
Jiang et al. | Target oriented perceptual adversarial fusion network for underwater image enhancement | |
WO2021217643A1 (zh) | 红外图像处理方法、装置及可移动平台 | |
CN107798665B (zh) | 基于结构-纹理分层的水下图像增强方法 | |
CN108734670A (zh) | 单幅夜间弱照度雾霾图像的复原算法 | |
CN107316279B (zh) | 基于色调映射和正则化模型的弱光图像增强方法 | |
CN112184604B (zh) | 一种基于图像融合的彩色图像增强方法 | |
CN110163818A (zh) | 一种用于海事无人机的低照度视频图像增强方法 | |
CN110400274B (zh) | 一种车载红外行人检测用红外图像增强方法 | |
CN112215787B (zh) | 基于显著度分析及自适应滤波器的红外和可见光图像融合方法 | |
CN114782298B (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
Cheng et al. | A highway traffic image enhancement algorithm based on improved GAN in complex weather conditions | |
Asmare et al. | Image Enhancement by Fusion in Contourlet Transform. | |
CN107451986B (zh) | 一种基于融合技术的单幅红外图像增强方法 | |
CN110084774B (zh) | 一种增强的梯度传递和总变差最小化融合图像的方法 | |
Pan et al. | Single-image dehazing via dark channel prior and adaptive threshold | |
Tang et al. | An improved CycleGAN based model for low-light image enhancement | |
CN117670965B (zh) | 一种适用于红外图像的无监督单目深度估计方法及系统 | |
Guan et al. | DiffWater: Underwater image enhancement based on conditional denoising diffusion probabilistic model | |
Bhattacharya et al. | D2bgan: A dark to bright image conversion model for quality enhancement and analysis tasks without paired supervision | |
Hu et al. | Maritime video defogging based on spatial-temporal information fusion and an improved dark channel prior | |
Shuang et al. | Algorithms for improving the quality of underwater optical images: A comprehensive review | |
CN113487516B (zh) | 一种图像数据的去雾处理方法 | |
Zou et al. | Self-tuning underwater image fusion method based on dark channel prior | |
Ni et al. | Online low-light sand-dust video enhancement using adaptive dynamic brightness correction and a rolling guidance filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |