CN101673396B - 基于动态目标检测的图像融合方法 - Google Patents

基于动态目标检测的图像融合方法 Download PDF

Info

Publication number
CN101673396B
CN101673396B CN2009100346780A CN200910034678A CN101673396B CN 101673396 B CN101673396 B CN 101673396B CN 2009100346780 A CN2009100346780 A CN 2009100346780A CN 200910034678 A CN200910034678 A CN 200910034678A CN 101673396 B CN101673396 B CN 101673396B
Authority
CN
China
Prior art keywords
image
pixel
infrared
target
moving target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2009100346780A
Other languages
English (en)
Other versions
CN101673396A (zh
Inventor
张俊举
常本康
钱芸生
田思
韩亦勇
袁轶慧
唐善军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN2009100346780A priority Critical patent/CN101673396B/zh
Publication of CN101673396A publication Critical patent/CN101673396A/zh
Application granted granted Critical
Publication of CN101673396B publication Critical patent/CN101673396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于动态目标检测的图像融合方法,属于图像处理技术领域。该方法首先对红外图像序列中的运动目标进行检测和提取,并以红外图像为参考,对微光图像进行快速配准,接着对红外和微光图像进行融合,最后将提取到的红外目标与融合图像进行二次融合。实验结果表明,本发明中所得到的融合图像不仅具有普通融合方法信息丰富的特点,还具有鲜明的红外目标指示特性。此外,本发明还可提供红外目标的坐标信息,为精确定位目标提供了可能。它在夜视侦察、安防监控等军事和民事领域有着广阔的应用前景。

Description

基于动态目标检测的图像融合方法
技术领域
本发明涉及的是一种图像融合处理技术领域的方法,特别是一种基于动态目标检测的微光与红外图像融合方法。 
背景技术
单光谱成像系统通常只提供目标的部分光谱信息,而工作于不同光谱段的多探测器系统利用不同探测器的数据互补和冗余,从各自独立测量空间获取信息。多光谱融合成像便是运用数据融合技术从不同信源综合信息来克服单探测器的缺陷。例如,红外探测器具有识别伪装能力,能发现隐藏在树林和草丛中的人员、车辆与火炮,但其对场景的亮度变化不敏感,成像清晰度低,不利于人眼判读。微光探测器只敏感于目标场景的反射,能够提供目标所在场景的细节信息,清晰度较高。因此红外与可见光图像的融合将有利于综合红外图像较好的目标指示特性和微光图像的清晰场景信息。 
目前,比较成熟的图像融合方法大多是基于像素级的,大体可以分为以下三大类: 
(1)简单的图像融合方法,如:加权平均融合法等。它直接对多幅图像的对应像素点进行加权叠加。它的优点在于概念简单,计算量小,适合实时处理。 
(2)基于金字塔分解的图像融合方法,如:基于拉普拉斯金字塔分解的图像融合方法、基于低通比率金字塔分解的图像融合方法、基于梯度金字塔分解的图像融合方法等。在这类方法中,原图像不断被滤波,形成一个塔状结构。在塔的每一层都用一种方法对这一层的数据进行融合,从而得到一个合成的塔式结构,然后对合成的塔式结构进行重构,最后得到合成的图像。 
(3)基于小波变换的图像融合方法。小波变换是对图像在不同频率通道上进行处理,首先将源图像进行小波分解,得到一系列子图像,再在变换域上进行特征选择,创建融合图像,最后通过逆变换重建融合图像。 
简单的图像融合方法缺点是融合后的图像包含很强的噪声,特别是当融合图像的灰度差异很大时,就会出现明显的拼接痕迹,视觉效果差。金字塔分解和小波变换的图像融合方法得到的融合图像有更好的质量,与人眼的生理学相符合。但是这几种方法都不具有鲜明的红外目标指示特性,不利于运动目标的观测。 
发明内容
本发明的目的在于提供一种基于动态目标检测的图像融合方法,从而实现微光与红 外图像实时融合。 
实现本发明的目的的技术解决方案为:一种基于动态目标检测的图像融合方法,步骤如下: 
(1)利用红外摄像头采集图像; 
(2)将采集到的红外图像与理想图像进行比较,检测红外视场中是否有运动目标出现;如果有运动目标则执行步骤(3),否则返回步骤(1); 
(3)对帧差图像中像素进行判断,可将运动目标中的部分像素标记出来; 
(4)通过种子像素的生长提取出红外图像序列中的运动目标,并且计算目标的坐标信息; 
(5)对红外摄像头采集到的图像进行高斯金字塔分解,并由高斯金字塔建立图像的对比度金字塔; 
(6)利用微光摄像头采集图像; 
(7)以红外图像为基准,利用仿射变换的配准方法将微光图像仿射到红外图像的坐标上,利用查找表的方式实现图像的快速配准; 
(8)对微光图像进行高斯金字塔分解,并由高斯金字塔建立图像的对比度金字塔; 
(9)对红外图像建立的对比度金字塔层和微光图像建立的对比度金字塔层分别进行融合处理,最终得到融合图像的对比度金字塔,然后将该对比度金字塔进行图像重构,得到融合图像; 
(10)采用灰度叠加或者色度映射的方法将步骤(4)提取出的运动目标图像与融合图像进行二次融合,最终得到具有红外目标指示特性的融合图像。 
本发明与现有技术相比,其显著优点:(1)通过与理想图像的比较,检测红外视场中是否有运动目标出现,通过差分图像判断像素属于背景还是目标,并且利用种子像素的生长准确提取出红外图像序列中的运动目标。(2)采用二次融合的方法,将经过目标提取后的红外图像与融合图像二次融合,使得融合图像不仅具有普通融合方法信息丰富的特点,还具有鲜明的红外目标指示特性。(3)系统还提供了红外目标的坐标信息,为精确定位提供了可能。 
下面结合附图对本发明作进一步详细描述。 
附图说明
图1是本发明基于动态目标检测的图像融合方法的流程图。 
图2是本发明检测红外视场中运动目标的流程图。 
图3是本发明目标提取的流程图。 
图4是本发明质心计算的流程图。 
图5是本发明红外摄像头采集的红外图像。 
图6是本发明红外图像的被检测出的目标图像。 
图7是本发明微光摄像头采集的微光图像。 
图8是本发明经过配准的微光图像。 
图9是本发明红外图像与微光图像的融合图像。 
图10是本发明经过二次融合的灰度叠加图像。 
图11是本发明经过二次融合的色度映射图像。 
具体实施方式
结合图1,本发明的基于动态目标检测的图像融合方法包括以下步骤: 
步骤1、利用红外摄像头采集图像; 
步骤2、将采集到的红外图像与理想图像进行比较,检测红外视场中是否有运动目标出现;如果有运动目标则执行步骤3,否则返回步骤1;结合图2,检测红外视场中是否有运动目标出现的步骤具体为: 
第一、对理想图像 
Figure DEST_PATH_GSB00000545356800011
进行估计: 
I n ^ ( x , y ) = K I n - 1 ^ ( x , y ) + ( 1 - K ) I n ( x , y )
式中0.99≤K<1,(x,y)表示图像中像素的坐标,In(x,y)表示第n帧图像中坐标(x,y)处像素的灰度值, 
Figure DEST_PATH_GSB00000545356800013
表示第n-1帧中,坐标(x,y)处像素灰度值的理想估计值; 
第二、对理想图像的均方差 
Figure DEST_PATH_GSB00000545356800014
进行估计: 
σ n 2 ( x , y ) = K σ n - 1 2 ( x , y ) + ( 1 - K ) ( I n ( x , y ) - I n ^ ( x , y ) ) 2
第三、将红外图像序列中当前帧图像所有坐标像素点的灰度值与理想图像的像素点的灰度值进行如下比较: 
Σ | D n ( x , y ) | = Σ | I n ( x , y ) - I n ^ ( x , y ) |
取T0为N·σn(x,y),N为整幅图像的像素个数。如果∑|Dn(x,y)|>T0成立,则认为 图像中存在了运动目标;否则认为图像中不存在运动目标。 
步骤3、对帧差图像中像素进行判断;将运动目标中的部分像素标记出来;结合图3,具体为: 
首先,在红外序列图像中通过逐像素比较的方法求取前后两帧图像之间的差别;差分图像的表达式为: 
ΔIn(x,y)=In(x,y)-In-1(x,y) 
其次,令T1=2σn(x,y),通过下式对目标像素进行标记 
Figure G2009100346780D00041
在d(x,y)中,数值为255的像素对应了运动目标前部区域。 
第三,对目标边缘图像d(x,y)进行形态学的腐蚀和膨胀运算,消除闪烁噪声造成的亮点,排除误标的目标像素点。 
步骤4、通过种子像素的生长提取出红外图像序列中的运动目标,并且计算目标的坐标信息;结合图4,具体为: 
第一,选取d(x,y)中一个亮度为255的像素作为种子像素; 
第二,设种子像素坐标为(x,y),以该像素为中心,向相邻的8个像素搜索,令 
T1=2σn(x,y), 
T 2 = σ n 2 ( x , y ) + σ n 2 ( x - 1 , y ) + σ n 2 ( x + 1 , y ) + σ n 2 ( x , y - 1 ) + σ n 2 ( x , y + 1 )
如果 I n ( x , y ) - I n ^ ( x , y ) > T 1 , 则认为该像素为运动目标的一部分, 
( I n ( x , y ) - I n ^ ( x , y ) ) + ( I n ( x - 1 , y ) - I n ^ ( x - 1 , y ) ) + ( I n ( x , y - 1 ) - I n ^ ( x , y - 1 ) ) +
如果 
( I n ( x + 1 , y ) - I n ^ ( x + 1 , y ) ) + ( I n ( x , y + 1 ) - I n ^ ( x , y + 1 ) ) > T 2
则认为该像素也是运动目标的一部分,否则,认为该像素不是属于运动目标; 
第三,采用上述条件判断d(x,y)是否为运动目标的像素,如果是的话将d(x,y)标记为1,不是的话标记为2; 
第四,继续向其邻域的8个像素进行搜索;如果遇到某像素未被标记,则返回第三 步,否则不进行任何操作; 
第五,将标记过1、2的像素作以下处理,则可以提取出红外图像中的运动目标: 
第六,通过以下公式可以获得目标在X轴和Y轴的坐标信息, 
X S = Σ x i N Y S = Σ y i N
式中,Xs,Ys分别为红外目标在X轴和Y轴的坐标,N为所有标记为1的像素点总个数,(xi,yi)是所有标记为1的像素点的坐标。 
步骤5、对红外摄像头采集到的图像进行高斯金字塔分解,并由高斯金字塔建立图像的对比度金字塔;根据公式 
Figure DEST_PATH_GSB00000545356800024
进行高斯金字塔分解,首先通过一次对l-1层红外图像与低通特性的窗口函数w(m,n)进行卷积,再把卷积结果作隔行隔列的降采样,即可得到。 
由高斯金字塔建立红外图像的对比度金字塔是由下述公式实现: 
CP l = G l G l * - I 0 ≤ l ≤ N - 1 CP N = G N l = N
式中,Gl是Guass金字塔的第l层图像,I为第l层的单位矩阵,CPl是对比度金字塔分解的第l层图像,而 G l * ( i , j ) = 4 Σ m = - 2 2 Σ n = - 2 2 ω ( m , n ) G l ( i + m 2 , j + n 2 ) .
步骤6、利用微光摄像头采集图像; 
步骤7、以红外图像为基准,利用仿射变换的配准方法将微光图像仿射到红外图像的坐标上,利用查找表的方式实现图像的快速配准;快速配准的具体步骤为: 
第一、设红外图像像素点坐标(Ix,Iy),微光图像像素点坐标(Lx,Ly),根据仿射变换公式把微光图像仿射到红外图像坐标上,最终得到微光图像每个像素点的新地址:A=(a21Ix+a22Iy+ty)Line+(a11Ix+aIy+tx); 
上述仿射变换公式为: 
L x L y = a 11 a 12 a 21 a 22 I x I y + t x t y
其中 a 11 a 12 a 21 a 22 为旋转矩阵, t x t y 为平移矩阵,参数a11,a12,a21,a22,tx,ty通过专门的多源图像配准测试程序获得; 
第二、建立查找表,在查找表中存储配准后微光图像像素在待配准微光图像中对应的四个点的地址和相应权值,然后利用双线性数字插值法计算对应的若干微光像素点灰度值。 
上述双线性数字插值法公式为: 
L(x,y)={L([x],[y])·(1-Δx)+L([x]+1,[y])·Δx}(1-Δy)+ 
{L([x],[y]+1)·(1-Δx)+L([x]+1,[y]+1)·Δx}Δy 
式中,[]为取整数;Δx,Δy,1-Δx,1-Δy分别为四个相邻像素点的权值。 
步骤8、对微光图像进行高斯金字塔分解,并由高斯金字塔建立图像的对比度金字塔; 
根据公式 
Figure 592297DEST_PATH_GSB00000669854700014
进行高斯金字塔分解,首先通过一次对l-1层微光图像与低通特性的窗口函数w(m,n)进行卷积,再把卷积结果作隔行隔列的降采样,即可得到。 
由高斯金字塔建立微光图像的对比度金字塔是由下述公式实现: 
CP l = G l G l * - I 0 ≤ l ≤ N - 1 CP N = G N l = N
式中,Gl是Guass金字塔的第l层图像,I为第l层的单位矩阵,CPl是对比度金字塔分解的第l层图像,而 G l * ( i , j ) = 4 Σ m = - 2 2 Σ n = - 2 2 ω ( m , n ) G l ( i + m 2 , j + n 2 ) .
步骤9、对红外图像建立的对比度金字塔层和微光图像建立的对比度金字塔层分别进行融合处理,最终得到融合图像的对比度金字塔,将该对比度金字塔进行图像重构, 得到融合图像; 
图像重构是对比度金字塔分解的逆过程 
Figure G2009100346780D00071
式中,Cpl F是第l层红外对比度金字塔图像和第l层微光对比度金字塔图像的融合图像,  G l F * ( i , j ) = 4 Σ m = - 2 2 Σ n = - 2 2 ω ( m , n ) G l F ( i + m 2 , j + n 2 ) .
从对比度金字塔的顶层开始逐层由上向下递推,可以恢复出融合图像的Gauss金字塔,并最终得到融合图像。 
步骤10、采用灰度叠加或者色度映射的方法将步骤4提取出的运动目标图像与融合图像进行二次融合,最终得到具有红外目标指示特性的融合图像。 
采用灰度叠加的方法将运动目标图像与融合图像进行二次融合的公式为: 
F*(x,y)=F(x,y)+α·T(x,y) 
式中F*(x,y)为二次融合图像,T(x,y)为运动目标图像,F(x,y)为融合图像,α为二次融合系数,α>0。 
采用色度映射的方法将运动目标与融合图像进行二次融合的公式为: 
F Y * ( x , y ) = F ( x , y ) F Cr * ( x , y ) = T ( x , y )
式中T(x,y)为运动目标图像,F(x,y)为融合图像,FY *(x,y)为二次融合图像的亮度分量,FCr *(x,y)为二次融合图像的色差分量。 
下面结合实施例对本发明做进一步详细的说明: 
本系统发明以高速DSP(TMS320DM642)和FPGA(EPM7128AE)为核心,研制了实时多光谱图像融合处理系统,实现像素级的目标识别和图像融合成像,系统结构如图5所示。系统采用高速DSP和FPGA协同工作,其中DSP工作主频高达720MHZ,处理能力可达5760MIPS,将承担图像图像配准、目标的识别以及红外与微光图像融合;FPGA实现图像的二次融合。视频输入为三路PAL/NTSC制标准视频信号(选择其中两 路),其中最大输入范围为0-1Vpp,采样精度为8位,采样频率为全电视信号27MHZ,亮度信号为13.5MHZ。视频输出为一路PAL/NTSC制标准视频信号,其中最大输出范围为0-1.23Vpp,灰度分辨率为10位,视频合成频率为27MHZ。图像融合系统将把前端(红外/微光成像系统)的信号处理和实时图像融合处理有机的结合在一起,实现了基于动态目标检测的图像融合。 
本实施例的流程如图1所示,所采集的红外和微光图像大小均为256×256,α取0.2,K取0.99,仿射变换系数(a11,a12,a21,a22,tx,ty)为(1.025,0.0,0.0,1.050,3.2,2.4),窗口函数w(m,n)采用 
w ( m , n ) = 1 256 1 4 6 4 1 4 16 24 16 4 6 24 36 24 6 4 16 24 16 4 1 4 6 4 1 ,
其他参数值如T0,T1,T2等在实施过程中自动生成。图像配准是图像融合必须的一步,因此在系统的初始化阶段,系统会根据仿射变换变换系数(1.025,0.0,0.0,1.050,3.2,2.4)逐像素计算出红外图像和微光图像的映射关系。被映射的微光图像像素点可能不在整数坐标上,需要利用相邻的4个像素采用双线性插值的方式来计算该像素灰度值。例如红外图像中坐标为(0,0)的像素对应微光图像中坐标为(3.2,2.4)的像素,该坐标不是整数值,需要坐标分别为(3,2)、(3,3)、(4,2)和(4,3)进行插值,对应权重分别为0.48,0.32,0.12和0.08。系统将会把被映射的每个像素点相邻的4个像素坐标和对应的权值存在系统的存储器里,供配准时使用。由于配准过程中不需要每次执行仿射变换运算,系统执行速度明显提高。 
红外视频被采集转换为图像数据以后,分为两路,一路进行目标提取,另一路进行金字塔分解。目标提取如具体实施方式中步骤1-4,首先判断是否有运动目标出现,然后判断帧差图像中的像素是属于背景还是属于目标,最后获得红外图像序列中的运动目标。包含有运动目标的红外图像如图6所示,提取的目标图像如图7所示。微光图像以红外图像为基准,通过仿射变换进行配准处理。另一路红外图像和经过配准后的微光图像同时进行金字塔分解,分解的红外和微光图像进行逐层融合,再行融合图像重构。图 8为经过配准的微光图像,图9为融合图像。融合图像序列再与提取的目标图像进行二次融合,最后获得最终融合图像,如图10(灰度叠加)和11所示(色度映射)。具体步骤为: 
第一步,以红外视频为参考通道。红外视频图像如图6所示,红外视频进入系统后分为两路,一路进行目标的提取,另一路进行金字塔分解。 
(1)通过与理想图像的比较,检测红外视场中是否有运动目标出现。本实例中图像的大小均为256×256。 
(2)判断帧差图像中像素属于背景还是目标。 
(3)准确提取出红外序列图像中的运动目标。 
提取出红外图像中的运动目标,结果如图7所示,同时可以获得目标在X轴和Y轴的坐标信息为(81,228)。 
(4)对另一路红外原始图像进行高斯金字塔分解。 
第二步,微光图像如图8所示,融合系统以红外视频为基准,对微光图像通过仿射变换进行配准处理。经过配准后的微光视频也进行金字塔分解。融合系统再对红外和微光图像进行逐层融合,并进行融合图像重构。 
(1)将微光图像仿射到红外图像坐标上,通过查表的方式,直接调用查找表中存储的配准后微光图像像素在待配准微光图像中对应的相邻四个像素的地址和相应权值,最后利用双线性数字插值计算对应的微光像素点灰度值,所述微光像素的灰度值会随着所观察的场景变换而变化。 
(2)对配准处理后的微光原始图像进行高斯金字塔分解。在本实例中,窗口函数w(m,n)采用 
w ( m , n ) = 1 256 1 4 6 4 1 4 16 24 16 4 6 24 36 24 6 4 16 24 16 4 1 4 6 4 1
(3)对微光原始图像和第一步中红外原始图像这两幅图像各个对比度金字塔层分别进行融合处理,不同层可以采用不同的融合算子进行处理,最终得到融合图像的对比度金字塔。 
(4)由融合后的对比度金字塔重构图像,融合后的对比度金字塔进行如图9所示。 
第三步,如果红外视场中存在运动目标并且被提取出来后,将进行红外目标与融合图像二次融合: 
方法一,灰度叠加。根据公式F*(x,y)=F(x,y)+α·T(x,y),直接把目标图像图7和融合图像图9叠加在一起,使得融合图像中目标图像区域亮度得到增强,其他区域的亮度保持不变。本实例中α的默认值取0.2。得到的结果如图10所示。 
方法二,色度映射。把融合图像图9和目标图像图7映射到YCrCb色度空间,使得目标区域与其他图像区域的颜色具有显著差别。将目标区域置成红色,其他图像区域仍然保持灰度显示, F Y * ( x , y ) = F ( x , y ) F Cr * ( x , y ) = T ( x , y ) , 得到结果如图11所示。 
可以看出,红外图像能够穿过遮挡物,准确地探测到热目标,而微光图像能够提供较丰富的细节信息,但是无法检测到被遮挡目标。但是经过融合处理以后,图像不仅准确反映出了目标信息,同时还较好地反映了细节。而经过二次融合后,在保证图像细节分辨率不降低的前提下,目标信息得到了加强,目标指示性显著。由于在进行目标提取的同时,还可以进行目标中心坐标的计算(例如图7中提取的红外目标的坐标为(81,228)),因此,最终的融合图像序列还可以进行精确的目标定位。 

Claims (7)

1.一种基于动态目标检测的图像融合方法,其特征在于,所述方法包括以下步骤:
(1)利用红外摄像头采集图像;
(2)将采集到的红外图像与理想图像进行比较,检测红外视场中是否有运动目标出现;如果有运动目标则执行步骤(3),否则返回步骤(1);
(3)对帧差图像中像素进行判断,可将运动目标中的运动方向前端的部分像素标记出来;
(4)通过种子像素的生长提取出红外图像序列中的运动目标,并且计算目标的坐标信息;
(5)对红外摄像头采集到的图像进行高斯金字塔分解,并由高斯金字塔建立图像的对比度金字塔;
(6)利用微光摄像头采集图像;
(7)以红外图像为基准,利用仿射变换的配准方法将微光图像仿射到红外图像的坐标上,利用查找表的方式实现图像的快速配准;
(8)对微光图像进行高斯金字塔分解,并由高斯金字塔建立图像的对比度金字塔;
(9)对红外图像建立的对比度金字塔层和微光图像建立的对比度金字塔层分别进行融合处理,最终得到融合图像的对比度金字塔,然后将该对比度金字塔进行图像重构,得到融合图像;
(10)采用灰度叠加或者色度映射的方法将步骤(4)提取出的运动目标图像与融合图像进行二次融合,最终得到具有红外目标指示特性的融合图像。
2.根据权利要求1所述的基于动态目标检测的图像融合方法,其特征在于,步骤(2)检测红外视场中是否有运动目标出现的步骤为:
第一、对理想图像 
Figure FSB00000545356700011
进行估计:
Figure FSB00000545356700012
式中0.99≤K<1,(x,y)表示图像中像素的坐标,In(x,y)表示第n帧图像中坐标(x,y)处像素的灰度值, 
Figure FSB00000545356700013
表示第n-1帧中,坐标(x,y)处像素灰度值的理想估计值;
第二、对理想图像的均方差 
Figure FSB00000545356700014
进行估计: 
Figure DEST_PATH_FSB00000691852400011
第三、将红外图像序列中当前帧图像所有坐标像素点的灰度值与理想图像的像素点的灰度值进行如下比较:
Figure DEST_PATH_FSB00000691852400012
取T0为N·σn(x,y),N为整幅图像的像素个数;如果∑|Dn(x,y)|>T0成立,则认为图像中存在了运动目标;否则认为图像中不存在运动目标。
3.根据权利要求2所述的基于动态目标检测的图像融合方法,其特征在于,步骤(3)对帧差图像中像素进行判断是通过下述方式实现:
首先,在红外序列图像中通过逐像素比较的方法求取前后两帧图像之间的差别;差分图像的表达式为:
ΔIn(x,y)=In(x,y)-In-1(x,y)
其次,令T1=2σn(x,y),通过下式对目标像素进行标记
Figure RE-FSB00000691852400013
在d(x,y)中,数值为255的像素对应了运动目标前部区域,目标的后部区域和背景区域为0;
第三,对目标边缘图像d(x,y)进行形态学的腐蚀和膨胀运算,消除闪烁噪声造成的亮点,排除误标的目标像素点。
4.根据权利要求2所述的基于动态目标检测的图像融合方法,其特征在于,步骤(4)提取出红外图像序列中的运动目标,并且计算目标的坐标信息的步骤为:
第一,选取d(x,y)中一个亮度为255的像素作为种子像素;
第二,设种子像素坐标为(x,y),以该像素为中心,向相邻的8个像素搜索,令
T1=2σn(x,y),
如果 则认为该像素为运动目标的一部分,
如果
Figure FSB00000545356700032
则认为该像素也是运动目标的一部分,否则,认为该像素不是属于运动目标;
第三,采用上述条件判断d(x,y)是否为运动目标的像素,如果是的话将d(x,y)标记为1,不是的话标记为2;
第四,继续向其邻域的8个像素进行搜索;如果遇到某像素未被标记,则返回第三步,否则不进行任何操作;
第五,将标记过1、2的像素作以下处理,则可以提取出红外图像中的运动目标:
Figure FSB00000545356700033
第六,通过以下公式可以获得目标在X轴和Y轴的坐标信息,
Figure FSB00000545356700034
Figure FSB00000545356700035
式中,Xs,Ys分别为红外目标在X轴和Y轴的坐标,N为所有标记为1的像素点总个数,(xi,yi)是所有标记为1的像素点的坐标。
5.根据权利要求1所述的基于动态目标检测的图像融合方法,其特征在于,步骤(7)利用仿射变换的配准方法将微光图像仿射到红外图像的坐标上,并利用查找表的方式实现图像的快速配准的具体步骤为:
第一、设红外图像像素点坐标(Ix,Iy),微光图像像素点坐标(Lx,Ly),根据仿射变换公式把微光图像仿射到红外图像坐标上,最终得到微光图像每个像素点的新地址:A=(a21Ix+a22Iy+ty)Line+(a11Ix+a12Iy+tx);
所述仿射变换公式为:
Figure FSB00000545356700036
其中
Figure DEST_PATH_FSB00000639620200011
为旋转矩阵,
Figure DEST_PATH_FSB00000639620200012
为平移矩阵,参数a11,a12,a21,a22,tx,ty通过专门的多源图像配准测试程序获得;
第二、建立查找表,在查找表中存储配准后微光图像像素在待配准微光图像中对应的四个点的地址和相应权值,然后利用双线性数字插值法计算对应的若干微光像素点灰度值,利用双线性数字插值法公式为:
L(x,y)={L([x],[y])·(1-Δx)+L([x]+1,[y])·Δx}(1-Δy)+
{L([x],[y]+1)·(1-Δx)+L([x]+1,[y]+1)·Δx}Δy
式中,[]为取整数;Δx,Δy,1-Δx,1-Δy分别为四个相邻像素点的权值。
6.根据权利要求1所述的基于动态目标检测的图像融合方法,其特征在于,步骤(10)采用灰度叠加的方法将运动目标图像与融合图像进行二次融合的公式为:
F*(x,y)=F(x,y)+α·T(x,y)
式中F*(x,y)为二次融合图像,T(x,y)为运动目标图像,F(x,y)为融合图像,α为二次融合系数,α>0。
7.根据权利要求1所述的基于动态目标检测的图像融合方法,其特征在于,步骤(10)采用色度映射的方法将运动目标与融合图像进行二次融合的公式为:
Figure RE-FSB00000639620200013
式中T(x,y)为运动目标图像,F(x,y)为融合图像, 
Figure RE-FSB00000639620200014
为二次融合图像的亮度分量, 为二次融合图像的色差分量。 
CN2009100346780A 2009-09-07 2009-09-07 基于动态目标检测的图像融合方法 Active CN101673396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100346780A CN101673396B (zh) 2009-09-07 2009-09-07 基于动态目标检测的图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100346780A CN101673396B (zh) 2009-09-07 2009-09-07 基于动态目标检测的图像融合方法

Publications (2)

Publication Number Publication Date
CN101673396A CN101673396A (zh) 2010-03-17
CN101673396B true CN101673396B (zh) 2012-05-23

Family

ID=42020609

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100346780A Active CN101673396B (zh) 2009-09-07 2009-09-07 基于动态目标检测的图像融合方法

Country Status (1)

Country Link
CN (1) CN101673396B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853492B (zh) * 2010-05-05 2012-07-04 浙江理工大学 一种夜视微光图像与红外图像融合方法
CN102298769A (zh) * 2011-06-11 2011-12-28 浙江理工大学 基于色彩传递的夜视弱光图像与红外图像的彩色融合方法
CN102298776B (zh) * 2011-08-17 2013-03-13 浙江大学 一种基于Random Walk的图像融合方法
CN102445681B (zh) * 2011-09-30 2013-07-03 深圳市九洲电器有限公司 一种可移动设备的室内定位方法与系统
CN102567979B (zh) * 2012-01-20 2014-02-05 南京航空航天大学 车载红外夜视系统及其多源图像融合方法
CN102622594A (zh) * 2012-03-07 2012-08-01 华南理工大学 一种基于红外和帧差的近距离目标提取方法
CN103903243A (zh) * 2014-04-15 2014-07-02 北京航空航天大学 一种利用形态学中心算子的图像融合方法
CN105260988B (zh) * 2015-09-09 2019-04-05 百度在线网络技术(北京)有限公司 一种高精地图数据的处理方法和装置
CN106339998B (zh) * 2016-08-18 2019-11-15 南京理工大学 基于对比度金字塔变换的多聚焦图像融合方法
CN106227216B (zh) * 2016-08-31 2019-11-12 朱明� 面向居家老人的家庭服务机器人
CN107274372B (zh) * 2017-06-26 2020-04-17 安健科技(重庆)有限公司 基于金字塔局部对比度的动态图像增强方法及装置
CN107705274B (zh) * 2017-08-21 2022-04-19 中国核电工程有限公司 一种基于数学形态学多尺度的微光与红外图像融合方法
CN108154493B (zh) * 2017-11-23 2021-11-30 南京理工大学 一种基于fpga的双波段红外图像伪彩融合算法
CN109003228B (zh) * 2018-07-16 2023-06-13 杭州电子科技大学 一种暗场显微大视场自动拼接成像方法
CN109319619A (zh) * 2018-09-14 2019-02-12 南京理工技术转移中心有限公司 一种电梯智能监控系统的工作方法
CN109360179B (zh) * 2018-10-18 2022-09-02 上海海事大学 一种图像融合方法、装置及可读存储介质
CN111968068A (zh) * 2020-08-18 2020-11-20 杭州海康微影传感科技有限公司 一种热成像图像的处理方法及装置
CN112418004B (zh) * 2020-11-05 2022-11-11 烟台艾睿光电科技有限公司 一种消防安全检测方法及相关组件
CN115100556B (zh) * 2022-08-25 2022-11-22 北京亮亮视野科技有限公司 基于图像分割与融合的增强现实的方法、装置及电子设备

Also Published As

Publication number Publication date
CN101673396A (zh) 2010-03-17

Similar Documents

Publication Publication Date Title
CN101673396B (zh) 基于动态目标检测的图像融合方法
CN102800086B (zh) 一种海上场景显著性检测方法
CN103729848B (zh) 基于光谱显著性的高光谱遥感图像小目标检测方法
CN103927741B (zh) 增强目标特征的sar图像合成方法
CN105956557B (zh) 一种面向对象的时序遥感影像云覆盖区域自动检测方法
CN103425967B (zh) 一种基于行人检测和跟踪的人流监控方法
Kong et al. Detecting abandoned objects with a moving camera
CN105306892B (zh) 一种证据链形式的船舶视频的生成及显示方法
CN103177433A (zh) 红外与微光图像融合方法
CN106815583A (zh) 一种基于mser和swt相结合的夜间车辆车牌定位方法
CN105894513B (zh) 顾及影像对象时空变化的遥感影像变化检测方法及系统
CN110189375A (zh) 一种基于单目视觉测量的图像目标识别方法
Yan et al. Improving the performance of image fusion based on visual saliency weight map combined with CNN
CN110460813A (zh) 一种基于视频流的集装箱图像采集装置及采集方法
CN111612895A (zh) 抗树叶遮挡的检测共享单车异常停放的cim实时成像方法
CN107705295A (zh) 一种基于稳健主成分分析法的图像差异检测方法
US20080002909A1 (en) Reconstructing Blurred High Resolution Images
CN115830064B (zh) 一种基于红外脉冲信号的弱小目标跟踪方法及装置
Shibata et al. Unified image fusion framework with learning-based application-adaptive importance measure
Hu et al. Infrared and visible image fusion based on multiscale decomposition with Gaussian and co-occurrence filters
Wei et al. Improved YOLO X with Bilateral Attention for Small Object Detection
Qin et al. Joint detection of airplane targets based on sar images and optical images
CN110136104A (zh) 基于无人机地面站的图像处理方法、系统及介质
Deng et al. Image fusion method for infrared and visible light images based on SWT and regional gradient
Cai et al. BAIFA: A Brightness Adaptive Image Fusion Algorithm for Robotic Visual Perception

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant