CN104463821A - 一种红外图像与可见光图像的融合方法 - Google Patents

一种红外图像与可见光图像的融合方法 Download PDF

Info

Publication number
CN104463821A
CN104463821A CN201410708994.2A CN201410708994A CN104463821A CN 104463821 A CN104463821 A CN 104463821A CN 201410708994 A CN201410708994 A CN 201410708994A CN 104463821 A CN104463821 A CN 104463821A
Authority
CN
China
Prior art keywords
image
infrared image
visible images
pixel
sur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410708994.2A
Other languages
English (en)
Inventor
金星
刘坤
赵军
王祎璠
詹轶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maritime University
China Aeronautical Radio Electronics Research Institute
Original Assignee
Shanghai Maritime University
China Aeronautical Radio Electronics Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maritime University, China Aeronautical Radio Electronics Research Institute filed Critical Shanghai Maritime University
Priority to CN201410708994.2A priority Critical patent/CN104463821A/zh
Publication of CN104463821A publication Critical patent/CN104463821A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种红外图像与可见光图像的融合方法,包含以下步骤:步骤1)对输入的红外图像和可见光图像进行显著性检测;步骤2)将红外图像和可见光图像作为外部激励和周围神经元的输出输入到PCNN模型中,并结合显著性检测结果对PCNN模型进行图像融合得到最终图像。本发明将红外图像与可见光图像同时输入到一个PCNN模型中,并以显著值为指导进行加权,从而实现了一种高效的非线性图像融合方法。

Description

一种红外图像与可见光图像的融合方法
技术领域
本发明属于图像融合技术领域,特别是涉及航空系统中红外图像与可见光图像融合技术的应用。
背景技术
本发明主要针对红外图像与可见光图像融合技术在航空系统中的应用设计了一种高效的红外图像与可见光图像融合算法。红外成像传感器与可见光成像传感器相比,红外成像传感器具有穿透烟尘能力强,并可以昼夜工作等优点,可见光图像则包含较多的边缘以及纹理信息。红外图像与可见光图像间信息存在冗余和互补。应用图像融合技术来更有效的分析和处理这些信息可以带来的效益有:
●实现多个成像传感器的信息共享、优势互补,增强作战飞机的态势感知能力;
●丰富了目标搜索、探测、跟踪、识别的手段,提高目标识别的可靠性;
●图像传感器大多工作方式为无源,支持隐蔽探测、隐蔽接敌,提升了飞机隐身与反隐身能力;
●采用智能算法处理多源图像,减轻了飞行员的工作负荷;
●提高航电系统综合化程度以及资源利用率。
一种简单的图像融合方法是对源图像的对应像素进行平均加权,但同时也带来了一些负面的影响,如降低图像的对比度。近年来,许多学者发现基于多分辨率分析的方法具有良好的图像表示能力,并被广泛的应用于图像融合之中,如金字塔算法、小波变换、多尺度几何小波等。虽然基于多分辨率分析的方法能够获得较好的融合性能,但算法的计算复杂度较大,尤其是基于多尺度几何小波的图像融合算法,虽然效果最佳,但很难做到实时。图像显著性检测可以得到代表图像显著性的标量图,关注于找出人类观察者第一眼所注意到的固定点或对象,图像中越显著的像素点将具有更大的标量值,而通过显著图来指导融合权重的分配则可以获得比普通平均加权更好的融合结果,使原始图像中的显著区域在融合图像中更好的凸显出来,针对可见光与红外图像的特点,通过显著性检测来指导融合,可以将可见光图像的边缘细节信息以及红外图像中的目标信息更好的融入到融合图像中,从而获得较好的融合效果。
脉冲耦合神经网络(Pulse Coupled Neural Network,PCNN)是模拟猫的视觉皮层细胞对视觉信号的处理机制而产生的一类新型神经网络模型,其信息处理的模式与人类视觉处理过程十分相似,并且可以根据不同的应用来对模型进行相应的改变,在图像处理领域有广泛的应用。在图像融合领域,基于PCNN模型的图像融合算法大致有三种类型,直接利用PCNN模型在空域进行融合的算法;将PCNN模型与多分辨率分析相结合的方法;双通道的PCNN模型等。直接利用PCNN模型的方法一般都需要多个PCNN模型,与多分辨率分析相结合的方法需要多分辨率分解与逆变换的过程,因此这些算法一般都具有较高的计算复杂度。虽然基于双通道PCNN模型的图像融合算法仅使用了一个PCNN模型从而使算法具有较高的效率,但其融合结果并不是对原始图像的加权平均,物理意义并不清晰,而且对于PCNN模型的非线性特性并没有充分利用。
发明内容
本发明所要解决的问题是提供一种高效的红外图像与可见光图像融合算法,提出了一种红外图像与可见光图像的融合方法,具有较大显著性值的像素在融合图像中将具有更大的权重;并设计了一种基于改进PCNN模型的图像融合框架,两幅图像同时输入到一个PCNN模型中,并以显著值为指导进行加权,从而实现了一种高效的非线性图像融合算法。
本发明的发明目的通过以下技术方案实现:
一种红外图像与可见光图像的融合方法,包含以下步骤:
步骤1)、对输入的红外图像和可见光图像进行显著性检测;
C ( i , j ) = Σ ( m , n ) ∈ Ω ω ( m , n , i , j ) d ( m , n , i , j ) Ψ ( m , n , i , j ) ,
其中,C(i,j)代表图像I中像素点(i,j)的对比度函数,Ω代表像素点(i,j)的邻域,(m,n)是像素点(i,j)邻域的坐标值,ω代表空间分布的重要度函数,d代表像素灰度差值的重要度函数,ψ代表像素点在整幅图像中稀有程度的函数;
步骤2)、将红外图像和可见光图像作为外部激励SA、SB和周围神经元的输出输入到PCNN模型中,并结合显著性检测结果对PCNN模型进行图像融合得到最终图像。
依据上述特征,所述空间分布的重要度函数ω的公式为:
ω ( m , n , i , j ) = 1 2 πδ 2 e - ( ( m - i ) 2 + ( n - j ) 2 ) / ( 2 δ 2 ) .
所述像素灰度差值的重要度函数d的公式为:
d(m,n,i,j)=|I(i,j)-I(m,n)|。
所述像素在整幅图像中稀有程度的函数ψ的公式为:
ψ ( m , n , i , j ) = ( Σ ( i , j ) ∈ I | I ( m , n ) - I ( i . j ) | - min ) / ( max - min ) .
依据上述特征,所述PCNN模型为:
H ij A [ n ] = S ij A + Σ k , l w ijkl Y kl [ n - 1 ]
H ij B [ n ] = S ij B + Σ k , l m ijkl Y kl [ n - 1 ]
U ij [ n ] = α ij A H ij A [ n ] + α ij B H ij B [ n ] + gain
Y ij [ n ] = U ij [ n ] - Sur ij [ n ] , U ij [ n ] > T ij [ n ] 0 , otherwise
T ij [ n ] = e - α T t ij [ n - 1 ] + V T Y ij [ n ] ,
其中,HA和HB代表两个对称的输入,αA和αB为两个输入的权重系数,其具体的值由显著图来决定,gain为人工添加的增益,U为神经元的内部活动信号,T为动态阈值,Y为神经元的脉冲输出信号,VT为动态阈值的放大系数,αT为动态阈值衰减系数,M和W为内部连接矩阵,Sur代表周围神经元的输入,kijkl=wijkl=mijkl,Surij=∑klkijklYkl[n-1]。
依据上述特征,所述步骤2)中图像融合的步骤为:
步骤2.1)初始化参数和矩阵,U=Y=O=0,T=100,gain=10,K=M=W=[0.1091 0.1049 0.1091;0.1409 0 0.1409;0.1091 0.1049 0.1091]。
步骤2.2)、 Sur = Y ⊗ K ;
HA=SA+Sur;
HB=SB+Sur;
U=αAHABHB+gain;
如果Uij>Tij,则Yij=Uij-Surij,否则Yij=0;
T = e - α T T + V T Y ;
gain=gain-2;
Oij=Yij
步骤2.3)、如果所有的神经元全部点火,则进入下一步,否则返回步骤2.2;
步骤2.4)、O为融合框架的最终输出。
依据上述特征,所述 α A = θ A θ A + θ B , α B = θ B θ A + θ B , 其中 θ i = e v i δ , i = A , B , A和B分别代表红外图像和可见光图像,δ是可调参数。
与现有技术相比,本发明充分利用了红外图像与可见光图像中的冗余和互补信息,增加了图像中目标的对比度,并且算法计算简单,实时性较好,能够增强作战飞机的态势感知能力;丰富目标搜索、探测、跟踪、识别的手段,提高目标识别的可靠性;图像传感器大多工作方式为无源,支持隐蔽探测、隐蔽接敌,提升了飞机隐身与反隐身能力;采用智能算法处理多源图像,减轻了飞行员的工作负荷;提高航电系统综合化程度以及资源利用率;具有较高的经济效益。
附图说明
图1为本发明的实施流程图;
图2a为本发明的实验数据—红外图像1;
图2b为本发明的实验数据—可见光图像1;
图2c为本发明的实验结果1;
图3a为本发明的实验数据—红外图像2;
图3b为本发明的实验数据—可见光图像2;
图3c为本发明的实验结果2。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
本发明主要解决红外图像与可见光图像融合技术中的有效性和实时性问题,设计了一种适用于灰度图像的视觉显著性检测方法,并利用得到的显著图指导融合,具有较大显著值的像素点将分配更大的权重。受到双通道PCNN模型的启发,设计了一种基于改进PCNN模型的图像融合框架,两幅图像可同时输入到一个PCNN模型中,并利用图像的显著性来指导融合,通过利用PCNN模型的非线性特性来设计融合规则,增加了图像中目标的对比度,从而获得了较好的融合效果。
本发明包括有:视觉显著性检测方法及基于改进PCNN模型的融合方法;
视觉显著性检测方法首先对输入的红外和可见光图像进行显著性检测,在灰度图像中显著性区域相比于周围区域应该具有更高的对比度,而对比度的值可以通过对应像素点与其周围像素点的灰度值差分计算得到。该算法主要考虑三点来确定对比度函数。1.像素点与其邻域像素点的灰度差,灰度差越大对对比度函数的贡献越大;2.像素点与其邻域像素点的距离,距离较近的像素点之间相互影响较大,对对比度函数的贡献也相对较大,反之则对对比度函数的贡献较小;3.像素点在图像中的稀有程度,一般情况下图像中越稀少的部分往往更加重要,因此应该具有更大的对比度函数值。
对图像I中点(i,j)的对比度函数C(i,j)的定义如公式(1)所示,其中Ω代表像素点(i,j)的邻域,(m,n)是像素点(i,j)邻域的坐标值,ω和d分别代表空间分布和像素灰度差值的重要度函数,ψ代表像素在整幅图像中稀有程度的函数。
C ( i , j ) = Σ ( m , n ) ∈ Ω ω ( m , n , i , j ) d ( m , n , i , j ) Ψ ( m , n , i , j ) - - - ( 1 ) .
式(2)中我们选择二维高斯核函数作为描述相邻点之间空间影响的重要度函数,其他的核函数也许会具有相似或更好的结果,本发明中不深入探讨。
ω ( m , n , i , j ) = 1 2 πδ 2 e - ( ( m - i ) 2 + ( n - j ) 2 ) / ( 2 δ 2 ) - - - ( 2 ) .
像素灰度差值的重要度函数如公式(3)定义:
d(m,n,i,j)=|I(i,j)-I(m,n)|  (3)。
代表像素稀有程度的函数定义如公式(4):
ψ ( m , n , i , j ) = ( Σ ( i , j ) ∈ I | I ( m , n ) - I ( i . j ) | - min ) / ( max - min ) - - - ( 4 ) .
通过将像素点的灰度值与整幅图像中所有的像素点灰度值作差并累计求和,图像中越稀有的像素点其所得的值将越大,然后通过最大最小值归一化得到像素点稀有程度的描述函数。
为了保证算法的实时性,我们将图像中具有相同亮度值的项合并,式(4)可以写成如下形式:
ψ ( m , n , i , j ) = ( Σ 255 k = 0 f k | I ( m , n ) - k | - min ) / ( max - min ) - - - ( 5 )
式中,fk是亮度值为k的像素在图像中出现的频率,k∈[0255],频率可以表示为直方图的形式。
像素点(m,n)的亮度值为v,将其与亮度为k的像素的灰度距离由函数D(v,k)表示,则稀有程度的描述函数计算可以简化如下:
ψ ( m , n , i , j ) = ( Σ 255 k = 0 f k D ( v , k ) - min ) / ( max - min ) - - - ( 6 )
本发明提出了一种基于改进PCNN模型的图像融合方法,如图1所示,在改进的模型中二个图像激励可以同时输入到一个PCNN模型中,改进模型的离散数学方程描述如下:
H ij A [ n ] = S ij A + Σ k , l w ijkl Y kl [ n - 1 ] - - - ( 7 )
H ij B [ n ] = S ij B + Σ k , l w ijkl Y kl [ n - 1 ] - - - ( 8 )
U ij [ n ] = α ij A H ij A [ n ] + α ij B H ij B [ n ] + gain - - - ( 9 )
Y ij [ n ] = U ij [ n ] - Sur ij [ n ] , U ij [ n ] > T ij [ n ] 0 , otherwise - - - ( 10 )
T ij [ n ] = e - α T t ij [ n - 1 ] + V T Y ij [ n ] - - - ( 11 )
HA和HB代表两个对称的输入,αA和αB为两个输入的权重系数,其具体的值由显著图来决定。gain为人工添加的增益,用于利用所设计融合框架的非线性融合特性增强融合图像的对比度。参数U代表神经元的内部活动信号,T为动态阈值,Y为神经元的脉冲输出信号,VT为动态阈值的放大系数,αT为动态阈值衰减系数,M和W为内部连接矩阵,w{ijkl},m{ijkl}为W和M中的值。Sur代表周围神经元的输入,一般情况下,kijkl=wijkl=mijkl,Surij=∑klkijklYkl[n-1]。K是外部连接矩阵,k{ijkl}代表K中的值。
基于改进PCNN模型的图像融合过程如下,首先,将外部激励和周围神经元的输出输入到模型中;然后,这些信息在模型的信息融合部分进行加权和混合;最后,随着阈值的衰减完成图像中所有信息的融合。具体的步骤如下:
1)初始化参数和矩阵,U=Y=O=0,T=100,gain=10,
K=M=W=[0.1091 0.1049 0.1091;0.1409 0 0.1409;0.1091 0.1049 0.1091]。
2) Sur = Y ⊗ K ;
HA=SA+Sur;
HB=SB+Sur;
U=αAHABHB+gain;
如果Uij>Tij,则Yij=Uij-Surij,否则Yij=0;
T = e - α T T + V T Y ;
gain=gain-2;
Oij=Yij
3)如果所有的神经元全部点火,则进入下一步,否则返回步骤2;
4)O为设计的融合框架的最终输出。
本发明中采用视觉显著图来指导融合,具有较大显著值的像素点在融合过程中将分配较大的权重,设θ为中间变量,令:
θ i = e v i δ , i = A , B - - - ( 12 )
其中δ是可调参数,在融合过程中用于调节融合系数对于显著值的敏感程度。本发明中δ的值设为10;v代表像素点的显著值,对比度C其实就是计算出来的v,但C是对比度的定义,v是用3*3窗口大小滑窗计算出来的值,多大窗口是可调的。根据得到的显著图可确定红外图像与可见光图像的对应像素点的显著值vA,vB,进行归一化得到:
α A = θ A θ A + θ B - - - ( 13 )
α B = θ B θ A + θ B - - - ( 14 )
图2a、图2b、图2c和图3a、图3b、图3c是本发明对两组经典的红外图像与可见光图像的融合结果,本发明算法很好的保持了可见光图像中的边缘细节信息以及红外图像中的目标信息,并且算法计算简单,对于320×240大小的图像,matlab仿真结果平均处理时间约0.9s。

Claims (7)

1.一种红外图像与可见光图像的融合方法,包含以下步骤:
步骤1)、对输入的红外图像和可见光图像进行显著性检测;
C ( i , j ) = Σ ( m , n ) ∈ Ω ω ( m , n , i , j ) d ( m , n , i , j ) ψ ( m , n , i , j ) ,
其中,C(i,j)代表图像I中像素点(i,j)的对比度函数,Ω代表像素点(i,j)的邻域,(m,n)是像素点(i,j)邻域的坐标值,ω代表空间分布的重要度函数,d代表像素灰度差值的重要度函数,ψ代表像素点在整幅图像中稀有程度的函数;
步骤2)、将红外图像和可见光图像作为外部激励SA、SB和周围神经元的输出输入到PCNN模型中,并结合显著性检测结果对PCNN模型进行图像融合得到最终图像。
2.根据权利要求1所述的一种红外图像与可见光图像的融合方法,其特征在于所述空间分布的重要度函数ω的公式为:
ω ( m , n , i , j ) = 1 2 π δ 2 e - ( ( m - i ) 2 + ( n - j ) 2 ) / ( 2 δ 2 ) .
3.根据权利要求1所述的一种红外图像与可见光图像的融合方法,其特征在于所述像素灰度差值的重要度函数d的公式为:
d(m,n,i,j)=|I(i,j)-I(m,n)|。
4.根据权利要求1所述的一种红外图像与可见光图像的融合方法,其特征在于所述像素在整幅图像中稀有程度的函数ψ的公式为:
ψ ( m , n , i , j ) = ( Σ ( i , j ) ∈ I | I ( m , n ) - I ( i , j ) | - min ) / ( max - min ) .
5.根据权利要求1所述的一种红外图像与可见光图像的融合方法,其特征在于所述PCNN模型为:
H ij A [ n ] = S ij A + Σ k , l w ijkl Y kl [ n - 1 ]
H ij B [ n ] = S ij B + Σ k , l w ijkl Y kl [ n - 1 ]
U ij [ n ] = α ij A H ij A [ n ] + α ij B H ij B [ n ] + gain
Y ij [ n ] = U ij [ n ] - Sur ij [ n ] , U ij [ n ] > T ij [ n ] 0 , otherwise
T ij [ n ] = e - α T T ij [ n - 1 ] + V T Y ij [ n ]
其中,HA和HB代表两个对称的输入,αA和αB为两个输入的权重系数,其具体的值由显著图来决定,gain为人工添加的增益,U为神经元的内部活动信号,T为动态阈值,Y为神经元的脉冲输出信号,VT为动态阈值的放大系数,αT为动态阈值衰减系数,M和W为内部连接矩阵,Sur代表周围神经元的输入,kijkl=wijkl=mijkl,Surij=∑klkijklYkl[n-1]。
6.根据权利要求1所述的一种红外图像与可见光图像的融合方法,其特征在于所述步骤2)中图像融合的步骤为:
步骤2.1)初始化参数和矩阵,U=Y=O=0,T=100,gain=10,K=M=W=[0.10910.10490.1091;0.140900.1409;0.10910.10490.1091]。
步骤2.2)、 Sur = Y ⊗ K ;
HA=SA+Sur;
HB=SB+Sur;
U=αAHABHB+gain;
如果Uij>Tij,则Yij=Uij-Surij,否则Yij=0;
T = e - α T T + V T Y ;
gain=gain-2;
Oij=Yij
步骤2.3)、如果所有的神经元全部点火,则进入下一步,否则返回步骤2.2;
步骤2.4)、O为融合图像的最终输出。
7.根据权利要求5或6所述的一种红外图像与可见光图像的融合方法,其特征在于所述其中i=A,B,A和B分别代表红外图像和可见光图像,δ是可调参数。
CN201410708994.2A 2014-11-28 2014-11-28 一种红外图像与可见光图像的融合方法 Pending CN104463821A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410708994.2A CN104463821A (zh) 2014-11-28 2014-11-28 一种红外图像与可见光图像的融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410708994.2A CN104463821A (zh) 2014-11-28 2014-11-28 一种红外图像与可见光图像的融合方法

Publications (1)

Publication Number Publication Date
CN104463821A true CN104463821A (zh) 2015-03-25

Family

ID=52909808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410708994.2A Pending CN104463821A (zh) 2014-11-28 2014-11-28 一种红外图像与可见光图像的融合方法

Country Status (1)

Country Link
CN (1) CN104463821A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104835129A (zh) * 2015-04-07 2015-08-12 杭州电子科技大学 一种使用局部窗口视觉注意提取的双波段图像融合方法
CN106327459A (zh) * 2016-09-06 2017-01-11 四川大学 基于udct和pcnn的可见光与红外图像融合算法
CN106897986A (zh) * 2017-01-23 2017-06-27 浙江大学 一种基于多尺度分析的可见光图像与远红外图像融合方法
CN108389158A (zh) * 2018-02-12 2018-08-10 河北大学 一种红外和可见光的图像融合方法
CN108961180A (zh) * 2018-06-22 2018-12-07 理光软件研究所(北京)有限公司 红外图像增强方法及系统
WO2020258816A1 (en) * 2019-06-25 2020-12-30 Zhejiang Dahua Technology Co., Ltd. Systems and methods for image processing
CN112241668A (zh) * 2019-07-18 2021-01-19 杭州海康威视数字技术股份有限公司 图像处理方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1873693A (zh) * 2006-06-27 2006-12-06 上海大学 基于Contourlet变换和改进型脉冲耦合神经网络的图像融合方法
CN102722877A (zh) * 2012-06-07 2012-10-10 内蒙古科技大学 基于双通道pcnn的多聚焦图像融合方法
CN103455990A (zh) * 2013-03-04 2013-12-18 深圳信息职业技术学院 结合视觉注意机制和pcnn的图像融合方法
CN103679670A (zh) * 2012-09-25 2014-03-26 中国航天科工集团第二研究院二〇七所 一种基于改进模型的pcnn多源图像融合方法
JP2014167673A (ja) * 2013-02-28 2014-09-11 Dainippon Printing Co Ltd 顕著性分析装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1873693A (zh) * 2006-06-27 2006-12-06 上海大学 基于Contourlet变换和改进型脉冲耦合神经网络的图像融合方法
CN102722877A (zh) * 2012-06-07 2012-10-10 内蒙古科技大学 基于双通道pcnn的多聚焦图像融合方法
CN103679670A (zh) * 2012-09-25 2014-03-26 中国航天科工集团第二研究院二〇七所 一种基于改进模型的pcnn多源图像融合方法
JP2014167673A (ja) * 2013-02-28 2014-09-11 Dainippon Printing Co Ltd 顕著性分析装置
CN103455990A (zh) * 2013-03-04 2013-12-18 深圳信息职业技术学院 结合视觉注意机制和pcnn的图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
戴花等: ""基于贝叶斯理论和统计学习的视觉显著性检测"", 《计算机应用》 *
杨秀林等: ""基于显著计算与自适应 PCNN 的图像融合方法"", 《山东大学学报(工学版)》 *
高智勇等: ""结合图像全局和区域特性的显著性检测"", 《中南民族大学学报( 自然科学版)》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104835129A (zh) * 2015-04-07 2015-08-12 杭州电子科技大学 一种使用局部窗口视觉注意提取的双波段图像融合方法
CN104835129B (zh) * 2015-04-07 2017-10-31 杭州电子科技大学 一种使用局部窗口视觉注意提取的双波段图像融合方法
CN106327459A (zh) * 2016-09-06 2017-01-11 四川大学 基于udct和pcnn的可见光与红外图像融合算法
CN106327459B (zh) * 2016-09-06 2019-03-12 四川大学 基于udct和pcnn的可见光与红外图像融合方法
CN106897986A (zh) * 2017-01-23 2017-06-27 浙江大学 一种基于多尺度分析的可见光图像与远红外图像融合方法
CN106897986B (zh) * 2017-01-23 2019-08-20 浙江大学 一种基于多尺度分析的可见光图像与远红外图像融合方法
CN108389158A (zh) * 2018-02-12 2018-08-10 河北大学 一种红外和可见光的图像融合方法
CN108961180A (zh) * 2018-06-22 2018-12-07 理光软件研究所(北京)有限公司 红外图像增强方法及系统
CN108961180B (zh) * 2018-06-22 2020-09-25 理光软件研究所(北京)有限公司 红外图像增强方法及系统
WO2020258816A1 (en) * 2019-06-25 2020-12-30 Zhejiang Dahua Technology Co., Ltd. Systems and methods for image processing
US11967052B2 (en) 2019-06-25 2024-04-23 Zhejiang Dahua Technology Co., Ltd. Systems and methods for image processing
CN112241668A (zh) * 2019-07-18 2021-01-19 杭州海康威视数字技术股份有限公司 图像处理方法、装置及设备

Similar Documents

Publication Publication Date Title
CN104463821A (zh) 一种红外图像与可见光图像的融合方法
US10198689B2 (en) Method for object detection in digital image and video using spiking neural networks
EP3869459B1 (en) Target object identification method and apparatus, storage medium and electronic apparatus
CN103177458B (zh) 一种基于频域分析的可见光遥感图像感兴趣区域检测方法
Mingolla et al. A neural network for enhancing boundaries and surfaces in synthetic aperture radar images
CN103700114B (zh) 一种基于可变高斯混合数的复杂背景建模方法
CN102819740B (zh) 一种单帧红外图像弱小目标检测和定位方法
CN104700381A (zh) 一种基于显著目标的红外与可见光图像融合方法
CN113989702B (zh) 一种目标识别方法和装置
CN103065136A (zh) 一种基于视觉注意机制的sar图像协同目标识别方法
CN105023013B (zh) 基于局部标准差和Radon变换的目标检测方法
Ruban et al. Method for determining elements of urban infrastructure objects based on the results from air monitoring
CN105405132A (zh) 基于视觉反差和信息熵的sar图像人造目标检测方法
Yin et al. Significant target analysis and detail preserving based infrared and visible image fusion
CN100589520C (zh) 一种彩色图像边缘和角点特征检测方法
Kong et al. Fusion method for infrared and visible images based on improved quantum theory model
CN103544488A (zh) 一种人脸识别方法及装置
Chumuang et al. Analysis of X-ray for locating the weapon in the vehicle by using scale-invariant features transform
Tang et al. Adversarial patch attacks against aerial imagery object detectors
CN105894008A (zh) 结合特征点匹配及深度神经网络检测的目标运动跟踪方法
CN104463104A (zh) 一种静态车辆目标快速检测方法及装置
CN102682297A (zh) 模拟视觉细胞感受野特性的pcnn人脸图像分割方法
Qi et al. Extraction and Classification of Image Features for Fire Recognition Based on Convolutional Neural Network.
CN102567997A (zh) 基于稀疏表示和视皮层注意机制的目标检测方法
Zhang et al. The range of harmful frequency for DNN corruption robustness

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150325