CN111210422B - 一种基于红外图像的对空目标检测方法 - Google Patents

一种基于红外图像的对空目标检测方法 Download PDF

Info

Publication number
CN111210422B
CN111210422B CN202010033737.9A CN202010033737A CN111210422B CN 111210422 B CN111210422 B CN 111210422B CN 202010033737 A CN202010033737 A CN 202010033737A CN 111210422 B CN111210422 B CN 111210422B
Authority
CN
China
Prior art keywords
image
point
neighborhood
brightness difference
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010033737.9A
Other languages
English (en)
Other versions
CN111210422A (zh
Inventor
曾慧
修海鑫
刘红敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology Beijing USTB
Original Assignee
University of Science and Technology Beijing USTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Beijing USTB filed Critical University of Science and Technology Beijing USTB
Priority to CN202010033737.9A priority Critical patent/CN111210422B/zh
Publication of CN111210422A publication Critical patent/CN111210422A/zh
Application granted granted Critical
Publication of CN111210422B publication Critical patent/CN111210422B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本发明提供一种基于红外图像的对空目标检测方法,能够较为有效地对红外图像序列中的对空小目标进行检测。所述方法包括:提取红外图像各像素点邻域的对比度特征,生成对比度图像;提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像;融合对比度图像和邻域亮度差分图像;对融合后的图像进行置零操作的双阈值处理,提取目标位置。本发明适用于基于红外图像的对空目标检测。

Description

一种基于红外图像的对空目标检测方法
技术领域
本发明涉及计算机视觉领域,特别是指一种基于红外图像的对空目标检测方法。
背景技术
红外目标的检测方法大致可分为两类:先跟踪后检测(TBD,Track BeforeDetect)、先检测后跟踪(DBT,Detect Before Track)。TBD方法一般需要一些先验信息,使用相邻的多张图像,根据计算出的可能的路径的后验概率估计出目标位置。这些方法对于机动性强、移动速度快的目标不太适用。而且TBD方法一般计算量较大,实时性较差。与TBD方法相比,DBT方法实现简单、计算速度快、计算资源需求少、需要的先验知识少,一直是红外目标检测方法研究中备受关注的方向。现有的DBT方法有基于传统图像处理方法实现的方法,有基于边缘检测方法实现的方法,这些方法对噪声较为敏感,易受到杂波干扰。而基于学习的方法依赖于训练样本以及特征的设计,由于对空红外目标样本较少,难以覆盖全面,因此基于学习的方法不易于实现。近年来有不少基于人类视觉机理的方法被提出来,但这些方法也或多或少存在由于噪声的干扰而导致虚警率较高的问题。
发明内容
本发明要解决的技术问题是提供一种基于红外图像的对空目标检测方法,以解决现有技术所存在的由于噪声干扰和目标亮度不均匀导致的虚警率高的问题,并提高检出率。
为解决上述技术问题,本发明实施例提供一种新的基于红外图像的对空目标检测方法,包括:
提取红外图像各像素点邻域的对比度特征,生成对比度图像;
提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像;
融合对比度图像和邻域亮度差分图像,生成融合后的图像;
对融合后的图像进行置零操作的双阈值处理,提取目标位置。
进一步地,所述提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像包括:
定义红外图像中点(x,y)处的邻域亮度差分指标D(x,y)为:
Figure GDA0003826813640000022
其中,Dk(x,y)为点(x,y)处第k个尺度的亮度差分。所述点(x,y)处第k个尺度的亮度差分Dk(x,y)定义为:
Dk(x,y)=Ak(x,y)-Ak+1(x,y)
其中,Ak(x,y)为点(x,y)处第k个尺度的邻域内的像素值的平均值。所述点(x,y)处第k个尺度的邻域内的像素值的平均值Ak(x,y)定义为:
Figure GDA0003826813640000021
其中,f(u,v)为图像中点(u,v)处的像素值,Ωk为点(x,y)处第k个尺度的邻域,Nk为Ωk内的像素点的个数。所述点(x,y)处第k个尺度的邻域Ωk定义为:
Ωk={(u,v)|max{|u-x|,|v-y|}≤k},k=1,2,…,L
其中,L为所考虑的最大尺度。
所述生成的邻域亮度差分图像中点(x,y)处的值即为红外图像中点(x,y)处的邻域亮度差分指标D(x,y)。
进一步地,所述融合对比度图像和邻域亮度差分图像包括:
定义图像中点(x,y)处的最终的检测指标R(x,y)为:
R(x,y)=C(x,y)×D(x,y)
其中,C(x,y)为点(x,y)处邻域的对比度,D(x,y)为点(x,y)处的邻域亮度差分指标。点(x,y)处的最终检测指标R(x,y)即为点(x,y)处邻域的对比度和点(x,y)处的邻域亮度差分指标的乘积。
所述融合对比度图像和邻域亮度差分图像生成的融合后的图像中,点(x,y)处的值即为点(x,y)处的最终的检测指标R(x,y)。
进一步地,所述对融合后的图像进行置零操作的双阈值处理,提取目标位置包括:
利用T1、T2对融合后的图像做置零的阈值处理,得到图像I1、I2。其中图像I2中,点(x,y)处的值I2(x,y)为:
Figure GDA0003826813640000031
图像I1中,点(x,y)处的值I1(x,y)为:
Figure GDA0003826813640000032
其中,R(x,y)为融合后的图像中,点(x,y)处的值,也即红外图像中,点(x,y)处的最终的检测指标。
进一步地,对于图像I2中的每个连通域,在I1中寻找与之有交集的连通域,得到图像I0。其中图像I0在点(x,y)处的值I0(x,y)为:
Figure GDA0003826813640000033
进一步地,对于每个I0中的连通域Λ,提取目标位置:
Figure GDA0003826813640000034
其中,S为连通域Λ中所有像素的像素值之和,即:
Figure GDA0003826813640000035
/>
本发明的上述技术方案的有益效果如下:
上述方案中,提取红外图像各像素点邻域的对比度特征,生成对比度图像;提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像;融合对比度图像和邻域亮度差分图像,生成融合后的图像;对融合后的图像进行置零操作的双阈值处理,提取目标位置。这样,可以充分利用局部对比度与邻域亮度差分两种指标的特点,并通过置零操作的双阈值法,削弱噪声的干扰和目标亮度不均匀的影响,降低虚警率,同时提高检出率。
附图说明
图1为本发明实施例提供的一种基于红外图像的对空目标检测方法的流程示意图;
图2为本发明实施例提供的一种基于红外图像的对空目标检测方法的详细流程示意图;
图3为本发明实施例提供的在目标和背景像素的邻域亮度差分图像;
图4为本发明实施例提供的用于测试实施例性能的测试样例图像;
图5为本发明实施例提供的本发明与不同现有方法的ROC曲线。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明针对现有技术所存在的由于噪声干扰导致的虚警率高的问题,提供一种新的基于红外图像的对空目标检测方法。
如图1所示,本发明实施例提供的基于红外图像的对空目标检测方法,包括:
S101,提取红外图像各像素点邻域的对比度特征,生成对比度图像;
S102,提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像;
S103,融合对比度图像和邻域亮度差分图像,生成融合后的图像;
S104,对融合后的图像进行置零操作的双阈值处理,提取目标位置。
本发明实施例所述的基于红外图像的对空目标检测方法,提取红外图像各像素点邻域的对比度特征,生成对比度图像;提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像;融合对比度图像和邻域亮度差分图像,生成融合后的图像;对融合后的图像进行置零操作的双阈值处理,提取目标位置。这样,可以充分利用局部对比度与邻域亮度差分指标两种指标的特点,并通过置零操作的双阈值法,削弱噪声的干扰和目标亮度不均匀的影响,降低虚警率,同时提高检出率。
为了更好地理解本发明实施例所述的基于红外图像的对空目标检测方法,对所述方法进行详细说明,如图2所示,所述方法具体可以包括:
A11,提取红外图像各像素点邻域的对比度特征,生成对比度图像
考虑到对空目标距离红外传感器一般较远,在红外图像上所占据的尺寸较小,且外观通常表现为一个高亮的光斑。而背景则表现为相对亮度较暗的大面积连续区域。根据这样的特点,并考虑目标在红外图像中可能存在一定尺寸的变化,本实施例采取如下方式提取图像各点处的局部对比度。
首先,定义红外图像中,点(x,y)处的第k个尺度的邻域Ωk为:
Ωk={(u,v)|max{|u-x|,|v-y|}≤k},k=1,2,…,L (1)
其中,L为所考虑的最大尺度。
对红外图像中的每个点(x,y)以及所考虑的所有尺度k=1,2,…,L,在点(x,y)处的第k个尺度的邻域Ωk内,计算点(x,y)处第k个尺度的邻域内的像素值的平均值Ak(x,y):
Figure GDA0003826813640000051
其中,f(u,v)为图像中点(u,v)处的像素值,Nk为Ωk内的像素点的个数。计算点(x,y)处第k个尺度的局部对比度Ck(x,y):
Ck(x,y)=(Ak(x,y)-AL(x,y))2 (3)
即点(x,y)处第k个尺度的邻域内的像素值的平均值与所考虑的最大尺度(第L个尺度)的邻域内的像素值的平均值之差的平方。
计算点(x,y)处的局部对比度C(x,y):
C(x,y)=maxk{Ck(x,y)} (4)
即从不同尺度的局部对比度中取最大值作为点(x,y)处的局部对比度指标。
最后,所述提取红外图像各像素点邻域的对比度特征,生成的对比度图像中,点(x,y)处的值即为红外图像点(x,y)处的局部对比度C(x,y)。
通过这种考虑多尺度的方式,计算不同尺度邻域与考虑的最大尺度邻域内平均灰度之差的平方,利用了目标与背景间的高对比度的特点,并考虑到了目标在红外图像中的尺度变化,可突出红外图像中不同尺度的目标。
A12,提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像
红外图像中的对空目标与背景之间的高对比度还体现在目标与背景之间有明显的不连续性。将A11中所述的点(x,y)处第k个尺度的邻域内的像素值的平均值Ak(x,y)与第k个尺度的邻域内的像素值的平均值Ak+1(x,y)相减可得到类似于图3所示的相邻尺度邻域内平均灰度的差分。图3中(a)图为红外图像中目标所在像素点的邻域亮度差分指标,(b)图为红外图像中背景所在像素点的邻域亮度差分指标。从图3中可以看出,目标所在像素点的邻域亮度差分指标有一个明显的凸出,而背景所在像素点的邻域亮度差分指标则较为平滑。这也是本发明中利用邻域亮度差指标分作为检测红外图像中对空目标的依据。
首先,对红外图像中的每个点(x,y)和所有考虑的尺度k=1,2,…,L,计算点(x,y)处第k个尺度的邻域内的像素值的平均值。其定义与A11中的相同,这里不再赘述。
计算点(x,y)处第k个尺度的邻域内的亮度差分Dk(x,y):
Dk(x,y)=Ak(x,y)-Ak+1(x,y) (5)
即相邻尺度邻域内像素值的平均值的差分。
计算点(x,y)处的邻域亮度差分指标D(x,y):
D(x,y)=maxk{Dk(x,y),0} (6)
即从不同尺度的邻域亮度差分中取最大值作为点(x,y)处的邻域亮度差分指标。
最后,所述提取红外图像各像素点的邻域亮度差分特征,生成的邻域亮度差分图像中,点(x,y)处的值即为红外图像中点(x,y)处的邻域亮度差分指标D(x,y)。
这样,便可以找到点(x,y)不同尺度的邻域亮度差分中的最大值。当点(x,y)位目标所在像素点时,该指标将得到较大的值,且目标与背景之间的不连续性,也就是亮度的突变越明显,该指标得到的值也就越大。而相反,当点(x,y)为背景像素时,该指标得到的值则较小。
A13,融合对比度图像和邻域亮度差分图像,生成融合后的图像
A11和A12中生成的对比度图像和邻域亮度差分图像是的目标更为突出,但均存在不同程度的杂波干扰,这也是导致最终虚警率较高的主要原因之一。因此本发明中融合以上两种特征,进一步对目标区域进行增强,并消除杂波的干扰。
融合A11和A12中生成的对比度图像和邻域亮度差分图像,即将对比度图像和邻域亮度差分图像进行元素间乘法,得到最终的融合后的图像。
融合后的图像中点(x,y)处的值通过以下公式计算:
R(x,y)=C(x,y)×D(x,y) (7)
其中,C(x,y)为点(x,y)处邻域的对比度,D(x,y)为点(x,y)处的邻域亮度差分。点(x,y)处的最终检测指标R(x,y)即为点(x,y)处邻域的对比度和点(x,y)处的邻域亮度差分指标的乘积。
最后,所述融合对比度图像和邻域亮度差分图像,生成的融合后的图像中,点(x,y)处的值即为点(x,y)处的最终的检测指标R(x,y)。
这样通过融合两种特征,进一步突出红外图像中目标所在的像素,避免由单一特征中存在的不足导致的杂波的残留,并使目标更为明显。
A14,对融合后的图像进行置零操作的双阈值处理,提取目标位置
在融合了两个特征之后,在融合后的图像中,绝大部分背景杂波被滤除,而目标区域也变得更为突出。但融合后的图像中,仍难免存在低亮度的杂波。同时,对于不均匀的目标,单一阈值也容易将亮度不均匀的目标错误地提取为两个。因此本发明中采用双阈值的方法,即通过一大一小两个阈值,对目标的位置进行提取。
本实施例中阈值T1、T2通过以下公式计算得到:
T1=μ+k1×σ (8)
T2=μ+k2×σ (9)
其中,μ为所述融合后的图像的均值,即
Figure GDA0003826813640000071
σ为所述融合后的图像的标准差,即/>
Figure GDA0003826813640000072
N为所述融合后的图像总的像素数目;R(x,y)为融合后的图像中,点(x,y)处的值,也即红外图像中,点(x,y)处的最终的检测指标。
在计算得到一大一小两个阈值之后,利用两个阈值分别对融合后的图像应用置零操作的阈值处理,得到图像I1、I2。其中图像I2中,点(x,y)处的值I2(x,y)为:
Figure GDA0003826813640000081
图像I1中,点(x,y)处的值I1(x,y)为:
Figure GDA0003826813640000082
/>
进一步地,对于应用大阈值获得的图像中的每个连通域,在应用小阈值获得的图像中寻找与之有交集的连通域,得到图像I0。在本实施例中,T1<T2,因此对于图像I2中的每个连通域,在I1中寻找与之有交集的连通域,得到图像I0。其中图像I0在点(x,y)处的值I0(x,y)为:
Figure GDA0003826813640000083
进一步地,在得到图像I0之后,对于每个I0中的连通域Λ,提取目标位置:
Figure GDA0003826813640000084
其中,S为连通域Λ中所有像素的像素值之和,即:S=∑(x,y)∈ΛI0(x,y)。
为了验证本发明的效果,本实施例使用如下评价指标:
(1)检出率(Probability of Detection,PD):检测出的正确的目标的个数与数据集中总的目标的个数的比值,衡量检测方法的检测能力,数值越高越好。
(2)虚警率(False Alarm ratio,FA):存在虚警的帧数与数据集中总的帧数的比值,数值越小越好。
(3)受试者工作特征(Receiver Operation Characteristics,ROC)曲线:检出率与虚警率的曲线,可以直观地看出检出率随虚警率的变换趋势。
本实施例所述的基于红外图像的对空目标检测方法具有以下优点:
(1)针对应用单一指标对红外图像中的对空目标进行检测的方法容易残留过多的杂波导致虚警率较高的问题,本发明提出了一种新的检测指标,并融合了复数个检测指标对红外图像中的对空目标进行检测。该方法能够克服单一指标导致的杂波残留过多的问题,有效降低虚警率。
(2)本发明中的检测指标采用了多尺度的计算方法,对红外图像中对空目标尺寸的变化具有一定的适应性。
(3)针对融合后的图像可能残留的较暗的杂波,和红外图像中目标亮度可能不均匀导致应用单一阈值提取时可能出现错误提取的问题,本发明在提取目标的过程中,应用了双阈值的提取方法,即使用较大的阈值确定目标的大致位置,消去融合后的图像中可能残留的杂波,应用较小的阈值确定目标的形状,防止目标由于亮度不均匀而被错误地提取成两个,有效降低检测方法的虚警率。
本实施例中,应用了两组共70张对空目标的红外图像序列来讨论所述的基于红外图像的对空目标检测方法的性能。
如图4所示,图4中(a)、(b)分别为两个序列中的一幅图像。(a)所在的序列中,图像云层较多,目标较小,且明显与厚重的云层混杂在了一起。(b)所在的序列中,图像云层较为稀薄,但目标的尺寸较大,且存在一定目标亮度不均的现象。
在实施过程中,首先对输入图像提取红外图像各像素点邻域的对比度特征,生成对比度图像;再对输入图像提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像。然后,将生成的对比度图像和邻域亮度差分图像融合,生成融合后的图像。最后,对融合后的图像进行置零操作的双阈值处理,提取目标位置。本发明应用的基于红外图像的对空目标检测方法的流程图如图1、图2所示。
在本实施例中,对于所述提取红外图像各像素点邻域的对比度特征和所述提取红外图像各像素点的邻域亮度差分特征时所考虑的最大的尺度L设置为L=4。
为了验证本发明所述方法的性能,本文通过实验将其与其他方法进行了比较,测得了不同方法的ROC曲线,实验结果如图5所示。并几个方法中选择性能优异的方法测试在不同阈值的条件下,检测方法对输入图像的检出率与虚警率,实验结果如表1及表2所示。图5中,WLDM(Weighted Local Difference Measure)、MPCM(Multiscale Patch-basedContrast Measure)、LMWIE(Local Mutation Weighted Information Entropy)、LCM(Local Contrast Measure)和AGADM(Average Gray Absolute Difference Maximum)分别为现有的不同的红外目标检测方法。而在对比检出率与虚警率时,实验选择了性能优异的WLDM方法。实验中对不同的方法通过实验选择了检测效果最优异的参数来与本发明所述的方法进行对比。从图5中可以看出,本发明所述的方法可以在较高的检出率的条件下,保持较低的虚警率,具有较好的检测性能。从表1及表2中可以看出,本文的方法在随着阈值的提高,虚警率在不断下降;而WLDM方法随着阈值的不断增大,虚警率呈现出先下降后上升的走向。WLDM虚警率的升高,是由于其采用的单阈值的目标提取策略,导致在阈值增大到一定程度后,由于目标体积较大,亮度不均,导致目标区域错误地被分割为两个区域,从而导致虚警率的升高。与其他几种方法相比,本发明所述的检测方法具有明显优势。
表1 本发明在阈值参数khigh取不同值时的检出率与虚警率
k<sub>high</sub> 1 11 21 31 41 51 61 71 81 91 101
Pd 100% 100% 100% 100% 100% 100% 100% 95% 82% 55% 37%
Fa 67% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0%
表2 WLDM在阈值参数k取不同值时的检出率与虚警率
k 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
pd 100% 100% 100% 100% 97% 97% 95% 95% 92% 90% 0%
fa 100% 30% 5% 17% 35% 57% 72% 72% 65% 50% 0%
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (3)

1.一种基于红外图像的对空目标检测方法,其特征在于,包括:
提取红外图像各像素点邻域的对比度特征,生成对比度图像;
提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像;
融合对比度图像和邻域亮度差分图像,生成融合后的图像;
对融合后的图像进行置零操作的双阈值处理,提取目标位置;
其中,所述提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像包括:
定义红外图像中点(x,y)处的邻域亮度差分指标D(x,y)为:
Figure FDA0003838327280000011
其中,Dk(x,y)为点(x,y)处第k个尺度的亮度差分;所述点(x,y)处第k个尺度的亮度差分Dk(x,y)定义为:
Dk(x,y)=Ak(x,y)-Ak+1(x,y)
其中,Ak(x,y)为点(x,y)处第k个尺度的邻域内的像素值的平均值;所述点(x,y)处第k个尺度的邻域内的像素值的平均值Ak(x,y)定义为:
Figure FDA0003838327280000012
其中,f(u,v)为图像中点(u,v)处的像素值,Ωk为点(x,y)处第k个尺度的邻域,Nk为Ωk内的像素点的个数;所述点(x,y)处第k个尺度的邻域Ωk定义为:
Ωk={(u,v)|max{|u-x|,|v-y|}≤k},k=1,2,...,L
其中,L为所考虑的最大尺度;
所述生成的邻域亮度差分图像中点(x,y)处的值即为红外图像中点(x,y)处的邻域亮度差分指标D(x,y)。
2.根据权利要求1所述的基于红外图像的对空目标检测方法,其特征在于,所述融合对比度图像和邻域亮度差分图像包括:
定义图像中点(x,y)处的最终的检测指标R(x,y)为:
R(x,y)=C(x,y)×D(x,y)
其中,C(x,y)为点(x,y)处邻域的对比度,D(x,y)为点(x,y)处的邻域亮度差分指标;点(x,y)处的最终检测指标R(x,y)即为点(x,y)处邻域的对比度和点(x,y)处的邻域亮度差分的乘积;
所述融合对比度图像和邻域亮度差分图像生成的融合后的图像中,点(x,y)处的值即为点(x,y)处的最终的检测指标R(x,y)。
3.根据权利要求1所述的基于红外图像的对空目标检测方法,其特征在于,所述对融合后的图像进行置零操作的双阈值处理,提取目标位置包括:
取T1<T2,利用T1、T2对融合后的图像做置零的阈值处理,得到图像I1、I2;其中图像I2中,点(x,y)处的值I2(x,y)为:
Figure FDA0003838327280000021
图像I1中,点(x,y)处的值I1(x,y)为:
Figure FDA0003838327280000022
其中,R(x,y)为融合后的图像中,点(x,y)处的值,也即红外图像中,点(x,y)处的最终的检测指标;
进一步地,对于图像I2中的每个连通域,在I1中寻找与之有交集的连通域,得到图像I0;其中图像I0在点(x,y)处的值I0(x,y)为:
Figure FDA0003838327280000023
进一步地,对于每个I0中的连通域Λ,提取目标位置:
Figure FDA0003838327280000024
其中,S为连通域Λ中所有像素的像素值之和,即:
S=∑(x,y)∈ΛI0(x,y)。
CN202010033737.9A 2020-01-13 2020-01-13 一种基于红外图像的对空目标检测方法 Active CN111210422B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010033737.9A CN111210422B (zh) 2020-01-13 2020-01-13 一种基于红外图像的对空目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010033737.9A CN111210422B (zh) 2020-01-13 2020-01-13 一种基于红外图像的对空目标检测方法

Publications (2)

Publication Number Publication Date
CN111210422A CN111210422A (zh) 2020-05-29
CN111210422B true CN111210422B (zh) 2023-03-24

Family

ID=70786746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010033737.9A Active CN111210422B (zh) 2020-01-13 2020-01-13 一种基于红外图像的对空目标检测方法

Country Status (1)

Country Link
CN (1) CN111210422B (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106887002B (zh) * 2017-04-01 2019-09-20 南京师范大学 一种红外图像序列显著性检测方法
CN108182690B (zh) * 2017-12-29 2019-02-15 中国人民解放军63861部队 一种基于前景加权局部对比度的红外微弱目标检测方法
CN109711256B (zh) * 2018-11-27 2022-12-09 天津津航技术物理研究所 一种低空复杂背景无人机目标检测方法
CN109934224B (zh) * 2019-03-07 2023-06-09 绵阳慧视光电技术有限责任公司 基于马尔科夫随机场和视觉对比机制的小目标检测方法

Also Published As

Publication number Publication date
CN111210422A (zh) 2020-05-29

Similar Documents

Publication Publication Date Title
Ji et al. Effective vehicle detection technique for traffic surveillance systems
CN109242853B (zh) 一种基于图像处理的pcb缺陷智能检测方法
Aminzadeh et al. Automatic thresholding for defect detection by background histogram mode extents
CN111833366A (zh) 一种基于Canny算法的边缘检测方法
CN110796687B (zh) 天空背景红外成像多目标跟踪方法
Qiang et al. An edge-detection method based on adaptive canny algorithm and iterative segmentation threshold
Sridevi et al. A survey on monochrome image segmentation methods
CN103440644A (zh) 一种基于最小描述长度的多尺度图像弱边缘检测方法
CN108898132B (zh) 一种基于形状上下文描述的太赫兹图像危险品识别方法
CN114399522A (zh) 一种基于高低阈值的Canny算子的边缘检测方法
Wang et al. Noise-robust line detection using normalized and adaptive second-order anisotropic Gaussian kernels
Parida et al. 2-D Gabor filter based transition region extraction and morphological operation for image segmentation
CN111429485B (zh) 基于自适应正则化和高信度更新的跨模态滤波跟踪方法
Warif et al. CMF-iteMS: An automatic threshold selection for detection of copy-move forgery
CN107273803B (zh) 云层图像检测方法
CN109829902B (zh) 一种基于广义S变换和Teager属性的肺部CT图像结节筛选方法
CN111210422B (zh) 一种基于红外图像的对空目标检测方法
Xu et al. Features based spatial and temporal blotch detection for archive video restoration
Kim et al. Novel target segmentation and tracking based on fuzzy membership distribution for vision-based target tracking system
CN113379639B (zh) 一种复杂环境中红外目标抗干扰检测跟踪方法
CN111768426B (zh) 一种运动目标的检测方法、装置、设备及存储介质
CN115661194A (zh) 一种运动目标提取方法、系统、电子设备及介质
Erwin et al. Supervised retinal vessel segmentation based average filter and iterative self organizing data analysis technique
Ortiz-Jaramillo et al. Computing contrast ratio in images using local content information
CN112085683B (zh) 一种显著性检测中的深度图可信度检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant