CN115355770B - 一种应用于图像导引头抑制强背景干扰的方法 - Google Patents

一种应用于图像导引头抑制强背景干扰的方法 Download PDF

Info

Publication number
CN115355770B
CN115355770B CN202211072878.7A CN202211072878A CN115355770B CN 115355770 B CN115355770 B CN 115355770B CN 202211072878 A CN202211072878 A CN 202211072878A CN 115355770 B CN115355770 B CN 115355770B
Authority
CN
China
Prior art keywords
image
map
pretreatment
saliency
binarization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211072878.7A
Other languages
English (en)
Other versions
CN115355770A (zh
Inventor
崔建杰
韩煜祺
吕慧
唐林波
邓宸伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XI'AN KEYWAY TECHNOLOGY CO LTD
Beijing Institute of Technology BIT
Original Assignee
XI'AN KEYWAY TECHNOLOGY CO LTD
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XI'AN KEYWAY TECHNOLOGY CO LTD, Beijing Institute of Technology BIT filed Critical XI'AN KEYWAY TECHNOLOGY CO LTD
Priority to CN202211072878.7A priority Critical patent/CN115355770B/zh
Publication of CN115355770A publication Critical patent/CN115355770A/zh
Application granted granted Critical
Publication of CN115355770B publication Critical patent/CN115355770B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F42AMMUNITION; BLASTING
    • F42BEXPLOSIVE CHARGES, e.g. FOR BLASTING, FIREWORKS, AMMUNITION
    • F42B15/00Self-propelled projectiles or missiles, e.g. rockets; Guided missiles
    • F42B15/01Arrangements thereon for guidance or control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种应用于图像导引头抑制强背景干扰的方法:步骤1,选取检测图像I;步骤2,生成显著性图M;步骤3,将显著性图M减去其平均值并转换为非负值得到第一预处理后的显著性图M1;步骤4,对第一预处理后的显著性图M1进行第二预处理,得到显著性图M2;步骤5,进行第一二值化处理得到第一二值化图mask1,并对mask1去掉边界连通域得到第二二值化图mask2;并依据mask2对显著性图像M1进行第三预处理,得到显著性图M3;步骤6,对第三预处理后的显著性图M3进行高斯滤波处理,得到滤波图M4;步骤7,对滤波图M4进行二值化分割得到第三二值化图bw,并得到最终的检测目标。本发明能够准确地检测出目标,为后续的目标跟踪奠定了稳定的基础。

Description

一种应用于图像导引头抑制强背景干扰的方法
技术领域
本发明属于机器视觉、图像处理、精确制导技术领域,涉及一种应用于图像导引头抑制强背景干扰的方法。
背景技术
目标检测技术是电视导引头制导技术的关键之一,是智能化、信息化的重要技术手段,在预警探测、精确制导、战场指挥和侦查等军事领域都发挥着重要的作用。电视制导导弹在发射初期,需要能够准确地锁定目标,才能够为后续的目标跟踪提供准确的目标模板,从而实现制导过程的精确打击。但是,在实际使用过程中,因为地面背景的复杂,会有各种干扰物,为目标的可靠识别和跟踪带来很大的困难。
传统的目标检测方法,包括模板匹配、基于边界检测算子的阈值分割等方法。其中模板匹配方法对于目标的颜色、形状、大小及方位等都需要与模板保持一致才可检测出,而制导场景中的目标大小、方位等都是随机的,因此在很多场景的使用都受到限制。而基于普通边界检测算子的阈值分割方法,由于在边界检测的过程中不能将干扰消除,导致检测出的目标不准确,不能很好地支撑后续的导引头跟踪过程。因此,亟需研究一种能够在强背景干扰的情况下准确检测目标以支撑后续的导引头跟踪过程的方法。
发明内容
本发明的目的在于提供一种应用于图像导引头抑制强背景干扰的方法,以解决现有技术的电视导引头制导过程中目标检测方法存在的检测目标不准确的技术问题。
为了达到上述目的,本发明采用如下技术方案予以解决:
一种应用于图像导引头抑制强背景干扰的方法,具体包括如下步骤:
步骤1,将电视导引头跟踪视频当前帧的跟踪框中心周围固定大小的图像块作为待检测图像I;
步骤2,生成待检测图像I的显著性图M;
步骤3,对显著性图M进行第一预处理,所述第一预处理是将显著性图M减去其所有像素值的平均值并转换为非负值,得到第一预处理后的显著性图M1
步骤4,对第一预处理后的显著性图M1进行第二预处理,得到第二预处理后的显著性图M2;所述第二预处理是使用第一阈值τ1将第一预处理后的显著性图M1分割为强显著性部分以及弱显著性部分,再将强显著性部分用第一阈值τ1代替,得到新的显著性图M2
步骤5,对第二预处理后的显著性图M2采用第二阈值τ2进行二值化处理,得到第一二值化图mask1;然后将第一二值化图mask1去掉边界连通域,得到第二二值化图mask2;再根据第二二值化图mask2对第一预处理后的显著性图M1进行第三预处理,得到第三预处理后的显著性图M3
步骤6,对第三预处理后的显著性图M3进行高斯滤波处理,得到滤波图M4
步骤7,对滤波图M4进行二值化分割,得到第三二值化图bw,将第三二值化图bw中位置及面积合适的连通域作为最终的目标。
进一步的,所述步骤2包括如下子步骤:
步骤2.1,设定尺度变量scale={s1,s2,…,sk},其中k为正整数,sk为尺度变量scale中的一个尺度元素;
步骤2.2,根据尺度变量scale,计算待检测图像I在行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围内的每个像素点的显著性值,h、w分别为待检测图像I的行和列;
步骤2.3,将待检测图像I中行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围外所有像素点的显著性值用0填充,得到待检测图像I的显著性图M。
进一步的,所述步骤22的具体操作如下:
步骤2.2.1,对于尺度变量scale中的尺度sk,使用一个边长lk=2*sk+1的滑动窗,在待检测图像I中的行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围内,使滑动窗中心点对准各个像素点,从左至右、从上至下逐个像素点滑动,当滑动窗的中心点对准当前像素点时,利用以下公式计算得到尺度sk下当前像素点的局部对比度,进而得到在尺度sk下上述行列范围内所有像素点的局部对比度;
其中,Po为滑动窗的中心像素点,为其灰度值。/>为滑动窗的周边像素点,周边像素点指位于滑动窗的四角以及四边中心处且按照顺时针排列的8个像素点;/>为点/>处的灰度值;/>表示在尺度sk下,滑动窗的中心像素点Po与第i个周边像素点/>的灰度差值;/>为在尺度sk下,滑动窗的中心像素点Po和周边像素点中第j个像素点/>的灰度差/>与中心像素点Po和周边像素点中第j+4个像素点/>的灰度差/>的乘积,/>为在尺度sk下/>的最小值,作为尺度sk下当前像素点的显著性值;
步骤2.2.2,利用下式计算得到每个像素点的显著性值:
或/>
其中,为尺度sk下像素点的显著性值;D为像素点的显著性值。
进一步的,所述步骤4的第二预处理的计算公式如下:
其中,第一阈值τ1=average(M1)+k1*std(M1),average(M1)为第一预处理后的显著性图M1中所有像素值的平均值,std(M1)为第一预处理后的显著性图M1中所有像素值的标准差,k1是一个超参数。
进一步的,超参数k=4。
进一步的,所述步骤5包括如下子步骤:
步骤5.1,使用第二阈值τ2=average(M2)+k2*std(M2)将步骤4得到的第二预处理后的显著性图M2分割为强显著性部分以及弱显著性部分,将强显著性部分、弱显著性部分的像素值分别用1、0代替,得到像素值为1的目标连通域和像素值为0的背景杂波连通域,从而得到第一二值化图mask1,计算公式如下:
其中,average(M2)为第二预处理后的显著性图M2中所有像素值的平均值,std(M2)为第二预处理后的显著性图M2中所有像素值的标准差,k2是一个超参数;
步骤5.2,去掉中心位于第一二值化图mask1边界范围内的连通域,保留中心位于第一二值化图mask1中心范围内的连通域,得到第二二值化图mask2,计算公式如下:
其中,mask_area为第一二值化图mask1中的连通域集,Cmask_area为mask_area中的各个连通域中心,为mask1中心范围;
图像的中心范围为图像行和列分别在6/16~10/16的像素点范围内,图像的边界范围是图像中心范围/>外的范围,Ic为图像的中心点;
步骤5.3,利用第二二值化图mask2,对第一预处理后的显著性图M1进行第三预处理,得到第三预处理后的显著性图M3;所述第三预处理的计算公式如下:
M3=M1⊙mask2
其中,⊙为矩阵的点乘运算。
进一步的,所述步骤5.1中,超参数k2=4。
进一步的,所述步骤7包括如下子步骤:
步骤7.1,使用第三阈值τ3=average(M4)+k3*std(M4),将步骤6得到的滤波图M4分割为强显著性部分以及弱显著性部分,将强显著性部分、弱显著性部分的像素值分别用1、0代替,得到第三二值化图bw;
其中,average(M4)为滤波图M4中所有值的平均值,std(M4)为滤波图M4中所有值的标准差,k3为一个超参数。
步骤7.2,根据第三二值化图bw提取连通域得到最终的连通域集,并选择距离第三二值化图bw中心位置最近的且面积在250以上且长宽比小于4.5的连通域作为目标检测结果。
进一步的,所述步骤7.1中,超参数k3=1。
相较于现有技术,本发明的方法具有如下技术效果:
1、本发明的方法通过步骤1在制导过程中,当可见光场景中目标大小约为50*50像素、红外场景中目标大小约为30*30像素时选定待检测图像,以对目标进行初次检测校正,能够使得到的目标轮廓更加准确,进而使制导过程后续的跟踪更加准确,为精确制导提供了有利的条件。
2、本发明的方法通过在步骤2中使用滑动窗计算各尺度下每个像素点的显著性值来得到显著性图,能够消除背景中小的以及细条状的背景干扰,防止目标与背景连通域连在一起而导致检测到的目标中带入干扰。
3、本发明通过步骤4、5的处理方式降低背景显著性,能够避免待检测图像中比目标显著性强的背景影响,达到增强目标、抑制背景的效果,从而能够准确地检测出目标准确位置以及目标大小,为后续的目标跟踪奠定了稳定的基础。
附图说明
图1为不同尺度的滑动窗中心点与滑动窗内其周围8个点的相对位置示意图。其中:
左半图为尺度为1时的中心点与周围8个点的相对位置;
右半图为尺度为3时的中心点与周围8个点的相对位置。
图2为实施例1得到的待检测图像原图、显著性图及其非负值图。
上图为待检测图像;
中图为上图的显著性图;
下图为中图转变为非负值。
图3、图5分别为实施例1得到的中间结果及最终结果;图4为实施例2得到的中间结果及最终结果。其中:
(1)为待检测图像;
(2)为显著性图像;
(3)为图(2)降低强显著性后;
(4)为图(3)二值化并去掉边界连通域后;
(5)为图(4)高斯滤波之后;
(6)为图(5)二值化之后的连通域,即最终的检测结果。
图6为实施例1的可见光场景的scale不同时得到的检测结果。
(1)为可见光场景scale=[1 3]时得到的检测结果;
(2)为可见光场景scale=5时得到的检测结果。
图7为实施例2的红外场景中目标离路边很近的情况。其中:
(1)为scale=[1 3]时的显著性图进行整合时采用max的情况,即:
(2)为scale=[1 3]时的显著性图进行整合时采用min的情况,即:
图8为实施例2中分别使用第一预处理后的显著性图像M1以及第二预处理后的显著性图像M2与mask2点乘后得到的最终检测结果的对比。其中:
(1)为第一预处理后的显著性图像M1
(2)为第二预处理后的显著性图像M2
(3)为使用M2与mask2点乘后得到的最终检测结果;
(4)为使用M1与mask2点乘后得到的最终检测结果。
以下结合附图和具体实施方式对本发明进一步解释说明。
具体实施方式
在电视导引头制导过程中,目标相对导引头是一个由远及近的过程,因此目标在图像中的成像是一个由小到大的过程。在制导过程初期,由于初始目标极其弱小,轮廓不够清晰,在最初检测到的目标可能不太准确,而检测的误差会导致目标跟踪时误差的不断累积,造成跟踪框不能准确框到目标的情况,因此需要在弹体飞行过程中,随着目标的逐渐变大,在目标轮廓较为清晰(即可见光目标大小约为50*50像素或者红外目标大小约为30*30像素)时,再重新进行目标轮廓的校正,使得检测到的目标更加准确,避免后续在跟踪过程中引起的误差累积。由于在使用传统检测方法检测目标时,目标周围往往会存在比待检测目标显著性更强的背景干扰,导致在进行二值化时无法得到目标的连通域,因此需要先抑制背景的强显著性,之后才能检测出目标。
计算机视觉与图像处理领域的显著性机制是利用图像颜色、亮度、方向、边缘等特征,计算判断目标区域与周围区域的差异,从而获取图像的显著性分布。
由上,本发明给出一种应用于图像导引头抑制强背景干扰的方法,具体包括如下步骤:
步骤1,生成待检测图像I。
在制导过程初期,由于目标距离摄像头很远,因此目标的像素很小,且轮廓很弱。初始检测得到目标后,通常采用常规的目标跟踪算法进行跟踪。过程中随着弹体的逐渐接近,目标在图像中尺度越来越大。当目标轮廓较为清晰(即可见光目标大小达到50*50像素、红外目标大小达到30*30像素)时,将以电视导引头跟踪视频当前帧的跟踪框中心点为中心的固定大小的图像块作为待检测图像I,其行和列分别为h、w。
步骤2,生成待检测图像I的显著性图M,具体包括如下子步骤:
步骤2.1,设定尺度变量scale={s1,s2,…,sk},其中k为正整数,sk为尺度变量scale中的一个尺度元素。
步骤2.2,计算待检测图像I在一定行列范围内的每个像素点的显著性值。
步骤2.2.1,对于尺度sk,使用一个边长lk=2*sk+1的滑动窗,在待检测图像I中的行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围内,使滑动窗中心点对准各个像素点,从左至右、从上至下逐个像素点滑动,当滑动窗的中心点对准当前像素点时,计算得到尺度sk下当前像素点的局部对比度,进而得到尺度sk下上述行列范围内所有像素点的局部对比度。具体计算过程如下:
如图1的左图中,sk=1时,滑动窗大小为[3 3];图1的有图中,sk=3时,滑动窗大小为[7 7]。
在尺度sk下每个当前像素点的局部对比度由以下公式计算得到:
其中,Po为滑动窗的中心像素点,为其灰度值。/>为滑动窗的周边像素点(周边像素点指位于滑动窗的四角以及四边中心处且按照顺时针排列的8个像素点),/>为点/>处的灰度值。/>与P0点的像素距离由sk决定,如图1的左图为sk=1时的滑动窗内点的相对位置,此时周边像素点/>与中心像素点Po在行方向或者列方向的像素距离为1;图1的右图为sk=3时滑动窗内点的相对位置,此时周边像素点/>与中心像素点Po在行方向或者列方向的像素距离为3。
表示在尺度sk下,滑动窗的中心像素点Po与第i个周边像素点/>的灰度差值;/>为在尺度sk下,滑动窗的中心像素点Po和周边像素点中第j个像素点/>的灰度差与中心像素点Po和周边像素点中第j+4个像素点/>的灰度差/>的乘积,为在尺度sk下/>的最小值,作为尺度sk下当前像素点的显著性值。
步骤2.2.2,利用下式计算得到上述行列范围内每个像素点的显著性值:
或/>
其中,为尺度sk下像素点的显著性值;D为像素点的显著性值。
步骤2.3,将待检测图像I中行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围外所有像素点的显著性值用0填充,得到待检测图像I的显著性图M。
步骤3,对步骤2得到的显著性图M进行第一预处理,第一预处理具体是将显著性图M减去其所有像素值的平均值并转换为非负值,得到第一预处理后的显著性图M1
具体的,由于待检测图像(见图2的上图)的显著性图M中,边缘处往往呈现负值(见图2的中图),为了便于数据的分析,使用如下公式计算得到第一预处理后的显著性图M1(见图2的下图):
M=M-average(M)
M1=abs(M)
其中,average(M)为显著性图M中所有像素值的平均值,abs(M)为M的绝对值。
从图2的下图可以看出,周边背景(树)的边缘显著性有一部分明显高于目标的显著性。这种情况下,若直接使用阈值分割方法对第一预处理后的显著性图M1进行二值化,则不可避免地会出现只分割出强显著性背景,无法分割出待检测目标(显著性相对较弱)的情况。
步骤4,对步骤3得到的第一预处理后的显著性图M1进行第二预处理,得到第二预处理后的显著性图M2
第二预处理具体是使用第一阈值τ1将第一预处理后的显著性图M1分割为强显著性部分以及弱显著性部分,再将强显著性部分用第一阈值τ1代替,得到新的显著性图M2,以降低背景的显著性,如下式:
其中,第一阈值τ1=average(M1)+k1*std(M1),average(M1)为第一预处理后的显著性图M1中所有像素值的平均值,std(M1)为第一预处理后的显著性图M1中所有像素值的标准差,k1是一个超参数,根据图像数据来确定。
步骤5,对步骤4得到的第二预处理后的显著性图M2采用第二阈值τ2进行二值化处理,得到第一二值化图mask1;然后将第一二值化图mask1去掉边界连通域,得到第二二值化图mask2;再根据第二二值化图mask2对第一预处理后的显著性图M1进行第三预处理,得到第三预处理后的显著性图M3
具体包括如下子步骤:
步骤5.1,使用第二阈值τ2=average(M2)+k2*std(M2)将步骤4得到的第二预处理后的显著性图M1分割为强显著性部分以及弱显著性部分,将强显著性部分、弱显著性部分的像素值分别用1、0代替,得到像素值为1的目标连通域和像素值为0的背景杂波连通域,从而得到第一二值化图mask1;公式表示如下:
其中,average(M2)为第二预处理后的显著性图M2中所有像素值的平均值,std(M2)为第二预处理后的显著性图M2中所有像素值的标准差,k2是一个超参数,根据测试数据决定。
步骤5.2,去掉中心位于第一二值化图mask1边界范围内的连通域,保留中心位于第一二值化图mask1中心范围内的连通域,得到第二二值化图mask2。计算公式如下:
其中,mask_area为第一二值化图mask1中的连通域集,Cmask_area为mask_area中的各个连通域中心,为mask1中心范围。
根据测试数据得到,一个图像的中心范围为图像行和列分别在6/16~10/16的像素点范围,中心范围/>外为该图像的边界范围,其中Ic为图像中心点。
由于本发明在以跟踪框中心点为中心的固定大小范围内的图像块中去检测目标,因此能够保证目标中心在待检测图像中心附近。所以本步骤中去掉中心位于mask1边界范围的连通域,保留中心位于mask1中心范围内的连通域,以提高目标的检测准确率。
步骤5.3,利用第二二值化图mask2,对第一预处理后的显著性图M1进行第三预处理,得到第三预处理后的显著性图M3
第三预处理具体是利用第二二值化图mask2,实现对第一预处理后的显著性图M1边界范围赋值为0,保留其中心范围,得到M3,公式如下:
M3=M1⊙mask2
其中,符号⊙为矩阵的点乘运算。
此处说明一下本步骤对第一预处理后的显著性图M1而不是对第二预处理后的显著性图M2进行处理得到M3的原因:由于M2是由M1降低显著性之后得到,因此相比M1,M2(如图4(3)、图5(3)、图8(2))使得背景干扰增多,若直接使用M2二值化后的连通域得到目标,很可能会出现目标与背景连在一起的情况,如图8(3),若使用M1去背景之后的连通域,则能准确检测出目标,如图8(4)。
步骤6,对步骤5得到的第三预处理后的显著性图M3进行高斯滤波处理,得到滤波图M4,公式如下:
其中,Gauss为高斯滤波器的核,为卷积符号。
由于若直接对M3进行二值化分割,可能会出现目标边缘被分割为多个连通域的情况,因此需要对M3进行高斯平滑,使得断开的边缘可以融合为一个连通域。
步骤7,对步骤6得到的滤波图M4进行二值化分割,得到第三二值化图bw,再根据第三二值化图bw得到最终的目标连通域;包括如下子步骤:
步骤7.1,使用第三阈值τ3=average(M4)+k3*std(M4),将步骤6得到的滤波图M4分割为强显著性部分以及弱显著性部分,将强显著性部分、弱显著性部分的像素值分别用1、0代替,得到第三二值化图bw;
其中,average(M4)为滤波图M4中所有值的平均值,std(M4)为滤波图M4中所有值的标准差,k3为一个超参数,由测试数据决定。
步骤7.2,对第三二值化图bw提取连通域得到最终的连通域集,并选择距离第三二值化图bw中心位置最近的且面积在250以上且长宽比小于4.5的连通域作为目标检测结果。
实施例1:可见光场景
步骤1:对于可见光场景,待检测图像I的大小取128*128,如图3(1)和图5(1)。
步骤2:生成待检测图像I的显著性图像M。对于可见光中目标来说,在荒漠地区很可能会出现细长条状的路面凹陷,若使用scale=[1 3],则求显著性图像时,会得到如图6(1)的结果:目标与路面凹陷连在一起,无法准确框到目标本身;使用scale=5才能将路面凹陷消除,如图6(2)所示,因此针对可见光场景,scale取5。
对于scale=5(即sk=5)根据步骤2中的公式计算待检测图像I中行和列范围在(sk+1):(128-sk)=6:123内像素的显著性值,边界部分的显著性图像值用0填充,得到显著性图M。
步骤3:对显著性图M进行第一预处理,减去其平均值并转变为非负值,从而得到一个128*128大小的第一预处理后显著性图像M1,如图3(2)和5(2)。由图3(2)可看出,目标附近存在比目标显著性高的树木干扰。
步骤4:对M1进行第二预处理,削弱强显著性部分:在可见光场景中,超参数k1的值取4,即第一阈值τ1=average(M1)+4*std(M1),可以保证在削弱背景的强显著性时,不会过多地削弱目标的显著性,如图3(3)和图5(3)。
步骤5:对M2进行二值化处理,并去掉边界连通域,得到第二二值化图mask2,再根据二值化图mask2对显著性图M1处理,得到第三预处理后的显著性图M3
步骤5.1:对M2进行二值化处理,此处取k2=1,即阈值τ2=average(M2)+k2*std(M2),得到:
步骤5.2:提取mask1中连通域mask_area,取范围为待检测图像I大小的6/16~10/16,即[48:80,48:80]范围,连通域中心不在这个范围内的都为背景连通域,并将其消除,只保留中心在此范围内的连通域。
步骤5.3,在第一预处理后的显著性图M1基础上计算:
M3=M1⊙mask2
得到第三预处理后的显著性图M3,如图3(4)和图5(4)。
步骤6:采用大小为[5 5],sigma=1的高斯滤波器,对M3进行高斯滤波,得到M4,如图3(5)和图5(5)。
步骤7:对M4进行二值化,取参数k3=1,第三阈值τ3=average(M4)+k3*std(M4),则:
再根据二值化图像bw(如图3(6)和5(6))提取连通域,取中心离待检测图像I中心最近的一个连通域,作为最终的目标,由此得到目标位置与尺度大小。
显然,通过本发明中的方法在可见光场景可以过滤掉细长条状的干扰,并通过降低背景显著性,能够准确检测出目标,如图3和图5。
实施例2:红外场景
目标检测过程同实施例1,不同点在于:
1.步骤1中:由于红外摄像头的视场角比可见光的小,其成像分辨率也相应低,因此对于红外场景,采用的待检测图像I大小为64*64,如图4(1)。
2.步骤2中,scale的取值可根据以下两方面原因:
(1)红外场景与可见光场景有区别,不容易出现长细条状的凹陷,因此不需要考虑消除长细条状干扰对检测的影响,而使用小的scale,会使得目标边界比较细,能够更准确地检测出目标。如图4(2)中使用scale=[1 3]得到的目标边缘显然比使用scale=5的图3(2)以及图5(2)中的目标边缘细;
(2)在求待检测图像I的显著性图像时,有时目标离路的边缘很近,而离路边缘越近,scale应越小,否则容易使得目标边界与路面干扰边界连在一起。
因此取scale=[1 3],即sk=1、3。
计算待检测图像I中行和列在(sk+1):(64-sk)范围内像素的显著性值,边界部分的显著性图像值用0填充。当sk=1时,像素的行和列范围为2:63;当sk=3时,像素的行和列范围为4:60。根据具体实施方式中步骤2的公式分别计算在两个尺度下的显著性矩阵Dsk(sk=1、3),然后使用得到行列范围内每个像素点的显著性值,进而得到显著性图M,再按照具体实施方式中的步骤3,对其进行第一预处理得到显著性图像M1,如图4(2),显然树木干扰的显著性比目标的显著性要高很多。
此处使用而不使用/>的原因为:当红外目标距离路的边缘很近时,使用/>容易得到如图7(2)所示的目标边缘与路的边缘连在一起的结果,导致检测不准确;而使用/>则得到图7(1)的结果,目标边缘能够被准确检测到。
3.步骤4中,在降低背景显著性时,由于红外场景中,有时背景与目标的显著性差异性要比可见光场景的差异性更大,需要比可见光场景更大程度上降低背景显著性,因此这里采用参数k1=0,即τ1=average(M1),则
得到如图4(3)的结果。显然背景显著性降低到了与目标显著性一致的范围,达到突出目标的结果,有助于后续二值化分割出目标。
4.步骤5.2中,取范围为待检测图像I大小[64 64]行和列的6/16~10/16,即[24:40,24:40]范围,mask1的连通域中心不在这个范围内的都为背景连通域,并将其消除,只保留中心在此范围内的连通域,如图4(4)。
显然,图4中通过此方法降低背景的显著性之后,可以很准确地得到目标的连通域,如图4(6)。

Claims (8)

1.一种应用于图像导引头抑制强背景干扰的方法,其特征在于,具体包括如下步骤:
步骤1,将电视导引头跟踪视频当前帧的跟踪框中心周围固定大小的图像块作为待检测图像I;
步骤2,生成待检测图像I的显著性图M,包括如下子步骤:
步骤2.1,设定尺度变量scale={s1,s2,...,sk},其中k为正整数,sk为尺度变量scale中的一个尺度元素;
步骤2.2,根据尺度变量scale,计算待检测图像I在行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围内的每个像素点的显著性值,h、w分别为待检测图像I的行和列;
步骤2.3,将待检测图像I中行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围外所有像素点的显著性值用0填充,得到待检测图像I的显著性图M;
步骤3,对显著性图M进行第一预处理,所述第一预处理是将显著性图M减去其所有像素值的平均值并转换为非负值,得到第一预处理后的显著性图M1
步骤4,对第一预处理后的显著性图M1进行第二预处理,得到第二预处理后的显著性图M2;所述第二预处理是使用第一阈值τ1将第一预处理后的显著性图M1分割为强显著性部分以及弱显著性部分,再将强显著性部分用第一阈值τ1代替,得到新的显著性图M2
步骤5,对第二预处理后的显著性图M2采用第二阈值τ2进行二值化处理,得到第一二值化图mask1;然后将第一二值化图mask1去掉边界连通域,得到第二二值化图mask2;再根据第二二值化图mask2对第一预处理后的显著性图M1进行第三预处理,得到第三预处理后的显著性图M3
步骤6,对第三预处理后的显著性图M3进行高斯滤波处理,得到滤波图M4
步骤7,对滤波图M4进行二值化分割,得到第三二值化图bw,将第三二值化图bw中位置及面积合适的连通域作为最终的目标。
2.如权利要求1所述的应用于图像导引头抑制强背景干扰的方法,其特征在于,所述步骤2.2的具体操作如下:
步骤2.2.1,对于尺度变量scale中的尺度sk,使用一个边长lk=2*sk+1的滑动窗,在待检测图像I中的行在(sk+1):(h-sk)范围内、列在(sk+1):(w-sk)范围内,使滑动窗中心点对准各个像素点,从左至右、从上至下逐个像素点滑动,当滑动窗的中心点对准当前像素点时,利用以下公式计算得到尺度sk下当前像素点的局部对比度,进而得到在尺度sk下上述行列范围内所有像素点的局部对比度;
其中,Po为滑动窗的中心像素点,为其灰度值;/>为滑动窗的周边像素点,周边像素点指位于滑动窗的四角以及四边中心处且按照顺时针排列的8个像素点;/>为点/>处的灰度值;/>表示在尺度sk下,滑动窗的中心像素点Po与第i个周边像素点/>的灰度差值;/>为在尺度sk下,滑动窗的中心像素点Po和周边像素点中第j个像素点/>的灰度差/>与中心像素点Po和周边像素点中第j+4个像素点的灰度差/>的乘积,/>为在尺度sk下/>的最小值,作为尺度sk下当前像素点的显著性值;
步骤2.2.2,利用下式计算得到每个像素点的显著性值:
或/>
其中,为尺度sk下像素点的显著性值;D为每个像素点的显著性值。
3.如权利要求1所述的应用于图像导引头抑制强背景干扰的方法,其特征在于,所述步骤4的第二预处理的计算公式如下:
其中,第一阈值τ1=average(M1)+k1*std(M1),average(M1)为第一预处理后的显著性图M1中所有像素值的平均值,std(M1)为第一预处理后的显著性图M1中所有像素值的标准差,k1是一个超参数。
4.如权利要求3所述的应用于图像导引头抑制强背景干扰的方法,其特征在于,超参数k1=4。
5.如权利要求1所述的应用于图像导引头抑制强背景干扰的方法,其特征在于,所述步骤5包括如下子步骤:
步骤5.1,使用第二阈值τ2=average(M2)+k2*std(M2)将步骤4得到的第二预处理后的显著性图M2分割为强显著性部分以及弱显著性部分,将强显著性部分、弱显著性部分的像素值分别用1、0代替,得到像素值为1的目标连通域和像素值为0的背景杂波连通域,从而得到第一二值化图maskl,计算公式如下:
其中,average(M2)为第二预处理后的显著性图M2中所有像素值的平均值,std(M2)为第二预处理后的显著性图M2中所有像素值的标准差,k2是一个超参数;
步骤5.2,去掉中心位于第一二值化图mask1边界范围内的连通域,保留中心位于第一二值化图mask1中心范围内的连通域,得到第二二值化图mask2,计算公式如下:
其中,mask_area为第一二值化图mask1中的连通域集,Cmask_area为mask_area中的各个连通域中心,为mask1中心范围;
图像的中心范围为图像行和列分别在6/16~10/16的像素点范围内,图像的边界范围是图像中心范围/>外的范围,Ic为图像的中心点;
步骤5.3,利用第二二值化图mask2,对第一预处理后的显著性图M1进行第三预处理,得到第三预处理后的显著性图M3;所述第三预处理的计算公式如下:
M3=M1⊙mask2
其中,⊙为矩阵的点乘运算。
6.如权利要求5所述的应用于图像导引头抑制强背景干扰的方法,其特征在于,所述步骤5.1中,超参数k2=4。
7.如权利要求1所述的应用于图像导引头抑制强背景干扰的方法,其特征在于,所述步骤7包括如下子步骤:
步骤7.1,使用第三阈值τ3=average(M4)+k3*std(M4),将步骤6得到的滤波图M4分割为强显著性部分以及弱显著性部分,将强显著性部分、弱显著性部分的像素值分别用1、0代替,得到第三二值化图bw;
其中,average(M4)为滤波图M4中所有值的平均值,std(M4)为滤波图M4中所有值的标准差,k3为一个超参数;
步骤7.2,根据第三二值化图bw提取连通域得到最终的连通域集,并选择距离第三二值化图bw中心位置最近的且面积在250以上且长宽比小于4.5的连通域作为目标检测结果。
8.如权利要求7所述的应用于图像导引头抑制强背景干扰的方法,其特征在于,所述步骤7.1中,超参数k3=1。
CN202211072878.7A 2022-09-02 2022-09-02 一种应用于图像导引头抑制强背景干扰的方法 Active CN115355770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211072878.7A CN115355770B (zh) 2022-09-02 2022-09-02 一种应用于图像导引头抑制强背景干扰的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211072878.7A CN115355770B (zh) 2022-09-02 2022-09-02 一种应用于图像导引头抑制强背景干扰的方法

Publications (2)

Publication Number Publication Date
CN115355770A CN115355770A (zh) 2022-11-18
CN115355770B true CN115355770B (zh) 2023-11-03

Family

ID=84006129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211072878.7A Active CN115355770B (zh) 2022-09-02 2022-09-02 一种应用于图像导引头抑制强背景干扰的方法

Country Status (1)

Country Link
CN (1) CN115355770B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107403433A (zh) * 2016-05-20 2017-11-28 南京理工大学 一种复杂云背景下红外小目标检测方法
CN110111283A (zh) * 2019-05-14 2019-08-09 武汉高德红外股份有限公司 一种复杂背景下红外疑似目标的提示方法及系统
CN114067122A (zh) * 2022-01-18 2022-02-18 深圳市绿洲光生物技术有限公司 一种两级式二值化图像处理方法
CN114373135A (zh) * 2022-01-13 2022-04-19 安徽大学 基于局部显著性特征度量的舰船目标检测方法
CN114663682A (zh) * 2022-03-18 2022-06-24 北京理工大学 一种提高抗干扰性能的目标显著性检测方法
CN114743025A (zh) * 2022-03-18 2022-07-12 北京理工大学 基于灰度稳定性的提高抗干扰性能的目标显著性检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783878B (zh) * 2020-06-29 2023-08-04 北京百度网讯科技有限公司 目标检测方法、装置、电子设备以及可读存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107403433A (zh) * 2016-05-20 2017-11-28 南京理工大学 一种复杂云背景下红外小目标检测方法
CN110111283A (zh) * 2019-05-14 2019-08-09 武汉高德红外股份有限公司 一种复杂背景下红外疑似目标的提示方法及系统
CN114373135A (zh) * 2022-01-13 2022-04-19 安徽大学 基于局部显著性特征度量的舰船目标检测方法
CN114067122A (zh) * 2022-01-18 2022-02-18 深圳市绿洲光生物技术有限公司 一种两级式二值化图像处理方法
CN114663682A (zh) * 2022-03-18 2022-06-24 北京理工大学 一种提高抗干扰性能的目标显著性检测方法
CN114743025A (zh) * 2022-03-18 2022-07-12 北京理工大学 基于灰度稳定性的提高抗干扰性能的目标显著性检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于信息量增强的共生直方图显著性检测算法;高开源;魏宁;董方敏;;计算机工程与应用(第15期);第217-221页 *

Also Published As

Publication number Publication date
CN115355770A (zh) 2022-11-18

Similar Documents

Publication Publication Date Title
CN110009665B (zh) 一种遮挡环境下的目标检测跟踪方法
Zhang et al. Object-oriented shadow detection and removal from urban high-resolution remote sensing images
CN108961307B (zh) 基于核相关滤波跟踪的圆形目标尺度自适应跟踪方法
CN109993052B (zh) 一种复杂场景下尺度自适应的目标跟踪方法和系统
US8305377B2 (en) Image processing method
CN109978848A (zh) 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法
Rahtu et al. A simple and efficient saliency detector for background subtraction
CN106600613B (zh) 基于嵌入式gpu的改进lbp红外目标检测方法
He et al. CamShift target tracking based on the combination of inter-frame difference and background difference
CN111507340B (zh) 一种基于三维点云数据的目标点云数据提取方法
CN110969164A (zh) 基于深度学习端对端的低照度成像车牌识别方法及装置
CN116051820A (zh) 基于多模板的单目标检测方法
CN112907626A (zh) 基于卫星超时相数据多源信息的运动目标提取方法
CN113850761B (zh) 一种基于多角度检测框的遥感图像目标检测方法
CN115355770B (zh) 一种应用于图像导引头抑制强背景干扰的方法
CN107403127B (zh) 一种基于图像orb特征的车辆卸货状态监测方法
CN116468968A (zh) 一种融合注意力机制的天文图像小目标检测方法
US20230386023A1 (en) Method for detecting medical images, electronic device, and storage medium
Chen et al. Vehicle license plate recognition system based on deep learning in natural scene
Bhardwaj et al. An imaging approach for the automatic thresholding of photo defects
Mosleh et al. An automatic nuclei cells counting approach using effective image processing methods
CN113269745A (zh) 一种基于OpenCv的航拍汽车计数法
CN113378847A (zh) 字符分割方法、系统、计算机设备和存储介质
CN114022473B (zh) 一种基于红外图像的地平线检测方法
CN115096196B (zh) 一种用于火箭回收的视觉测高测速方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant