CN107092890A - 基于红外视频的舰船检测及跟踪方法 - Google Patents
基于红外视频的舰船检测及跟踪方法 Download PDFInfo
- Publication number
- CN107092890A CN107092890A CN201710272557.4A CN201710272557A CN107092890A CN 107092890 A CN107092890 A CN 107092890A CN 201710272557 A CN201710272557 A CN 201710272557A CN 107092890 A CN107092890 A CN 107092890A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- target
- sea
- histogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 56
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000009826 distribution Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract 3
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000007621 cluster analysis Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30212—Military
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及舰船检测及跟踪技术领域,尤其涉及一种基于红外视频的舰船检测及跟踪方法。该方法为:采用梯度算子法和霍夫变换法检测并提取海天线,利用海天线从视频画面中分割出海面区域;基于改进的ViBe算法进行红外视频前景提取,从视频海面区域提取疑似目标,同时对提取图像进行修复;基于统计直方图分析图像纹理特征,进行目标的捕获;基于多特征和显著性检测的MeanShift算法跟踪运动目标。本发明将视频画面进行分割,单独在海面区域进行搜索,减小了搜索范围;基于改进的ViBe算法进行背景的减除,可以去除岛岸背景的影响;基于统计直方图进行目标的捕获,提高了目标捕获的准确性;采用MeanShift算法进行目标跟踪,跟踪速度快。
Description
技术领域
本发明涉及舰船检测及跟踪技术领域,尤其涉及一种基于红外视频的舰船检测及跟踪方法。
背景技术
舰船作为海上运输主体和重要的军事目标,其自动检测和识别具有非常重要的现实意义。随着对地观测技术的飞速发展,卫星遥感图像可以为舰船目标监视提供非常丰富的数据源。目前,基于遥感图像的舰船检测研究大多是围绕SAR(合成孔径雷达)图像开展的,而对基于红外视频进行的舰船检测及跟踪技术的研究较少。实际上,红外视频检测跟踪技术在其它领域已比较成熟,但直接将其用在舰船检测上还存在很多问题。例如,在舰船分割方面,由于在近岸的环境中存在很多干扰项,如海岸和海域的分割可能是不规则的,海域中可能会有海岛等干扰物,海岸或海岛在红外视频中亮度较高,容易导致误判。普通图像的分割目前依然是个难题,舰船和海面之间的灰度差异以及航迹等给舰船的分割带来较大的困难。另外,在舰船跟踪方面,红外视频画幅中出现的可能是半个或一部分目标,视频可能会有电磁干扰、物理抖动等原因,视野中出现的可能不止一艘船,因此跟踪舰船时要克服以上干扰。
发明内容
为解决上述问题,本发明提供了一种检测和跟踪效果良好的红外舰船检测和跟踪方法。
本发明采用的技术方案如下:
一种基于红外视频的舰船检测及跟踪方法,包括以下步骤:
步骤1、采用梯度算子法和霍夫变换法检测并提取海天线,利用海天线从视频画面中分割出海面区域;
步骤2、基于改进的ViBe算法进行红外视频前景提取,从视频海面区域提取疑似目标,同时对提取图像进行修复;
步骤3、基于统计直方图分析图像纹理特征,进行目标的捕获;
步骤4、基于多特征和显著性检测的MeanShift算法跟踪运动目标。
步骤1的具体步骤如下:
首先,采用梯度算子法提取海天线;使用Sobel算子进行水平梯度检测,得出水平梯度gx,使用Sobel算子进行垂直梯度检测,得出垂直梯度gy;根据计算总梯度g,对图像每一行的梯度g求和,具有最大值的行即为海天线所在的行,由此提取出海天线;
同时,利用霍夫变换法提取海天线;设定提取角度范围,提取图像中较长的几条水平方向的直线,对直线进行延长并与图像边缘相交,分别取直线与两侧边缘交点的平均值,将左右两侧的平均值相连,画出的直线视为海天线;
将两个方法获得的两条海天线进行对照,若两者之间相差较大则视为提取失败;若提取行号相差阈值不超过5,则根据容错要求取两者均值或行号最小值作为最终的海天线。
步骤3中改进的ViBe算法过程如下:
(1)定义背景模型:背景模型中的每一个像素由n个背景样本组成,记v(x)表示在给定的欧式颜色空间中图像在x处的像素值,vi表示在x处周围的背景像素值,i为索引号;M(x)表示x处的背景模型,该模型中包含所有的vi,公式如下:
M(x)={v1,v2,…,vn-1,vn} (1);
(2)背景模型初始化:从x的24邻域NG(x)中随机选取20个样本值用于初始化背景模型,公式如下:M0(x)={v0(y|y∈NG(x))}(2),M0(x)表示背景模型的初始值,v0表示初始化时选取的抽样点;
(3)像素分类:采用2-D空间中的欧氏距离对像素进行分类,记SR(v(x))表示以v(x)为中心,半径为R的2-D欧式空间,若SR(v(x))与M(x)的交集满足一定的基数,则认为v(x)是背景像素;
(4)背景模型更新:随机地从背景模型M(x)中选取一个值用新的背景像素p(x)代替,对背景模型进行更新;
(5)信息传播:在对背景模型更新的同时,同时采用新的像素p(x)更新邻域NG(x)中像素的样本。
原有的ViBe算法在初始化背景M(x)时,随机从8邻域中选取20个样本,则每一个样本至少被重复选取2到3次。样本的选取过于集中,会导致像素的错误分类。假设下式成立
如果v1和v2原本是错误的像素,那么这种样本的重复选取会增加像素错误分类的概率。针对该问题,本发明在更大范围内采用均匀分布的随机数生成算法,从24邻域中选取20个样本用于初始化背景模型,从而有效避免像素的重复选取,降低了错误分类的概率。这种随机选择技术也保证了邻域中的每一个样本都有同等的概率被选中,从而使得构造出的背景模型不存在主观偏见因素,保证了背景模型的真实可靠。
在对背景模型进行更新时,随机选取一个值进行更新,这种统一分布的随机选取法保证了样本集合中每一个样本的生命周期成指数递减,避免了像素长期保留在背景模型中影响模型的精确性。
为保证像素邻域空间的一致性,Vibe算法在对背景模型中的样本进行更新的同时,也采用像素v(x)对邻域中像素的样本模型进行更新,因此,像素分类的准确性对背景模型的精确性有很大的影响。假设v(x)被错误的分类为背景像素,采用v(x)对M(x)进行更新时,如果存在2次错误,在第3次就可能将前景像素分类为背景像素,出现前面所述的鬼影现象。为使像素的分类更加准确,采用CodeBook算法的颜色扭曲度评价函数对像素进行分类,提高像素分类的精确性。
本发明对ViBe的像素分类方法进行改进。由于扩大了样本的选取范围,为了更精确地对像素进行分类,将像素分类的匹配数设置为3(原始Vibe算法的匹配数为2),即当有3个像素匹配时才将v(x)分类为背景像素,提高了算法的正确识别率。同时,本发明采用隔行更新方式对像素邻域更新,从而避免错误的信息传播及鬼影现象的出现。
另外,由于背景中噪声的干扰,检测结果中会出现一些虚假的小目标,且运动目标会出现残缺现象,应用系统中会产生虚警或漏检问题。针对该问题,本发明采取对一些小目标进行丢弃,并修复运动目标周围空洞的方法对提取的图像进行修复。对提取图像修复的具体步骤如下:
(1)求取前景图像上的连通区域bi,得到连通区域集合B1{b1,b2,…,bn};
(2)如果某个连通区域bi内的像素数小于10,则丢弃此连通区域,得到新的连通区域集合B2{b1,b2,…,bm};
(3)对B2{b1,b2,…,bm}中每个连通区域进行统计,如果某个连通区域bi像素数大于10而小于60,则认为此连通区域内存在漏洞,应该对其用1值进行填充。
在对直方图进行分析过程中,常用的方法是统计直方图的均值与方差信息,但这种特征仅能够反映图像块的部分特征,对存在反色的情况及直方图偏移等问题无法进行有效处理。为了提高直方图的分辨能力,本发明对直方图进行聚类分析。通过分类可以有效减少相近灰度级像素数随机性,且基于聚类的直方图特征对灰度级偏移具有较好的分类效果。
直方图聚类分析的具体过程如下:
(1)直方图聚类初始化:在初始化过程中,首先需要对图像直方图进行标准化,即将质心质量由百分数来表示,从而生成具有51个元素的百分数直方图;
(2)进行直方图聚类:首先,选择初始类心,将标准化直方图中极大值点作为聚类的初始聚类中心;然后,进行基本类合并,对初始类心分别向其邻域扩展;若初始类达到扩展极限则扩展停止,完成初始类构建;在建立直方图初始类后,各初始类聚集了极值点邻近的质心,对产生的小分类进行合并处理并进行检测,对符合条件的相邻类进行统一合并;根据直方图的特征阈值即可判断出目标和背景。
在完成直方图的分类后,可以由直方图整体信息、单个类信息以及类间信息对所获得的特征进行划分。本发明将其划分为三类:一是全局特征表示直方图的整体特征;二是局部特征,即仅针对直方图中的一个类产生的特征;三是特殊特征,即仅当直方图中出现多个类时产生的特征。
将ViBe算法提取的前景目标与直方图分类方法提取的目标进行对照,若两者一致,则认为是正确的运动目标并加以跟踪,否则不跟踪。当有多个运动目标时选取其中一个进行跟踪。
步骤4中的MeanShift跟踪算法步骤如下:
(1)在当前帧,根据给定的目标中心位置x0和核窗半径h0,由公式(3)计算其中表示目标的颜色密度分布模型,u表示bin指标,m表示bin个数,其中b(·)为bin指标映射函数,用来计算像素点颜色特征所属的bin指标,δ为Kronecker函数,h0为核窗半径,k(·)为Epanechnikov核函数,C归一化参数,使得
(2)在下一帧,以x0为初始位置,h为核窗半径,计算和表示候选目标图像区域的颜色估计密度,其中Ch归一化常数,使得 为候选目标颜色密度分布的相似度,
(3)将在处泰勒展开,得
其中,
(4)对公式(6)右侧关于x求导并令导数等于0得:
根据公式(7)计算目标在当前帧新位置x1;
(5)若||x1-x0||<ε,则停止迭代,x1即为目标的新位置,其中ε是预先给定的很小的正数;否则用x1替代x0,返回步骤(1),进行迭代。
本发明的有益效果:
1、本发明采用梯度算子法和霍夫变换法分别检测并提取海天线,将视频画面进行分割,单独在海面区域进行搜索,减小了搜索范围。
2、本发明综合利用帧间信息,基于改进的ViBe算法进行背景的减除,可以去除岛岸背景的影响,对视野中运动的舰船目标的位置进行大致定位。
3、本发明先对直方图进行聚类,然后再基于统计直方图进行目标的捕获,提高了目标捕获的准确性。
4、本发明采用MeanShift算法进行目标跟踪,跟踪速度快,并且对目标变形和遮挡有一定鲁棒性。
附图说明
图1是本发明方法的整体流程示意图;
图2是ViBe算法的流程示意图;
图3是直方图判断流程图;
图4是2-D欧式空间像素分类示意图;
图5是直方图分类示意图。
具体实施方式
下面结合附图和实施例对本发明的方案进行详细描述。
一种基于红外视频的舰船检测及跟踪方法,如图所示,步骤如下:
步骤1、采用梯度算子法和霍夫变换法从红外视频图像中检测并提取海天线,利用海天线从视频画面中分割出海面区域。
首先,采用梯度算子法提取海天线;使用Sobel算子进行水平梯度检测,得出水平梯度gx,使用Sobel算子进行垂直梯度检测,得出垂直梯度gy;根据计算总梯度g,对图像每一行的梯度g求和,具有最大值的行即为海天线所在的行,由此提取出海天线;
同时,利用霍夫变换法提取海天线;设定提取角度范围,提取图像中较长的几条水平方向的直线,对直线进行延长并与图像边缘相交,分别取直线与两侧边缘交点的平均值,将左右两侧的平均值相连,画出的直线视为海天线;
将两个方法获得的两条海天线进行对照,若两者之间相差较大则视为提取失败;若提取行号相差阈值不超过5,则根据容错要求取两者均值或行号最小值作为最终的海天线。
步骤2、基于改进的ViBe算法进行红外视频前景提取,提取疑似目标,同时对提取图像进行修复。
改进的ViBe算法过程如下:
(1)定义背景模型:背景模型中的每一个像素由n个背景样本组成,记v(x)表示在给定的欧式颜色空间中图像在x处的像素值,vi表示在x处周围的背景像素值,i为索引号;M(x)表示x处的背景模型,该模型中包含所有的vi,公式如下:
M(x)={v1,v2,…,vn-1,vn} (1);
(2)背景模型初始化:从x的24邻域NG(x)中随机选取20个样本值用于初始化背景模型,公式如下:M0(x)={v0(y|y∈NG(x))}(2),M0(x)表示背景模型的初始值,v0表示初始化时选取的抽样点;
(3)像素分类:采用2-D空间中的欧氏距离对像素进行分类(参照图4),记SR(v(x))表示以v(x)为中心,半径为R的2-D欧式空间,若SR(v(x))与M(x)的交集满足一定的基数,则认为v(x)是背景像素;一般基数设为2;
(4)背景模型更新:随机地从背景模型M(x)中选取一个值用新的背景像素p(x)代替,对背景模型进行更新;
(5)信息传播:在对背景模型更新的同时,同时采用新的像素p(x)更新邻域NG(x)中像素的样本。例如,采用p(x)替换样本模型M(x)中的一个样本,同时采用p(x)更新NG(v(x))中某一个像素的样本。
为避免产生虚警或漏检问题,采取对一些小目标进行丢弃并修复运动目标周围空洞的方法对图像进行修复。具体步骤如下:
(1)求取前景图像上的连通区域bi,得到连通区域集合B1{b1,b2,…,bn};
(2)如果某个连通区域bi内的像素数小于10,则丢弃此连通区域,得到新的连通区域集合B2{b1,b2,..,bm};
(3)对B2{b1,b2,...,bm}中每个连通区域进行统计,如果某个连通区域bi像素数大于10而小于60,则认为此连通区域内存在漏洞,应该用1值进行填充。二值图中连通区域外是黑色,像素值为0,连通区域为目标检测区域,其内如果有黑色漏洞,需用值为1的像素值替代,称之为连通区域的填充。
步骤4、基于统计直方图分析图像纹理特征,进行目标的捕获。
本发明对直方图进行聚类分析,关于直方图聚类的相关定义如下:
在聚类过程中,将灰度级看作一个位置为di、质量为mi的无体积质心。因此可以有如下定义:
任意两质心之间存在引力
其中mi、mj分别为质心i和j的质量,这里质量定义为质心所对应的像素统计值;Di,j=|di-dj|即为灰度级i到灰度级j之间距离的绝对值。
将灰度级间的引力矩阵定义为F{f1,f2,…,fn},其中fi为灰度级为i的质心相对于其它各灰度级引力值的向量。
针对各目标间的引力关系,可将相互间的加速度定义如下:
灰度级i受灰度级j引力的作用,会产生加速度
并在单位时间t内产生有效位移为
当两质心间距离小于S时,两质心将被划为一类。文中G=10。
(1)直方图聚类初始化:在对直方图聚类前必须先进行初始化处理,在初始化过程中,首先需要对图像直方图进行标准化,即将质心质量由百分数来表示,从而生成具有51个元素的百分数直方图;处理质量缺失产生的零值问题,将n级灰度级进行归并计算。
(2)进行直方图聚类:在初始化基础上可以将引力聚类划分为初始类选择和基本类合并两个部分进行处理。首先,选择初始类心,将标准化直方图中极大值点作为聚类的初始聚类中心;然后,进行基本类合并,对初始类心分别向其邻域扩展;若初始类达到扩展极限则扩展停止,完成初始类构建;在建立直方图初始类后,各初始类聚集了极值点邻近的质心,对产生的小分类进行合并处理并进行检测,对符合条件的相邻类进行统一合并;根据直方图的特征阈值即可判断出目标和背景。
在完成直方图的分类后,可以由直方图整体信息、单个类信息以及类间信息对所获得的特征进行划分。根据直方图的特征列表(表1)计算不同类的特征,并进行分组。直方图判断流程参照图3,直方图分类后的示意图参照图5。
表1
将ViBe算法提取的前景目标与直方图分类方法提取的目标进行对照,若两者一致,则认为是正确的运动目标并加以跟踪,否则不跟踪。当有多个运动目标时选取其中一个进行跟踪。
步骤5、基于多特征和显著性检测的MeanShift算法跟踪运动目标。
(1)在当前帧,根据给定的目标中心位置x0和核窗半径h0,由公式(3)计算其中表示目标的颜色密度分布模型,u表示bin指标,m表示bin个数,(3),其中b(·)为bin指标映射函数,用来计算像素点颜色特征所属的bin指标,δ为Kronecker函数,h0为核窗半径,k(·)为Epanechnikov核函数,C归一化参数,使得
(2)在下一帧,以x0为初始位置,h为核窗半径,计算和表示候选目标图像区域的颜色估计密度,其中x为候选目标中心点坐标,Ch归一化常数,使得 为候选目标颜色密度分布的相似度,
(3)将在处泰勒展开,得
其中,
(4)对公式(6)右侧关于x求导并令导数等于0得:
根据公式(7)计算目标在当前帧新位置x1;
(5)若||x1-x0||<ε,则停止迭代,x1即为目标的新位置,其中ε是预先给定的很小的正数;否则x0←x1,返回步骤(1),进行迭代,从而完成对目标的跟踪。
Claims (6)
1.一种基于红外视频的舰船检测及跟踪方法,其特征在于包括以下步骤:
步骤1、采用梯度算子法和霍夫变换法检测并提取海天线,利用海天线从视频画面中分割出海面区域;
步骤2、基于改进的ViBe算法进行红外视频前景提取,从视频海面区域提取疑似目标,同时对提取图像进行修复;
步骤3、基于统计直方图分析图像纹理特征,进行目标的捕获;
步骤4、基于多特征和显著性检测的MeanShift算法跟踪运动目标。
2.根据权利要求1所述的基于红外视频的舰船检测及跟踪方法,其特征在于:步骤1的具体过程如下:
首先,采用梯度算子法提取海天线;使用Sobel算子进行水平梯度检测,得出水平梯度gx,使用Sobel算子进行垂直梯度检测,得出垂直梯度gy;根据计算总梯度g,对图像每一行的梯度g求和,具有最大值的行即为海天线所在的行,由此提取出海天线;
同时,利用霍夫变换法提取海天线;设定提取角度范围,提取图像中较长的几条水平方向的直线,对直线进行延长并与图像边缘相交,分别取直线与两侧边缘交点的平均值,将左右两侧的平均值相连,画出的直线视为海天线;
将两个方法获得的两条海天线进行对照,若两者之间相差较大则视为提取失败;若提取行号相差阈值不超过5,则根据容错要求取两者均值或行号最小值作为最终的海天线。
3.根据权利要求1所述的基于红外视频的舰船检测及跟踪方法,其特征在于:步骤2中改进的ViBe算法过程如下:
(1)定义背景模型:背景模型中的每一个像素由n个背景样本组成,记v(x)表示在给定的欧式颜色空间中图像在x处的像素值,vi表示在x处周围的背景像素值,i为索引号;M(x)表示x处的背景模型,该模型中包含所有的vi,公式如下:
M(x)={v1,v2,…,vn-1,vn} (1);
(2)背景模型初始化:从x的24邻域NG(x)中随机选取20个样本值用于初始化背景模型,公式如下:M0(x)={v0(y|y∈NG(x))}(2),M0(x)表示背景模型的初始值,v0表示初始化时选取的抽样点;
(3)像素分类:采用2-D空间中的欧氏距离对像素进行分类,记SR(v(x))表示以v(x)为中心、半径为R的2-D欧式空间,若SR(v(x))与M(x)的交集满足一定的基数,则认为v(x)是背景像素;
(4)背景模型更新:随机地从背景模型M(x)中选取一个值用新的背景像素p(x)代替,对背景模型进行更新;
(5)信息传播:在对背景模型更新的同时,同时采用新的像素p(x)更新邻域NG(x)中像素的样本。
4.根据权利要求1所述的基于红外视频的舰船检测及跟踪方法,其特征在于:步骤2中对提取图像修复的步骤如下:
(1)求取前景图像上的连通区域bi,得到连通区域集合B1{b1,b2,…,bn};
(2)如果某个连通区域bi内的像素数小于10,则丢弃此连通区域,得到新的连通区域集合B2{b1,b2,…,bm};
(3)对B2{b1,b2,…,bm}中每个连通区域进行统计,如果某个连通区域bi像素数大于10而小于60,则认为此连通区域内存在漏洞,应该对其用1值进行填充。
5.根据权利要求1所述的基于红外视频的舰船检测及跟踪方法,其特征在于:步骤3的具体过程如下:
(1)直方图聚类初始化:在初始化过程中,首先需要对图像直方图进行标准化,即将质心质量由百分数来表示,从而生成具有51个元素的百分数直方图;
(2)进行直方图聚类:首先,选择初始类心,将标准化直方图中极大值点作为聚类的初始聚类中心;然后,进行基本类合并,对初始类心分别向其邻域扩展;若初始类达到扩展极限则扩展停止,完成初始类构建;在建立直方图初始类后,各初始类聚集了极值点邻近的质心,对产生的小分类进行合并处理并进行检测,对符合条件的相邻类进行统一合并;根据直方图的特征阈值即可判断出目标和背景。
6.根据权利要求1所述的基于红外视频的舰船检测及跟踪方法,其特征在于:步骤4中的MeanShift跟踪算法步骤如下:
(1)在当前帧,根据给定的目标中心位置x0和核窗半径h0,由公式(3)计算其中表示目标的颜色密度分布模型,u表示bin指标,m表示bin个数,其中b(·)为bin指标映射函数,用来计算像素点颜色特征所属的bin指标,δ为Kronecker函数,h0为核窗半径,k(·)为Epanechnikov核函数,C归一化参数,使得
(2)在下一帧,以x0为初始位置,h为核窗半径,计算和
表示候选目标图像区域的颜色估计密度,
其中Ch归一化常数,使得为候选目标颜色密度分布的相似度,
<mrow>
<mi>&rho;</mi>
<mo>&lsqb;</mo>
<mover>
<mi>p</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mover>
<mi>q</mi>
<mo>^</mo>
</mover>
<mo>&rsqb;</mo>
<mo>=</mo>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</msubsup>
<msqrt>
<mrow>
<msub>
<mover>
<mi>p</mi>
<mo>^</mo>
</mover>
<mi>u</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<msub>
<mover>
<mi>q</mi>
<mo>^</mo>
</mover>
<mi>u</mi>
</msub>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
(3)将在处泰勒展开,得
<mrow>
<mi>&rho;</mi>
<mo>&lsqb;</mo>
<mover>
<mi>p</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mover>
<mi>q</mi>
<mo>^</mo>
</mover>
<mo>&rsqb;</mo>
<mo>&ap;</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</msubsup>
<msqrt>
<mrow>
<msub>
<mover>
<mi>p</mi>
<mo>^</mo>
</mover>
<mi>u</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
<msub>
<mover>
<mi>q</mi>
<mo>^</mo>
</mover>
<mi>u</mi>
</msub>
</mrow>
</msqrt>
<mo>+</mo>
<mfrac>
<msub>
<mi>c</mi>
<mi>h</mi>
</msub>
<mn>2</mn>
</mfrac>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>h</mi>
</msub>
</msubsup>
<msub>
<mi>&omega;</mi>
<mi>i</mi>
</msub>
<mi>k</mi>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
</mrow>
<mi>h</mi>
</mfrac>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中,
(4)对公式(6)右侧关于x求导并令导数等于0得:
<mrow>
<mi>x</mi>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>h</mi>
</msub>
</msubsup>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mi>g</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
</mrow>
<mi>h</mi>
</mfrac>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>h</mi>
</msub>
</msubsup>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mi>g</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mo>|</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
</mrow>
<mi>h</mi>
</mfrac>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
根据公式(7)计算目标在当前帧新位置x1;
(5)若||x1-x0||<ε,则停止迭代,x1即为目标的新位置,其中ε是预先给定的很小的正数;否则用x1替代x0,返回步骤(1),进行迭代。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710272557.4A CN107092890A (zh) | 2017-04-24 | 2017-04-24 | 基于红外视频的舰船检测及跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710272557.4A CN107092890A (zh) | 2017-04-24 | 2017-04-24 | 基于红外视频的舰船检测及跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107092890A true CN107092890A (zh) | 2017-08-25 |
Family
ID=59638436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710272557.4A Pending CN107092890A (zh) | 2017-04-24 | 2017-04-24 | 基于红外视频的舰船检测及跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107092890A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610154A (zh) * | 2017-10-12 | 2018-01-19 | 广西师范大学 | 多源目标的空间直方图表示与跟踪方法 |
CN108764027A (zh) * | 2018-04-13 | 2018-11-06 | 上海大学 | 一种基于改进的rbd显著性计算的海面目标检测方法 |
CN109147005A (zh) * | 2018-08-24 | 2019-01-04 | 电子科技大学 | 一种用于红外图像的自适应染色方法、系统、存储介质、终端 |
CN109460764A (zh) * | 2018-11-08 | 2019-03-12 | 中南大学 | 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法 |
CN109726616A (zh) * | 2017-10-30 | 2019-05-07 | 中电科海洋信息技术研究院有限公司 | 一种舰船检测与识别方法和装置 |
CN110111361A (zh) * | 2019-04-22 | 2019-08-09 | 湖北工业大学 | 一种基于多阈值自优化背景建模的运动目标检测方法 |
CN110728690A (zh) * | 2019-09-25 | 2020-01-24 | 山东工商学院 | 一种利用小波变换对图像进行边缘平滑处理的抠图方法 |
CN111709356A (zh) * | 2020-06-12 | 2020-09-25 | 北京百度网讯科技有限公司 | 识别目标区域的方法、装置、电子设备和路侧设备 |
CN111929653A (zh) * | 2020-07-21 | 2020-11-13 | 上海交通大学 | 一种基于无人船航海雷达的目标检测、跟踪方法及系统 |
CN112184749A (zh) * | 2020-10-09 | 2021-01-05 | 西安电子科技大学 | 基于视频sar跨域联合的动目标跟踪方法 |
CN112258518A (zh) * | 2020-10-09 | 2021-01-22 | 国家海洋局南海调查技术中心(国家海洋局南海浮标中心) | 一种海天线提取方法及装置 |
CN114283293A (zh) * | 2021-12-16 | 2022-04-05 | 中航航空电子有限公司 | 一种红外目标检测虚警抑制方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101604383A (zh) * | 2009-07-24 | 2009-12-16 | 哈尔滨工业大学 | 一种基于红外图像的海上目标检测方法 |
CN104392461A (zh) * | 2014-12-17 | 2015-03-04 | 中山大学 | 一种基于纹理特征的视频跟踪方法 |
CN106127728A (zh) * | 2016-06-07 | 2016-11-16 | 电子科技大学 | 一种海空背景下的红外图像海天线连通域检测方法 |
-
2017
- 2017-04-24 CN CN201710272557.4A patent/CN107092890A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101604383A (zh) * | 2009-07-24 | 2009-12-16 | 哈尔滨工业大学 | 一种基于红外图像的海上目标检测方法 |
CN104392461A (zh) * | 2014-12-17 | 2015-03-04 | 中山大学 | 一种基于纹理特征的视频跟踪方法 |
CN106127728A (zh) * | 2016-06-07 | 2016-11-16 | 电子科技大学 | 一种海空背景下的红外图像海天线连通域检测方法 |
Non-Patent Citations (5)
Title |
---|
张韩西子: "基于红外成像的舰船目标实时检测跟踪方法研究", 《舰船科学技术》 * |
朱力旻: "视频中前景提取技术的研究", 《万方学位论文》 * |
李翠红: "复杂海天背景红外舰船目标自动检测方法研究", 《万方学位论文》 * |
王悦行 等: "《海天背景下红外舰船目标实时跟踪算法研究》", 《弹箭与制导学报》 * |
赵谦等: "《图像增强的特征值提取》", 《智能视频图像处理技术与应用》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610154B (zh) * | 2017-10-12 | 2020-01-14 | 广西师范大学 | 多源目标的空间直方图表示与跟踪方法 |
CN107610154A (zh) * | 2017-10-12 | 2018-01-19 | 广西师范大学 | 多源目标的空间直方图表示与跟踪方法 |
CN109726616A (zh) * | 2017-10-30 | 2019-05-07 | 中电科海洋信息技术研究院有限公司 | 一种舰船检测与识别方法和装置 |
CN108764027A (zh) * | 2018-04-13 | 2018-11-06 | 上海大学 | 一种基于改进的rbd显著性计算的海面目标检测方法 |
CN109147005A (zh) * | 2018-08-24 | 2019-01-04 | 电子科技大学 | 一种用于红外图像的自适应染色方法、系统、存储介质、终端 |
CN109147005B (zh) * | 2018-08-24 | 2023-02-28 | 电子科技大学 | 一种用于红外图像的自适应染色方法、系统、存储介质、终端 |
CN109460764B (zh) * | 2018-11-08 | 2022-02-18 | 中南大学 | 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法 |
CN109460764A (zh) * | 2018-11-08 | 2019-03-12 | 中南大学 | 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法 |
CN110111361A (zh) * | 2019-04-22 | 2019-08-09 | 湖北工业大学 | 一种基于多阈值自优化背景建模的运动目标检测方法 |
CN110728690A (zh) * | 2019-09-25 | 2020-01-24 | 山东工商学院 | 一种利用小波变换对图像进行边缘平滑处理的抠图方法 |
CN110728690B (zh) * | 2019-09-25 | 2023-09-08 | 山东工商学院 | 一种利用小波变换对图像进行边缘平滑处理的抠图方法 |
CN111709356A (zh) * | 2020-06-12 | 2020-09-25 | 北京百度网讯科技有限公司 | 识别目标区域的方法、装置、电子设备和路侧设备 |
CN111709356B (zh) * | 2020-06-12 | 2023-09-01 | 阿波罗智联(北京)科技有限公司 | 识别目标区域的方法、装置、电子设备和路侧设备 |
CN111929653A (zh) * | 2020-07-21 | 2020-11-13 | 上海交通大学 | 一种基于无人船航海雷达的目标检测、跟踪方法及系统 |
CN111929653B (zh) * | 2020-07-21 | 2024-03-26 | 上海交通大学 | 一种基于无人船航海雷达的目标检测、跟踪方法及系统 |
CN112184749A (zh) * | 2020-10-09 | 2021-01-05 | 西安电子科技大学 | 基于视频sar跨域联合的动目标跟踪方法 |
CN112258518A (zh) * | 2020-10-09 | 2021-01-22 | 国家海洋局南海调查技术中心(国家海洋局南海浮标中心) | 一种海天线提取方法及装置 |
CN112258518B (zh) * | 2020-10-09 | 2022-05-03 | 国家海洋局南海调查技术中心(国家海洋局南海浮标中心) | 一种海天线提取方法及装置 |
CN114283293A (zh) * | 2021-12-16 | 2022-04-05 | 中航航空电子有限公司 | 一种红外目标检测虚警抑制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107092890A (zh) | 基于红外视频的舰船检测及跟踪方法 | |
Li et al. | Automatic pavement crack detection by multi-scale image fusion | |
CN108805904B (zh) | 一种基于卫星序列图像的运动舰船检测与跟踪方法 | |
CN111681197B (zh) | 一种基于Siamese网络结构的遥感图像无监督变化检测方法 | |
CN109544592B (zh) | 针对相机移动的运动目标检测算法 | |
CN103699905B (zh) | 一种车牌定位方法及装置 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
US9196044B2 (en) | False alarm rejection for boat detection candidates | |
CN109886218B (zh) | 基于超像素统计相异性的sar图像舰船目标检测方法 | |
CN103530600A (zh) | 复杂光照下的车牌识别方法及系统 | |
CN101770583B (zh) | 一种基于场景全局特征的模板匹配方法 | |
Xia et al. | A novel algorithm for ship detection based on dynamic fusion model of multi-feature and support vector machine | |
Craciun et al. | Joint detection and tracking of moving objects using spatio-temporal marked point processes | |
CN110633727A (zh) | 基于选择性搜索的深度神经网络舰船目标细粒度识别方法 | |
CN110942473A (zh) | 一种基于特征点网格化匹配的运动目标跟踪检测方法 | |
CN113822361B (zh) | 一种基于汉明距离的sar图像相似程度度量方法和系统 | |
Li et al. | Outlier-robust superpixel-level CFAR detector with truncated clutter for single look complex SAR images | |
CN109961028A (zh) | 基于三维块匹配和全连接条件随机场的sar检测方法 | |
Huang et al. | Superpixel-based change detection in high resolution sar images using region covariance features | |
Kovacs et al. | Orientation based building outline extraction in aerial images | |
CN117876736A (zh) | 一种天基广域监视图像空间碎片目标的检测跟踪方法 | |
CN104484647A (zh) | 一种高分辨率遥感图像云高度检测方法 | |
CN111832463A (zh) | 一种基于深度学习的交通标志检测方法 | |
Yao et al. | Real-time multiple moving targets detection from airborne IR imagery by dynamic Gabor filter and dynamic Gaussian detector | |
Zhang et al. | Moving target shadow detection and tracking in ViSAR based on DNN and multi-object tracking algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170825 |
|
RJ01 | Rejection of invention patent application after publication |