CN109308713A - 一种基于前视声纳的改进核相关滤波水下目标跟踪方法 - Google Patents

一种基于前视声纳的改进核相关滤波水下目标跟踪方法 Download PDF

Info

Publication number
CN109308713A
CN109308713A CN201810870281.4A CN201810870281A CN109308713A CN 109308713 A CN109308713 A CN 109308713A CN 201810870281 A CN201810870281 A CN 201810870281A CN 109308713 A CN109308713 A CN 109308713A
Authority
CN
China
Prior art keywords
image
target
training
basic pattern
looking sonar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810870281.4A
Other languages
English (en)
Other versions
CN109308713B (zh
Inventor
王兴梅
段兵华
王国强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201810870281.4A priority Critical patent/CN109308713B/zh
Publication of CN109308713A publication Critical patent/CN109308713A/zh
Application granted granted Critical
Publication of CN109308713B publication Critical patent/CN109308713B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明为了得到更好的前视声纳水下目标跟踪效果,提出了一种基于改进核相关滤波算法的水下目标跟踪方法。主要包括如下步骤:(1)前视声纳图像的预处理;(2)选取动态连续变化尺度的检测基样本,利用滤波器模型检测声纳图像目标的最佳位置;(3)根据峰值旁瓣比自适应更新滤波器模型,在更新过程中,选取动态连续变化的训练基样本来计算不同尺度的滤波器模型,最终实现前视声纳水下目标跟踪。对采集的水下目标原始数据进行实验结果分析,验证提出的基于改进核相关滤波算法对前视声纳水下目标跟踪具有较高的跟踪精度,并且当目标尺度发生变化、目标中途消失又出现等情况仍然具有一定的有效性和适应性。

Description

一种基于前视声纳的改进核相关滤波水下目标跟踪方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于前视声纳的水下目标跟踪方法。
背景技术
近年来,随着世界经济的迅猛发展,海洋资源开发的战略地位越来越重要。由于声波在水中的衰减程度较低,传播距离较大,所以更适合于水下环境的远距离目标探测。前视声纳是通过声波对海洋进行探测的一种设备。通过前视声纳可以开展鱼群探测、水下机器人的海底避障、潜艇等军事目标的识别与跟踪等,因此,无论在军事上还是民用上都有着重要的现实意义。前视声纳水下目标跟踪的任务是以声纳采集的数据为基础,在生成连续图像序列之后,快速准确地预测跟踪水下目标在每一帧图像中出现的位置。
核相关滤波算法是目标跟踪领域中一种精度较高的跟踪方法,它利用离散傅里叶变换和循环移位的训练样本来减少计算复杂度,提高目标跟踪的精度和速度,所以在目标跟踪领域具有很好的发展和应用前景。国内外学者在应用核相关滤波算法进行目标跟踪时,取得了一定的成果。其中在已有的文献中最著名和效果较好的跟踪方法主要包括:1.基于多特征融合的尺度自适应跟踪方法:2014年Li Y,Zhu J K.提出将原始图像灰度信息、颜色属性以及HOG多种特征融合,提升跟踪的性能。基于卷积特征的相关滤波跟踪方法,2015年Ma C等人提出采用CNN特征建立目标外观模型,通过在每一个卷积层中自适应地训练相关滤波器,以由粗到精的方式采用多层相关响应图预测目标的位置。3.基于稀疏特征集的可伸缩相关滤波器的目标跟踪;2015年Montero A S等提出将特征点检测作为尺度估计策略加入到相关滤波的框架中,并根据不同的特征点距目标中心的远近分配不同的权值,完成目标较精确的跟踪。基于可变形分块的相关滤波跟踪方法2016年Akin O等人提出一种自适应改变滤波器大小进行准确估计目标尺度变化,并比较连续帧尺度变化均值与预先设定阈值,判断是否需要尺度的更新。基于空间结构的分块自适应核相关滤波跟踪算法,2016年Yao R等人提出通过最小化外观和形变的代价函数估计新一帧目标的位置。
发明内容
本发明的目的在于提供一种跟踪精度高,能实现在目标消失又出现和目标尺度发生变化的情况下,仍能保持较好跟踪效果的水下目标跟踪方法。
一种基于前视声纳的改进核相关滤波水下目标跟踪方法,具体包括如下步骤:
(1)前视声纳图像预处理;
(1.1)利用前视声纳采集的原始数据读取v×k个数据,并将数据存储在v×k的矩阵中,同时建立一个u×q大小的图像作为重建后的声纳图像,图像中所有像素点的像素初始值设置为零;
(1.2)对于u×q图像中的每一个像素点的坐标(x,y),利用后向映射反向计算其在v×k矩阵中的对应的行和列的值(m,n);
(1.3)根据重建的灰度声纳图像,利用中值滤波对声纳图像进行去噪并且利用灰度级彩色变换法进行伪彩色处理;
(2)选取动态连续变化尺度的检测基样本,利用滤波器模型检测声纳图像目标的最佳位置;
(2.1)对不同尺度的检测基样本,提取方向梯度直方图特征;
(2.2)利用对应尺度的滤波器模型计算响应图;
(2.3)根据峰值最大的响应图预测目标的最佳位置;
(3)根据峰值旁瓣比自适应更新滤波器模型,实现前视声纳水下目标跟踪;
(3.1)计算响应图的峰值旁瓣比;
(3.2)比较响应图的峰值旁瓣比与设定阈值之间的关系,若峰值旁瓣比大于设定的阈值,利用提取的训练基样本特征和训练得到的滤波器系数对相应尺度滤波器模型中的目标特征模板和滤波器系数分别进行更新,否则不更新。
所述的步骤(1.2)具体包括:
所述的行m和列n两者之间的映射关系为:
若计算得到的m和n满足1≤m≤v且1≤n≤k,则将v×k矩阵中m行n列的元素值赋给图像中坐标为(x,y)位置的像素点作为像素值,此时有:
其中,I(x,y)表示灰度图像中坐标为(x,y)的像素点的灰度值。
步骤(1.3)中所述的灰度级彩色变换法进行伪彩色处理具体包括:
假设p(x,y)为灰度图像,R(x,y)、G(x,y)、B(x,y)为p(x,y)映射到RGB空间的三个分量,则有:
式中,Tr、Tg、Tb为灰度级与R、G、B三基色的映射函数,使用上述给定的映射函数将灰度图像转换成相应的伪彩色图像,Tr、Tg、Tb三个变换函数的具体实现如下:
式中,I(x,y)表示灰度图像中坐标为(x,y)的像素点的灰度值,L代表灰度图像的最大级数256。
所述的步骤(2.1)具体包括:
确定检测基样本的尺度变化区间s={s1,s2,...,sn},以上一帧图像检测的目标位置为中心在当前帧得到检测基样本,提取不同尺度{s1,s2,...,sn}下的检测基样本的方向梯度直方图特征z={z1,z2,...,zn};前视声纳图像中每个像素的梯度包梯度幅值和梯度方向,像素点(x,y)处的梯度幅值Gradient(x,y)和梯度方向θ(x,y)分别表示为:
将梯度方向360度分成j个区间,以像素点的梯度幅值作为权值,统计每个梯度方向区间的权值,形成图像的方向梯度直方图特征。
所述的步骤(2.2)具体包括:
利用滤波器模型中的目标特征模板υ={υ12,...,υn}和检测基样本特征z={z1,z2,...zn}进行核相关运算,有:
式中,F-1为傅里叶逆变换,*表示复共轭,为对变量z进行傅里叶变换;将核相关运算的结果κ={κ1 2 ,...,κn }和滤波器模型中的滤波器系数α={α12,K,αn}转换到频域,利用傅里叶逆变换得到空间域的多个响应图f={f1,f2,K,fn},每一响应图的计算公式为:
式中,i=1,2,...,n,e表示点乘运算,F-1表示傅里叶逆变换。
所述的步骤(2.3)具体包括:
f={f1,f2,K,fn}中的每一个响应图都是一个二维矩阵,矩阵中的元素是检测基样本标签与其循环移位得到的各个样本经滤波器检测的标签;矩阵中最大值所在位置的元素对应于当前帧目标区域最相似样本的标签,根据检测基样本与最相似样本标签之间的坐标位置关系得到当前帧目标相对于检测基样本中目标的移动距离,进而预测出目标的最佳位置。
所述的步骤(3.1)具体包括:
峰值旁瓣比的计算公式为:
其中,p为第t帧响应图中最大峰值,峰值周围的区域为旁瓣区域,μ和δ分别为旁瓣区域的均值和标准差。
所述的步骤(3.2)具体包括:
根据预测目标的最佳位置在当前帧得到训练基样本,训练样本通过训练基样本循环移位产生,假设1×n维的向量χ=[ε12,K εi,K εn]表示基样本,则在一维上对基样本χ的循环移位操作表示为:
{puχ|u=0,...,n-1};
式中,u表示循环移位的方向和次数,p为置换矩阵,具体表示为:
基样本χ=[ε12,Kεi,Kεn]向下循环移位1次产生的训练样本χ1为:
χ1=[εn12,...,εi,...εn-1];
训练基样本循环移位产生训练样本后,通过高斯分布对训练样本标记标签,即根据样本中心离目标的远近分别赋[0,1]范围的数值,高斯分布为:
式中,σ表示高斯分布的带宽;对不同尺度s={s1,s2,...,sn}的训练基样本提取特征υ={υ12,...,υn},并以不同尺度的训练基样本的特征υ作为输入,利用岭回归训练得到对应尺度的滤波器系数α={α12,K,αn},滤波器系数的训练过程表示为:
式中,i=1,2,...,n,γ为训练样本的标签,κυυ为训练基样本特征υ与自身的核相关运算结果,λ为岭回归正则化系数;最后,使用滤波器系数训练结果α和提取的不同尺度的训练基样本方向梯度特征υ使用线性插值的方式分别对对应尺度滤波器模型中的滤波器系数部分和目标特征模板部分进行更新;
滤波器模型的更新公式为:
式中,(αt',υt')表示第t帧根据新的检测结果得到的滤波器模型,(αt-1t-1)表示第t-1帧更新的滤波器模型,η为插值系数。
所述的步骤(3)具体包括:
若根据峰值旁瓣比的判定结果对滤波器模型进行更新,则以不同尺度训练基样本的方向梯度直方图特征作为输入,利用岭回归训练得到对应尺度的滤波器系数;滤波器系数的训练过程表示为γ为训练样本的标签,κυυ为训练基样本方向梯度直方图特征υ与自身的核相关值,λ为岭回归正则化系数。
本发明与现有技术相比的优点在于:a.提出采用后向映射的方式来对前视声纳图像进行重建,避免了将数据直接映射在图像上使生成的图像存在空隙,有利于后续的水下目标跟踪。b.为避免目标尺度发生变化影响跟踪精度,本发明提出将检测和训练基样本尺度设置为动态连续变化的区间,并针对不同尺度的训练基样本训练多个不同的滤波器,利用多个不同的滤波器去检测对应尺度的检测基样本,根据检测结果中具有峰值最大的响应图预测目标的最佳位置。当目标尺度发生变化,由于训练基样本能动态的跟随变化,能够使训练基样本中包含的背景信息既不会太多,也不会太少,保证滤波器的训练效果,降低构建目标尺度所带来的计算复杂度。c.为提高目标中途消失又出现情况的跟踪精度和跟踪稳定性,提出根据峰值旁瓣比自适应更新滤波器模型,实现前视声纳水下目标跟踪。在水下目标跟踪过程中,比较响应图的峰值旁瓣比与设定阈值之间的关系,如果峰值旁瓣比大于设定的阈值,利用提取的训练基样本特征和训练得到的滤波器系数对相应尺度滤波器模型中的目标特征模板和滤波器系数分别进行更新,否则不更新,最终实现较精确的前视声纳水下目标跟踪。本发明提出的更新策略是一种间接更新策略,在一定程度上减少了频繁的逐帧更新所带来的计算复杂度;另外这种更新策略能防止将目标消失帧的背景信息引入模型中使模型产生漂移,导致后续目标跟踪错误。
附图说明
图1为本发明方法的流程图;
图2为后向映射示意图;
图3为采用直接映射方式重建后的前视声纳图像示意图;
图4为本发明采用后向映射方式重建后的前视声纳图像示意图;
图5为本发明中值滤波去噪后的前视声纳图像;
图6为伪彩色处理后得到的图像;
图7为传统核相关滤波算法对水下目标尺度发生变化的图像序列跟踪的结果图,图7(a)是第1087帧水下目标跟踪的结果图,图7(b)是图7(a)对应的响应图,图7(c)是第1093帧水下目标跟踪的结果图,图7(d)是图7(c)对应的响应图,图7(e)是第1112帧水下目标跟踪的结果图,图7(f)是图7(e)对应的响应图;
图8为前视声纳图像序列354-434帧中目标中途消失又出现的原始图像,图7(a)是第359帧原始图像,图8(b)是第363帧原始图像,图7(c)是第364帧原始图像,图7(d)是第365帧原始图像,图7(e)是第393帧原始图像,图7(f)是第403帧原始图像;
图9为传统核相关滤波算法在图像序列354-434帧中跟踪水下目标各帧响应图的峰值旁瓣比;
图10为水下目标正常时跟踪的结果图,图10(a)是第12帧时水下目标跟踪的结果图,图10(b)是第25帧时水下目标跟踪的结果图,图10(c)是第34帧时水下目标跟踪的结果图,图10(d)是第51帧时水下目标跟踪的结果图;
图11为1-60帧图像序列中水下目标跟踪结果的中心位置误差图;
图12为1-60帧图像序列中水下目标跟踪结果的中心位置误差统计曲线图;
图13为1-60帧图像序列中水下目标跟踪结果的重合度统计曲线图;
图14为水下目标尺度发生变化时跟踪的结果图,图14(a)是第1087帧时水下目标跟踪的结果图,图14(b)是第1093帧时水下目标跟踪的结果图,图14(c)是第1112帧时水下目标跟踪的结果图,图14(d)是第1132帧时水下目标跟踪的结果图;
图15为1082-1152帧图像序列中水下目标跟踪的中心位置误差图;
图16为1082-1152帧图像序列中水下目标跟踪结果的中心位置误差统计曲线图;
图17为1082-1152帧图像序列中水下目标跟踪结果的重合度统计曲线图;
图18为目标中途消失又出现的情况下跟踪的结果图,图18(a)是第359帧时水下目标跟踪的结果图,图18(b)是第365帧时水下目标跟踪的结果图,图18(c)是第393帧时水下目标跟踪的结果图,图18(d)是第403帧时水下目标跟踪的结果图;
图19为354-434帧图像序列中水下目标跟踪的中心位置误差图;
图20为354-434帧图像序列中水下目标跟踪结果的中心位置误差统计曲线图;
图21为354-434帧图像序列中水下目标跟踪结果的重合度统计曲线图;
图22为IKCF、KCF、CSK、MOSSE和Mean-Shift算法的平均跟踪速度。
具体实施方式
下面结合附图举例对本发明做更详细地描述:
结合图1,本发明的具体步骤如下:
(1)前视声纳图像的预处理
前视声纳在数据采集的过程中是通过单波束扇形扫描的方式获取信息的,每一次完整的扫描过程共发射v个波束,每个波束上有k个采样点,所以每次从前视声纳采集的原始数据中读取v×k个数据,并将数据存储在v×k的矩阵中。本发明采用后向映射的方式来对声纳图像进行重建,防止重建后的图像出现空隙,首先建立一个u×q大小的图像作为重建后的声纳图像,图像中所有像素点的像素初始值设置为零。对于u×q图像中的每一个像素点的坐标(x,y),利用后向映射反向计算其在v×k大小矩阵中的对应的行列值(m,n),图2是后向映射的示意图,两者之间的映射关系为:
如果计算得到的m和n满足1≤m≤v且1≤n≤k,则将v×k矩阵中m行n列的元素值赋给图像中坐标为(x,y)位置的像素点作为像素值。有:
图3是采用直接映射方式重建后的前视声纳图像示意图,图4是采用后向映射方式重建后的前视声纳图像示意图。从实验结果可得,本发明采用后向映射方式能较好的解决直接映射重建后的前视声纳图像存在空隙的问题。
由于水下环境复杂,采集到的数据中夹杂着很多的噪声,这些噪声大都是随机的脉冲噪声,严重影响了成像后图像的质量,为了减少对后续水下目标跟踪的干扰,本发明采用算法简单,运行速度较快的中值滤波的方法对重建后的灰度图像进行去噪处理。经过重建和去噪处理后得到的声纳图像是灰度图像,由于难以辨认灰度图像中的细节信息和感受到灰度的变化,再加上声纳图像本身又具有分辨率低和对比度低的缺陷,所以通过灰度级彩色变换法对前视声纳图像进行伪彩色处理。
假设p(x,y)为灰度图像,R(x,y)、G(x,y)、B(x,y)为p(x,y)映射到RGB空间的三个分量,则有:
R(x,y)=Tr(p(x,y))
G(x,y)=Tg(p(x,y))
B(x,y)=Tb(p(x,y))
式中,Tr、Tg、Tb为灰度级与R、G、B三基色的映射函数,给定映射函数将灰度图像转换成相应的伪彩色图像,Tr、Tg、Tb三个变换函数的具体实现如下:
式中,I(x,y)表示灰度图像中坐标为(x,y)的像素点的灰度值,L代表灰度图像的最大级数256。图5是经过中值滤波去噪后的前视声纳图像,图6是伪彩色处理后得到的图像。从图中可以看出,通过中值滤波去噪和伪彩色处理后能得到质量较高的前视声纳图像。
(2)选取动态连续变化尺度的检测基样本,利用滤波器模型检测声纳图像目标的最佳位置
图7给出传统核相关滤波算法对水下目标尺度发生变化的图像序列进行跟踪的结果图。图7(a)是第1087帧水下目标跟踪的结果图,图7(b)是图7(a)对应的响应图,图7(c)是第1093帧水下目标跟踪的结果图,图7(d)是图7(c)对应的响应图,图7(e)是第1112帧水下目标跟踪的结果图,图7(f)是图7(e)对应的响应图。
从实验结果可以看出,当采用固定尺度的检测基样,水下目标尺度由小变大时,其对应的响应图峰值先增大后减小,图7(c)和图7(d)表明水下目标尺度适当的变大时,有利于滤波器的检测,但图7(e)和图7(f)表明如果目标尺度超过了一定的值,响应图峰值会减小,滤波器的检测效果就会开始下降,跟踪精度会降低。
为避免目标尺度发生变化影响跟踪精度,本发明提出以动态连续变化尺度的检测基样本提取方向梯度直方图特征,利用滤波器模型计算响应图,并根据具有峰值最大的响应图来预测目标的最佳位置。
(2.1)对不同尺度的检测基样本,提取方向梯度直方图特征
确定检测基样本的尺度变化区间s={s1,s2,...,sn},以上一帧图像检测的目标位置为中心在当前帧得到检测基样本,提取不同尺度{s1,s2,...,sn}下的检测基样本的方向梯度直方图特征z={z1,z2,...,zn}。前视声纳图像中每个像素的梯度包梯度幅值和梯度方向。像素点(x,y)处的梯度幅值Gradient(x,y)和梯度方向θ(x,y)分别表示为:
将梯度方向360度分成j个区间,以像素点的梯度幅值作为权值,统计每个梯度方向区间的权值,形成图像的方向梯度直方图特征。
(2.2)利用对应尺度的滤波器模型计算响应图
利用滤波器模型中的目标特征模板υ={υ12,...,υn}和检测基样本特征z={z1,z2,...zn}进行核相关运算,有:
式中,F-1为傅里叶逆变换,*表示复共轭,为对变量z进行傅里叶变换。
将核相关运算的结果κ={κ1 2 ,...,κn }和滤波器模型中的滤波器系数α={α12,K,αn}转换到频域,利用傅里叶逆变换得到空间域的多个响应图f={f1,f2,K,fn},每一响应图的计算公式为:
式中,i=1,2,...,n,e表示点乘运算,F-1表示傅里叶逆变换。
(2.3)根据峰值最大的响应图预测目标的最佳位置
f={f1,f2,K,fn}中的每一个响应图都是一个二维矩阵,矩阵中的元素是检测基样本标签,与其循环移位得到的各个样本经滤波器检测的标签,并且矩阵中最大值(即响应图的峰值)所在位置的元素对应与当前帧目标区域最相似样本的标签,根据检测基样本与最相似样本标签之间的坐标位置关系可以得到当前帧目标相对于检测基样本中目标的移动距离,进而预测出目标的最佳位置。
(3)提出根据峰值旁瓣比自适应更新滤波器模型,实现前视声纳水下目标跟踪
(3.1)计算响应图的峰值旁瓣比
峰值旁瓣比的计算公式为:
式中,p为第t帧响应图中最大峰值,峰值周围的区域为旁瓣区域,μ和δ分别为旁瓣区域的均值和标准差。
图8是目标中途消失又出现的图像序列354-434帧中第359、363、364、365、393、403帧的原始声纳图像,图9是传统核相关滤波算法在图像序列354-434帧中跟踪水下目标各帧响应图的峰值旁瓣比。
从图8和图9中可以看出,当图像序列中第363、364、365帧图像中出现了目标中途消失的情况时,峰值旁瓣比偏低,而当图像序列中第393、403帧图像中目标比较清晰时,峰值旁瓣比较高。因此,通过峰值旁瓣比可以判定目标是否消失。为了避免更新滤波器模型时将目标消失帧的背景信息引入模型中导致后续目标跟踪错误,使模型产生漂移,本发明比较响应图的峰值旁瓣比与设定阈值之间的关系,如果峰值旁瓣比大于设定的阈值,利用提取的训练基样本特征和训练得到的滤波器系数对相应尺度滤波器模型中的目标特征模板和滤波器系数分别进行更新,否则不更新,最终实现较精确的前视声纳水下目标跟踪。
(3.2)自适应更新滤波器模型,实现前视声纳水下目标跟踪
根据预测目标的最佳位置在当前帧得到训练基样本,训练样本通过训练基样本循环移位产生,假设1×n维的向量χ=[ε12,Kεi,Kεn]表示基样本,则在一维上对基样本χ的循环移位操作表示为:
{puχ|u=0,...,n-1}
式中,u表示循环移位的方向和次数,p为置换矩阵,具体表示为:
基样本χ=[ε12,K εi,K εn]向下循环移位1次产生的训练样本χ1为:
χ1=[εn12,...,εi,...εn-1]
训练基样本循环移位产生训练样本后,通过高斯分布对训练样本标记标签,即根据样本中心离目标的远近分别赋[0,1]范围的数值,离目标越近,值越趋向于1,离目标越远,值越趋向于0。高斯分布为:
式中,σ表示高斯分布的带宽。
对不同尺度s={s1,s2,...,sn}的训练基样本提取特征υ={υ12,...,υn},并以不同尺度的训练基样本的特征υ作为输入,利用岭回归训练得到对应尺度的滤波器系数α={α12,K,αn},滤波器系数的训练过程表示为:
式中,i=1,2,...,n,γ为训练样本的标签,κυυ为训练基样本特征υ与自身的核相关运算结果,λ为岭回归正则化系数。
最后,使用滤波器系数训练结果α和提取的不同尺度的训练基样本方向梯度特征υ使用线性插值的方式分别对对应尺度滤波器模型中的滤波器系数部分和目标特征模板部分进行更新。
滤波器模型的更新公式为:
式中,(αt',υt')表示第t帧根据新的检测结果得到的滤波器模型,(αt-1t-1)表示第t-1帧更新的滤波器模型,η为插值系数。
为了验证本发明的有效性和优越性,分别给出本发明提出的改进的核相关滤波算法IKCF、传统核相关滤波算法KCF、基于循环结构的核检测跟踪算法CSK、最小均方误差滤波算法MOSSE和均值漂移算法Mean-Shift在前视声纳图像序列中水下目标跟踪的结果比较,验证本发明对于前视声纳水下目标跟踪具有更好的效果。
图10给出水下目标正常时IKCF、KCF、CSK、MOSSE和Mean-Shift算法分别对12帧、25帧、34帧和51帧水下目标跟踪的结果,从图10的跟踪位置标记可以得出,Mean-Shift算法在跟踪过程中出现了严重的跟踪偏差。为了更清晰的描述水下目标跟踪的结果,图11给出各个算法对图像序列中1-60帧水下目标跟踪结果的中心位置误差图,图12给出各个算法对图像序列中1-60帧水下目标跟踪结果的中心位置误差统计曲线图,图13给出各个算法对图像序列中1-60帧水下目标跟踪结果的重合度统计曲线图。中心位置误差是计算水下目标真实位置与算法跟踪到的水下目标位置的欧氏距离,判断各帧的跟踪精度。中心位置误差统计值是统计不同中心误差的图像帧数与图像序列总帧数的比值,判断算法跟踪精度。重合度统计是每一帧中以目标预测位置为中心,目标尺度矩形框和以目标真实位置为中心,目标尺度矩形框两者之间重叠面积与目标真实位置尺度矩形框大小的比值,能进一步判断算法跟踪精度。从图11中可以进一步看出,Mean-Shift算法在跟踪过程中出现了严重的跟踪偏差,KCF和MOSSE算法虽然开始跟踪偏差比较小,但随着帧数的增加,偏差呈现上升的趋势,CSK算法与本发明提出的IKCF算法比较可以得出,本发明提出的IKCF算法具有更高的跟踪精度与稳定性。从图12中进一步看出,对于同一个中心位置误差值,本发明提出IKCF算法的跟踪结果中图像帧数与图像序列总帧数的比值要远高于其他算法,并且100%图像帧数的中心位置误差值都在6像素以内,而KCF、CSK、MOSSE和Mean-Shift算法分别在10像素、8像素、14像素和20像素以内。因此,本发明提出IKCF算法的跟踪精度更高。从图13中进一步看出,对于同一个重合度值,本发明提出IKCF算法的跟踪结果中图像帧数与图像序列总帧数的比值要远优于其他算法,并且100%图像帧数的重合度值都在0.76以内,而KCF、CSK、MOSSE和Mean-Shift算法分别在0.64、0.74、0.48和0.38以内。因此,进一步验证本发明提出IKCF算法的跟踪精度更高。
图14给出水下目标尺度发生变化时IKCF、KCF、CSK、MOSSE和Mean-Shift算法分别对1087帧、1093帧、1112帧、1132帧水下目标跟踪的结果,从图14的跟踪位置标记可以得出,在前1112帧各个算法都能相对正确的跟踪到水下目标的位置,而在1112帧时,Mean-Shift算法在跟踪过程中开始出现偏差,随后在1132帧时,Mean-Shift和MOSSE算法都出现了水下目标跟踪错误,算法相继失效。为了更清晰的描述水下目标跟踪的结果,图15给出各个算法对图像序列中1082-1152帧水下目标跟踪结果的中心位置误差图,图16给出各个算法对图像序列中1082-1152帧水下目标跟踪结果的中心位置误差统计曲线图,图17给出各个算法对图像序列中1082-1152帧水下目标跟踪结果的重合度统计曲线图。从图15中可以进一步看出,Mean-Shift和MOSSE算法在跟踪过程中都出现了严重的跟踪错误,而KCF算法、CSK算法与本发明提出的IKCF算法比较可以得出,在目标尺度发生变化的图像序列上进行跟踪时,本发明提出的算法具有较高的跟踪精度且能保持有效的水下目标跟踪,其优势明显。从图16中进一步看出,即使在最大的中心位置误差为30像素的情况下,Mean-Shift算法和MOSSE算法的跟踪结果中图像帧数与图像序列总帧数的比值也只有48%和65%,而对于同一个中心位置误差值,本发明提出的IKCF算法的跟踪结果中图像帧数与图像序列总帧数的比值都最高KCF和CSK算法,并且100%图像帧数的中心位置误差值都在12像素以内,而KCF、CSK算法分别在19像素和18像素以内。因此,在目标尺度发生变化的图像序列上进行跟踪时,本发明提出IKCF算法的跟踪精度更高。从图17中进一步看出,由于Mean-Shift算法和MOSSE算法跟踪过程中后续出现跟踪错误,因此,不管重合度值为多少,Mean-Shift算法和MOSSE算法的跟踪结果中图像帧数与图像序列总帧数的比值都不可能达到100%,并且随着重合度值的增大,逐渐降低。而对于KCF算法、CSK算法和本发明提出IKCF算法,对于同一个重合度值,本发明提出IKCF算法的跟踪结果中图像帧数与图像序列总帧数的比值要远优于KCF算法和CSK算法,并且100%图像帧数的重合度值都在0.54以内,而KCF和CSK算法分别在0.28和0.3以内。因此,当目标尺度发生变化时,本发明提出IKCF算法和其他算法相比具有更强的适应性,并能一直保持较高的跟踪精度。
图18给出目标中途消失又出现的情况下IKCF、KCF、CSK、MOSSE和Mean-Shift算法分别对359帧、365帧、393帧、403帧水下目标跟踪的结果,从图18的跟踪位置标记可以得出,在365帧目标消失又出现时,除了CSK算法出现跟踪错误,其他算法都能相对正确的跟踪到水下目标的位置,而在365帧之后,KCF、MOSSE和Mean-Shift算法跟踪偏差逐渐增大,直至第393帧时,MOSSE算法水下目标跟踪错误,彻底偏离正常跟踪轨迹,而到第403帧时,KCF算法和Mean-Shift算法也都分别出现水下目标跟踪错误,只有本发明提出的IKCF算法仍然保持了正确的跟踪轨迹,并且一直呈现出较高的跟踪精度。为了更清晰的描述水下目标跟踪的结果,图19给出各个算法对图像序列中354-434帧水下目标跟踪结果的中心位置误差图,图20给出各个算法对图像序列中354-434帧水下目标跟踪结果的中心位置误差统计曲线图,图21给出各个算法对图像序列中354-434帧水下目标跟踪结果的重合度统计曲线图。从图19中可以进一步看出,当目标出现消失之后KCF、CSK、MOSSE和Mean-Shift算法的中心位置误差越来越大,以至于在后续帧中逐渐偏离正常跟踪轨迹,彻底跟踪失败,而本发明提出的IKCF算法仍然具有较高的跟踪精度和稳定性,鲁棒性较强。从图20和图21中进一步看出,KCF、CSK、MOSSE和Mean-Shift算法不管中心误差和重合度值为多少,跟踪结果中图像帧数与图像序列总帧数的比值都不可能达到100%。因此,针对目标中途消失又出现的情况,本发明提出IKCF算法和其他算法相比具有较高的跟踪精度,且具有一定的适应性和有效性。
为了进一步验证本发明提出的IKCF算法对前视声纳水下目标跟踪的有效性,图22给出IKCF、KCF、CSK、MOSSE和Mean-Shift算法的平均跟踪速度,单位为帧/秒。
从图22中可以看出,基于相关滤波框架的KCF、CSK和MOSSE算法在跟踪速度方面具有很强的优势,即使是以快速著称的Mean-Shift经典跟踪算法也要逊色,然而这些算法虽然在跟踪速度上有非常优秀的表现,但结合图10至图21的跟踪结果分析可知,对水下目标尺度发生变化和水下目标中途消失又出现的情况又普遍存在跟踪精度不高的缺陷。而本发明提出的IKCF算法虽然比其他算法跟踪速度没有优势,但在跟踪速度接受范围内,算法在水下目标尺度发生变化和水下目标中途消失又出现的情况下有更强的鲁棒性和跟踪稳定性,且跟踪精度较高。
通过对本发明提出的IKCF算法的验证和实验分析可以得出,IKCF算法对前视声纳水下目标跟踪具有较好的跟踪精度,并且当目标尺度发生变化、目标中途消失又出现等情况仍然具有一定的有效性和适应性。

Claims (9)

1.一种基于前视声纳的改进核相关滤波水下目标跟踪方法,具体包括如下步骤:
(1)前视声纳图像预处理;
(1.1)利用前视声纳采集的原始数据读取v×k个数据,并将数据存储在v×k的矩阵中,同时建立一个u×q大小的图像作为重建后的声纳图像,图像中所有像素点的像素初始值设置为零;
(1.2)对于u×q图像中的每一个像素点的坐标(x,y),利用后向映射反向计算其在v×k矩阵中的对应的行和列的值(m,n);
(1.3)根据重建的灰度声纳图像,利用中值滤波对声纳图像进行去噪并且利用灰度级彩色变换法进行伪彩色处理;
(2)选取动态连续变化尺度的检测基样本,利用滤波器模型检测声纳图像目标的最佳位置;
(2.1)对不同尺度的检测基样本,提取方向梯度直方图特征;
(2.2)利用对应尺度的滤波器模型计算响应图;
(2.3)根据峰值最大的响应图预测目标的最佳位置;
(3)根据峰值旁瓣比自适应更新滤波器模型,实现前视声纳水下目标跟踪;
(3.1)计算响应图的峰值旁瓣比;
(3.2)比较响应图的峰值旁瓣比与设定阈值之间的关系,若峰值旁瓣比大于设定的阈值,利用提取的训练基样本特征和训练得到的滤波器系数对相应尺度滤波器模型中的目标特征模板和滤波器系数分别进行更新,否则不更新。
2.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,所述的步骤(1.2)具体包括:
所述的行m和列n两者之间的映射关系为:
若计算得到的m和n满足1≤m≤v且1≤n≤k,则将v×k矩阵中m行n列的元素值赋给图像中坐标为(x,y)位置的像素点作为像素值,此时有:
其中,I(x,y)表示灰度图像中坐标为(x,y)的像素点的灰度值。
3.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,步骤(1.3)中所述的灰度级彩色变换法进行伪彩色处理具体包括:
假设p(x,y)为灰度图像,R(x,y)、G(x,y)、B(x,y)为p(x,y)映射到RGB空间的三个分量,则有:
R(x,y)=Tr(p(x,y))
G(x,y)=Tg(p(x,y));
B(x,y)=Tb(p(x,y))
式中,Tr、Tg、Tb为灰度级与R、G、B三基色的映射函数,使用上述给定的映射函数将灰度图像转换成相应的伪彩色图像,Tr、Tg、Tb三个变换函数的具体实现如下:
式中,I(x,y)表示灰度图像中坐标为(x,y)的像素点的灰度值,L代表灰度图像的最大级数256。
4.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,所述的步骤(2.1)具体包括:
确定检测基样本的尺度变化区间s={s1,s2,...,sn},以上一帧图像检测的目标位置为中心在当前帧得到检测基样本,提取不同尺度{s1,s2,...,sn}下的检测基样本的方向梯度直方图特征z={z1,z2,...,zn};前视声纳图像中每个像素的梯度包梯度幅值和梯度方向,像素点(x,y)处的梯度幅值Gradient(x,y)和梯度方向θ(x,y)分别表示为:
将梯度方向360度分成j个区间,以像素点的梯度幅值作为权值,统计每个梯度方向区间的权值,形成图像的方向梯度直方图特征。
5.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,所述的步骤(2.2)具体包括:
利用滤波器模型中的目标特征模板υ={υ12,...,υn}和检测基样本特征z={z1,z2,...zn}进行核相关运算,有:
式中,F-1为傅里叶逆变换,*表示复共轭,为对变量z进行傅里叶变换;将核相关运算的结果κ={κ1 2 ,...,κn }和滤波器模型中的滤波器系数α={α12,K,αn}转换到频域,利用傅里叶逆变换得到空间域的多个响应图f={f1,f2,K,fn},每一响应图的计算公式为:
式中,i=1,2,...,n,e表示点乘运算,F-1表示傅里叶逆变换。
6.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,所述的步骤(2.3)具体包括:
f={f1,f2,K,fn}中的每一个响应图都是一个二维矩阵,矩阵中的元素是检测基样本标签与其循环移位得到的各个样本经滤波器检测的标签;矩阵中最大值所在位置的元素对应于当前帧目标区域最相似样本的标签,根据检测基样本与最相似样本标签之间的坐标位置关系得到当前帧目标相对于检测基样本中目标的移动距离,进而预测出目标的最佳位置。
7.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,所述的步骤(3.1)具体包括:
峰值旁瓣比的计算公式为:
其中,p为第t帧响应图中最大峰值,峰值周围的区域为旁瓣区域,μ和δ分别为旁瓣区域的均值和标准差。
8.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,所述的步骤(3.2)具体包括:
根据预测目标的最佳位置在当前帧得到训练基样本,训练样本通过训练基样本循环移位产生,假设1×n维的向量χ=[ε12,Kεi,Kεn]表示基样本,则在一维上对基样本χ的循环移位操作表示为:
{puχ|u=0,...,n-1};
式中,u表示循环移位的方向和次数,p为置换矩阵,具体表示为:
基样本χ=[ε12,Kεi,Kεn]向下循环移位1次产生的训练样本χ1为:
χ1=[εn12,...,εi,...εn-1];
训练基样本循环移位产生训练样本后,通过高斯分布对训练样本标记标签,即根据样本中心离目标的远近分别赋[0,1]范围的数值,高斯分布为:
式中,σ表示高斯分布的带宽;对不同尺度s={s1,s2,...,sn}的训练基样本提取特征υ={υ12,...,υn},并以不同尺度的训练基样本的特征υ作为输入,利用岭回归训练得到对应尺度的滤波器系数α={α12,K,αn},滤波器系数的训练过程表示为:
式中,i=1,2,...,n,γ为训练样本的标签,κυυ为训练基样本特征υ与自身的核相关运算结果,λ为岭回归正则化系数;最后,使用滤波器系数训练结果α和提取的不同尺度的训练基样本方向梯度特征υ使用线性插值的方式分别对对应尺度滤波器模型中的滤波器系数部分和目标特征模板部分进行更新;
滤波器模型的更新公式为:
式中,(αt',υt')表示第t帧根据新的检测结果得到的滤波器模型,(αt-1t-1)表示第t-1帧更新的滤波器模型,η为插值系数。
9.根据权利要求1所述的一种基于前视声纳的改进核相关滤波水下目标跟踪方法,其特征在于,所述的步骤(3)具体包括:
若根据峰值旁瓣比的判定结果对滤波器模型进行更新,则以不同尺度训练基样本的方向梯度直方图特征作为输入,利用岭回归训练得到对应尺度的滤波器系数;滤波器系数的训练过程表示为γ为训练样本的标签,κυυ为训练基样本方向梯度直方图特征υ与自身的核相关值,λ为岭回归正则化系数。
CN201810870281.4A 2018-08-02 2018-08-02 一种基于前视声纳的改进核相关滤波水下目标跟踪方法 Active CN109308713B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810870281.4A CN109308713B (zh) 2018-08-02 2018-08-02 一种基于前视声纳的改进核相关滤波水下目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810870281.4A CN109308713B (zh) 2018-08-02 2018-08-02 一种基于前视声纳的改进核相关滤波水下目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109308713A true CN109308713A (zh) 2019-02-05
CN109308713B CN109308713B (zh) 2021-11-19

Family

ID=65225933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810870281.4A Active CN109308713B (zh) 2018-08-02 2018-08-02 一种基于前视声纳的改进核相关滤波水下目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109308713B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993777A (zh) * 2019-04-04 2019-07-09 杭州电子科技大学 一种基于双模板自适应阈值的目标跟踪方法及系统
CN110706253A (zh) * 2019-09-19 2020-01-17 中国科学院自动化研究所 基于表观特征和深度特征的目标跟踪方法、系统、装置
CN110930430A (zh) * 2019-11-15 2020-03-27 浙江大学 一种基于相关滤波的水下目标跟踪方法
CN111105444A (zh) * 2019-12-31 2020-05-05 哈尔滨工程大学 一种适用于水下机器人目标抓取的连续跟踪方法
CN111626341A (zh) * 2020-05-12 2020-09-04 哈尔滨工程大学 一种面向水下目标识别的特征级信息融合方法
CN112102286A (zh) * 2020-09-15 2020-12-18 哈尔滨工程大学 一种基于Weyl变换的声纳图像特征提取方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110142282A1 (en) * 2009-12-14 2011-06-16 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation
CN105405118A (zh) * 2015-10-16 2016-03-16 哈尔滨工程大学 基于量子衍生混合蛙跳的水下声纳图像目标检测方法
CN105844665A (zh) * 2016-03-21 2016-08-10 清华大学 视频对象追踪方法及装置
CN106570486A (zh) * 2016-11-09 2017-04-19 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN107358623A (zh) * 2017-07-12 2017-11-17 武汉大学 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法
CN107452015A (zh) * 2017-07-28 2017-12-08 南京工业职业技术学院 一种具有重检测机制的目标跟踪系统
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
US9947077B2 (en) * 2013-12-31 2018-04-17 Thomson Licensing Video object tracking in traffic monitoring
CN108288062A (zh) * 2017-12-29 2018-07-17 中国电子科技集团公司第二十七研究所 一种基于核相关滤波的目标跟踪方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110142282A1 (en) * 2009-12-14 2011-06-16 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation
US9947077B2 (en) * 2013-12-31 2018-04-17 Thomson Licensing Video object tracking in traffic monitoring
CN105405118A (zh) * 2015-10-16 2016-03-16 哈尔滨工程大学 基于量子衍生混合蛙跳的水下声纳图像目标检测方法
CN105844665A (zh) * 2016-03-21 2016-08-10 清华大学 视频对象追踪方法及装置
CN106570486A (zh) * 2016-11-09 2017-04-19 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN107358623A (zh) * 2017-07-12 2017-11-17 武汉大学 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法
CN107452015A (zh) * 2017-07-28 2017-12-08 南京工业职业技术学院 一种具有重检测机制的目标跟踪系统
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
CN108288062A (zh) * 2017-12-29 2018-07-17 中国电子科技集团公司第二十七研究所 一种基于核相关滤波的目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ZHOU YAN ET.AL: "A scale adaptive underwater target tracking algorithm", 《2017 13TH IEEE INTERNATIONAL CONFERENCE ON ELECTRONIC MEASUREMENT & INSTRUMENTS (ICEMI)》 *
寇贤聪: "前视声纳图像目标跟踪系统研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
杨帆: "《数字图像处理与分析》", 31 May 2015, 北京航空航天大学出版社 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993777A (zh) * 2019-04-04 2019-07-09 杭州电子科技大学 一种基于双模板自适应阈值的目标跟踪方法及系统
CN110706253A (zh) * 2019-09-19 2020-01-17 中国科学院自动化研究所 基于表观特征和深度特征的目标跟踪方法、系统、装置
CN110706253B (zh) * 2019-09-19 2022-03-08 中国科学院自动化研究所 基于表观特征和深度特征的目标跟踪方法、系统、装置
CN110930430A (zh) * 2019-11-15 2020-03-27 浙江大学 一种基于相关滤波的水下目标跟踪方法
CN111105444A (zh) * 2019-12-31 2020-05-05 哈尔滨工程大学 一种适用于水下机器人目标抓取的连续跟踪方法
CN111626341A (zh) * 2020-05-12 2020-09-04 哈尔滨工程大学 一种面向水下目标识别的特征级信息融合方法
CN111626341B (zh) * 2020-05-12 2022-04-08 哈尔滨工程大学 一种面向水下目标识别的特征级信息融合方法
CN112102286A (zh) * 2020-09-15 2020-12-18 哈尔滨工程大学 一种基于Weyl变换的声纳图像特征提取方法

Also Published As

Publication number Publication date
CN109308713B (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
CN109308713A (zh) 一种基于前视声纳的改进核相关滤波水下目标跟踪方法
CN108805904B (zh) 一种基于卫星序列图像的运动舰船检测与跟踪方法
CN107145874B (zh) 复杂背景sar图像中的舰船目标检测与鉴别方法
CN103729854B (zh) 一种基于张量模型的红外弱小目标检测方法
CN106469313B (zh) 一种管径自适应时空域滤波的弱小目标检测方法
CN102096824B (zh) 基于选择性视觉注意机制的多光谱图像舰船检测方法
CN108765458A (zh) 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法
CN103198476B (zh) 一种粗线型十字圆环标记的图像检测方法
CN104978715A (zh) 一种基于滤波窗口及参数自适应的非局部均值图像去噪方法
CN101923711A (zh) 基于邻域相似性及掩模增强的sar图像变化检测方法
CN111476159A (zh) 一种基于双角回归的检测模型训练、检测方法及装置
CN102494675A (zh) 一种运动目标特征高速视觉捕捉方法
CN110348356A (zh) 一种基于深度光流网络的连续帧rd图像目标识别方法
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN114418953A (zh) 一种基于时间历程累计图像的声呐目标检测方法和系统
CN113052872A (zh) 一种基于声呐图像的水下运动目标跟踪方法
CN104680536A (zh) 利用改进的非局部均值算法对sar图像变化的检测方法
CN114627156A (zh) 消费级无人机视频运动目标精准追踪方法
Li et al. Outlier-robust superpixel-level CFAR detector with truncated clutter for single look complex SAR images
CN116310837B (zh) 一种sar舰船目标旋转检测方法及系统
Liu et al. A Multi-scale Feature Pyramid SAR Ship Detection Network with Robust Background Interference
Zhang et al. Object detection and tracking method of AUV based on acoustic vision
CN107729903A (zh) 基于区域概率统计和显著性分析的sar图像目标检测方法
CN113470074B (zh) 一种基于分块判别的自适应时空正则化目标跟踪方法
Meiyan et al. M-FCN based sea-surface weak target detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant