CN110930430A - 一种基于相关滤波的水下目标跟踪方法 - Google Patents

一种基于相关滤波的水下目标跟踪方法 Download PDF

Info

Publication number
CN110930430A
CN110930430A CN201911124123.5A CN201911124123A CN110930430A CN 110930430 A CN110930430 A CN 110930430A CN 201911124123 A CN201911124123 A CN 201911124123A CN 110930430 A CN110930430 A CN 110930430A
Authority
CN
China
Prior art keywords
target
tracking
filtering
correlation
underwater
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911124123.5A
Other languages
English (en)
Inventor
王丹蓉
李建龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911124123.5A priority Critical patent/CN110930430A/zh
Publication of CN110930430A publication Critical patent/CN110930430A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种基于相关滤波的水下目标跟踪方法,该方法首先在移动平台上搭载前视声呐,获取平台前方的水下声呐图像,由检测器给出目标的初始位置和大小,并用矩形框标示跟踪目标;然后初始化相关滤波器,生成一个给定大小的高斯分布的理想模板;接着用相关滤波器对标定的目标矩形区域图像进行滤波处理,找到当前目标所在位置,记录该位置及其对应的矩形区域;最后根据设定的学习率,更新滤波器的值;重复执行以上步骤直到完成跟踪时长或跟踪目标丢失。针对声呐采集图像分辨率低、信噪比低的问题,本发明可以有效衡量相邻帧图像的相似程度而不易受噪声的影响,跟踪效果较好;本发明的运算复杂度较低,可有效满足水下目标跟踪的实时性要求。

Description

一种基于相关滤波的水下目标跟踪方法
技术领域
本发明涉及目标跟踪方法,具体涉及一种基于相关滤波的水下目标跟踪方法。
背景技术
声呐设备可将水下信息以图像形式呈现,通过声呐图像构建、图像降噪、背景去除等图像预处理工作以及图像分割、目标提取等目标检测算法,得到声呐图像中的鱼群、船只、舰艇等运动目标信息。因此用水面或水下平台搭载声呐设备,可实时检测平台附近是否有目标存在。
相关滤波是信号处理中的经典算法,但其在视觉跟踪领域的应用时间并不长。相关滤波的主要原理是:将当前输入图像与相关滤波器做相关计算,即做卷积计算,滤波器的参数与上一帧输入图像有关,目的是衡量前后图像之间的相似程度。滤波后得到一个响应图,响应图中的峰值与目标中心位置对应。与传统的跟踪算法相比,相关滤波跟踪算法运算复杂度低,对物体的明暗、旋转、姿态等变化不敏感,跟踪效果较好。
常用的目标跟踪方法除相关滤波方法外,还包括光流法、TLD(Tracking-Learning-Detection)算法、基于深度学习的目标跟踪方法等。
光流法是利用图像序列中像素在时间域上瞬时速率变化以及相邻帧之间的相关性来找到前后两帧图像之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。它假设同一目标在不同帧间运动时,其亮度(像素值)不会发生改变。光流法对于高分辨率的图像效果良好,但对噪声非常敏感。因此对于噪声较大的声呐图像适用性较差。
TLD是一种自适应的、可靠的跟踪技术。它由三部分组成:跟踪模块、检测模块、学习模块。跟踪模块可以观察帧与帧之间的目标的动向;检测模块将每张图看成独立的图像,对目标进行定位;学习模块将根据跟踪模块的结果对检测模块的误差进行评估,并生成训练样本更新检测模块的目标模型,减少误差。但TLD的检测器和跟踪器十分耗时,对于实时性要求高的系统适用性较低。
深度学习是近年来的热点研究领域,在诸多应用场景表现出了良好的性能,在目标跟踪领域也有很多应用。但深度学习需要大量的训练数据。由于水下环境复杂,声呐采集到的图像通常存在信噪比低、目标信息残缺的问题,因此水下目标动态目标的数据集有限,不能满足深度学习的训练要求。另外,深度学习的运算一般实时性较差,无法实现水下目标的实时跟踪。
综上所述,相较其它跟踪算法,相关滤波器对噪声敏感程度较小、运算复杂度低、对训练集要求较低,适用于水下目标跟踪场景。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于相关滤波的水下目标跟踪方法。
本发明的目的是通过以下技术方案来实现的:一种基于相关滤波的水下目标跟踪方法,包括如下具体步骤:
(1)在水面或水下移动平台上搭载前视声呐,获取平台前方的水下声呐图像,由检测器给出目标的初始位置P0=[x0,y0]和大小size=[sx,sy],标示为目标矩形框区域并跟踪目标。其中,x0、y0分别为初始位置P0的横、纵坐标;sx、sy分别为目标矩形框区域的长、宽,并设定跟踪时长和跟踪阈值。
(2)采用步骤(1)中目标的大小size初始化相关滤波器F0
(3)用相关滤波器Fk对图像Gk进行滤波处理得到滤波结果If,找到滤波结果图像real(If)中最大值所在位置,即为当前目标所在位置Pi=[xi,yi],记录该位置及其对应的目标矩形框区域;所述图像Gk为声呐采集的当前图像中上一帧标定的目标矩形框区域;所述上一帧标定的目标矩形框区域由目标上一帧所在位置Pi-1=[xi-1,yi-1]和大小size得到。
(4)根据设定的学习率η和第k-1时刻相关滤波器Fk-1,通过下式更新第k时刻的相关滤波器Fk
Ak=ηGk·F0 *+(1-η)Ak-1
Figure BDA0002275138740000021
Figure BDA0002275138740000022
其中,“*”代表共轭符号;eps是为了避免出现分母为0的计算错误设定的常数;Ak和Bk分别表示第k时刻相关滤波器Fk的分子与分母,Ak-1和Bk-1分别表示第k-1时刻相关滤波器Fk-1的分子与分母;初始化相关滤波器F0的分子与分母A0=B0=0。
(5)重复步骤(3)-(4),直到完成步骤(1)设定的跟踪时长或跟踪目标丢失。
进一步地,步骤(2)中所述采用步骤(1)中目标的大小size初始化相关滤波器F得到F0(i,j),具体为:
Figure BDA0002275138740000023
其中,i=1,2,...,sx,j=1,2,...,sy,σ是高斯函数的方差,fft表示二维快速傅里叶变换。
进一步地,所述步骤(3)中用相关滤波器Fk对图像Gk进行滤波处理得到滤波结果If,具体为:
If=ifft(Fk·fft(Gk))
其中,ifft表示二维快速傅里叶反变换;取滤波结果If的实部,得到一个大小为size的滤波结果图像real(If)。
进一步地,所述步骤(4)中所述常数eps为MATLAB中的浮点相对精度,取2e-16
进一步地,所述步骤(5)中跟踪目标丢失是指滤波结果图像real(If)中的最大值小于步骤(1)预设的跟踪阈值。
本发明的有益效果是:
1、针对声呐采集图像分辨率低、信噪比低的问题,本发明可以有效衡量相邻帧图像的相似程度而不易受噪声的影响,跟踪效果较好。
2、本发明的运算复杂度较低,可有效满足水下目标跟踪的实时性要求。
附图说明
图1为本发明目标跟踪方法的流程示意图;
图2为声呐图像信息示意图;
图3为已检测出目标的声呐图像示意图;
图4为经过15帧目标跟踪后的跟踪结果示意图;
图5为目标跟踪结果误差示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细说明。
本发明是一种基于相关滤波的水下目标跟踪方法,根据搭载在水面或水下平台上的声呐图像信息,实现水下目标的实时跟踪效果。
本发明的流程如图1所示,结合该图,基于相关滤波的水下目标跟踪方法主要包括以下步骤:
步骤1,在水面或水下移动平台上搭载前视声呐,获取平台前方的水下声呐图像,声呐图像的示意图如图2所示,矩形框位置代表目标实际所在位置,由检测器给出目标的初始位置P0=[x0,y0]和大小size=[sx,sy],标示为目标矩形框区域并跟踪目标,如图3所示,矩形框标示了目标的初始位置和大小,并设定跟踪时长和跟踪阈值;所述检测器为任意一种目标检测算法;
步骤2,采用步骤1中目标的大小size初始化相关滤波器F0。滤波器初始化方法的公式为:
Figure BDA0002275138740000041
其中,i=1,2,...,sx,j=1,2,...,sy,σ是高斯函数的方差,fft表示二维快速傅里叶变换;
步骤3,用相关滤波器Fk对图像Gk进行滤波处理得到滤波结果If,找到滤波结果图像real(If)中最大值所在位置,即为当前目标所在位置Pi=[xi,yi],记录该位置及其对应的目标矩形框区域;所述图像Gk为声呐采集的当前图像中上一帧标定的目标矩形框区域;所述上一帧标定的目标矩形框区域由目标上一帧所在位置Pi-1=[xi-1,yi-1]和大小size得到。用相关滤波器Fk对图像Gk进行滤波处理得到滤波结果If为:
If=ifft(Fk·fft(Gk))
其中,ifft表示二维快速傅里叶反变换;取滤波结果If的实部,得到一个大小为size的滤波结果图像real(If),real(If)中像素值最大的点即为目标所在位置Pi=[xi,yi]。如图4所示,经过15帧后,目标位置和形状有所改变,但经过滤波后,还是能正确识别出目标所在区域。
步骤4,根据设定的学习率η和第k-1时刻相关滤波器Fk-1,通过下式更新第k时刻的相关滤波器Fk
Ak=ηGk·F0 *+(1-η)Ak-1
Figure BDA0002275138740000042
Figure BDA0002275138740000043
其中,“*”代表共轭符号;eps是为了避免出现分母为0的计算错误设定的常数,该常数为MATLAB中的浮点相对精度,取2e-16;Ak和Bk分别表示第k时刻相关滤波器Fk的分子与分母,Ak-1和Bk-1分别表示第k-1时刻相关滤波器Fk-1的分子与分母;初始化相关滤波器F0的分子与分母A0=B0=0;
步骤5,重复步骤3-4,直到完成步骤1中设定的跟踪时长或跟踪目标丢失,跟踪目标丢失是指滤波结果图像中的最大值小于步骤1中的预设跟踪阈值。如图5所示,设定跟踪时长后,在100帧左右目标跟踪停止,得到的跟踪结果误差基本在0.5米范围内,说明该方法跟踪性能良好。

Claims (5)

1.一种基于相关滤波的水下目标跟踪方法,其特征在于,包括如下具体步骤:
(1)在水面或水下移动平台上搭载前视声呐,获取平台前方的水下声呐图像,由检测器给出目标的初始位置P0=[x0,y0]和大小size=[sx,sy],标示为目标矩形框区域并跟踪目标;设定跟踪时长和跟踪阈值。其中,x0、y0分别为初始位置P0的横、纵坐标;sx、sy分别为目标矩形框区域的长、宽。
(2)采用步骤(1)中目标的大小size初始化相关滤波器F0
(3)用相关滤波器Fk对图像Gk进行滤波处理得到滤波结果If,找到滤波结果图像real(If)中最大值所在位置,即为当前目标所在位置Pi=[xi,yi],记录该位置及其对应的目标矩形框区域;所述图像Gk为声呐采集的当前图像中上一帧标定的目标矩形框区域;所述上一帧标定的目标矩形框区域由目标上一帧所在位置Pi-1=[xi-1,yi-1]和大小size得到。
(4)根据设定的学习率η和第k-1时刻相关滤波器Fk-1,通过下式更新第k时刻的相关滤波器Fk
Ak=ηGk·F0 *+(1-η)Ak-1
Figure FDA0002275138730000011
Figure FDA0002275138730000012
其中,“*”代表共轭符号;eps是为了避免出现分母为0的计算错误设定的常数;Ak和Bk分别表示第k时刻相关滤波器Fk的分子与分母,Ak-1和Bk-1分别表示第k-1时刻相关滤波器Fk-1的分子与分母;初始化相关滤波器F0的分子与分母A0=B0=0。
(5)重复步骤(3)-(4),直到完成步骤(1)设定的跟踪时长或跟踪目标丢失。
2.如权利要求1所述基于相关滤波的水下目标跟踪方法,其特征在于,步骤(2)中所述采用步骤(1)中目标的大小size初始化相关滤波器F得到F0(i,j),具体为:
Figure FDA0002275138730000013
其中,i=1,2,...,sx,j=1,2,...,sy,σ是高斯函数的方差,fft表示二维快速傅里叶变换。
3.根据权利要求1所述基于相关滤波的水下目标跟踪方法,其特征在于,所述步骤(3)中用相关滤波器Fk对图像Gk进行滤波处理得到滤波结果If,具体为:
If=ifft(Fk·fft(Gk))
其中,ifft表示二维快速傅里叶反变换;取滤波结果If的实部,得到一个大小为size的滤波结果图像real(If)。
4.如权利要求1所述基于相关滤波的水下目标跟踪方法,其特征在于,所述步骤(4)中所述常数eps为MATLAB中的浮点相对精度,取2e-16
5.根据权利要求1所述基于相关滤波的水下目标跟踪方法,其特征在于,所述步骤(5)中跟踪目标丢失是指滤波结果图像real(If)中的最大值小于步骤(1)预设的跟踪阈值。
CN201911124123.5A 2019-11-15 2019-11-15 一种基于相关滤波的水下目标跟踪方法 Pending CN110930430A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911124123.5A CN110930430A (zh) 2019-11-15 2019-11-15 一种基于相关滤波的水下目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911124123.5A CN110930430A (zh) 2019-11-15 2019-11-15 一种基于相关滤波的水下目标跟踪方法

Publications (1)

Publication Number Publication Date
CN110930430A true CN110930430A (zh) 2020-03-27

Family

ID=69854042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911124123.5A Pending CN110930430A (zh) 2019-11-15 2019-11-15 一种基于相关滤波的水下目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110930430A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103047982A (zh) * 2013-01-07 2013-04-17 哈尔滨工业大学 基于角度信息的目标自适应跟踪方法
CN103885057A (zh) * 2014-03-20 2014-06-25 西安电子科技大学 自适应变滑窗多目标跟踪方法
CN104297748A (zh) * 2014-10-20 2015-01-21 西安电子科技大学 一种基于轨迹增强的雷达目标检测前跟踪方法
US20180268559A1 (en) * 2017-03-16 2018-09-20 Electronics And Telecommunications Research Institute Method for tracking object in video in real time in consideration of both color and shape and apparatus therefor
CN108765452A (zh) * 2018-05-11 2018-11-06 西安天和防务技术股份有限公司 一种复杂背景下运动目标检测与跟踪方法
CN109308713A (zh) * 2018-08-02 2019-02-05 哈尔滨工程大学 一种基于前视声纳的改进核相关滤波水下目标跟踪方法
CN110211157A (zh) * 2019-06-04 2019-09-06 重庆邮电大学 一种基于相关滤波的目标长时跟踪方法
CN110276782A (zh) * 2018-07-09 2019-09-24 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103047982A (zh) * 2013-01-07 2013-04-17 哈尔滨工业大学 基于角度信息的目标自适应跟踪方法
CN103885057A (zh) * 2014-03-20 2014-06-25 西安电子科技大学 自适应变滑窗多目标跟踪方法
CN104297748A (zh) * 2014-10-20 2015-01-21 西安电子科技大学 一种基于轨迹增强的雷达目标检测前跟踪方法
US20180268559A1 (en) * 2017-03-16 2018-09-20 Electronics And Telecommunications Research Institute Method for tracking object in video in real time in consideration of both color and shape and apparatus therefor
CN108765452A (zh) * 2018-05-11 2018-11-06 西安天和防务技术股份有限公司 一种复杂背景下运动目标检测与跟踪方法
CN110276782A (zh) * 2018-07-09 2019-09-24 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN109308713A (zh) * 2018-08-02 2019-02-05 哈尔滨工程大学 一种基于前视声纳的改进核相关滤波水下目标跟踪方法
CN110211157A (zh) * 2019-06-04 2019-09-06 重庆邮电大学 一种基于相关滤波的目标长时跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏全禄 等: "基于相关滤波器的视觉目标跟踪综述", 《计算机科学》 *

Similar Documents

Publication Publication Date Title
CN107146240B (zh) 基于相关滤波和显著性检测的航拍视频目标跟踪方法
CN107301661B (zh) 基于边缘点特征的高分辨率遥感图像配准方法
CN107145874B (zh) 复杂背景sar图像中的舰船目标检测与鉴别方法
WO2019148739A1 (zh) 一种模糊图像综合处理方法和系统
CN106338733B (zh) 基于蛙眼视觉特性的前视声呐目标跟踪方法
CN110310310B (zh) 一种针对航空影像配准的改进方法
CN111160210B (zh) 一种基于视频的水流速检测方法及系统
Aykin et al. On feature extraction and region matching for forward scan sonar imaging
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN105354863A (zh) 基于特征滤波和快速运动检测模板预测的自适应尺度图像序列目标跟踪方法
CN108257153B (zh) 一种基于方向梯度统计特征的目标跟踪方法
CN108376393A (zh) 一种面向高速直线运动对象的模糊图像盲复原方法
CN112465712B (zh) 一种运动模糊星图复原方法及系统
CN111062978A (zh) 基于频域滤波技术的时空图像测流的纹理识别方法
CN110095774A (zh) 一种圆迹视频sar动目标检测方法
Tiwari et al. Certain investigations on motion blur detection and estimation
CN110930430A (zh) 一种基于相关滤波的水下目标跟踪方法
Hu et al. A new method and implementation of blind restoration algorithm for moving fuzzy license plate image based on frequency-domain characteristics
CN106778831B (zh) 基于高斯混合模型的刚体目标在线特征分类与跟踪方法
CN113379710B (zh) 一种水下目标声呐精准测量系统和方法
CN115345845A (zh) 基于方向梯度直方图的特征融合烟幕干扰效能评估及处理方法及电子设备
CN114429593A (zh) 基于快速导向滤波的红外小目标检测方法及其应用
CN112184764A (zh) 一种基于傅里叶-梅林变换的目标跟踪方法
CN113470074A (zh) 一种基于分块判别的自适应时空正则化目标跟踪算法
CN115336434B (zh) 一种快速视频帧间旋转运动估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200327