CN106709939B - 目标跟踪方法和目标跟踪装置 - Google Patents

目标跟踪方法和目标跟踪装置 Download PDF

Info

Publication number
CN106709939B
CN106709939B CN201611128715.0A CN201611128715A CN106709939B CN 106709939 B CN106709939 B CN 106709939B CN 201611128715 A CN201611128715 A CN 201611128715A CN 106709939 B CN106709939 B CN 106709939B
Authority
CN
China
Prior art keywords
image
target
model
track
following formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611128715.0A
Other languages
English (en)
Other versions
CN106709939A (zh
Inventor
王胜
张学磊
田甜
石建飞
郭雪松
唐升波
董伟佳
段江涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 3 Research Institute
Original Assignee
CETC 3 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 3 Research Institute filed Critical CETC 3 Research Institute
Priority to CN201611128715.0A priority Critical patent/CN106709939B/zh
Publication of CN106709939A publication Critical patent/CN106709939A/zh
Application granted granted Critical
Publication of CN106709939B publication Critical patent/CN106709939B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及目标跟踪方法和目标跟踪装置。该目标跟踪方法包括:获取包含目标的第一图像,该第一图像为直角坐标系下的图像;计算该第一图像的相邻帧之间的差值以得到第二图像;使用交互式多模型算法对该第二图像中的该目标进行跟踪,以获得该目标的第一轨迹;利用分段重采样方法拟合该第一轨迹,以获得拟合后的第二轨迹;和输出该第二轨迹。通过根据本发明的目标跟踪方法和目标跟踪装置,能够基于运动轨迹的分段拟合有效地跟踪运动目标的轨迹。

Description

目标跟踪方法和目标跟踪装置
技术领域
本发明总的来说涉及图像处理领域,具体来说涉及基于运动轨迹的分段拟合的目标跟踪方法和目标跟踪装置。
背景技术
在运动目标的跟踪过程中,由于在目标的运动过程中很难辨明目标的运动方向,经常会出现运动轨迹反复的情况。例如,蛙人在水下运动有如下特点:速度慢;蛙人速度大小变化平缓;水下能见度小,且没有参照物辨别方向,导致蛙人运动方向多变。
传统的目标跟踪是根据传感器获得的实时数据对目标的状态进行估计,并且形成连续的目标轨迹。由于蛙人运动的方向多变,采用一般的拟合方法虽然能够使得轨迹平滑,但反复的轨迹对判断蛙人的真实运动方向造成困难,因而传统的目标跟踪方法很难对蛙人的轨迹进行有效估计。
因此,需要改进的目标跟踪方法和目标跟踪装置。
发明内容
本发明的目的在于针对上述现有技术中的缺陷和不足,提供能够基于运动轨迹的分段拟合有效地跟踪运动目标的轨迹的新颖的和改进的目标跟踪方法和目标跟踪装置。
根据本发明的一方面,提供了一种目标跟踪方法,包括:获取包含目标的第一图像,所述第一图像为直角坐标系下的图像;计算所述第一图像的相邻帧之间的差值以得到第二图像;使用交互式多模型算法对所述第二图像中的所述目标进行跟踪,以获得所述目标的第一轨迹;利用分段重采样方法拟合所述第一轨迹,以获得拟合后的第二轨迹;和,输出所述第二轨迹。
在上述目标跟踪方法中,所述利用分段重采样方法拟合所述第一轨迹以获得拟合后的第二轨迹的步骤具体包括:将直角坐标系划分为n*n的网状方格;对包含所述第一轨迹的方格求均值;如果方格中的点不连续,则求轨迹点经过的两个方格的均值;和,将所有的方格点按照时间顺序排列,以形成所述第二轨迹。
在上述目标跟踪方法中,所述获取包括目标的第一图像的步骤具体包括:
从声呐设备获取声呐图像f(θ,d),其中所述声呐图像的横坐标θ为角度,且纵坐标d为距离;
利用如下公式(1)进行坐标变换,以将极坐标下的声呐图像f(θ,d)变换为直角坐标系下的第一图像f(x,y):
在上述目标跟踪方法中,所述获取包括目标的第一图像的步骤之后进一步包括:
利用以下公式(2),利用高斯滤波对所述第一图像进行降噪处理:
其中,δ是加窗高斯函数的窗口大小,F(x,y)是卷积后的图像,k和l是大于等于0的整数,且G(x,y)是加窗高斯函数,由以下公式(3)表示:
在上述目标跟踪方法中,所述计算所述第一图像的相邻帧之间的差值以得到第二图像的步骤之后进一步包括:设置一预定阈值对所述第二图像进行分割,以获得包含所述目标的像素点的数据集作为所述第二图像。
在上述目标跟踪方法中,所述使用交互式多模型算法对所述第二图像中的所述目标进行跟踪以获得所述目标的第一轨迹的步骤具体包括:
根据所述目标的运动特征建立直角坐标系下的运动模型,其中,所述目标的模型反映在如以下公式(4)和(5)表示的状态矩阵上:
其中,A1表示加速运动模型,A2表示匀速运动模型,T是时间;
以如下公式(6)计算交互权重μij(k+1|k):
其中,ζij为马尔可夫链转移矩阵,μi(k)为模型i的概率;
以如下公式(7)和(8)确定k+1时刻模型j对应的滤波器估计算法的状态输入及其协方差
其中,Xi(k)表示运动模型i对应的滤波算法在时刻K的输出,Pi(k)是其对应的协方差;
采用卡尔曼滤波对各个模型的运动状态进行估计,并获得k+1时刻的目标估计信息及其协方差
以如下公式(9)根据各个模型的信息及其协方差计算各个模型的似然函数Lj(k+1)。
以如下公式(10)利用似然函数更新模型概率:
根据更新后的模型概率μj(k+1),以如下公式(11)和(12)对各模型对应估计结果进行输出交互,以完成k+1时刻的目标状态及其协方差的估计:
根据本发明的另一方面,提供了一种目标跟踪装置,包括:图像获取单元,用于获取包含目标的第一图像,所述第一图像为直角坐标系下的图像;帧差计算单元,用于计算所述第一图像的相邻帧之间的差值以得到第二图像;目标跟踪单元,用于使用交互式多模型算法对所述第二图像中的所述目标进行跟踪,以获得所述目标的第一轨迹;轨迹拟合单元,用于利用分段重采样方法拟合所述第一轨迹,以获得拟合后的第二轨迹;和,轨迹输出单元,用于输出所述第二轨迹。
在上述目标跟踪装置中,所述轨迹拟合单元具体用于:将直角坐标系划分为n*n的网状方格;对包含所述第一轨迹的方格求均值;如果方格中的点不连续,则求轨迹点经过的两个方格的均值;和,将所有的方格点按照时间顺序排列,以形成所述第二轨迹。
在上述目标跟踪装置中,所述图像获取单元具体包括:
声呐部件,用于获取声呐图像f(θ,d),其中所述声呐图像的横坐标θ为角度,且纵坐标d为距离;
图像转换部件,用于利用如下公式(1)进行坐标变换,以将极坐标下的声呐图像f(θ,d)变换为直角坐标系下的第一图像f(x,y):
在上述目标跟踪装置中,进一步包括:
降噪处理单元,用于利用以下公式(2),利用高斯滤波对所述图像转换部件转换后的第一图像进行降噪处理:
其中,δ表示加窗高斯函数的窗口大小,F(x,y)表示卷积后的图像,k和l是大于等于0的整数,且G(x,y)是加窗高斯函数,由以下公式(3)表示:
在上述目标跟踪装置中,进一步包括:阈值分割单元,用于设置一预定阈值对所述帧差计算单元计算出的第二图像进行分割,以获得包含所述目标的像素点的数据集作为所述第二图像。
在上述目标跟踪装置中,所述目标跟踪单元具体用于:
根据所述目标的运动特征建立直角坐标系下的运动模型,其中,所述目标的模型反映在如以下公式(4)和(5)表示的状态矩阵上:
其中,A1表示加速运动模型,A2表示匀速运动模型,T是时间;
以如下公式(6)计算交互权重μij(k+1|k):
其中,ζij为马尔可夫链转移矩阵,μi(k)为模型i的概率;
以如下公式(7)和(8)确定k+1时刻模型j对应的滤波器估计算法的状态输入及其协方差
其中,Xi(k)表示运动模型i对应的滤波算法在时刻K的输出,Pi(k)是其对应的协方差;
采用卡尔曼滤波对各个模型的运动状态进行估计,并获得k+1时刻的目标估计信息及其协方差
以如下公式(9)根据各个模型的信息及其协方差计算各个模型的似然函数Lj(k+1)。
以如下公式(10)利用似然函数更新模型概率:
根据更新后的模型概率μj(k+1),以如下公式(11)和(12)对各模型对应估计结果进行输出交互,以完成k+1时刻的目标状态及其协方差的估计:
通过根据本发明的目标跟踪方法和目标跟踪装置,采用按时间和空间分段拟合的方法能够有效地简化目标轨迹,并且保留目标的真实运动方向。
在根据本发明的目标跟踪方法和目标跟踪装置中,首先利用交互式多模型方法对目标进行跟踪以形成轨迹,然后针对目标运动轨迹反复的特点利用按时间和空间分段拟合的方法对轨迹进行拟合和优化,从而解决了目标运动反复而导致的轨迹错乱无章,无法判断目标真实意图的问题,从而在获得目标轨迹的前提下能够明确目标运动的方向。
附图说明
图1是根据本发明实施例的目标跟踪方法的示意性流程图;
图2是示出IMM算法和Kalman滤波算法的跟踪误差的比较示意图;
图3是示出了根据本发明实施例的第一轨迹的示意图;
图4是示出了根据本发明实施例的第二轨迹的示意图;
图5是根据本发明实施例的目标跟踪装置的示意性框图;
图6是根据本发明实施例的目标跟踪方法和目标跟踪装置跟踪蛙人轨迹的过程的示意性流程图;
图7A和图7B是根据本发明实施例的目标跟踪方法和目标跟踪装置所获得的蛙人轨迹的示意图。
具体实施方式
以下描述用于公开本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
可以理解的是,术语“一”应理解为“至少一”或“一个或多个”,即在一个实施例中,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个,术语“一”不能理解为对数量的限制。
以下说明书和权利要求中使用的术语和词不限于字面的含义,而是仅由本发明人使用以使得能够清楚和一致地理解本发明。因此,对本领域技术人员很明显仅为了说明的目的而不是为了如所附权利要求和它们的等效物所定义的限制本发明的目的而提供本发明的各种实施例的以下描述。
虽然比如“第一”、“第二”等的序数将用于描述各种组件,但是在这里不限制那些组件。该术语仅用于区分一个组件与另一组件。例如,第一组件可以被称为第二组件,且同样地,第二组件也可以被称为第一组件,而不脱离发明构思的教导。在此使用的术语“和/或”包括一个或多个关联的列出的项目的任何和全部组合。
在这里使用的术语仅用于描述各种实施例的目的且不意在限制。如在此使用的,单数形式意在也包括复数形式,除非上下文清楚地指示例外。另外将理解术语“包括”和/或“具有”当在该说明书中使用时指定所述的特征、数目、步骤、操作、组件、元件或其组合的存在,而不排除一个或多个其它特征、数目、步骤、操作、组件、元件或其组的存在或者附加。
包括技术和科学术语的在这里使用的术语具有与本领域技术人员通常理解的术语相同的含义,只要不是不同地限定该术语。应当理解在通常使用的词典中限定的术语具有与现有技术中的术语的含义一致的含义。
下面结合附图和具体实施方式对本发明作进一步详细的说明:
通过采用交互式多模型(IMM)算法估计目标的运动状态,可以克服单模型目标状态估计方法对机动目标的缺陷。对于目标运动的一般过程而言,由于IMM算法包含了目标运动的多种状态,且各种运动状态在最终融合结果中都占有一定权重,即使该权重十分微小。因此,在该过程中,目标跟踪的结果必然差于匹配目标运动状态模型的单模型算法跟踪。但是,对于目标运动的全局尤其是目标运动状态发生改变的时刻,IMM算法能够快速重新分配模型权重,跟踪效果大大优于单模型跟踪效果,减少了跟踪目标丢失现象的发生。需要注意的是,连续稳定的轨迹是轨迹拟合的前提。
参考文献“用拟合函数法准确预测运动目标的轨迹”,徐智勇、傅承毓、王满意,光电工程,2000年01期公开了采用最小二乘法对轨迹进行拟合,但对于反复运动的轨迹,这种拟合并不能看出目标的真实意图。
因此,根据本发明实施例的一方面,提供了一种目标跟踪方法,包括:获取包含目标的第一图像,该第一图像为直角坐标系下的图像;计算该第一图像的相邻帧之间的差值以得到第二图像;使用交互式多模型算法对该第二图像中的该目标进行跟踪,以获得该目标的第一轨迹;利用分段重采样方法拟合该第一轨迹,以获得拟合后的第二轨迹;和,输出该第二轨迹。
图1是根据本发明实施例的目标跟踪方法的示意性流程图。如图1所示,根据本发明实施例的目标跟踪方法包括:S1,获取包含目标的第一图像,该第一图像为直角坐标系下的图像;S2,计算该第一图像的相邻帧之间的差值以得到第二图像;S3,使用交互式多模型算法对该第二图像中的该目标进行跟踪,以获得该目标的第一轨迹;S4,利用分段重采样方法拟合该第一轨迹,以获得拟合后的第二轨迹;和S5,输出该第二轨迹。
在上述目标跟踪方法中,获取包括目标的第一图像的步骤具体包括:
从声呐设备获取声呐图像f(θ,d),其中该声呐图像的横坐标θ为角度,且纵坐标d为距离;
利用如下公式(1)进行坐标变换,以将极坐标下的声呐图像f(θ,d)变换为直角坐标系下的第一图像f(x,y):
这里,本领域技术人员可以理解,当对例如蛙人之类的水下目标进行探测时,需要使用声呐设备,从而获得包含蛙人的声呐图像。但是,当根据本发明实施例的目标跟踪方法应用于探测其它目标时,例如使用雷达探测空中目标,则第一图像可以是雷达图像。并且,当利用声呐设备获取第一图像时,由于声呐回传的图像是用角度和距离表征的极坐标形式,为了便于计算,利用坐标变换将极坐标下的图像变换为直角坐标系下的图像。在上面的公式(1)中,x、y是声呐图像的像素点在直角坐标系下的位置表示,而d、θ是声呐图像的像素点在极坐标系下的位置表示。
在上述目标跟踪方法中,获取包含目标的第一图像的步骤之后进一步包括:
利用以下公式(2),利用高斯滤波对该第一图像进行降噪处理:
其中,δ是加窗高斯函数的窗口大小,F(x,y)是卷积后的图像,k和l是大于等于0的整数,且G(x,y)是加窗高斯函数,由以下公式(3)表示:
在获得经过降噪处理之后的声呐图像F(x,y)之后,利用帧差法得到残差声呐图像Fres(x,y),过程如下:
Fres(x,y)=Fn+1(x,y)-Fn(x,y) n为整数,且n≥0
其中,Fn(x,y)表示第n帧图像,Fn+1(x,y)表示声呐获取Fn(x,y)后的下一时刻获得的图像。
在上述目标跟踪方法中,计算第一图像的相邻帧之间的差值以得到第二图像的步骤之后进一步包括:设置一预定阈值对该第二图像进行分割,以获得包含该目标的像素点的数据集作为该第二图像。
在上述目标跟踪方法中,该使用交互式多模型算法对该第二图像中的该目标进行跟踪以获得该目标的第一轨迹的步骤具体包括:
根据该目标的运动特征建立直角坐标系下的运动模型,其中,该目标的模型反映在如以下公式(4)和(5)表示的状态矩阵上:
其中,A1表示加速运动模型,A2表示匀速运动模型,T是时间;
以如下公式(6)计算交互权重μij(k+1|k):
其中,ζij为马尔可夫链转移矩阵,μi(k)为模型i的概率;
以如下公式(7)和(8)确定k+1时刻模型j对应的滤波器估计算法的状态输入及其协方差
其中,Xi(k)表示运动模型i对应的滤波算法在时刻K的输出,Pi(k)是其对应的协方差;
采用卡尔曼(Kalman)滤波对各个模型的运动状态进行估计,并获得k+1时刻的目标估计信息及其协方差
以如下公式(9)根据各个模型的信息及其协方差计算各个模型的似然函数Lj(k+1)。
以如下公式(10)利用似然函数更新模型概率:
根据更新后的模型概率μj(k+1),以如下公式(11)和(12)对各模型对应估计结果进行输出交互,以完成k+1时刻的目标状态及其协方差的估计:
之前已经提到,采用IMM算法对目标的跟踪误差要显著小于其他目标跟踪方法,例如卡尔曼(Kalman)滤波跟踪方法的误差,如图2所示。图2是示出IMM算法和Kalman滤波算法的跟踪误差的比较示意图。
在上述目标跟踪方法中,利用分段重采样方法拟合该第一轨迹以获得拟合后的第二轨迹的步骤具体包括:将直角坐标系划分为n*n的网状方格;对包含该第一轨迹的方格求均值;如果方格中的点不连续,则求轨迹点经过的两个方格的均值;和,将所有的方格点按照时间顺序排列,以形成所述第二轨迹。
在根据本发明实施例的目标跟踪方法中,采用按时间和空间分段拟合的方法来对采用IMM算法跟踪的目标的第一轨迹进行拟合。其中,如果方格中的点不连续,则可以判定轨迹点在出方格后又进了方格,因此求该轨迹点所经过的两个方格的均值。
图3是示出了根据本发明实施例的第一轨迹的示意图。图4是示出了根据本发明实施例的第二轨迹的示意图。如图3和图4所示,可以看到拟合后的目标轨迹能够更清楚地指示目标的运动方法。
通过根据本发明的目标跟踪方法,采用按时间和空间分段拟合的方法能够有效地简化目标轨迹,并能够简化因目标反复运动导致的轨迹杂乱无序,从而保留目标的真实运动方向。
在根据本发明的目标跟踪方法中,首先利用交互式多模型方法对目标进行跟踪以形成轨迹,然后针对目标运动轨迹反复的特点利用按时间和空间分段拟合的方法对轨迹进行拟合和优化,从而解决了目标运动反复而导致的轨迹错乱无章,无法判断目标真实意图的问题,从而在获得目标轨迹的前提下能够明确目标运动的方向。
根据本发明的另一方面,提供了一种目标跟踪装置,包括:图像获取单元,用于获取包含目标的第一图像,该第一图像为直角坐标系下的图像;帧差计算单元,用于计算该第一图像的相邻帧之间的差值以得到第二图像;目标跟踪单元,用于使用交互式多模型算法对该第二图像中的该目标进行跟踪,以获得该目标的第一轨迹;轨迹拟合单元,用于利用分段重采样方法拟合该第一轨迹,以获得拟合后的第二轨迹;和,轨迹输出单元,用于输出该第二轨迹。
图5是根据本发明实施例的目标跟踪装置的示意性框图。如图5所示,根据本发明实施例的目标跟踪装置100包括:图像获取单元101,用于获取包含目标的第一图像,该第一图像为直角坐标系下的图像;帧差计算单元102,用于计算图像获取单元101所获取的该第一图像的相邻帧之间的差值以得到第二图像;目标跟踪单元103,用于使用交互式多模型算法对该帧差计算单元102所计算的第二图像中的该目标进行跟踪,以获得该目标的第一轨迹;轨迹拟合单元104,用于利用分段重采样方法拟合目标跟踪单元103所获得的第一轨迹,以获得拟合后的第二轨迹;和,轨迹输出单元105,用于输出轨迹拟合单元104所获得的第二轨迹。
在上述目标跟踪装置中,该轨迹拟合单元具体用于:将直角坐标系划分为n*n的网状方格;对包含该第一轨迹的方格求均值;如果方格中的点不连续,则求轨迹点经过的两个方格的均值;和,将所有的方格点按照时间顺序排列,以形成该第二轨迹。
在上述目标跟踪装置中,该图像获取单元具体包括:
声呐部件,用于获取声呐图像f(θ,d),其中该声呐图像的横坐标θ为角度,且纵坐标d为距离;
图像转换部件,用于利用如下公式(1)进行坐标变换,以将极坐标下的声呐图像f(θ,d)变换为直角坐标系下的第一图像f(x,y):
在上述目标跟踪装置中,进一步包括:
降噪处理单元,用于利用以下公式(2),利用高斯滤波对该图像转换部件转换后的第一图像进行降噪处理:
其中,δ表示加窗高斯函数的窗口大小,F(x,y)表示卷积后的图像,k和l是大于等于0的整数,且G(x,y)是加窗高斯函数,由以下公式(3)表示:
在上述目标跟踪装置中,进一步包括:阈值分割单元,用于设置一预定阈值对该帧差计算单元计算出的第二图像进行分割,以获得包含该目标的像素点的数据集作为该第二图像。
在上述目标跟踪装置中,该目标跟踪单元具体用于:
根据该目标的运动特征建立直角坐标系下的运动模型,其中,该目标的模型反映在如以下公式(4)和(5)表示的状态矩阵上:
其中,A1表示加速运动模型,A2表示匀速运动模型,T是时间;
以如下公式(6)计算交互权重μij(k+1|k):
其中,ζij为马尔可夫链转移矩阵,μi(k)为模型i的概率;
以如下公式(7)和(8)确定k+1时刻模型j对应的滤波器估计算法的状态输入及其协方差
其中,Xi(k)表示运动模型i对应的滤波算法在时刻K的输出,Pi(k)是其对应的协方差;
采用卡尔曼滤波对各个模型的运动状态进行估计,并获得k+1时刻的目标估计信息及其协方差
以如下公式(9)根据各个模型的信息及其协方差计算各个模型的似然函数Lj(k+1)。
以如下公式(10)利用似然函数更新模型概率:
根据更新后的模型概率μj(k+1),以如下公式(11)和(12)对各模型对应估计结果进行输出交互,以完成k+1时刻的目标状态及其协方差的估计:
这里,本领域技术人员可以理解,根据本发明实施例的目标跟踪装置的其他细节与之前关于根据本发明实施例的目标跟踪方法中所描述的相应细节完全相同,为了避免冗余便不再追溯。
图6是根据本发明实施例的目标跟踪方法和目标跟踪装置跟踪蛙人轨迹的过程的示意性流程图。如图6所示,在步骤S11,首先从声呐设备获取图像。接下来,在步骤S12,进行声呐图像处理,例如,图像坐标转换、图像降噪等。之后,在步骤S13,进行目标检测,例如,如上所述的帧差法、阈值法。之后,在步骤S14,利用IMM方法对蛙人目标进行跟踪。之后,在步骤S15,利用分段法拟合蛙人轨迹。最后,在步骤S16,输出蛙人轨迹。
图7A和图7B是根据本发明实施例的目标跟踪方法和目标跟踪装置所获得的蛙人轨迹的示意图。如图7A和图7B所示,在输出轨迹之后,可以将该轨迹进一步从直角坐标系转换到极坐标系中,从而在声呐设备的显示器上显示跟踪到的蛙人的轨迹。
通过根据本发明实施例的目标跟踪方法和目标跟踪装置,采用按时间和空间分段拟合的方法能够有效地简化目标轨迹,并且保留目标的真实运动方向。
在根据本发明实施例的目标跟踪方法和目标跟踪装置中,首先利用交互式多模型方法对目标进行跟踪以形成轨迹,然后针对目标运动轨迹反复的特点利用按时间和空间分段拟合的方法对轨迹进行拟合和优化,从而解决了目标运动反复而导致的轨迹错乱无章,无法判断目标真实意图的问题,从而在获得目标轨迹的前提下能够明确目标运动的方向。
当然,本发明还可有其它多种实施例,在不背离本发明的精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明做出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (10)

1.一种目标跟踪方法,包括:
获取包含目标的第一图像,所述第一图像为直角坐标系下的图像;
计算所述第一图像的相邻帧之间的差值以得到第二图像;
使用交互式多模型算法对所述第二图像中的所述目标进行跟踪,以获得所述目标的第一轨迹;
利用分段重采样方法拟合所述第一轨迹,以获得拟合后的第二轨迹;和
输出所述第二轨迹;
所述利用分段重采样方法拟合所述第一轨迹以获得拟合后的第二轨迹的步骤具体包括:
将直角坐标系划分为n*n的网状方格;
对包含所述第一轨迹的方格求均值;
如果方格中的点不连续,则求轨迹点经过的两个方格的均值;和
将所有的方格点按照时间顺序排列,以形成所述第二轨迹。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述获取包含目标的第一图像的步骤具体包括:
从声呐设备获取声呐图像f(θ,d),其中所述声呐图像的横坐标θ为角度,且纵坐标d为距离;
利用如下公式(1)进行坐标变换,以将极坐标下的声呐图像f(θ,d)变换为直角坐标系下的第一图像f(x,y):
3.根据权利要求2所述的目标跟踪方法,其特征在于,所述获取包括目标的第一图像的步骤之后进一步包括:
利用以下公式(2),利用高斯滤波对所述第一图像进行降噪处理:
其中,δ是加窗高斯函数的窗口大小,F(x,y)是卷积后的图像,k和l是大于等于0的整数,且G(x,y)是加窗高斯函数,由以下公式(3)表示:
4.根据权利要求1所述的目标跟踪方法,其特征在于,所述计算所述第一图像的相邻帧之间的差值以得到第二图像的步骤之后进一步包括:
设置一预定阈值对所述第二图像进行分割,以获得包含所述目标的像素点的数据集作为所述第二图像。
5.根据权利要求1所述的目标跟踪方法,其特征在于,所述使用交互式多模型算法对所述第二图像中的所述目标进行跟踪以获得所述目标的第一轨迹的步骤具体包括:
根据所述目标的运动特征建立直角坐标系下的运动模型,其中,所述目标的模型反映在如以下公式(4)和(5)表示的状态矩阵上:
其中,A1表示加速运动模型,A2表示匀速运动模型,T是时间;
以如下公式(6)计算交互权重μij(k+1|k):
其中,ζij为马尔可夫链转移矩阵,μi(k)为模型i的概率;
以如下公式(7)和(8)确定k+1时刻模型j对应的滤波器估计算法的状态输入及其协方差
其中,Xi(k)表示运动模型i对应的滤波算法在时刻K的输出,Pi(k)是其对应的协方差;
采用卡尔曼滤波对各个模型的运动状态进行估计,并获得k+1时刻的目标估计信息及其协方差
以如下公式(9)根据各个模型的信息及其协方差计算各个模型的似然函数Lj(k+1):
以如下公式(10)利用似然函数更新模型概率:
根据更新后的模型概率μj(k+1),以如下公式(11)和(12)对各模型对应估计结果进行输出交互,以完成k+1时刻的目标状态及其协方差的估计:
其中,X(k+1)为运动模型在k+1时刻的目标状态的估计。
6.一种目标跟踪装置,包括:
图像获取单元,用于获取包含目标的第一图像,所述第一图像为直角坐标系下的图像;
帧差计算单元,用于计算所述第一图像的相邻帧之间的差值以得到第二图像;
目标跟踪单元,用于使用交互式多模型算法对所述第二图像中的所述目标进行跟踪,以获得所述目标的第一轨迹;
轨迹拟合单元,用于利用分段重采样方法拟合所述第一轨迹,以获得拟合后的第二轨迹;和
轨迹输出单元,用于输出所述第二轨迹;
所述轨迹拟合单元具体用于:
将直角坐标系划分为n*n的网状方格;
对包含所述第一轨迹的方格求均值;
如果方格中的点不连续,则求轨迹点经过的两个方格的均值;和
将所有的方格点按照时间顺序排列,以形成所述第二轨迹。
7.根据权利要求6所述的目标跟踪装置,其特征在于,所述图像获取单元具体包括:
声呐部件,用于获取声呐图像f(θ,d),其中所述声呐图像的横坐标θ为角度,且纵坐标d为距离;
图像转换部件,用于利用如下公式(1)进行坐标变换,以将极坐标下的声呐图像f(θ,d)变换为直角坐标系下的第一图像f(x,y):
8.根据权利要求7所述的目标跟踪装置,其特征在于,进一步包括:
降噪处理单元,用于利用以下公式(2),利用高斯滤波对所述图像转换部件转换后的第一图像进行降噪处理:
其中,δ表示加窗高斯函数的窗口大小,F(x,y)表示卷积后的图像,k和l是大于等于0的整数,且G(x,y)是加窗高斯函数,由以下公式(3)表示:
9.根据权利要求6所述的目标跟踪装置,其特征在于,进一步包括:
阈值分割单元,用于设置一预定阈值对所述帧差计算单元计算出的第二图像进行分割,以获得包含所述目标的像素点的数据集作为所述第二图像。
10.根据权利要求6所述的目标跟踪装置,其特征在于,所述目标跟踪单元具体用于:
根据所述目标的运动特征建立直角坐标系下的运动模型,其中,所述目标的模型反映在如以下公式(4)和(5)表示的状态矩阵上:
其中,A1表示加速运动模型,A2表示匀速运动模型,T是时间;
以如下公式(6)计算交互权重μij(k+1|k):
其中,ζij为马尔可夫链转移矩阵,μi(k)为模型i的概率;
以如下公式(7)和(8)确定k+1时刻模型j对应的滤波器估计算法的状态输入及其协方差
其中,Xi(k)表示运动模型i对应的滤波算法在时刻K的输出,Pi(k)是其对应的协方差;
采用卡尔曼滤波对各个模型的运动状态进行估计,并获得k+1时刻的目标估计信息及其协方差
以如下公式(9)根据各个模型的信息及其协方差计算各个模型的似然函数Lj(k+1):
以如下公式(10)利用似然函数更新模型概率:
根据更新后的模型概率μj(k+1),以如下公式(11)和(12)对各模型对应估计结果进行输出交互,以完成k+1时刻的目标状态及其协方差的估计:
其中,X(k+1)为运动模型在k+1时刻的目标状态的估计。
CN201611128715.0A 2016-12-09 2016-12-09 目标跟踪方法和目标跟踪装置 Active CN106709939B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611128715.0A CN106709939B (zh) 2016-12-09 2016-12-09 目标跟踪方法和目标跟踪装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611128715.0A CN106709939B (zh) 2016-12-09 2016-12-09 目标跟踪方法和目标跟踪装置

Publications (2)

Publication Number Publication Date
CN106709939A CN106709939A (zh) 2017-05-24
CN106709939B true CN106709939B (zh) 2019-07-23

Family

ID=58936703

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611128715.0A Active CN106709939B (zh) 2016-12-09 2016-12-09 目标跟踪方法和目标跟踪装置

Country Status (1)

Country Link
CN (1) CN106709939B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107622506A (zh) * 2017-09-21 2018-01-23 深圳市唯特视科技有限公司 一种基于序列蒙特卡罗场景拟合的多目标跟踪方法
CN109063602A (zh) * 2018-07-13 2018-12-21 北京理工大学 基于路径连贯性函数的星空背景下的目标跟踪方法和装置
CN111316126A (zh) * 2018-12-28 2020-06-19 深圳市大疆创新科技有限公司 目标探测方法、雷达、车辆以及计算机可读存储介质
CN110211148B (zh) * 2019-06-04 2022-09-27 哈尔滨工程大学 一种基于目标状态预估的水下图像预分割方法
CN112802066B (zh) * 2021-01-26 2023-12-15 深圳市普汇智联科技有限公司 一种基于多轨迹融合的多目标跟踪方法及系统
CN113096104A (zh) * 2021-04-15 2021-07-09 北京达佳互联信息技术有限公司 目标分割模型的训练方法及装置和目标分割方法及装置
CN114281455A (zh) * 2021-12-21 2022-04-05 深圳市智慧海洋科技有限公司 水下定位显示方法、装置、监测设备及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101174327A (zh) * 2007-11-06 2008-05-07 北京邮电大学 视频传感器网络对移动目标运动轨迹覆盖增强的实现方法
CN101465071A (zh) * 2009-01-08 2009-06-24 上海交通大学 多平台目标跟踪与分布交互仿真系统
CN102043906A (zh) * 2010-12-15 2011-05-04 北京航空航天大学 一种机动目标跟踪的对角型融合方法
JP2011243229A (ja) * 2011-09-05 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> 対象物追跡装置及び対象物追跡方法
CN102568004A (zh) * 2011-12-22 2012-07-11 南昌航空大学 一种高机动目标跟踪算法
CN102622520A (zh) * 2012-03-14 2012-08-01 北京航空航天大学 一种机动目标跟踪的分布式多模型估计融合方法
CN105259554A (zh) * 2015-10-28 2016-01-20 中国电子科技集团公司第三研究所 一种多目标分类跟踪的方法及装置
CN106095104A (zh) * 2016-06-20 2016-11-09 电子科技大学 基于目标模型信息的连续手势轨迹分割方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101174327A (zh) * 2007-11-06 2008-05-07 北京邮电大学 视频传感器网络对移动目标运动轨迹覆盖增强的实现方法
CN101465071A (zh) * 2009-01-08 2009-06-24 上海交通大学 多平台目标跟踪与分布交互仿真系统
CN102043906A (zh) * 2010-12-15 2011-05-04 北京航空航天大学 一种机动目标跟踪的对角型融合方法
JP2011243229A (ja) * 2011-09-05 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> 対象物追跡装置及び対象物追跡方法
CN102568004A (zh) * 2011-12-22 2012-07-11 南昌航空大学 一种高机动目标跟踪算法
CN102622520A (zh) * 2012-03-14 2012-08-01 北京航空航天大学 一种机动目标跟踪的分布式多模型估计融合方法
CN105259554A (zh) * 2015-10-28 2016-01-20 中国电子科技集团公司第三研究所 一种多目标分类跟踪的方法及装置
CN106095104A (zh) * 2016-06-20 2016-11-09 电子科技大学 基于目标模型信息的连续手势轨迹分割方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于交互式多模型的机动目标跟踪算法;任坚斌;《中国优秀硕士学位论文全文数据库 信息科技辑》;20080115(第01期);摘要,第26、35-38页

Also Published As

Publication number Publication date
CN106709939A (zh) 2017-05-24

Similar Documents

Publication Publication Date Title
CN106709939B (zh) 目标跟踪方法和目标跟踪装置
CN108665485B (zh) 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法
CN112346096B (zh) 一种高低轨遥感卫星舰船目标航迹与点迹关联方法及系统
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN111127518A (zh) 基于无人机的目标跟踪方法及装置
CN103729854A (zh) 一种基于张量模型的红外弱小目标检测方法
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN107622507B (zh) 一种基于深度学习的空中目标跟踪方法
CN110400294B (zh) 一种红外目标探测系统及探测方法
CN112991401B (zh) 车辆运行轨迹追踪方法、装置、电子设备和存储介质
CN110070565A (zh) 一种基于图像叠加的船舶轨迹预测方法
CN109308713A (zh) 一种基于前视声纳的改进核相关滤波水下目标跟踪方法
Sun et al. An improved FAST feature extraction based on RANSAC method of vision/SINS integrated navigation system in GNSS-denied environments
CN111999735A (zh) 一种基于径向速度和目标跟踪的动静目标分离方法
CN110827321A (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN110889353B (zh) 基于主焦点大视场光电望远镜的空间目标识别方法
CN107045726B (zh) 一种基于时空上下文模型的目标跟踪方法
CN108986139B (zh) 一种用于目标跟踪的带有重要性图的特征整合方法
CN109146928B (zh) 一种梯度阈值判断模型更新的目标跟踪方法
CN111768427B (zh) 一种多运动目标跟踪方法、装置及存储介质
CN110335308B (zh) 基于视差约束与双向环形检验的双目视觉里程计计算方法
CN117173215A (zh) 一种跨摄像头的内河航船全程轨迹识别方法及系统
CN116012421A (zh) 目标跟踪方法及装置
CN115439771A (zh) 一种改进dsst的红外激光光斑跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant