CN108876816A - 基于自适应目标响应的目标跟踪方法 - Google Patents
基于自适应目标响应的目标跟踪方法 Download PDFInfo
- Publication number
- CN108876816A CN108876816A CN201810550413.5A CN201810550413A CN108876816A CN 108876816 A CN108876816 A CN 108876816A CN 201810550413 A CN201810550413 A CN 201810550413A CN 108876816 A CN108876816 A CN 108876816A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- value
- tracked
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应目标响应的目标跟踪方法,主要解决当目标发生外观形变、光照变化导致跟踪失败的跟踪问题。本发明实现的步骤如下:(1)确定待跟踪目标初始位置(2)计算相关滤波器权值;(3)预测目标框位置;(4)预测待跟踪目标尺寸;(5)构建自适应目标响应矩阵;(6)更新位移滤波器权值;(7)判断当前帧图像是否为待跟踪视频序列的最后一帧图像,若是,则执行步骤(8),否则,执行步骤(3);(8)结束跟踪。本发明通过基于自适应目标响应的目标跟踪方法,能够利用自适应目标响应计算位移滤波器权值,预测待跟踪目标位置和大小。
Description
技术领域
本发明属于计算机技术领域,更进一步涉及计算机视觉技术领域中的一种基于自适应目标响应的运动目标跟踪方法。本发明可用于对视频监控、机器人导航和定位、无人驾驶机获取的视频序列中的运动目标进行跟踪。
背景技术
运动目标跟踪的主要任务是,从连续的视频图像序列中检测出运动目标,进而在每一帧图像中确定出运动目标的位置。随着人们对计算机视觉领域的不断深入认识,运动目标跟踪在该领域得到广泛应用和发展,目前已经存在大量的跟踪算法来实现运动目标跟踪。但是,由于遮挡、背景杂乱、外观形变、光照变化、视角变化等客观因素的影响,使得准确地跟踪目标仍然面临极大挑战。
北京航空航天大学在其申请的专利文献“一种基于组合判断策略的视觉目标跟踪方法”(专利申请号2017114224711,公开号108010067A)中公开了一种基于组合判断策略的视觉目标跟踪方法。该方法实现的具体步骤是,(1)针对目标尺寸变换问题,建立一个自适应尺度,从而自动调整跟踪框大小;(2)针对目标被遮挡后无法继续确定目标所在位置的问题,采用卡尔曼滤波对当前观测量进行预测,当目标重新出现后继续使用KCF算法跟踪目标;(3)针对目标快速移动造成跟踪失败的问题。该方法存在的不足之处是,因为该方法先针对目标尺寸变换自动调整跟踪框大小,然后在KCF算法跟踪目标中,使用调整后的跟踪框进行相关卷积,导致每一帧目标跟踪位置不准确,造成难以修正的漂移,当目标发生强烈光照变化、目标快速运动时无法实现长期准确地跟踪。
南京邮电大学在其申请的专利文献“一种基于KCF的改进型抗遮挡目标跟踪方法”(专利申请号2017105998427,公开号107657630A)中公开了一种基于KCF的改进型抗遮挡目标跟踪方法。该方法实现的具体步骤是,(1)针对目标尺寸变换问题,建立三个线程,三个线程分别检测待跟踪目标的三个尺度图像,从而自动确定目标尺寸;(2)针对目标遮挡问题,设置预设阈值,判定目标发生严重遮挡时,使用卡尔曼滤波器的预测结果作为目标位置,反之使用KCF跟踪器的预测结果作为目标位置。该方法存在的不足之处是,因为要判定目标是否发生严重遮挡,判定值阈值设置过高或过低导致判定是否遮挡出错,从而当目标发生遮挡、目标快速运动时无法实现准确地跟踪。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于自适应目标响应的目标跟踪方法,以实现当目标快速运动、目标发生遮挡时对目标进行准确、有效地跟踪。
为实现本发明目的的思路是,首先,提取候选区域特征,利用候选区域特征构建自适应目标响应矩阵,用自适应目标响应矩阵计算位移滤波器的权值,利用候选区域特征和位移滤波器权值的卷积最大值位置作为待跟踪目标的位置。其次,提取多尺寸的待跟踪目标的目标特征,利用每一个目标特征和位移滤波器权值的作卷积操作,最大卷积值对应的待跟踪目标的尺寸作为待跟踪目标尺寸。最后,得到待跟踪目标的位置和尺寸。
本发明的具体步骤如下:
(1)确定运动待跟踪目标的初始位置:
(1a)输入含有待跟踪目标的彩色视频图像序列中的第一帧视频图像;
(1b)用待跟踪目标的初始位置和初始位置的长度和宽度确定一个矩形框,用该矩形框标出第一帧图像中的待跟踪目标;
(1c)在第一帧图像中,以待跟踪目标的初始位置为中心,用待跟踪目标的初始位置和待跟踪目标的2.5倍长度和2.5倍宽度确定一个矩形框,用该矩形框标出第一帧图像中的候选区域;
(2)提取第一帧图像中的候选区域特征:
(2a)利用方向梯度直方图提取方法,将第一帧图像作为当前帧图像,提取当前帧图像的候选区域特征;
(2b)将第一帧图像的候选区域特征作为当前帧图像的目标模板;
(3)计算相关滤波器权值:
(3a)构建一个零矩阵,该矩阵的行数与特征响应矩阵的行数相等,列数与特征响应矩阵的列数相等;
(3b)利用自适应目标响应矩阵插值公式,根据零矩阵中每一个元素位置距离零矩阵中心位置的长度,计算零矩阵中每一个元素的元素值,将所有元素值作为自适应目标响应矩阵对应位置元素的元素值;
(3c)利用相关滤波器权值计算公式,计算当前帧图像的自适应目标响应矩阵的相关滤波器权值;
(4)预测当前帧图像的目标框位置:
(4a)载入待跟踪视频序列中下一帧彩色视频图像,作为当前帧图像,在当前帧图像中,以上一帧图像待跟踪目标的位置为中心,取出与待跟踪目标的位置相同的,长度和宽度分别是待跟踪目标长度和宽度2.5倍的矩形框,将该矩形框作为当前帧图像的候选区域;
(4b)利用方向梯度直方图提取方法,提取当前帧图像的候选区域特征;
(4c)利用卷积方法,计算当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵;
(4d)选取当前帧图像的图像特征响应矩阵中的元素最大值,将最大值元素的位置作为当前帧图像的待跟踪目标的目标框中心点的位置;
(5)构建多尺寸的待跟踪目标的目标框预测待跟踪目标尺寸:
(5a)依次选取1,0.985,0.99,0.995,1.005,1.01,1.015七个缩放参数,分别乘以当前帧图像的待跟踪目标的目标框尺寸,得到待跟踪目标的七个目标框尺寸;
(5b)以当前帧图像的待跟踪目标的目标框中心点位置为中心,以每个目标框尺寸为矩形框尺寸组成七个矩形框,用每一个矩形框取出当前帧图像的七个候选区域;
(5c)利用方向梯度直方图提取方法,提取当前帧图像的每个候选区域特征;
(5d)利用卷积方法,分别计算当前帧图像的每一个候选区域特征和位移滤波器权值的图像特征响应矩阵;
(5e)从所有的图像特征响应矩阵中取出所有元素的最大值,将该最大值元素所在图像特征响应矩阵所对应的矩形框尺寸,作为当前帧图像中的待跟踪目标的尺寸;
(5f)用待跟踪目标的目标框的中心点位置和尺寸确定的矩形框,标出当前帧图像的待跟踪目标;
(6)更新当前帧图像的目标模板:
(6a)在当前帧图像中,以待跟踪目标的位置为中心,取出长度和宽度分别是待跟踪目标长度和宽度2.5倍的矩形框,将该矩形框作为当前帧图像的待跟踪目标的候选区域;
(6b)利用方向梯度直方图提取方法,提取当前帧图像中的候选区域特征;
(6c)利用更新公式,用当前帧图像中的候选区域特征和上一帧图像的目标模板更新当前帧图像的目标模板;
(7)构建自适应目标响应矩阵:
(7a)在当前帧图像中,利用中心点位置平移方法,平移候选区域的矩形框中心点,得到六个中心点位置,以每个中心点位置和当前帧图像的待跟踪目标位置作为矩形框的中心,每个矩形框的尺寸为候选区域的矩形框尺寸,得到待跟踪目标的七个候选区域;
(7b)利用方向梯度直方图提取方法,提取七个候选区域特征;
(7c)利用卷积方法,分别计算每个候选区域特征和位移滤波器权值的特征响应矩阵;
(7d)构建一个零矩阵作为自适应目标响应矩阵,该矩阵的行数与特征响应矩阵的行数相等,列数与特征响应矩阵的列数相等;
(7e)选取每个特征响应矩阵中的元素最大值,将该元素最大值作为零矩阵中每个候选区域中心点坐标所对应元素的元素值;
(7f)利用高斯插值方法,用自适应目标响应矩阵中的非零元素值,计算自适应目标响应矩阵中其余元素的元素值;
(8)更新位移滤波器权值:
利用更新位移滤波器权值公式,更新当前帧图像的位移滤波器权值;
(9)判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧视频图像,若是,则执行步骤(10),否则,执行步骤(4);
(10)结束对运动待跟踪目标的跟踪。
发明与现有的技术相比具有以下优点:
第一,由于本发明构建自适应目标响应矩阵,用该矩阵表示待跟踪目标的实际位移,克服了现有技术中要判定目标是否发生严重遮挡,判定值阈值设置过高或过低导致判定是否遮挡出错的问题,使得本发明能够更准确地预测待跟踪目标位置和大小。
第二,由于本发明构建多尺寸的待跟踪目标的目标框预测待跟踪目标尺寸,先确定待跟踪目标的位置再确定待跟踪目标的尺寸,克服了先针对目标尺寸变换自动调整跟踪框大小,然后在KCF算法跟踪目标中,使用调整后的跟踪框进行相关卷积,导致每一帧目标跟踪位置不准确,造成难以修正的漂移的不足,使得本发明能够利用准确的预测待跟踪目标位置和大小,增强了目标跟踪的准确性和可靠性。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图对本发明做进一步的描述。
结合附图1中,对本发明的具体步骤进一步的描述。
步骤1,确定运动待跟踪目标的初始位置。
输入含有待跟踪目标的彩色视频图像序列中的第一帧视频图像。本发明的实施例中,所输入的一段待跟踪视频图像序列的第一帧图像如图2(a)所示。图2(a)为一段一名男子在室内旋转走动的视频图像序列的第一帧图像,图2(a)中的实线矩形框的位置表示待跟踪目标的初始位置。
用待跟踪目标的初始位置和初始位置的长度和宽度确定一个矩形框,用该矩形框标出第一帧图像中的待跟踪目标。
在第一帧图像中,以待跟踪目标的初始位置为中心,用待跟踪目标的初始位置和待跟踪目标的2.5倍长度和2.5倍宽度确定一个矩形框,用该矩形框标出第一帧图像中的候选区域。
步骤2,提取第一帧图像中的候选区域特征。
利用方向梯度直方图提取方法,将第一帧图像作为当前帧图像,提取当前帧图像的候选区域特征。
所述的方向梯度直方图提取方法的步骤如下:
第1步,按照下式,将RGB色转灰度色,将当前帧彩色目标图像转灰度图像:
Ei=Ri×0.299+Gi×0.587+Bi×0.114
其中,Ei表示灰度图像中第i个像素点的像素值,Ri表示当前帧彩色图像中第i像素点红色分量的像素值,Gi表示当前帧彩色图像中第i像素点绿色分量像素值,Bi表示当前帧彩色图像中第i像素点蓝色分量像素值。
第2步,按照下式,计算灰度图像中各个像素点的梯度幅值:
其中,I(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度幅值,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,表示开平方操作,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值。
第3步,按照下式,计算灰度图像中各个像素点的梯度方向:
其中,α(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度方向,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,tan-1表示求正切值倒数操作,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值。
第4步,将灰度图像均分为长宽是4×4像素的多个细胞单元,把梯度方向平均划分为9个区间,在每个细胞单元里对所有像素点的梯度方向在各个方向区间进行直方图统计,得到每个细胞单元的梯度方向直方图。
第5步,在每个细胞单元里对所有像素点的梯度幅值在各个方向区间进行直方图统计,得到每个细胞单元的梯度直方图。
第6步,将每个细胞单元按位置相邻位置关系每四个细胞单元组成一个块,各个块中所有细胞单元的梯度直方图并联得到各个块的梯度直方图。
第7步,将所有块的梯度直方图并联起来得到灰度图像的方向梯度直方图特征,作为待跟踪目标的候选区域特征。
将第一帧图像的候选区域特征作为当前帧图像的目标模板。
步骤3,计算相关滤波器权值。
构建一个零矩阵,该矩阵的行数与特征响应矩阵的行数相等,列数与特征响应矩阵的列数相等。
利用自适应目标响应矩阵插值公式,根据零矩阵中每一个元素位置距离零矩阵中心位置的长度,计算零矩阵中每一个元素的元素值,将所有元素值作为自适应目标响应矩阵对应位置元素的元素值。
所述的自适应目标响应矩阵插值公式如下:
y(m,n)=exp(-((m-M/2)2+(n-N/2)2)×900/wh)
其中,y(m,n)表示自适应目标响应矩阵上坐标为(m,n)处的元素值,exp表示指数函数,m表示自适应目标响应矩阵的元素的横坐标,M表示自适应目标特征响应矩阵的行数,n表示自适应目标响应矩阵的元素的纵坐标,N表示自适应目标特征响应矩阵的列数,w表示待跟踪目标的矩形框的长度,h表示待跟踪目标的矩形框的宽度。
利用相关滤波器权值计算公式,计算当前帧图像的自适应目标响应矩阵的相关滤波器权值。
所述的相关滤波器权值计算公式如下:
其中,表示当前帧图像的相关滤波器权值,e表示当前帧图像中的候选区域特征矩阵的第一行的向量的快速傅里叶变换值,上标*表示取共轭值操作,r表示当前帧图像的自适应目标响应矩阵,λ表示值为0.0001的系数。
步骤4,预测当前帧图像的目标框位置。
载入待跟踪视频序列中下一帧彩色视频图像,作为当前帧图像,在当前帧图像中,以上一帧图像待跟踪目标的位置为中心,取出与待跟踪目标的位置相同的,长度和宽度分别是待跟踪目标长度和宽度2.5倍的矩形框,将该矩形框作为当前帧图像的候选区域。
利用方向梯度直方图提取方法,提取当前帧图像的候选区域特征。
所述的方向梯度直方图提取方法的步骤如下:
第1步,按照下式,将RGB色转灰度色,将当前帧彩色目标图像转灰度图像:
Ei=Ri×0.299+Gi×0.587+Bi×0.114
其中,Ei表示灰度图像中第i个像素点的像素值,Ri表示当前帧彩色图像中第i像素点红色分量的像素值,Gi表示当前帧彩色图像中第i像素点绿色分量像素值,Bi表示当前帧彩色图像中第i像素点蓝色分量像素值。
第2步,按照下式,计算灰度图像中各个像素点的梯度幅值:
其中,I(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度幅值,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,表示开平方操作,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值。
第3步,按照下式,计算灰度图像中各个像素点的梯度方向:
其中,α(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度方向,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,tan-1表示求正切值倒数操作,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值。
第4步,将灰度图像均分为长宽是4×4像素的多个细胞单元,把梯度方向平均划分为9个区间,在每个细胞单元里对所有像素点的梯度方向在各个方向区间进行直方图统计,得到每个细胞单元的梯度方向直方图。
第5步,在每个细胞单元里对所有像素点的梯度幅值在各个方向区间进行直方图统计,得到每个细胞单元的梯度直方图。
第6步,将每个细胞单元按位置相邻位置关系每四个细胞单元组成一个块,各个块中所有细胞单元的梯度直方图并联得到各个块的梯度直方图。
第7步,将所有块的梯度直方图并联起来得到灰度图像的方向梯度直方图特征,作为待跟踪目标的候选区域特征。
利用卷积方法,计算当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵。
所述卷积方法的步骤如下:
第1步,按照下式,计算当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值:
其中,W表示当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值,Y表示上一帧图像的自适应目标响应矩阵的快速傅里叶变换值,F(·)表示快速傅里叶变换操作,φ(C)表示的上一帧图像的候选区域特征C的核函数,λ表示值为0.0001的系数。
第2步,按照下式,计算当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵:
Z=F-1(W⊙F(φ(S)×Q))
其中,Z表示当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵,F(·)表示快速傅里叶变换操作,-1表示求逆操作,⊙表示点乘操作,φ(S)表示当前帧图像候选区域特征S的核函数,Q表示当前帧图像的上一帧图像的目标模板。
选取当前帧图像的图像特征响应矩阵中的元素最大值,将最大值元素的位置作为当前帧图像的待跟踪目标的目标框中心点的位置。
步骤5,构建多尺寸的待跟踪目标的目标框预测待跟踪目标尺寸。
依次选取1,0.985,0.99,0.995,1.005,1.01,1.015七个缩放参数,分别乘以当前帧图像的待跟踪目标的目标框尺寸,得到待跟踪目标的七个目标框尺寸。
以当前帧图像的待跟踪目标的目标框中心点位置为中心,以每个目标框尺寸为矩形框尺寸组成七个矩形框,用每一个矩形框取出当前帧图像的七个候选区域。
利用方向梯度直方图提取方法,提取当前帧图像的每个候选区域特征。
所述的方向梯度直方图提取方法的步骤如下:
第1步,按照下式,将RGB色转灰度色,将当前帧彩色目标图像转灰度图像:
Ei=Ri×0.299+Gi×0.587+Bi×0.114
其中,Ei表示灰度图像中第i个像素点的像素值,Ri表示当前帧彩色图像中第i像素点红色分量的像素值,Gi表示当前帧彩色图像中第i像素点绿色分量像素值,Bi表示当前帧彩色图像中第i像素点蓝色分量像素值。
第2步,按照下式,计算灰度图像中各个像素点的梯度幅值:
其中,I(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度幅值,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,表示开平方操作,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值。
第3步,按照下式,计算灰度图像中各个像素点的梯度方向:
其中,α(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度方向,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,tan-1表示求正切值倒数操作,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值。
第4步,将灰度图像均分为长宽是4×4像素的多个细胞单元,把梯度方向平均划分为9个区间,在每个细胞单元里对所有像素点的梯度方向在各个方向区间进行直方图统计,得到每个细胞单元的梯度方向直方图。
第5步,在每个细胞单元里对所有像素点的梯度幅值在各个方向区间进行直方图统计,得到每个细胞单元的梯度直方图。
第6步,将每个细胞单元按位置相邻位置关系每四个细胞单元组成一个块,各个块中所有细胞单元的梯度直方图并联得到各个块的梯度直方图。
第7步,将所有块的梯度直方图并联起来得到灰度图像的方向梯度直方图特征,作为待跟踪目标的候选区域特征。
利用卷积方法,分别计算当前帧图像的每一个候选区域特征和位移滤波器权值的图像特征响应矩阵。
所述卷积方法的步骤如下:
第1步,按照下式,计算当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值:
其中,W表示当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值,Y表示上一帧图像的自适应目标响应矩阵的快速傅里叶变换值,F(·)表示快速傅里叶变换操作,φ(C)表示的上一帧图像的候选区域特征C的核函数,λ表示值为0.0001的系数。
第2步,按照下式,计算当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵:
Z=F-1(W⊙F(φ(S)×Q))
其中,Z表示当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵,F(·)表示快速傅里叶变换操作,-1表示求逆操作,⊙表示点乘操作,φ(S)表示当前帧图像候选区域特征S的核函数,Q表示当前帧图像的上一帧图像的目标模板。
从所有的图像特征响应矩阵中取出所有元素的最大值,将该最大值元素所在图像特征响应矩阵所对应的矩形框尺寸,作为当前帧图像中的待跟踪目标的尺寸。
用待跟踪目标的目标框的中心点位置和尺寸确定的矩形框,标出当前帧图像的待跟踪目标。
步骤6,更新当前帧图像的目标模板。
在当前帧图像中,以待跟踪目标的位置为中心,取出长度和宽度分别是待跟踪目标长度和宽度2.5倍的矩形框,将该矩形框作为当前帧图像的待跟踪目标的候选区域。
利用方向梯度直方图提取方法,提取当前帧图像中的候选区域特征。
所述的方向梯度直方图提取方法的步骤如下:
第1步,按照下式,将RGB色转灰度色,将当前帧彩色目标图像转灰度图像:
Ei=Ri×0.299+Gi×0.587+Bi×0.114
其中,Ei表示灰度图像中第i个像素点的像素值,Ri表示当前帧彩色图像中第i像素点红色分量的像素值,Gi表示当前帧彩色图像中第i像素点绿色分量像素值,Bi表示当前帧彩色图像中第i像素点蓝色分量像素值。
第2步,按照下式,计算灰度图像中各个像素点的梯度幅值:
其中,I(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度幅值,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,表示开平方操作,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值。
第3步,按照下式,计算灰度图像中各个像素点的梯度方向:
其中,α(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度方向,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,tan-1表示求正切值倒数操作,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值。
第4步,将灰度图像均分为长宽是4×4像素的多个细胞单元,把梯度方向平均划分为9个区间,在每个细胞单元里对所有像素点的梯度方向在各个方向区间进行直方图统计,得到每个细胞单元的梯度方向直方图。
第5步,在每个细胞单元里对所有像素点的梯度幅值在各个方向区间进行直方图统计,得到每个细胞单元的梯度直方图。
第6步,将每个细胞单元按位置相邻位置关系每四个细胞单元组成一个块,各个块中所有细胞单元的梯度直方图并联得到各个块的梯度直方图。
第7步,将所有块的梯度直方图并联起来得到灰度图像的方向梯度直方图特征,作为待跟踪目标的候选区域特征。
利用更新公式,用当前帧图像中的候选区域特征和上一帧图像的目标模板更新当前帧图像的目标模板。
所述的更新公式如下:
mf=(1-β)×xf+β×zf
其中,mf表示更新后当前帧图像的目标模板矩阵,β表示值为0.01的系数,xf表示当前帧图像中的候选区域特征矩阵,zf表示当前帧图像的上一帧图像更新后的目标模板矩阵。
步骤7,构建自适应目标响应矩阵。
在当前帧图像中,利用中心点位置平移方法,平移候选区域的矩形框中心点,得到六个中心点位置,以每个中心点位置和当前帧图像的待跟踪目标位置作为矩形框的中心,每个矩形框的尺寸为候选区域的矩形框尺寸,得到待跟踪目标的七个候选区域。
所述的中心点位置平移方法是,选候选区域的矩形框中心点分别水平向右、水平向左、垂直向上、垂直向下、先水平向右再垂直向上、先水平向左再垂直向下平移p个元素单位,其中,p为在(0,20]中任意选取的整数,得到六个中心点位置。
利用方向梯度直方图提取方法,提取七个候选区域特征。
所述的方向梯度直方图提取方法的步骤如下:
第1步,按照下式,将RGB色转灰度色,将当前帧彩色目标图像转灰度图像:
Ei=Ri×0.299+Gi×0.587+Bi×0.114
其中,Ei表示灰度图像中第i个像素点的像素值,Ri表示当前帧彩色图像中第i像素点红色分量的像素值,Gi表示当前帧彩色图像中第i像素点绿色分量像素值,Bi表示当前帧彩色图像中第i像素点蓝色分量像素值。
第2步,按照下式,计算灰度图像中各个像素点的梯度幅值:
其中,I(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度幅值,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,表示开平方操作,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值。
第3步,按照下式,计算灰度图像中各个像素点的梯度方向:
其中,α(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度方向,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,tan-1表示求正切值倒数操作,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值。
第4步,将灰度图像均分为长宽是4×4像素的多个细胞单元,把梯度方向平均划分为9个区间,在每个细胞单元里对所有像素点的梯度方向在各个方向区间进行直方图统计,得到每个细胞单元的梯度方向直方图。
第5步,在每个细胞单元里对所有像素点的梯度幅值在各个方向区间进行直方图统计,得到每个细胞单元的梯度直方图。
第6步,将每个细胞单元按位置相邻位置关系每四个细胞单元组成一个块,各个块中所有细胞单元的梯度直方图并联得到各个块的梯度直方图。
第7步,将所有块的梯度直方图并联起来得到灰度图像的方向梯度直方图特征,作为待跟踪目标的候选区域特征。
利用卷积方法,分别计算每个候选区域特征和位移滤波器权值的特征响应矩阵。所述卷积方法的步骤如下:
第1步,按照下式,计算当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值:
其中,W表示当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值,Y表示上一帧图像的自适应目标响应矩阵的快速傅里叶变换值,F(·)表示快速傅里叶变换操作,φ(C)表示的上一帧图像的候选区域特征C的核函数,λ表示值为0.0001的系数。
第2步,按照下式,计算当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵:
Z=F-1(W⊙F(φ(S)×Q))
其中,Z表示当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵,F(·)表示快速傅里叶变换操作,-1表示求逆操作,⊙表示点乘操作,φ(S)表示当前帧图像候选区域特征S的核函数,Q表示当前帧图像的上一帧图像的目标模板。
构建一个零矩阵作为自适应目标响应矩阵,该矩阵的行数与特征响应矩阵的行数相等,列数与特征响应矩阵的列数相等。
选取每个特征响应矩阵中的元素最大值,将该元素最大值作为零矩阵中每个候选区域中心点坐标所对应元素的元素值。
利用高斯插值方法,用自适应目标响应矩阵中的非零元素值,计算自适应目标响应矩阵中其余元素的元素值。
所述的高斯插值方法的步骤如下:
第1步,从自适应目标响应矩阵中已有元素值的元素中任选一个元素。
第2步,按照下式,计算自适应目标响应矩阵剩余的元素与已有元素值的元素的距离:
q=(m-m0)2+(n-n0)2
其中,q表示自适应目标响应矩阵剩余元素与自适应目标响应矩阵已有元素值的元素之间的距离,m表示自适应目标响应矩阵剩余元素的横坐标,m0表示自适应目标响应矩阵已有元素值的元素的横坐标,n表示自适应目标响应矩阵剩余元素的纵坐标,n0表示自适应目标响应矩阵已有元素值的元素的纵坐标。
第3步,按照下式,计算自适应目标响应矩阵剩余元素的元素值:
其中,g表示自适应目标响应矩阵剩余元素的元素值,v表示已有元素值的元素的值,exp表示以自然常数为底的指数操作,-表示负数符号,q表示自适应目标响应矩阵剩余元素与自适应目标响应矩阵已有元素值的元素之间的距离,表示开平方操作,r表示自适应目标响应矩阵的行数,c表示自适应目标响应矩阵的列数。
第4步,判断是否选完自适应目标响应矩阵已有元素值的所有元素,若是,则执行本步骤的第五步,否则,执行本步骤的第一步。
第5步,选出y0中所有元素的最大元素值作为该元素的值,得到y0矩阵,作为自适应目标响应矩阵。
步骤8,更新位移滤波器权值。
利用更新位移滤波器权值公式,更新当前帧图像的位移滤波器权值。
所述的更新位移滤波器权值公式如下:
其中,χ表示当前帧图像的位移滤波器权值,λ2表示值为0.0001的系数,λ1表示值为0.0001的系数,e表示当前帧图像中的候选区域特征矩阵的第一行的向量的快速傅里叶变换值,上标*表示取共轭值操作,r表示当前帧图像的自适应目标响应矩阵,2表示求平方操作。
步骤9,判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧视频图像,若是,则执行步骤10,否则,执行步骤4。
步骤10,结束对运动待跟踪目标的跟踪。
下面结合仿真实验对本发明的效果做进一步说明。
1.仿真实验条件:
本发明仿真实验的硬件测试平台是:处理器为CPU intel Core i5-6500,主频为3.2GHz,内存4GB;软件平台为:Windows 7旗舰版,64位操作系统,MATLAB R2013a。
2.仿真内容仿真结果分析:
本发明仿真实验所用数据来自Object tracking benchmark 2015数据库中的一段一名男子在室内走动的视频图像序列,该视频图像序列共有537帧视频图像。
图2(b)为本发明仿真实验中输入的待跟踪目标发生外观形变时的一帧视频图像的跟踪结果示意图。该视频图像中男子的头部为待跟踪目标,待跟踪目标发生了外观形变。从该视频图像中对图像块进行特征提取,计算图像块的自适应目标响应和位移滤波器权值的卷积值,基于卷积值的最大值对待跟踪目标的位置和大小进行预测,将预测后的位置作为当前帧视频图像中待跟踪目标的位置。图2(b)中实线矩形框标注的是待跟踪目标的位置。
图2(c)为本发明仿真实验中输入的待跟踪目标发生外观形变和光照变化时的一帧视频图像的跟踪结果示意图。该视频图像中男子的头部为待跟踪目标,待跟踪目标发生了外观形变和光照变化。从该视频图像中对图像块进行特征提取,计算图像块的自适应目标响应和位移滤波器权值的卷积值,基于卷积值的最大值对待跟踪目标的位置和大小进行预测,将预测后的位置作为当前帧视频图像中待跟踪目标的位置。图2(c)中实线矩形框标注的是待跟踪目标的位置。
在图2(b)和图2(c)中,实线矩形框标注的位置表示本发明跟踪到的待跟踪视频图像序列中待跟踪目标的位置。由图2(b)和图2(c)可以看出,该实线矩形框准确地框定了目标,说明本发明能够在视频图像序列中目标发生外观形变、光照变化的情况下实现准确、有效地目标跟踪。
Claims (9)
1.一种基于自适应目标响应的目标跟踪方法,其特征在于,构建自适应目标响应矩阵;构建多尺寸的待跟踪目标的目标框预测待跟踪目标尺寸;该方法的具体步骤包括如下:
(1)确定运动待跟踪目标的初始位置:
(1a)输入含有待跟踪目标的彩色视频图像序列中的第一帧视频图像;
(1b)用待跟踪目标的初始位置和初始位置的长度和宽度确定一个矩形框,用该矩形框标出第一帧图像中的待跟踪目标;
(1c)在第一帧图像中,以待跟踪目标的初始位置为中心,用待跟踪目标的初始位置和待跟踪目标的2.5倍长度和2.5倍宽度确定一个矩形框,用该矩形框标出第一帧图像中的候选区域;
(2)提取第一帧图像中的候选区域特征:
(2a)利用方向梯度直方图提取方法,将第一帧图像作为当前帧图像,提取当前帧图像的候选区域特征;
(2b)将第一帧图像的候选区域特征作为当前帧图像的目标模板;
(3)计算相关滤波器权值:
(3a)构建一个零矩阵,该矩阵的行数与特征响应矩阵的行数相等,列数与特征响应矩阵的列数相等;
(3b)利用自适应目标响应矩阵插值公式,根据零矩阵中每一个元素位置距离零矩阵中心位置的长度,计算零矩阵中每一个元素的元素值,将所有元素值作为自适应目标响应矩阵对应位置元素的元素值;
(3c)利用相关滤波器权值计算公式,计算当前帧图像的自适应目标响应矩阵的相关滤波器权值;
(4)预测当前帧图像的目标框位置:
(4a)载入待跟踪视频序列中下一帧彩色视频图像,作为当前帧图像,在当前帧图像中,以上一帧图像待跟踪目标的位置为中心,取出与待跟踪目标的位置相同的,长度和宽度分别是待跟踪目标长度和宽度2.5倍的矩形框,将该矩形框作为当前帧图像的候选区域;
(4b)利用方向梯度直方图提取方法,提取当前帧图像的候选区域特征;
(4c)利用卷积方法,计算当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵;
(4d)选取当前帧图像的图像特征响应矩阵中的元素最大值,将最大值元素的位置作为当前帧图像的待跟踪目标的目标框中心点的位置;
(5)构建多尺寸的待跟踪目标的目标框预测待跟踪目标尺寸:
(5a)依次选取1,0.985,0.99,0.995,1.005,1.01,1.015七个缩放参数,分别乘以当前帧图像的待跟踪目标的目标框尺寸,得到待跟踪目标的七个目标框尺寸;
(5b)以当前帧图像的待跟踪目标的目标框中心点位置为中心,以每个目标框尺寸为矩形框尺寸组成七个矩形框,用每一个矩形框取出当前帧图像的七个候选区域;
(5c)利用方向梯度直方图提取方法,提取当前帧图像的每个候选区域特征;
(5d)利用卷积方法,分别计算当前帧图像的每一个候选区域特征和位移滤波器权值的图像特征响应矩阵;
(5e)从所有的图像特征响应矩阵中取出所有元素的最大值,将该最大值元素所在图像特征响应矩阵所对应的矩形框尺寸,作为当前帧图像中的待跟踪目标的尺寸;
(5f)用待跟踪目标的目标框的中心点位置和尺寸确定的矩形框,标出当前帧图像的待跟踪目标;
(6)更新当前帧图像的目标模板:
(6a)在当前帧图像中,以待跟踪目标的位置为中心,取出长度和宽度分别是待跟踪目标长度和宽度2.5倍的矩形框,将该矩形框作为当前帧图像的待跟踪目标的候选区域;
(6b)利用方向梯度直方图提取方法,提取当前帧图像中的候选区域特征;
(6c)利用更新公式,用当前帧图像中的候选区域特征和上一帧图像的目标模板更新当前帧图像的目标模板;
(7)构建自适应目标响应矩阵:
(7a)在当前帧图像中,利用中心点位置平移方法,平移候选区域的矩形框中心点,得到六个中心点位置,以每个中心点位置和当前帧图像的待跟踪目标位置作为矩形框的中心,每个矩形框的尺寸为候选区域的矩形框尺寸,得到待跟踪目标的七个候选区域;
(7b)利用方向梯度直方图提取方法,提取七个候选区域特征;
(7c)利用卷积方法,分别计算每个候选区域特征和位移滤波器权值的特征响应矩阵;
(7d)构建一个零矩阵作为自适应目标响应矩阵,该矩阵的行数与特征响应矩阵的行数相等,列数与特征响应矩阵的列数相等;
(7e)选取每个特征响应矩阵中的元素最大值,将该元素最大值作为零矩阵中每个候选区域中心点坐标所对应元素的元素值;
(7f)利用高斯插值方法,用自适应目标响应矩阵中的非零元素值,计算自适应目标响应矩阵中其余元素的元素值;
(8)更新位移滤波器权值:
利用更新位移滤波器权值公式,更新当前帧图像的位移滤波器权值;
(9)判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧视频图像,若是,则执行步骤(10),否则,执行步骤(4);
(10)结束对运动待跟踪目标的跟踪。
2.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(2a),步骤(4b),步骤(5c),步骤(6b),步骤(7b)中所述的方向梯度直方图提取方法的步骤如下:
第一步,按照下式,将RGB色转灰度色,将当前帧彩色目标图像转灰度图像:
Ei=Ri×0.299+Gi×0.587+Bi×0.114
其中,Ei表示灰度图像中第i个像素点的像素值,Ri表示当前帧彩色图像中第i像素点红色分量的像素值,Gi表示当前帧彩色图像中第i像素点绿色分量像素值,Bi表示当前帧彩色图像中第i像素点蓝色分量像素值;
第二步,按照下式,计算灰度图像中各个像素点的梯度幅值:
其中,I(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度幅值,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,表示开平方操作,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值;
第三步,按照下式,计算灰度图像中各个像素点的梯度方向:
其中,α(x,y)表示灰度图像中横坐标为x,纵坐标为y的位置的梯度方向,x表示灰度图像中横坐标的坐标值,y表示灰度图像中纵坐标的坐标值,tan-1表示求正切值倒数操作,E(x,y+1)表示灰度图像中横坐标为x,纵坐标为y+1的位置的像素值,E(x,y-1)表示灰度图像中横坐标为x,纵坐标为y-1的位置的像素值,E(x+1,y)表示灰度图像中横坐标为x+1,纵坐标为y的位置的像素值,E(x-1,y)表示灰度图像中横坐标为x-1,纵坐标为y的位置的像素值;
第四步,将灰度图像均分为长宽是4×4像素的多个细胞单元,把梯度方向平均划分为9个区间,在每个细胞单元里对所有像素点的梯度方向在各个方向区间进行直方图统计,得到每个细胞单元的梯度方向直方图;
第五步,在每个细胞单元里对所有像素点的梯度幅值在各个方向区间进行直方图统计,得到每个细胞单元的梯度直方图;
第六步,将每个细胞单元按位置相邻位置关系每四个细胞单元组成一个块,各个块中所有细胞单元的梯度直方图并联得到各个块的梯度直方图;
第七步,将所有块的梯度直方图并联起来得到灰度图像的方向梯度直方图特征,作为待跟踪目标的候选区域特征。
3.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(3b)中所述的自适应目标响应矩阵插值公式如下:
y(m,n)=exp(-((m-M/2)2+(n-N/2)2)×900/wh)
其中,y(m,n)表示自适应目标响应矩阵上坐标为(m,n)处的元素值,exp表示指数函数,m表示自适应目标响应矩阵的元素的横坐标,M表示自适应目标特征响应矩阵的行数,n表示自适应目标响应矩阵的元素的纵坐标,N表示自适应目标特征响应矩阵的列数,w表示待跟踪目标的矩形框的长度,h表示待跟踪目标的矩形框的宽度。
4.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(3c)中所述的相关滤波器权值计算公式如下:
其中,表示当前帧图像的相关滤波器权值,e表示当前帧图像中的候选区域特征矩阵的第一行的向量的快速傅里叶变换值,上标*表示取共轭值操作,r表示当前帧图像的自适应目标响应矩阵,λ表示值为0.0001的系数。
5.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(4c),步骤(5d),步骤(7c)中所述卷积方法的步骤如下:
第一步,按照下式,计算当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值:
其中,W表示当前帧图像的位移滤波器权值矩阵的快速傅里叶变换值,Y表示上一帧图像的自适应目标响应矩阵的快速傅里叶变换值,F(·)表示快速傅里叶变换操作,φ(C)表示的上一帧图像的候选区域特征C的核函数,λ表示值为0.0001的系数;
第二步,按照下式,计算当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵:
Z=F-1(W⊙F(φ(S)×Q))
其中,Z表示当前帧图像的候选区域特征和位移滤波器权值的图像特征响应矩阵,F(·)表示快速傅里叶变换操作,-1表示求逆操作,⊙表示点乘操作,φ(S)表示当前帧图像候选区域特征S的核函数,Q表示当前帧图像的上一帧图像的目标模板。
6.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(6c)中所述的更新公式如下:
mf=(1-β)×xf+β×zf
其中,mf表示更新后当前帧图像的目标模板矩阵,β表示值为0.01的系数,xf表示当前帧图像中的候选区域特征矩阵,zf表示当前帧图像的上一帧图像更新后的目标模板矩阵。
7.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(7a)中所述的中心点位置平移方法是,选候选区域的矩形框中心点分别水平向右、水平向左、垂直向上、垂直向下、先水平向右再垂直向上、先水平向左再垂直向下平移p个元素单位,其中,p为在(0,20]中任意选取的整数,得到六个中心点位置。
8.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(7f)中所述的高斯插值方法的步骤如下:
第一步,从自适应目标响应矩阵中已有元素值的元素中任选一个元素;
第二步,按照下式,计算自适应目标响应矩阵剩余的元素与已有元素值的元素的距离:
q=(m-m0)2+(n-n0)2
其中,q表示自适应目标响应矩阵剩余元素与自适应目标响应矩阵已有元素值的元素之间的距离,m表示自适应目标响应矩阵剩余元素的横坐标,m0表示自适应目标响应矩阵已有元素值的元素的横坐标,n表示自适应目标响应矩阵剩余元素的纵坐标,n0表示自适应目标响应矩阵已有元素值的元素的纵坐标;
第三步,按照下式,计算自适应目标响应矩阵剩余元素的元素值:
其中,g表示自适应目标响应矩阵剩余元素的元素值,v表示已有元素值的元素的值,exp表示以自然常数为底的指数操作,-表示负数符号,q表示自适应目标响应矩阵剩余元素与自适应目标响应矩阵已有元素值的元素之间的距离,表示开平方操作,r表示自适应目标响应矩阵的行数,c表示自适应目标响应矩阵的列数;
第四步,判断是否选完自适应目标响应矩阵已有元素值的所有元素,若是,则执行第五步,否则,执行第一步;
第五步,选出y0中所有元素的最大元素值作为该元素的值,得到y0矩阵,作为自适应目标响应矩阵。
9.根据权利要求1所述的基于自适应目标响应的目标跟踪方法,其特征在于,步骤(8)中所述的更新位移滤波器权值公式如下:
其中,χ表示当前帧图像的位移滤波器权值,λ2表示值为0.0001的系数,λ1表示值为0.0001的系数,e表示当前帧图像中的候选区域特征矩阵的第一行的向量的快速傅里叶变换值,上标*表示取共轭值操作,r表示当前帧图像的自适应目标响应矩阵,2表示求平方操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810550413.5A CN108876816B (zh) | 2018-05-31 | 2018-05-31 | 基于自适应目标响应的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810550413.5A CN108876816B (zh) | 2018-05-31 | 2018-05-31 | 基于自适应目标响应的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108876816A true CN108876816A (zh) | 2018-11-23 |
CN108876816B CN108876816B (zh) | 2020-07-10 |
Family
ID=64336219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810550413.5A Active CN108876816B (zh) | 2018-05-31 | 2018-05-31 | 基于自适应目标响应的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108876816B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635740A (zh) * | 2018-12-13 | 2019-04-16 | 深圳美图创新科技有限公司 | 视频目标检测方法、装置及图像处理设备 |
CN109978908A (zh) * | 2019-03-21 | 2019-07-05 | 西安电子科技大学 | 一种适应大尺度形变的单目标快速跟踪定位方法 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110335289A (zh) * | 2019-06-13 | 2019-10-15 | 河海大学 | 一种基于在线学习的目标跟踪方法 |
CN110415269A (zh) * | 2019-07-19 | 2019-11-05 | 浙江大学 | 一种动静态背景下的目标跟踪算法 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN111145216A (zh) * | 2019-12-26 | 2020-05-12 | 电子科技大学 | 一种视频图像目标的跟踪方法 |
CN112053386A (zh) * | 2020-08-31 | 2020-12-08 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112378397A (zh) * | 2020-11-02 | 2021-02-19 | 中国兵器工业计算机应用技术研究所 | 无人机跟踪目标的方法、装置及无人机 |
CN112616023A (zh) * | 2020-12-22 | 2021-04-06 | 荆门汇易佳信息科技有限公司 | 复杂环境下的多摄像机视频目标追踪方法 |
CN112927261A (zh) * | 2021-03-08 | 2021-06-08 | 电子科技大学 | 一种融合位置预测与相关滤波的目标跟踪方法 |
CN113112523A (zh) * | 2021-03-26 | 2021-07-13 | 常州工学院 | 基于无锚点孪生网络的目标跟踪方法及装置 |
CN113822912A (zh) * | 2021-10-08 | 2021-12-21 | 中国人民解放军国防科技大学 | 图像目标长宽比变化的尺度自适应跟踪方法及装置 |
CN114155281A (zh) * | 2021-12-02 | 2022-03-08 | 北京航空航天大学 | 一种无人机目标跟踪自动初始化方法 |
CN114596332A (zh) * | 2022-04-26 | 2022-06-07 | 四川迪晟新达类脑智能技术有限公司 | 提升跟踪目标特征信息的方法、系统、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955688A (zh) * | 2014-05-20 | 2014-07-30 | 楚雄师范学院 | 一种基于计算机视觉的斑马鱼群检测与跟踪方法 |
WO2017048927A1 (en) * | 2015-09-18 | 2017-03-23 | The Regents Of The University Of California | Cameras and depth estimation of images acquired in a distorting medium |
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN107491742A (zh) * | 2017-07-28 | 2017-12-19 | 西安因诺航空科技有限公司 | 一种长时稳定的无人机目标跟踪方法 |
-
2018
- 2018-05-31 CN CN201810550413.5A patent/CN108876816B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955688A (zh) * | 2014-05-20 | 2014-07-30 | 楚雄师范学院 | 一种基于计算机视觉的斑马鱼群检测与跟踪方法 |
WO2017048927A1 (en) * | 2015-09-18 | 2017-03-23 | The Regents Of The University Of California | Cameras and depth estimation of images acquired in a distorting medium |
CN107194408A (zh) * | 2017-06-21 | 2017-09-22 | 安徽大学 | 一种混合块稀疏协作模型的目标跟踪方法 |
CN107491742A (zh) * | 2017-07-28 | 2017-12-19 | 西安因诺航空科技有限公司 | 一种长时稳定的无人机目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
DING GG ET AL: "《Real-Time Scalable Visual Tracking via Quadrangle Kernelized Correlation Filters》", 《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 * |
张雨婷: "《适应目标尺度变化的改进压缩跟踪算法》", 《模式识别与人工智能》 * |
黎曦: "《脉冲耦合神经网络在智能交通系统中的应用技术研究》", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635740A (zh) * | 2018-12-13 | 2019-04-16 | 深圳美图创新科技有限公司 | 视频目标检测方法、装置及图像处理设备 |
CN109978908A (zh) * | 2019-03-21 | 2019-07-05 | 西安电子科技大学 | 一种适应大尺度形变的单目标快速跟踪定位方法 |
CN109978908B (zh) * | 2019-03-21 | 2023-04-28 | 西安电子科技大学 | 一种适应大尺度形变的单目标快速跟踪定位方法 |
CN110084836B (zh) * | 2019-04-26 | 2022-03-04 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110335289A (zh) * | 2019-06-13 | 2019-10-15 | 河海大学 | 一种基于在线学习的目标跟踪方法 |
CN110335289B (zh) * | 2019-06-13 | 2022-08-05 | 河海大学 | 一种基于在线学习的目标跟踪方法 |
CN110415269A (zh) * | 2019-07-19 | 2019-11-05 | 浙江大学 | 一种动静态背景下的目标跟踪算法 |
CN110415269B (zh) * | 2019-07-19 | 2023-03-31 | 浙江大学 | 一种动静态背景下的目标跟踪算法 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN111145216A (zh) * | 2019-12-26 | 2020-05-12 | 电子科技大学 | 一种视频图像目标的跟踪方法 |
CN111145216B (zh) * | 2019-12-26 | 2023-08-18 | 电子科技大学 | 一种视频图像目标的跟踪方法 |
CN112053386B (zh) * | 2020-08-31 | 2023-04-18 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112053386A (zh) * | 2020-08-31 | 2020-12-08 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112378397A (zh) * | 2020-11-02 | 2021-02-19 | 中国兵器工业计算机应用技术研究所 | 无人机跟踪目标的方法、装置及无人机 |
CN112378397B (zh) * | 2020-11-02 | 2023-10-10 | 中国兵器工业计算机应用技术研究所 | 无人机跟踪目标的方法、装置及无人机 |
CN112616023A (zh) * | 2020-12-22 | 2021-04-06 | 荆门汇易佳信息科技有限公司 | 复杂环境下的多摄像机视频目标追踪方法 |
CN112927261A (zh) * | 2021-03-08 | 2021-06-08 | 电子科技大学 | 一种融合位置预测与相关滤波的目标跟踪方法 |
CN113112523A (zh) * | 2021-03-26 | 2021-07-13 | 常州工学院 | 基于无锚点孪生网络的目标跟踪方法及装置 |
CN113112523B (zh) * | 2021-03-26 | 2024-04-26 | 常州工学院 | 基于无锚点孪生网络的目标跟踪方法及装置 |
CN113822912A (zh) * | 2021-10-08 | 2021-12-21 | 中国人民解放军国防科技大学 | 图像目标长宽比变化的尺度自适应跟踪方法及装置 |
CN114155281A (zh) * | 2021-12-02 | 2022-03-08 | 北京航空航天大学 | 一种无人机目标跟踪自动初始化方法 |
CN114155281B (zh) * | 2021-12-02 | 2023-07-18 | 北京航空航天大学 | 一种无人机目标跟踪自动初始化方法 |
CN114596332A (zh) * | 2022-04-26 | 2022-06-07 | 四川迪晟新达类脑智能技术有限公司 | 提升跟踪目标特征信息的方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108876816B (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108876816A (zh) | 基于自适应目标响应的目标跟踪方法 | |
CN110223323A (zh) | 基于深度特征自适应相关滤波的目标跟踪方法 | |
CN108010067B (zh) | 一种基于组合判断策略的视觉目标跟踪方法 | |
Ebert et al. | Robustness via retrying: Closed-loop robotic manipulation with self-supervised learning | |
CN107748942B (zh) | 基于速度场感知网络的雷达回波外推预测方法和系统 | |
CN110060274A (zh) | 基于深度稠密连接的神经网络的视觉目标跟踪方法和装置 | |
CN107341820B (zh) | 一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法 | |
CN106204638A (zh) | 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法 | |
CN107369166B (zh) | 一种基于多分辨率神经网络的目标跟踪方法及系统 | |
CN109064514A (zh) | 一种基于投影点坐标回归的六自由度位姿估计算法 | |
CN104299245B (zh) | 基于神经网络的增强现实跟踪方法 | |
CN108875480A (zh) | 一种人脸特征信息的追踪方法、装置及系统 | |
CN110084836A (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
CN109255304B (zh) | 基于分布场特征的目标跟踪方法 | |
CN106650827A (zh) | 基于结构指导深度学习的人体姿态估计方法和系统 | |
CN108198201A (zh) | 一种多目标跟踪方法、终端设备及存储介质 | |
CN107122736A (zh) | 一种基于深度学习的人体朝向预测方法及装置 | |
CN108573496A (zh) | 基于lstm网络和深度增强学习的多目标跟踪方法 | |
CN107204025A (zh) | 基于视觉感知的自适应服装动画建模方法 | |
CN105913453A (zh) | 一种目标跟踪方法和装置 | |
CN102156992A (zh) | 两站多目标无源定位与跟踪的智能仿生方法 | |
CN108537822A (zh) | 基于加权置信度估计的运动目标跟踪方法 | |
CN107895145A (zh) | 基于卷积神经网络结合超高斯去噪估测手指受力的方法 | |
CN108492324A (zh) | 基于全连接网络和卡尔曼滤波器的飞机追踪方法 | |
CN109544700A (zh) | 基于神经网络的点云数据的处理方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |