CN106296723A - 目标位置追踪方法及装置 - Google Patents

目标位置追踪方法及装置 Download PDF

Info

Publication number
CN106296723A
CN106296723A CN201510282288.0A CN201510282288A CN106296723A CN 106296723 A CN106296723 A CN 106296723A CN 201510282288 A CN201510282288 A CN 201510282288A CN 106296723 A CN106296723 A CN 106296723A
Authority
CN
China
Prior art keywords
present frame
target location
parameter model
sample
frequency domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510282288.0A
Other languages
English (en)
Inventor
潘博阳
陈敏杰
刘阳
郭春磊
林福辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spreadtrum Communications Tianjin Co Ltd
Original Assignee
Spreadtrum Communications Tianjin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spreadtrum Communications Tianjin Co Ltd filed Critical Spreadtrum Communications Tianjin Co Ltd
Priority to CN201510282288.0A priority Critical patent/CN106296723A/zh
Publication of CN106296723A publication Critical patent/CN106296723A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Abstract

一种目标位置追踪方法及装置,所述目标位置追踪方法包括:根据前一帧的参数模型预测当前帧的目标位置;采用循环移位矩阵从所述当前帧的目标位置中提取样本;对所述样本进行训练得到当前帧的参数模型。上述的方案,可以提高预测的目标位置的准确性和目标位置预测的速度。

Description

目标位置追踪方法及装置
技术领域
本发明涉及手势追踪技术领域,特别是涉及一种目标位置追踪方法及装置。
背景技术
人机互动(Human–Computer Interaction,or Human–Machine Interaction,HCI或HMI),是一门研究系统与用户之间的交互关系的学问。人机互动系统可以实现与用户之间的互动交流,并执行相应的操作,是未来多媒体应用发展的方向。
手势作为人类最自然的表达方式之一,在日常生活中得到了广泛的应用。手势生动、形、直观,而且蕴涵着丰富的信息,人与人沟通的重要媒介。目前基于手势的交互已经成为人机交互的重要内容。其中,狭义的手势追踪是对人类的手势进行的实时追踪,广义的手势追踪还包括人脸的识别、眼球的追踪等。
现有技术中存在着不同的手势追踪方法,但是,现有技术中的手势追踪方法存在着预测的目标位置不准确,且速度较慢的问题。
发明内容
本发明实施例解决的问题是如何提高预测的目标位置的准确性和目标位置预测的速度。
为解决上述问题,本发明实施例提供了一种目标位置追踪方法,所述目标位置追踪方法包括:
根据前一帧的参数模型预测当前帧的目标位置;
采用循环移位矩阵从所述当前帧的目标位置中提取样本;
对所述样本进行训练得到当前帧的参数模型。
可选地,所述对所述样本进行训练得到当前帧的参数模型,包括:采用岭回归法对所述样本进行训练得到当前帧的参数模型。
可选地,所述采用岭回归法对所述样本进行训练得到当前帧的参数模型,包括:
构建回归问题;
采用从当前帧中提取的样本求解所述回归问题得到当前帧的参数模型;
采用求解得到的回归目标构建回归目标矩阵;
将求解得到的当前帧的参数模型进行频域转换,作为当前帧的参数模型的频域解;
利用离散傅立叶变换将当前帧的循环移位矩阵对角化,以对当前帧的参数模型的频域解进行简化;
将所述经过简化的当前帧的参数模型的频域解进行逆离散傅立叶变换得到当前帧的参数模型。
可选地,所述采用岭回归法对所述样本进行训练得到当前帧的参数模型,还包括:采用核函数将得到的所述当前帧的参数模型进行非线性回归。
可选地,所述采用前一帧的参数模型预测当前帧的目标位置,包括:
计算前一帧的参数模型对应的最大响应值;
将所述最大响应值对应的样本作为当前帧的目标位置的中心位置;
根据当前帧的目标位置的中心位置得到当前帧的目标位置。
可选地,所述方法还包括:
当计算得到的最大响应值小于预设的追踪阈值时,停止对目标位置进行追踪。
本发明实施例还提供了一种目标位置追踪装置,所述装置包括:
预测单元,适于根据前一帧的参数模型预测当前帧的目标位置;
样本提取单元,适于采用循环移位矩阵从所述当前帧的目标位置中提取样本;
训练单元,适于对所述样本进行训练得到当前帧的参数模型。
可选地,所述训练单元适于采用岭回归法对所述样本进行训练得到当前帧的参数模型。
可选地,所述训练单元适于构建回归问题;采用从当前帧中提取的样本求解所述回归问题得到当前帧的参数模型;将求解得到的当前帧的参数模型进行频域转换,作为当前帧的参数模型的频域解;利用离散傅立叶变换将当前帧的循环移位矩阵对角化,以对当前帧的参数模型的频域解进行简化;将所述经过简化的当前帧的参数模型的频域解进行逆离散傅立叶变换得到当前帧的参数模型。
可选地,所述训练单元还适于采用核函数将得到的所述当前帧的参数模型进行非线性回归。
可选地,所述预测单元适于根据计算前一帧的参数模型和从当前帧中提取的样本的信息,采用岭回归法求解当前帧目标位置的中心位置的所有候选位置的频域解;将所述所有候选位置的频域解进行逆离散傅立叶变换,并计算所述所有候选位置对应的响应值;从所述所有候选位置对应的响应值中选取最大响应值;将所述最大响应值对应的候选位置作为当前帧的目标位置的中心位置;根据当前帧的目标位置的中心位置得到当前帧的目标位置。
可选地,所述装置还包括:追踪解除单元,适于当所述最大响应值小于预设的追踪阈值时,停止对目标位置进行追踪。
与现有技术相比,本发明的技术方案具有以下的优点:
通过循环移位矩阵从当前帧的目标位置中样本,由于所提取的样本与当前帧的目标位置之间的偏差较小,使得训练得到的当前帧的参数模型更加准确,进而使得采用当前帧的参数模型预测的下一帧的目标位置更加准确,因此,可以提高目标位置追踪的准确性。另外,可以提升训练得到的当前帧的参数模型的准确性,提高目标位置追踪的速度。
进一步地,采用岭回归法对所提取的样本进行训练得到当前帧的参数模型,可以提升所训练得到的参数模型的速度,因此,可以提升目标位置追踪的速度,提升用户的使用体验。
进一步地,由于采用核函数对得到的参数模型进行非线性回归,可以使得训练得到参数模型更加准确,进而使得采用前一帧的参数模型预测得到的当前帧的目标位置更加准确。
附图说明
图1是本发明实施例中的一种目标位置追踪方法的流程图;
图2是本发明实施例中的采用岭回归法对从当前帧的目标位置中提取的样本进行训练得到当前帧的参数模型的流程图;
图3是本发明实施例中的另一种目标位置追踪方法的流程图;
图4是本发明实施例中的目标位置追踪装置的结构示意图。
具体实施方式
现有技术中的一种目标位置追踪方法为在训练每一帧对应的参数模型时,需要在以当前帧目标中心位置为圆心,预设半径的圆形区域内采集正样本,离目标中心位置较远的区域内采集负样本,如果全部采集样本则数量难以忍受,所以采用随机的方式采集样本,但是随机采样时样本之间在很大程度上存在重叠的可能性,这样导致样本之间存在信息冗余,进而使得在训练每一帧对应的参数模型时存在大量重复计算,并且训练得到的参数模型准确性较差。
为解决现有技术中存在的上述问题,本发明实施例采用的技术方案循环移位矩阵从当前帧的目标位置中提取样本,可以提高目标位置追踪的准确性和目标位置追踪的速度。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
图1示出了本发明实施例中的一种目标位置追踪方法的流程图。如图1所示的目标位置追踪方法,可以包括:
步骤S101:根据前一帧的参数模型预测当前帧的目标位置。
步骤S102:采用循环移位矩阵从所述当前帧的目标位置中提取正样本和负样本。
步骤S103:对所述样本进行训练得到当前帧的参数模型。
下面将结合图2和图3,对本发明实施例中的目标位置追踪方法进行详细的介绍。
首先需要指出的是,本发明实施例中的目标位置追踪方法,各个帧的目标位置均是在训练得到前一帧的参数模型基础上预测得出的,因此,为了便于理解,首先对本发明实施例中的采用岭回归法对从当前帧的目标位置中提取的正样本和负样本进行训练得到当前帧的参数模型的过程做详细的介绍。
图2示出了本发明实施例中的采用岭回归法对从当前帧的目标位置中提取的正样本和负样本进行训练得到当前帧的参数模型的流程图。如图2所示的采用岭回归法对从当前帧的目标位置中提取的正样本和负样本进行训练得到当前帧的参数模型,可以包括:
步骤S201:构建回归问题。
在具体实施中,构建的回归问题可以采用下式进行表示:
f(z)=ωT z (1)
其中,f(z)表示所述问题的回归目标,ω表示当前帧的参数模型,z表示选取的样本。
其中,在初始化当前帧的参数模型的先验概率f(z)时,采用8*8的高斯分布矩阵,这样可以提高训练得到的当前帧的参数模型的精确度,并可以训练的速度。
步骤S202:采用从当前帧中提取的样本求解所述回归问题得到当前帧的参数模型。
在本发明一实施例中,可以通过循环移位矩阵从预测得到的当前帧的目标位置中提取的正样本和负样本。其中,所述循环移位矩阵可以表示为:
X = C ( x ) = x 1 x 2 x 3 . . . x n x n x 1 x 2 . . . x n - 1 x n - 1 x n x 1 . . . x n - 2 . . . . . . . . . . . . . . . x 2 x 3 x 4 . . . x 1 - - - ( 2 )
其中,循环移位矩阵X中的第一行为正样本(基准样本),所述正样本为根据当前帧的目标位置中的像素点得到的一维的行向量,负样本为对第一行的正样本进行逐位移位得到。
例如,当所确定的当前帧的目标位置由4*5个像素点x1*1,x1*2,x1*3,x1*4,x1*5…x4*5组成时,那么对应的循环移位矩阵的第一行的正样本可以表示为(x1,x2,x3,x4,x5…x20),其中,x1=x1*1,x1=x1*2,x3=x1*3,x2=x1*4,x5=x1*5,x6=x2*1,x6=x2*2,x7=x2*3……x20=x4*5,对应的负样本则依次为(x20,x1,x2,x3,x4…x19)、(x19,x20,x1,x2,x3…x18)……(x2,x3,x4,x5,x6…x1)。
这样,从预测得到的当前帧的目标位置中提取的正样本和负样本之间将不会重现重叠,且所提取的正样本和负样本将不会过分偏离当前帧的目标位置。
在具体实施中,在采用循环移位矩阵从当前帧的目标位置中提取样本之后,采用所述样本对构建的回归问题进行求解,具体为:
所述回归问题的目标是使得当前帧中提取的样本xi及其回归目标yi之间的平方误差最小化,即:
min w Σ i ( f ( x i ) - y i ) 2 + λ | | w | | 2 - - - ( 3 )
其中,xi表示构建的当前帧的循环移位矩阵中第i行的行向量,yi表示样本点xi对应的回归目标,λ为防止过拟合设置的正则化参数。
通过上述的公式(3)可以得到各个样本xi对应的回归目标yi,其中,所得到的回归目标yi构成对应的回归目标矩阵y。
因此,最终可以得到所述回归问题的解,即当前帧的参数模型可以表示为:
ω=(XTX+λI)-1XT y (4)
其中,I表示单位矩阵。
步骤S203:将求解得到的当前帧的参数模型进行频域转换,作为当前帧的参数模型的频域解。
在具体实施中,根据循环移位矩阵的在频域的可分解性,可以采用离散傅里叶变换对公式(4)得到的当前帧的参数模型进行频域转换:
ω=(XHX+λ I)-1XH y (5)
其中,XH为X的共轭转置(Hermitian transpose),且XH=(cc(x))T,cc(·)表示向量的复数共轭(complex-conjugate)。
步骤S204:利用离散傅立叶变换将当前帧的循环移位矩阵对角化,以对当前帧的参数模型的频域解进行简化。
在具体实施中,循环矩阵可以通过离散傅里叶变换(Discrete FourierTransform,DFT)进行对角化(diagonal),故循环矩阵可以表示为:
X = Fdiag ( x ) Λ F H - - - ( 6 )
因此,为了进一步提高运算的速度,可以将公式(6)代入公式(5),便可以对当前帧的参数模型的频域解进行简化:
其中,
XH=(cc(x))T (8)
其中,XH为循环移位矩阵X的共轭转置(Hermitian transpose),cc(.)表示向量x的复数共轭(complex-conjugate)。
步骤S205:将所述经过简化的当前帧的参数模型的频域解进行逆离散傅立叶变换得到当前帧的参数模型。
在具体实施中,当得到上述的公式(8)以后,再通过逆DFT便可以得到当前帧的参数模型中的参数向量:
在具体实施中,通过岭回归法得到的当前帧的参数模型为线性的,但是,实际的参数模型中样本是线性不可分的,即为非线性的。因此,为了提高所得到当前帧的参数模型的鲁棒性,本发明实施例中的目标位置追踪方法还可以包括:
步骤S206:采用核函数对当前帧的参数模型进行非线性回归。
在具体实施中,在采用核函数对当前帧的参数模型进行非线性回归时,首先将当前帧的参数模型中的参数向量表示为样本的特征映射及其权重的加权和:
其中,αi表示第i行行向量的权重系数,表示第i个样本的特征映射函数。
同时,采用核矩阵来表示当前帧中提取的所有样本之间的相关性关系:
Kij=κ(xi,xj) (11)
其中,Kij表示核矩阵,k(xi,xj)表示样本xi和xj之间的相关性函数。
那么,将上述的公式(10)和(11)带入公式(1),即所述回归问题可以表示为:
f ( z ) = ω T z = Σ i = 1 n α i K ( z , x i ) - - - ( 12 )
同时,根据公式(12)便可以得到非线性回归后的当前帧的参数模型:
α=(K+λI)-1y (13)
步骤S207:将所述非线性回归后的当前帧的参数模型进行频域转换。
在具体实施中,为了降低运算的复杂度,提高训练得到当前帧的参数模型的速度,同样可以采用将所述非线性回归后的当前帧的参数模型进行频域转换得到: α ^ = y ^ k ( xx ) ^ + λ - - - ( 14 )
其中,表示对核矩阵K=C(kxx)的第一行行向量进行DFT变换的结果,λ表示预设的参数,用于防止公式(14)的分母为0。
图2以当前帧为例,将如何采用岭回归法对当前帧中提取的样本进行训练得到当前帧的参数模型的过程做了详细的介绍。这里需要指出的是,每一帧的参数模型均可以采用图2所示的过程得到。
在具体实施中,在得到前一帧帧的参数模型之后,便可以采用前一帧的参数模型,预测得到当前帧的目标位置,具体请参见图3,可以包括如下的步骤:
步骤S301:根据前一帧的参数模型和从当前帧中提取的样本的信息,采用岭回归法求解当前帧目标位置的中心位置的所有候选位置的频域解。
在具体实施中,首先将核函数引入回归问题即公式(1),所述回归问题可以表示为:
f(z)=(Kz)Tα (15)
其中:
KZ=C(kxz) (16)
其中,KZ表示核函数,kxz表示循环移位矩阵中的行向量x和从当前帧中所提取的样本z的核相关性(kernel correlation)。
在具体实施中,由于频域计算可提高运算速度,将将引入核函数的回归问题转换为频域形式:
其中,表示对当前帧的目标位置的中心位置的所有候选位置的核值(kernel values)kxz进行空间域滤波,中的每个元素表示非线性回归后的参数向量α和kxz附近核值(kernel values)的线性加权和。
步骤S302:对所述所有候选位置的频域解进行逆离散傅立叶变换,并计算所述所有候选位置对应的响应值。
在具体实施中,将采用公式(17)得到的进行逆离散傅立叶变换之后得到时域的f(z)。
步骤S303:从所述所有候选位置对应响应值中选取最大响应值。
在具体实施中,所述所有候选位置对应响应值中选取最大响应值,即:
response=max(f(z)) (18)
其中,response表示最大响应值。
步骤S304:判断所述最大响应值是否小于预设的追踪阈值。
在具体实施中,当得到的最大响应值小于预设的追踪阈值,表明目标位置已经移动至预设的范围之外,如移动出移动终端的屏幕之外,此时则无需再对目标位置进行追踪,可以执行步骤S305,反之,则可以执行步骤S306。
步骤S305:停止对目标位置进行追踪。
步骤S306:将所述最大响应值对应的样本作为当前帧的目标位置的中心位置。
因此,当确定计算得到的最大响应值大于预设的追踪阈值时,表示目标位置处于预设的区域范围之内,此时,继续对目标位置进行追踪,即将所述最大响应值对应的样本作为当前帧的目标位置的中心位置。通过前一帧的参数模型和从当前帧中提取的样本信息,利用岭回归法得到所有候选位置区域的频域解,然后进行逆离散傅立叶变化,比较得到的最大值即为当前帧的目标中心位置。
步骤S307:根据当前帧的目标位置的中心位置得到当前帧的目标位置。
在本发明一实施例中,目标位置为一矩形区域,矩阵区域的大小是固定的,当确定当前帧的目标位置的中心位置时,便可以得到当前帧的目标位置。
在具体实施中,与传统的机器学习算法相比,本发明实施例中的目标位置追踪方法将岭回归法和离散傅里叶变换算法,可以在保证所得到的参数模型准确性的基础上,使得运算更加简单,降低了运算的复杂度。
图4示出了本发明实施例中的一种目标位置追踪装置。如图4所示的目标位置追踪装置400,可以包括预测单元401、样本提取单元402和训练单元403,其中:
预测单元401,适于根据前一帧的参数模型预测当前帧的目标位置。
在具体实施中,所述预测单元401适于根据计算前一帧的参数模型和从当前帧中提取的样本的信息,采用岭回归法求解当前帧目标位置的中心位置的所有候选位置的频域解;将所述所有候选位置的频域解进行逆离散傅立叶变换,并计算所述所有候选位置对应的响应值;从所述所有候选位置对应的响应值中选取最大响应值;将所述最大响应值对应的候选位置作为当前帧的目标位置的中心位置;根据当前帧的目标位置的中心位置得到当前帧的目标位置。
样本提取单元402,适于采用循环移位矩阵从所述当前帧的目标位置中提取样本;
训练单元403,适于对所述样本进行训练得到当前帧的参数模型。
在具体实施中,所述训练单元403适于采用岭回归法对所述样本进行训练得到当前帧的参数模型。
在具体实施中,所述训练单元403适于构建回归问题;采用从当前帧中提取的样本求解所述回归问题得到当前帧的参数模型;将求解得到的当前帧的参数模型进行频域转换,作为当前帧的参数模型的频域解;利用离散傅立叶变换将当前帧的循环移位矩阵对角化,以对当前帧的参数模型的频域解进行简化;将所述经过简化的当前帧的参数模型的频域解进行逆离散傅立叶变换得到当前帧的参数模型。
在具体实施中,所述训练单元403还适于采用核函数将得到的所述当前帧的参数模型进行非线性回归。
在具体实施中,如图4所示的目标位置追踪装置400还可以包括追踪解除单元404,其中:
所述追踪解除单元404,适于当所述最大响应值小于预设的追踪阈值时,停止对目标位置进行追踪。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,存储介质可以包括:ROM、RAM、磁盘或光盘等。
以上对本发明实施例的方法及系统做了详细的介绍,本发明并不限于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。

Claims (12)

1.一种目标位置追踪方法,其特征在于,包括:
根据前一帧的参数模型预测当前帧的目标位置;
采用循环移位矩阵从所述当前帧的目标位置中提取样本;
对所述样本进行训练得到当前帧的参数模型。
2.根据权利要求1所述的目标位置追踪方法,其特征在于,所述对所述样本进行训练得到当前帧的参数模型,包括:采用岭回归法对所述样本进行训练得到当前帧的参数模型。
3.根据权利要求2所述的目标位置追踪方法,其特征在于,所述采用岭回归法对所述样本进行训练得到当前帧的参数模型,包括:
构建回归问题;
采用从当前帧中提取的样本求解所述回归问题得到当前帧的参数模型;
将求解得到的当前帧的参数模型进行频域转换,作为当前帧的参数模型的频域解;
利用离散傅立叶变换将当前帧的循环移位矩阵对角化,以对当前帧的参数模型的频域解进行简化;
将所述经过简化的当前帧的参数模型的频域解进行逆离散傅立叶变换得到当前帧的参数模型。
4.根据权利要求3所述的目标位置追踪方法,其特征在于,所述采用岭回归法对所述样本进行训练得到当前帧的参数模型,还包括:采用核函数将得到的所述当前帧的参数模型进行非线性回归。
5.根据权利要求4所述的目标位置追踪方法,其特征在于,所述根据前一帧的参数模型预测当前帧的目标位置,包括:
根据计算前一帧的参数模型和从当前帧中提取的样本的信息,采用岭回归法求解当前帧目标位置的中心位置的所有候选位置的频域解;
将所述所有候选位置的频域解进行逆离散傅立叶变换,并计算所述所有候选位置对应的响应值;
从所述所有候选位置对应的响应值中选取最大响应值;
将所述最大响应值对应的候选位置作为当前帧的目标位置的中心位置;
根据当前帧的目标位置的中心位置得到当前帧的目标位置。
6.根据权利要求5所述的目标位置追踪方法,其特征在于,还包括:
当所述最大响应值小于预设的追踪阈值时,停止对目标位置进行追踪。
7.一种目标位置追踪装置,其特征在于,包括:
预测单元,适于根据前一帧的参数模型预测当前帧的目标位置;
样本提取单元,适于采用循环移位矩阵从所述当前帧的目标位置中提取样本;
训练单元,适于对所述样本进行训练得到当前帧的参数模型。
8.根据权利要求7所述的目标位置追踪装置,其特征在于,所述训练单元适于采用岭回归法对所述样本进行训练得到当前帧的参数模型。
9.根据权利要求8所述的目标位置追踪装置,其特征在于,所述训练单元适于构建回归问题;采用从当前帧中提取的样本求解所述回归问题得到当前帧的参数模型;将求解得到的当前帧的参数模型进行频域转换,作为当前帧的参数模型的频域解;利用离散傅立叶变换将当前帧的循环移位矩阵对角化,以对当前帧的参数模型的频域解进行简化;将所述经过简化的当前帧的参数模型的频域解进行逆离散傅立叶变换得到当前帧的参数模型 。
10.根据权利要求9所述的目标位置追踪装置,其特征在于,所述训练单元还适于采用核函数将得到的所述当前帧的参数模型进行非线性回归。
11.根据权利要求10所述的目标位置追踪装置,其特征在于,所述预测单元适于根据计算前一帧的参数模型和从当前帧中提取的样本的信息,采用岭回归法求解当前帧目标位置的中心位置的所有候选位置的频域解;将所述所有候选位置的频域解进行逆离散傅立叶变换,并计算所述所有候选位置对应的响应值;从所述所有候选位置对应的响应值中选取最大响应值;将所述最大响应值对应的候选位置作为当前帧的目标位置的中心位置;根据当前帧的目标位置的中心位置得到当前帧的目标位置。
12.根据权利要求11所述的目标位置追踪装置,其特征在于,还包括:追踪解除单元,适于当所述最大响应值小于预设的追踪阈值时,停止对目标位置进行追踪。
CN201510282288.0A 2015-05-28 2015-05-28 目标位置追踪方法及装置 Pending CN106296723A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510282288.0A CN106296723A (zh) 2015-05-28 2015-05-28 目标位置追踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510282288.0A CN106296723A (zh) 2015-05-28 2015-05-28 目标位置追踪方法及装置

Publications (1)

Publication Number Publication Date
CN106296723A true CN106296723A (zh) 2017-01-04

Family

ID=57634305

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510282288.0A Pending CN106296723A (zh) 2015-05-28 2015-05-28 目标位置追踪方法及装置

Country Status (1)

Country Link
CN (1) CN106296723A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107590820A (zh) * 2017-08-25 2018-01-16 北京飞搜科技有限公司 一种基于相关滤波的视频对象追踪方法及其智能装置
CN108388879A (zh) * 2018-03-15 2018-08-10 斑马网络技术有限公司 目标的检测方法、装置和存储介质
CN108960084A (zh) * 2018-06-19 2018-12-07 清华大学深圳研究生院 目标追踪方法、系统、可读存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0582989B1 (en) * 1992-08-11 2001-12-05 Istituto Trentino Di Cultura A recognition system for recognising people
CN104200237A (zh) * 2014-08-22 2014-12-10 浙江生辉照明有限公司 一种基于核化相关滤波高速自动多目标跟踪方法
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0582989B1 (en) * 1992-08-11 2001-12-05 Istituto Trentino Di Cultura A recognition system for recognising people
CN104200237A (zh) * 2014-08-22 2014-12-10 浙江生辉照明有限公司 一种基于核化相关滤波高速自动多目标跟踪方法
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HENRIQUES J F ECT: ""Exploiting the circulant structure of tracking-by-detection with kernels"", 《ECCV 2012: PROCEEDINGS OF THE 12TH EUROPEAN CONFERENCE ON COMPUTER VISION》 *
王嫱 等: "《Maya后期合成》", 31 December 2006 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107590820A (zh) * 2017-08-25 2018-01-16 北京飞搜科技有限公司 一种基于相关滤波的视频对象追踪方法及其智能装置
CN107590820B (zh) * 2017-08-25 2020-06-02 兰州飞搜信息科技有限公司 一种基于相关滤波的视频对象追踪方法及其智能装置
CN108388879A (zh) * 2018-03-15 2018-08-10 斑马网络技术有限公司 目标的检测方法、装置和存储介质
CN108388879B (zh) * 2018-03-15 2022-04-15 斑马网络技术有限公司 目标的检测方法、装置和存储介质
CN108960084A (zh) * 2018-06-19 2018-12-07 清华大学深圳研究生院 目标追踪方法、系统、可读存储介质及电子设备

Similar Documents

Publication Publication Date Title
Gao et al. Dynamic zoom-in network for fast object detection in large images
Fan et al. A short-term building cooling load prediction method using deep learning algorithms
CN110084173A (zh) 人头检测方法及装置
Zheng et al. Understanding the tourist mobility using GPS: How similar are the tourists?
CN107644430A (zh) 基于自适应特征融合的目标跟踪
CN110458095A (zh) 一种有效手势的识别方法、控制方法、装置和电子设备
CN111444243A (zh) 一种基于轨迹信息的用户行为预测画像方法及系统
CN107705556A (zh) 一种基于支持向量机和bp神经网络结合的交通流预测方法
CN106296723A (zh) 目标位置追踪方法及装置
CN107979817A (zh) 一种移动终端二维指纹定位方法
Yang et al. Visual tracking with long-short term based correlation filter
CN116108984A (zh) 基于流量-poi因果关系推理的城市流量预测方法
Qiao et al. Metaheuristic evolutionary deep learning model based on temporal convolutional network, improved aquila optimizer and random forest for rainfall-runoff simulation and multi-step runoff prediction
CN104463916A (zh) 基于随机游走的眼动注视点测定方法
Wang et al. Driver action recognition based on attention mechanism
Jia et al. Stcm-net: A symmetrical one-stage network for temporal language localization in videos
Tian et al. Research on real-time analysis technology of urban land use based on support vector machine
CN110889340A (zh) 一种基于迭代注意力机制的视觉问答模型
Song et al. Object detection based on cortex hierarchical activation in border sensitive mechanism and classification-GIou joint representation
Zhang et al. Semi-empirical prediction method for monthly precipitation prediction based on environmental factors and comparison with stochastic and machine learning models
CN116307283B (zh) 基于mim模型和时空交互记忆的降水预测系统及方法
CN108009134A (zh) 一种人类活动信息挖掘方法
CN108154522A (zh) 目标追踪系统
Zhao et al. Urban traffic flow forecasting based on memory time-series network
Cai et al. An automatic trough line identification method based on improved UNet

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170104