CN106097393B - 一种基于多尺度与自适应更新的目标跟踪方法 - Google Patents
一种基于多尺度与自适应更新的目标跟踪方法 Download PDFInfo
- Publication number
- CN106097393B CN106097393B CN201610442549.5A CN201610442549A CN106097393B CN 106097393 B CN106097393 B CN 106097393B CN 201610442549 A CN201610442549 A CN 201610442549A CN 106097393 B CN106097393 B CN 106097393B
- Authority
- CN
- China
- Prior art keywords
- particle
- formula
- target
- indicate
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 13
- 239000002245 particle Substances 0.000 claims abstract description 58
- 238000012952 Resampling Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 claims description 2
- 230000010354 integration Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 230000000903 blocking effect Effects 0.000 abstract description 3
- 238000005286 illumination Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 abstract description 2
- 230000003252 repetitive effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 235000015170 shellfish Nutrition 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多尺度与自适应更新的目标跟踪方法,它包括系统初始化、目标跟踪、计算粒子特征值找出权重最大的粒子、更新朴素贝叶斯分类器参数、对粒子进行重采样、作出当前帧目标的跟踪结果,若视频序列还有下一帧,则回到步骤2重复操作,否则结束。本发明能有效应对目标跟踪过程中的遮挡、光照变化、姿态变化等问题,在高清视频场景下也能对目标进行多尺度、自适应地实时跟踪。
Description
技术领域
本发明属于计算机视觉和模式识别技术领域,具体涉及一种基于多尺度与自适应更新的目标跟踪方法。
背景技术
目标跟踪是计算机视觉的关键问题之一,在现实环境中,由于遮挡,光照、尺度变化等因素的影响,造成被跟踪目标漂移甚至丢失,因此实现鲁棒、有效的目标跟踪仍然是一项具有挑战性的任务。
当前目标跟踪方法可分为两大类:一类是生成模型法(Generative method),如MeanShift,Color-based PF,IVT(Incremental visual tracker),ORB等,该类方法的核心思想是对初始目标进行建模,并在后续帧当中搜索与该目标模型最匹配的区域;另一类是判别分类法(Discriminative method),其本质是把跟踪问题转化为二类分类问题,使用分类器来判别目标和背景,找到目标位置。由于判别分类法有着节省计算资源、准确率高、可结合机器学习分类算法等优点,逐渐成为目标跟踪算法研究的趋势。本发明提出的多尺度与自适应更新的目标跟踪算法属于判别分类法,从随机多通道采样广义Haar-like特征,通过压缩感知中理论中的随机投影矩阵对其进行降维,使用朴素贝叶斯分类器对目标特征训练并进行跟踪。在此基础上,结合粒子滤波理论,实现对目标的多尺度跟踪,并在朴素贝叶斯分类器的参数更新阶段采用一种自适应的更新策略,避免了参数的误更新。
与本发明最接近的技术方案包括:公布号为CN 104331908 A的中国专利申请公开了一种压缩haar特征和运动信息相同和的目标跟踪方法,该目标跟踪方法采用了Haar小波变换提出目标样本和背景样本特征的Haar特征,同样采用随机投影矩阵对特征进行降维,并使用朴素贝叶斯分类器结合目标运动信息的方式对目标进行跟踪。本发明提出方法与该方法的区别在于,本发明结合了粒子滤波理论,可以实现对目标的多尺度跟踪;另一方面,本发明的朴素贝叶斯分类器参数是自适应的更新。公布号为CN 104392467 A的中国专利申请公开了一种基于压缩感知的视频目标跟踪方法,该方法同样采用压缩感知理论生成稀疏投影矩阵,对采样得到的正负样本进行稀疏投影降维,创建朴素贝叶斯分类器;当下一帧图像到来时,在上一帧得到的目标位置周围进行采样,使分类器分类得到的最大可能的目标位置,更新目标位置,更新分类器参数。本发明提出方法与该方法的区别在于,本发明从随机多通道提取广义haar-like特征,并能实现目标的多尺度跟踪,朴素贝叶斯分类器参数是自适应的更新。公布号为CN 104537689 A的中国专利申请公开了一种基于局部对比显著性联合特征的目标跟踪方法,该方法提取目标区域和局部背景区域的颜色、纹理、梯度直方图特征,利用这些联合特征进行匹配。该方法虽然具有较好的抗遮挡能力,但是由于纹理、梯度特征的计算量大,不适合用于高清视频的目标跟踪,而本发明提出的目标跟踪方法在高清视频场景下也能做到实时跟踪。
发明内容
针对现有技术中存在的上述问题,本发明的目的在于提供一种基于多尺度与自适应更新的目标跟踪方法。
所述的一种基于多尺度与自适应更新的目标跟踪方法,其特征在于包括如下步骤:
步骤1:系统初始化:输入已知目标的初始化区域矩形框Rinit=[x,y,w,h],其中(x,y)代表矩形框的左上角坐标,w,h代表矩形框的宽和高;再输入视频序列的第一帧图像F0,F0具有C个通道,计算F0的积分图I={Ii|i=1,2,...,C},其中Ii为F0在第i通道的积分图;初始化特征向量V,粒子集P,朴素贝叶斯分类器B,具体方法如下:
步骤1.1:对于宽、高分别为w,h的目标,生成一系列归一化矩形滤波器H={hi,j(a,b)|1≤i≤w,1≤j≤h},并通过矩形滤波器hi,j(a,b)与图像的卷积来表示目标特征,其中hi,j(a,b)的计算公式如下:
计算得H中矩形滤波器hi,j(a,b)的个数为(wh)2;初始化随机测量矩阵R=[ri,j]m*n,ri,j的计算公式如下:
其中s=m/4为随机测量矩阵的稀疏因子,m为随机测量矩阵长度,且m=(wh)2,n为降维后低维特征的个数;把H拉伸为一个长度为(wh)2的列向量X,则V=RX即为通过随机测量矩阵降维后的特征向量,V={vi|i=1,2,...,n},由公式(2)可知,vi中矩形滤波器的个数p的取值在2~4之间;
步骤1.2:初始化粒子集P={(pi,wi)|i=1,2,...,N},其中粒子的状态pi=[px,py,ps],(px,py)分别表示目标中心点坐标,ps表示目标缩放尺度,wi表示粒子权重,N表示粒子的个数,初始时(px,py)=(x,y),ps=1,wi=1/N;
步骤1.3:初始化朴素贝叶斯分类器B={(μp(i),σp(i),μn(i),σn(i))|i=1,2,...,n},其中n的值等于步骤1.1中低维特征的个数。
步骤2:目标跟踪阶段,输入C通道的图像F,并计算图像F的积分图像I;对P中的每一个粒子pi做二阶自回归传递,计算公式如下:
其中pk(i)表示第i个粒子在k时刻的状态,uk为粒子在k时刻的三维高斯噪声,分别对应px,py和ps三个维度,N(0,σk)表示均值为0,标准差为σk的高斯分布;
步骤3:计算P中每个粒子在V上的特征值T={Ti|i=1,2,…,n},其中n表示V中的特征数量,Ti计算公式如下:
其中[px,py,ps]为粒子的状态,pw=w*ps,ph=h*ps,vx(i,j)表示vi中第j个矩形左上角的横坐标,vy(i,j)表示vi中第j个矩形左上角的纵坐标,vw(i,j)为矩形的长,vh(i,j)为矩形的宽,Ic为积分图的第c个通道,其中c为(0,C)之间随机等概率取得的值,每个粒子的权重计算公式为:
式中,μp(i)表示第i个朴素贝叶斯分类器Bi的正样本均值,σp(i)表示正样本方差,μn(i)表示负样本均值,σn(i)表示负样本方差;计算每个粒子的权重值之后,再对粒子的权重进行归一化;
步骤4:找到步骤3中权重最大的粒子pmax=[px,py,ps],则目标在当前帧的矩形框Rc=[px,py,w*ps,h*ps];
步骤5:更新朴素贝叶斯分类器参数,具体为:采样目标区域周围的正负样本,计算特征值并更新朴素贝叶斯分类器参数;以目标矩形框区域位置lc=[x+0.5w,y+0.5h]为中心、α为半径采集正样本Dα={z|||l(z)-lc||<α},设采样到的正样本个数为np,l(z)表示z位置的坐标;以ζ为半径采集负样本Dζ={z|α<||l(z)-lt||<β},其中α<ζ<β,β表示外半径,设采样到的负样本个数为nn;计算正样本的特征值集合Tp={Tp(j)|j=1,2,…np},其中Tp(j)通过公式(4)求得,Tp为公式(4)中的T,j为公式(4)中的i,其长度为步骤1.1中低维特征的个数n;同理计算负样本的特征值集合Tn={Tn(j)|j=1,2,…,nn},其中Tn(j)通过公式(4)求得,Tn为公式(4)中的T,j为公式(4)中的i,长度同样为n;则第i个朴素贝叶斯分类器Bi的更新公式如下:
其中的计算公式如下:
其中表示Tp第i列的均值,表示Tp第i列的标准差;同理,从(6)式得到;λi为自适应参数学习率,计算公式如下:
其中是一个常数;
步骤6:计算λi的均值λ,并根据λ值动态调整步骤2中σk的值,调整公式如下:
其中σ0为式粒子的初始标准差,θ是一个常量,代表累计周期,t是一个累计变量:
步骤7:对粒子进行重采样,粒子的采样密度用如下公式表示:
其中k-1代表前一时刻,k代表当前时刻,i,j分别表示第i,j个粒子;
步骤8:输出步骤4中Rc的值作为当前帧目标的跟踪结果,若视频序列还有下一帧,则回到步骤2,否则结束。
本发明的优点是:本发明能有效应对目标跟踪过程中的遮挡、光照变化、姿态变化等问题,在高清视频场景下也能对目标进行多尺度、自适应地实时跟踪。
附图说明
图1为本发明的步骤1.2中对特征进行降维的示意图;
图2为本发明的步骤3中从单通道提取广义Haar-like特征的示意图;
图3为本发明的步骤3中从随机多通道提取广义Haar-like特征的示意图。
具体实施方式
下面结合实施例来详细阐述本发明的多尺度与自适应更新的目标跟踪方法的具体实施方式。
本发明的一种基于多尺度与自适应更新的目标跟踪方法,其特征在于包括如下步骤:
步骤1:系统初始化,图输入已知目标的初始化区域矩形框Rinit=[x,y,w,h],其中(x,y)代表矩形框的左上角,w,h代表矩形框的宽和高;输入视频序列的第一帧RGB图像F0,F0具有3个通道,计算F0的积分图I={Ii|i=1,2,3},其中Ii为F0在第i通道的积分图;初始化特征向量V,粒子集P,朴素贝叶斯分类器B,具体如下:
步骤1.1:对于宽、高分别为(w,h)的目标,生成一系列归一化矩形滤波器H={hi,j(a,b)|1≤i≤w,1≤j≤h},并通过矩形滤波器hi,j(a,b)与图像的卷积来表示目标特征,其中hi,j(a,b)的计算公式如下:
计算可得H中元素的个数为(wh)2;初始化随机测量矩阵R=[ri,j]m*n,ri,j的计算公式如下:
其中s=m/4为随机测量矩阵的稀疏因子,m为随机测量矩阵长度,且m=(wh)2,n为降维后低维特征的个数,在本实例中取n=100;把H拉伸为一个长度为(wh)2的列向量X,则V=RX即为通过随机测量矩阵降维后的特征向量,V={vi|i=1,2,...,100},由公式(2)可知,vi中矩形滤波器的个数p的取值在2~4之间;
步骤1.2:初始化粒子集P={(pi,wi)|i=1,2,...,N},其中粒子的状态pi=[px,py,ps],(px,py)分别表示目标中心点坐标,ps表示目标缩放尺度,wi表示粒子权重,N表示粒子的个数,在本实例中取N=200;初始时(px,py)=(x,y),ps=1,wi=1/200;
步骤1.3:初始化朴素贝叶斯分类器B={(μp(i),σp(i),μn(i),σn(i))|i=1,2,...,100};
步骤2:目标跟踪阶段,输入C通道的图像F,并计算图像F的积分图像I;对P中的每一个粒子pi做二阶自回归传递,计算公式如下:
其中pk(i)表示第i个粒子在k时刻的状态,uk为粒子在k时刻的3维高斯噪声,分别对应px,px和ps三个维度,N(0,σk)表示均值为0,标准差为σk的高斯分布;在本实例中σk=[5.0,2.5,0.06];
步骤3:计算P中每个粒子在V上的特征值T={Ti|i=1,2,…,100},Ti计算公式如下:
其中[px,py,ps]为粒子的状态pw=w*ps,ph=h*ps,vx(i,j)表示vi中第j个矩形左上角的横坐标,vy(i,j)表示vi中第j个矩形左上角的纵坐标,vw(i,j)为矩形长,vh(i,j)为矩形宽;Ic为积分图的第c个通道,其中c为(0,C)之间随机等概率取得的值;每个粒子的权重计算公式为:
式中,μp(i)表示第i个朴素贝叶斯分类器Bi的正样本均值,σp(i)表示正样本方差,μn(i)表示负样本均值,σn(i)表示负样本方差;计算每个粒子的权重值之后,再对粒子的权重进行归一化;
步骤4:找到步骤3中权重最大的粒子pmax=[px,py,ps],则目标在当前帧的矩形框Rc=[px,py,w*ps,h*ps];
步骤5:更新朴素贝叶斯分类器参数;具体为:采样目标区域周围的正负样本,计算特征值并更新朴素贝叶斯分类器参数;以目标矩形框区域位置lc=[x+0.5w,y+0.5h]为中心,α为半径采集正样本Dα={z|||l(z)-lc||<α},在本实例中α=4,采样到的正样本个数为45;以ζ为半径采集负样本Dζ={z|α<||l(z)-lt||<β},其中α<ζ<β,β表示外半径,在本实例中α=8,β=30,采样到的负样本个数为50;计算正样本的特征值集合Tp={Tp(j)|j=1,2,…45},其中Tp(j)可以通过公式(4)求得,Tp为公式(4)中的T,j为公式(4)中的i,其长度为步骤1.1中低维特征的个数n;同理计算负样本的特征值集合Tn={Tn(j)|j=1,2,…,50},其中Tn(j)可以通过公式(4)求得,Tn为公式(4)中的T,j为公式(4)中的i;那么朴素贝叶斯分类器Bi的更新公式如下:
其中的计算公式如下:
其中表示Tp第i列的均值,表示Tp第i列的标准差;同理也可以从(6)式得到;λi为自适应参数学习率,计算公式如下:
其中是一个常数,在本实例中取
步骤6:计算λi的均值λ,并根据λ值动态调整步骤2中σk的值,调整公式如下:
其中σ0为式粒子的初始标准差,在本例中为[5.0,2.5,0.06],是一个常量,在本实例中取代表累计周期,t是一个累计变量:
步骤7:对粒子进行重采样,粒子的采样密度用如下公式表示:
其中k-1代表前一时刻,k代表当前时刻,i,j分别表示第i,j个粒子;
步骤8:输出步骤4中Rc的值作为当前帧目标的跟踪结果,若视频序列还有下一帧,则回到步骤2,否则结束。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (1)
1.一种基于多尺度与自适应更新的目标跟踪方法,其特征在于包括如下步骤:
步骤1:系统初始化:输入已知目标的初始化区域矩形框Rinit=[x,y,w,h],其中(x,y)代表矩形框的左上角坐标,w,h代表矩形框的宽和高;再输入视频序列的第一帧图像F0,F0具有C个通道,计算F0的积分图I={Ii|i=1,2,...,C},其中Ii为F0在第i通道的积分图;初始化特征向量V,粒子集P,朴素贝叶斯分类器B,具体方法如下:
步骤1.1:对于宽、高分别为w,h的目标,生成一系列归一化矩形滤波器H={hi,j(a,b)|1≤i≤w,1≤j≤h},并通过矩形滤波器hi,j(a,b)与图像的卷积来表示目标特征,其中hi,j(a,b)的计算公式如下:
计算得H中矩形滤波器hi,j(a,b)的个数为(wh)2;初始化随机测量矩阵R=[ri,j]m*n,ri,j的计算公式如下:
其中s=m/4为随机测量矩阵的稀疏因子,m为随机测量矩阵长度,且m=(wh)2,n为降维后低维特征的个数;把H拉伸为一个长度为(wh)2的列向量X,则V=RX即为通过随机测量矩阵降维后的特征向量,V={vi|i=1,2,...,n},由公式(2)可知,vi中矩形滤波器的个数p的取值在2~4之间;
步骤1.2:初始化粒子集P={(pi,wi)|i=1,2,...,N},其中粒子的状态pi=[px,py,ps],(px,py)分别表示目标中心点坐标,ps表示目标缩放尺度,wi表示粒子权重,N表示粒子的个数,初始时(px,py)=(x,y),ps=1,wi=1/N;
步骤1.3:初始化朴素贝叶斯分类器B={(μp(i),σp(i),μn(i),σn(i))|i=1,2,...,n},其中n的值等于步骤1.1中低维特征的个数;
步骤2:目标跟踪阶段,输入C通道的图像F,并计算图像F的积分图像I;对P中的每一个粒子pi做二阶自回归传递,计算公式如下:
其中pk(i)表示第i个粒子在k时刻的状态,uk为粒子在k时刻的三维高斯噪声,分别对应px,py和ps三个维度,N(0,σk)表示均值为0,标准差为σk的高斯分布;
步骤3:计算P中每个粒子在V上的特征值T={Ti|i=1,2,…,n},其中n表示V中的特征数量,Ti计算公式如下:
其中[px,py,ps]为粒子的状态,pw=w*ps,ph=h*ps,vx(i,j)表示vi中第j个矩形左上角的横坐标,vy(i,j)表示vi中第j个矩形左上角的纵坐标,vw(i,j)为矩形的长,vh(i,j)为矩形的宽,Ic为积分图的第c个通道,其中c为(0,C)之间随机等概率取得的值,每个粒子的权重计算公式为:
式中,μp(i)表示第i个朴素贝叶斯分类器Bi的正样本均值,σp(i)表示正样本方差,μn(i)表示负样本均值,σn(i)表示负样本方差;计算每个粒子的权重值之后,再对粒子的权重进行归一化;
步骤4:找到步骤3中权重最大的粒子pmax=[px,py,ps],则目标在当前帧的矩形框Rc=[px,py,w*ps,h*ps];
步骤5:更新朴素贝叶斯分类器参数,具体为:采样目标区域周围的正负样本,计算特征值并更新朴素贝叶斯分类器参数;以目标矩形框区域位置lc=[x+0.5w,y+0.5h]为中心、α为半径采集正样本Dα={z|||l(z)-lc||<α},设采样到的正样本个数为np,l(z)表示z位置的坐标;以ζ为半径采集负样本Dζ={z|α<||l(z)-lt||<β},其中α<ζ<β,β表示外半径,设采样到的负样本个数为nn;计算正样本的特征值集合Tp={Tp(j)|j=1,2,…np},其中Tp(j)通过公式(4)求得,Tp为公式(4)中的T,j为公式(4)中的i,其长度为步骤1.1中低维特征的个数n;同理计算负样本的特征值集合Tn={Tn(j)|j=1,2,…,nn},其中Tn(j)通过公式(4)求得,Tn为公式(4)中的T,j为公式(4)中的i,长度同样为n;则第i个朴素贝叶斯分类器Bi的更新公式如下:
其中 的计算公式如下:
其中表示Tp第i列的均值,表示Tp第i列的标准差;同理,从(6)式得到;λi为自适应参数学习率,计算公式如下:
其中是一个常数;
步骤6:计算λi的均值λ,并根据λ值动态调整步骤2中σk的值,调整公式如下:
其中σ0为式粒子的初始标准差,θ是一个常量,代表累计周期,t是一个累计变量:
步骤7:对粒子进行重采样,粒子的采样密度用如下公式表示:
其中k-1代表前一时刻,k代表当前时刻,i,j分别表示第i,j个粒子;
步骤8:输出步骤4中Rc的值作为当前帧目标的跟踪结果,若视频序列还有下一帧,则回到步骤2,否则结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610442549.5A CN106097393B (zh) | 2016-06-17 | 2016-06-17 | 一种基于多尺度与自适应更新的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610442549.5A CN106097393B (zh) | 2016-06-17 | 2016-06-17 | 一种基于多尺度与自适应更新的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106097393A CN106097393A (zh) | 2016-11-09 |
CN106097393B true CN106097393B (zh) | 2018-11-13 |
Family
ID=57236962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610442549.5A Expired - Fee Related CN106097393B (zh) | 2016-06-17 | 2016-06-17 | 一种基于多尺度与自适应更新的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106097393B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709935A (zh) * | 2016-11-25 | 2017-05-24 | 厦门中控生物识别信息技术有限公司 | 目标实时跟踪方法及装置 |
CN107122722A (zh) * | 2017-04-19 | 2017-09-01 | 大连理工大学 | 一种基于多特征的自适应压缩跟踪算法 |
CN107492112B (zh) * | 2017-07-11 | 2019-11-22 | 西北工业大学 | 一种基于无人机平台的目标跟踪方法 |
CN107480704B (zh) * | 2017-07-24 | 2021-06-29 | 无际智控(天津)智能科技有限公司 | 一种具有遮挡感知机制的实时视觉目标跟踪方法 |
CN107948946B (zh) * | 2017-11-09 | 2020-06-02 | 南京南自信息技术有限公司 | 一种工业场所高精度人员定位球型摄像机跟踪方法 |
TWI701609B (zh) * | 2018-01-04 | 2020-08-11 | 緯創資通股份有限公司 | 影像物件追蹤方法及其系統與電腦可讀取儲存媒體 |
CN110751673B (zh) * | 2018-07-23 | 2022-08-19 | 中国科学院长春光学精密机械与物理研究所 | 一种基于集成学习的目标跟踪方法 |
CN109978923B (zh) * | 2019-04-04 | 2020-12-08 | 杭州电子科技大学 | 一种基于双模板尺度自适应相关滤波目标跟踪方法及系统 |
CN110189365B (zh) * | 2019-05-24 | 2023-04-07 | 上海交通大学 | 抗遮挡相关滤波跟踪方法 |
CN110503659B (zh) * | 2019-07-09 | 2021-09-28 | 浙江浩腾电子科技股份有限公司 | 一种面向视频序列的运动目标提取方法 |
CN110390313B (zh) * | 2019-07-29 | 2023-03-28 | 哈尔滨工业大学 | 一种暴力动作检测方法及系统 |
CN110533690B (zh) * | 2019-08-08 | 2022-02-11 | 河海大学 | 特征融合与学习率优化的核相关滤波水下目标跟踪方法 |
CN110599519B (zh) * | 2019-08-27 | 2022-11-08 | 上海交通大学 | 基于领域搜索策略的抗遮挡相关滤波跟踪方法 |
CN111127514B (zh) * | 2019-12-13 | 2024-03-22 | 华南智能机器人创新研究院 | 一种机器人对目标的跟踪方法及装置 |
CN111860189B (zh) * | 2020-06-24 | 2024-01-19 | 北京环境特性研究所 | 一种目标跟踪方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331908A (zh) * | 2014-11-19 | 2015-02-04 | 天津工业大学 | 压缩haar特征和运动信息相融合的目标跟踪方法 |
CN104392467A (zh) * | 2014-11-18 | 2015-03-04 | 西北工业大学 | 一种基于压缩感知的视频目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7505608B2 (en) * | 2005-04-15 | 2009-03-17 | The Boeing Company | Methods and apparatus for adaptive foreground background analysis |
-
2016
- 2016-06-17 CN CN201610442549.5A patent/CN106097393B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392467A (zh) * | 2014-11-18 | 2015-03-04 | 西北工业大学 | 一种基于压缩感知的视频目标跟踪方法 |
CN104331908A (zh) * | 2014-11-19 | 2015-02-04 | 天津工业大学 | 压缩haar特征和运动信息相融合的目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
A Scale Self-Adaptive Tracking Method Based on Moment Invariants;Yimei Kang et al;《Journal of Signal Processing Systems》;20151130;第81卷(第2期);197–212 * |
动态模型的多尺度自适应跟踪算法;李涛 等;《控制理论与应用》;20041231;第21卷(第6期);875-879 * |
Also Published As
Publication number | Publication date |
---|---|
CN106097393A (zh) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106097393B (zh) | 一种基于多尺度与自适应更新的目标跟踪方法 | |
WO2020108362A1 (zh) | 人体姿态检测方法、装置、设备及存储介质 | |
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN104537647B (zh) | 一种目标检测方法及装置 | |
CN114091606B (zh) | 一种隧道爆破炮孔半眼痕识别和损伤平整度评价分类方法 | |
CN110879982B (zh) | 一种人群计数系统及方法 | |
CN110221699B (zh) | 一种前置摄像头视频源的眼动行为识别方法 | |
CN105279769B (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN106650619A (zh) | 一种人体动作识别方法 | |
CN104408405B (zh) | 人脸表示和相似度计算方法 | |
CN103996195A (zh) | 一种图像显著性检测方法 | |
CN104835175A (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN108197584A (zh) | 一种基于三元组深度神经网络的行人重识别方法 | |
CN104766343A (zh) | 一种基于稀疏表示的视觉目标跟踪方法 | |
CN109447979A (zh) | 基于深度学习和图像处理算法的目标检测方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN112001241A (zh) | 基于通道注意力机制的微表情识别方法及系统 | |
JP2016014954A (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
Song et al. | Feature extraction and target recognition of moving image sequences | |
CN106780539A (zh) | 机器人视觉跟踪方法 | |
Ali et al. | Deep Learning Algorithms for Human Fighting Action Recognition. | |
EP3671635A1 (en) | Curvilinear object segmentation with noise priors | |
WO2015176502A1 (zh) | 一种图像特征的估计方法和设备 | |
CN117854155A (zh) | 一种人体骨骼动作识别方法及系统 | |
CN106934339B (zh) | 一种目标跟踪、跟踪目标识别特征的提取方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181113 |