CN104616324A - 基于自适应表观模型和点-集距离度量学习的目标跟踪方法 - Google Patents
基于自适应表观模型和点-集距离度量学习的目标跟踪方法 Download PDFInfo
- Publication number
- CN104616324A CN104616324A CN201510099974.4A CN201510099974A CN104616324A CN 104616324 A CN104616324 A CN 104616324A CN 201510099974 A CN201510099974 A CN 201510099974A CN 104616324 A CN104616324 A CN 104616324A
- Authority
- CN
- China
- Prior art keywords
- target
- template
- alpha
- sample
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000003044 adaptive effect Effects 0.000 title abstract description 6
- 239000002245 particle Substances 0.000 claims abstract description 46
- 239000011159 matrix material Substances 0.000 claims abstract description 30
- 239000000284 extract Substances 0.000 claims description 9
- 238000012952 Resampling Methods 0.000 claims description 3
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 claims description 3
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
基于自适应表观模型和点-集距离度量学习的目标跟踪方法,涉及计算机视觉技术。首先利用收集到的目标模板和由这些目标模板的正则化仿射组合进行目标表示,同时学习一个点-集距离度量矩阵,并将该点-集距离度量矩阵整合在表观模型建立过程中,在粒子滤波框架下进行目标跟踪。根据一个生成式跟踪算法,给出一个基于目标模板集和正则化仿射包的自适应目标表观模型。该正则化仿射包由模板集中的目标模板的仿射连接生成。同时,学习一个点-集距离度量矩阵,并整合该矩阵在目标表示优化过程中,从而获得一个自适应的目标表观模型。在线学习的点-集距离度量用来测量一个目标候选块与目标模板集之间的距离。具有很好的跟踪效果和鲁棒性。
Description
技术领域
本发明涉及计算机视觉技术,具体是涉及一种基于自适应表观模型和点-集距离度量学习的目标跟踪方法。
背景技术
计算机视觉最初于上世纪60年代从数字图像领域分离开来,成为一个热门的研究方向,目前已广泛地应用于视频监控、人机交互、车辆导航、医疗诊断等诸多领域中。其中,目标跟踪是计算机视觉中的一项关键技术,同时它也是行为识别、目标理解等更高级视觉任务的基础。因此,对计算机视觉中的目标跟踪技术进行深入研究,不断提升跟踪的准确率和成功率,具有重要的理论意义和现实意义。目标跟踪近几年发展很快,许多鲁棒的算法被提出,这些算法在处理表观变化、遮挡和光照等方面有一定的效果。然而,以上诸多因素和重大表观变化等的影响,设计一个鲁棒的跟踪算法仍然是一个挑战性的任务。
一般地,目标跟踪算法可分成生成式和判别式两种。生成式算法在跟踪中是通过搜索与目标表观模型最相似的图像块进行目标定位。而判别式算法将跟踪看成一个二分类问题,在跟踪过程是通过学习一个分类器,将目标从相关的背景区域中区分开来。对于生成式跟踪算法,设计一个鲁棒的表观模型是关键,该表观模型对于因旋转、遮挡、光照和尺度等变化影响的表观变化应用较好的鲁棒性。目前,许多跟踪算法使用目标模板集建立目标表观模型。
距离度量学习作为一个有效的技术被成功地应用在目标跟踪中,在线学习的距离度量矩阵用来度量目标候选块与目标模板(集)之间的距离。然而,目前的这些跟踪算法通常是基于点-点距离度量学习方法。点-点距离度量方法一般不能直接测量一个目标候选块到目标模板集之间的距离。
最近,一些基于点-集距离度量算法被提出,并被应用在图像分类、人脸识别等任务中,具有较好的实验效果。在这些算法中,一个图像集被表示为一个仿射包或者凸包。
发明内容
本发明的目的在于提供基于自适应表观模型和点-集距离度量学习的目标跟踪方法。
本发明包括以下步骤:
1)输入视频序列的第一帧F1,初始化目标模板字典D1=[d1,d2,…,dn]和目标模板的权重其中n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重,i=1,2,…,n为目标模板的个数;利用粒子滤波框架,初始化m个粒子 每个粒子的权重为选取正、负学习样本S+、S-,利用S+和S-进行点-集距离度量矩阵学习(具体学习过程同步骤7),得到一个点-集距离度量矩阵M1;
2)读入当前帧的视频图像Ft,利用粒子滤波框架的运动模型p(xt|xt-1),生成m个粒子(也就是目标候选块)
3)获取每个粒子对应的图像块并提取该图像块的稀疏编码特征提取该特征用K-SVD算法学习得到一个稀疏编码字典,利用稀疏编码字典提取图像块中每个像素的稀疏编码特征,将所有的稀疏编码特征进行统计得到该图像块的稀疏编码直方图(Histograms ofSparse Codes,HSC),也就是该图像块的稀疏编码特征。
4)基于目标模板Dt-1和在线学习得到的点-集距离度量矩阵Mt-1,计算每个粒子的观察概率
在这里,
在这里,LTL=Mt-1;并更新粒子的权重
5)结合粒子和粒子权重定位当前帧的目标位置
6)更新目标模板集得到当前的模板集Dt;
7)根据当前帧的跟踪结果选取正、负学习样本S+、S-;
使用表示一个样本向量,l(si)表示样本si的类别,Sc表示样本类别为c的所用样本的集合,这里c=±1,+1表示正样本,-1表示负样本,表示所有类别为l(si)的样本中除了si以外的所用样本的集合;
使用以上选取的正、负样本,生成一组正样本对和一组负样本对
在这里 正样本的类别表示为+1,负样本对表示为-1;
利用正、负样本对进行距离度量矩阵学习,得到一个点-集距离度量矩阵Mt;
8)在粒子滤波框架下,根据粒子状态转换p(xt|xt-1)进行粒子传播和重采样;
9)不断重复步骤2)到步骤9)的过程,从而得到目标在每帧图像中状态
在步骤3)中,所述稀疏编码字典的每个元素为5×5的图像,字典中包含50个元素。
在步骤6)中,所述更新目标模板集得到当前的模板集Dt的具体方法可为:
(1)根据当前帧被估计的目标状态获取相应的图像块并提取对应的HSC特征yt;
(2)计算目标系数向量通过以下公式:
在这里,LTL=Mt-1;
(3)利用目标系数向量当前被估计的yt和目标模板集Dt-1=[d1,d2,…,dn],更新目标模板的权重
Ωt←Ωt-1/sum(Ωt-1),
Dt=[d1,…,dh-1,yt,dh+1,…,dn]。
在步骤7)中,所述点-集距离度量矩阵更新方式为:
在上式中, μi +、μi -分别是Ci +和Ci -的权重,它们可以通过LIBSVM进行求解得到。
本发明首先利用收集到的目标模板和由这些目标模板的正则化仿射组合进行目标表示,同时学习一个点-集距离度量矩阵,并将该点-集距离度量矩阵整合在表观模型建立过程中,在粒子滤波框架下进行目标跟踪。
本发明根据一个生成式跟踪算法,给出一个基于目标模板集和正则化仿射包的自适应目标表观模型。该正则化仿射包由模板集中的目标模板的仿射连接生成。同时,学习一个点-集距离度量矩阵,并整合该矩阵在目标表示优化过程中,从而获得一个自适应的目标表观模型。在线学习的点-集距离度量用来测量一个目标候选块与目标模板集之间的距离。本发明所涉及的跟踪方法具有很好的跟踪效果和鲁棒性。
具体实施方式
以下实施例对本发明的方法做详细说明,本实施例在本发明技术方案为前提下进行实施,给出了实施方式和具体操作过程,但本发明的保护范围不限于下述的实施例。
本发明实施例包括以下步骤:
S1.输入视频序列的的第一帧F1,初始化目标模板字典D1=[d1,d2,…,dn]和目标模板的权重当n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重,i=1,2,…,n为目标模板的个数;利用粒子滤波框架,初始化m个粒子 每个粒子的权重为选取正、负学习样本S+、S-,利用S+和S-进行点-集距离度量矩阵学习(具体学习过程同步骤S7),得到一个点-集距离度量矩阵M1。
S101.输入视频序列的第一帧F1,手动选定被跟踪目标d1,然后在被选定的目标中心周围扰动几个像素,生成一组与被选定目标相同大小的图像块d2,…,dn,由这些图像块生成初始的目标模板集D1=[d1,d2,…,dn]。并给每个目标模板相应的权重当n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重,i=1,2,…,n为目标模板的个数;
S102.利用粒子滤波框架,初始化m个粒子每个粒子的权重为
S103.选取正、负学习样本S+、S-,在这里,采用基于空间距离机制进行正、负样本的选取,也就是选取一些距离目标中心较近的图像块作为正样本,选取一些较远的图像块作为负样本。利用S+和S-进行点-集距离度量矩阵学习(具体学习过程同步骤S7),得到一个点-集距离度量矩阵M1。
S2.读入当前帧的视频图像Ft,利用粒子滤波框架的运动模型p(xt|xt-1),生成m个粒子(也就是目标候选块)
S3.获取每个粒子对应的图像块并提取该图像块的稀疏编码特征提取该特征用K-SVD算法学习得到一个稀疏编码字典,利用该字典提取图像块中每个像素的稀疏编码特征,将所有的稀疏编码特征进行统计得到该图像块的稀疏编码直方图(Histograms of SparseCodes,HSC),也就是该图像块的稀疏编码特征。
S301.获取每个粒子对应的图像块,利用K-SVD算法学习一个稀疏编码字典;
S302.利用步骤S301所得到的稀疏编码字典,获取粒子对应的图像块中每个像素的稀疏编码,将得到的稀疏编码进行统计得到稀疏编码的直方图(即Histograms of Sparse Codes,HSC),从而得到图像块的HSC特征;
S303.在学习稀疏表示的过程中,稀疏字典的每个元素为5×5的图像,字典中包含50个元素;
S4.基于目标模板Dt-1和在线学习得到的点-集距离度量矩阵Mt-1,计算每个粒子的
观察概率
在这里,
在这里,LTL=Mt-1;并更新粒子的权重
S5.结合粒子和粒子权重定位当前帧的目标位置
S6.更新目标模板集得到当前的模板集Dt。
S601.根据当前帧被估计的目标状态获取相应的图像块并提取对应的HSC特征yt;
S602.计算目标系数向量通过以下公式:
在这里,LTL=Mt-1;
S603.利用目标系数向量当前被估计的yt和目标模板集Dt-1=[d1,d2,…,dn],更新目标模板的权重
Ωt←Ωt-1/sum(Ωt-1),
Dt=[d1,…,dh-1,yt,dh+1,…,dn].
S7.根据当前帧的跟踪结果选取正、负学习样本S+、S-。
使用表示一个样本向量,l(si)表示样本si的类别,Sc表示样本类别为c的所用样本的集合,这里c=±1,+1表示正样本,-1表示负样本。表示所有类别为l(si)的样本中除了si以外的所用样本的集合。
使用以上选取的正、负样本,生成一组正样本对和一组负样本对
在这里 正样本的类别表示为+1,负样本对表示为-1;
利用正、负样本对进行距离度量矩阵学习,得到一个点-集距离度量矩阵Mt。
S701.基于当前帧的跟踪结果采用基于空间距离机制进行正、负样本的选取,选取一组正样本S+和一组负样本S-,使用表示一个样本向量,l(si)表示样本si的类别,c=±1,+1表示正样本,-1表示负样本;
S702.Sc表示样本类别为c的所用样本的集合,表示所有类别为l(si)的样本中除了si以外的所用样本的集合;使用以上选取的正、负样本,生成一组正样本对和一组负样本对 在这里 正样本的类别表示为+1,负样本对表示为-1;
S703.在点-集距离度量学习过程中,正、负样本对和度量矩阵交替进行更新。点-集距离度量矩阵更新方式为:
在上式中, μi +、μi -分别是Ci +和Ci -的权重,它们可以通过LIBSVM进行求解得到。
S8.在粒子滤波框架下,根据粒子状态转换p(xt|xt-1)进行粒子传播和重采样。
S9.不断重复步骤S2到步骤S9的过程,从而得到目标在每帧图像中状态
Claims (4)
1.基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于包括以下步骤:
1)输入视频序列的第一帧F1,初始化目标模板字典D1=[d1,d2,…,dn]和目标模板的权重其中n为目标模板的个数,di表示目标模板对应的特征向量,表示目标模板的权重,i=1,2,…,n为目标模板的个数;利用粒子滤波框架,初始化m个粒子j=1,2,…,m,每个粒子的权重为选取正、负学习样本S+、S-,利用S+和S-进行点-集距离度量矩阵学习,得到一个点-集距离度量矩阵M1;
2)读入当前帧的视频图像Ft,利用粒子滤波框架的运动模型p(xt|xt-1),生成m个粒子j=1,2,…,m;
3)获取每个粒子对应的图像块并提取该图像块的稀疏编码特征提取该特征用K-SVD算法学习得到一个稀疏编码字典,利用稀疏编码字典提取图像块中每个像素的稀疏编码特征,将所有的稀疏编码特征进行统计得到该图像块的稀疏编码直方图,也就是该图像块的稀疏编码特征;
4)基于目标模板Dt-1和在线学习得到的点-集距离度量矩阵Mt-1,计算每个粒子的观察概率
在这里,
在这里,LTL=Mt-1;并更新粒子的权重
5)结合粒子和粒子权重定位当前帧的目标位置
6)更新目标模板集得到当前的模板集Dt;
7)根据当前帧的跟踪结果选取正、负学习样本S+、S-;
使用表示一个样本向量,l(si)表示样本si的类别,Sc表示样本类别为c的所用样本的集合,这里c=±1,+1表示正样本,-1表示负样本,表示所有类别为l(si)的样本中除了si以外的所用样本的集合;
使用以上选取的正、负样本,生成一组正样本对和一组负样本对
在这里 正样本的类别表示为+1,负样本对表示为-1;
利用正、负样本对进行距离度量矩阵学习,得到一个点-集距离度量矩阵Mt;
8)在粒子滤波框架下,根据粒子状态转换p(xt|xt-1)进行粒子传播和重采样;
9)不断重复步骤2)到步骤9)的过程,从而得到目标在每帧图像中状态
2.如权利要求1所述基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于在步骤3)中,所述稀疏编码字典的每个元素为5×5的图像,字典中包含50个元素。
3.如权利要求1所述基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于在步骤6)中,所述更新目标模板集得到当前的模板集Dt的具体方法为:
(1)根据当前帧被估计的目标状态获取相应的图像块并提取对应的HSC特征yt;
(2)计算目标系数向量通过以下公式:
在这里,LTL=Mt-1;
(3)利用目标系数向量当前被估计的yt和目标模板集Dt-1=[d1,d2,…,dn],更新目标模板的权重
Ωt←Ωt-1/sum(Ωt-1),
Dt=[d1,…,dh-1,yt,dh+1,…,dn]。
4.如权利要求1所述基于自适应表观模型和点-集距离度量学习的目标跟踪方法,其特征在于在步骤7)中,所述点-集距离度量矩阵更新方式为:
在上式中, μi +、μi -分别是Ci +和Ci -的权重,它们可以通过LIBSVM进行求解得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510099974.4A CN104616324B (zh) | 2015-03-06 | 2015-03-06 | 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510099974.4A CN104616324B (zh) | 2015-03-06 | 2015-03-06 | 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104616324A true CN104616324A (zh) | 2015-05-13 |
CN104616324B CN104616324B (zh) | 2017-07-28 |
Family
ID=53150757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510099974.4A Expired - Fee Related CN104616324B (zh) | 2015-03-06 | 2015-03-06 | 基于自适应表观模型和点‑集距离度量学习的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104616324B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023024A (zh) * | 2015-07-23 | 2015-11-04 | 湖北大学 | 一种基于正则化集合度量学习的遥感图像分类方法及系统 |
CN106599833A (zh) * | 2016-12-12 | 2017-04-26 | 武汉科技大学 | 一种基于领域适应和流形距离度量的人脸识别方法 |
CN107341817A (zh) * | 2017-06-16 | 2017-11-10 | 哈尔滨工业大学(威海) | 基于在线度量学习的自适应视觉跟踪算法 |
CN107491761A (zh) * | 2017-08-23 | 2017-12-19 | 哈尔滨工业大学(威海) | 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法 |
CN108734151A (zh) * | 2018-06-14 | 2018-11-02 | 厦门大学 | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 |
CN109509180A (zh) * | 2018-10-24 | 2019-03-22 | 东华大学 | 基于机器视觉的金属纽扣瑕疵检测方法 |
CN109934849A (zh) * | 2019-03-08 | 2019-06-25 | 西北工业大学 | 基于轨迹度量学习的在线多目标跟踪方法 |
CN110135366A (zh) * | 2019-05-20 | 2019-08-16 | 厦门大学 | 基于多尺度生成对抗网络的遮挡行人重识别方法 |
CN112085765A (zh) * | 2020-09-15 | 2020-12-15 | 浙江理工大学 | 结合粒子滤波及度量学习的视频目标跟踪方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750533A (zh) * | 2012-07-05 | 2012-10-24 | 重庆大学 | 基于形态成份稀疏表示的红外小弱目标检测方法 |
CN103530894A (zh) * | 2013-10-25 | 2014-01-22 | 合肥工业大学 | 一种基于多尺度块稀疏表示的视频目标追踪方法及其系统 |
-
2015
- 2015-03-06 CN CN201510099974.4A patent/CN104616324B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750533A (zh) * | 2012-07-05 | 2012-10-24 | 重庆大学 | 基于形态成份稀疏表示的红外小弱目标检测方法 |
CN103530894A (zh) * | 2013-10-25 | 2014-01-22 | 合肥工业大学 | 一种基于多尺度块稀疏表示的视频目标追踪方法及其系统 |
Non-Patent Citations (2)
Title |
---|
TAO QIN等: "Matting-Driven Online Learning of Hough Forests for Object Tracking", 《21ST INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 * |
侯跃恩等: "融合背景信息的分块稀疏表示跟踪算法", 《华南理工大学学报(自然科学版)》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023024A (zh) * | 2015-07-23 | 2015-11-04 | 湖北大学 | 一种基于正则化集合度量学习的遥感图像分类方法及系统 |
CN106599833A (zh) * | 2016-12-12 | 2017-04-26 | 武汉科技大学 | 一种基于领域适应和流形距离度量的人脸识别方法 |
CN106599833B (zh) * | 2016-12-12 | 2019-06-25 | 武汉科技大学 | 一种基于领域适应和流形距离度量的人脸识别方法 |
CN107341817B (zh) * | 2017-06-16 | 2019-05-21 | 哈尔滨工业大学(威海) | 基于在线度量学习的自适应视觉跟踪算法 |
CN107341817A (zh) * | 2017-06-16 | 2017-11-10 | 哈尔滨工业大学(威海) | 基于在线度量学习的自适应视觉跟踪算法 |
CN107491761A (zh) * | 2017-08-23 | 2017-12-19 | 哈尔滨工业大学(威海) | 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法 |
CN107491761B (zh) * | 2017-08-23 | 2020-04-03 | 哈尔滨工业大学(威海) | 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法 |
CN108734151A (zh) * | 2018-06-14 | 2018-11-02 | 厦门大学 | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 |
CN109509180A (zh) * | 2018-10-24 | 2019-03-22 | 东华大学 | 基于机器视觉的金属纽扣瑕疵检测方法 |
CN109509180B (zh) * | 2018-10-24 | 2021-12-10 | 东华大学 | 基于机器视觉的金属纽扣瑕疵检测方法 |
CN109934849A (zh) * | 2019-03-08 | 2019-06-25 | 西北工业大学 | 基于轨迹度量学习的在线多目标跟踪方法 |
CN110135366A (zh) * | 2019-05-20 | 2019-08-16 | 厦门大学 | 基于多尺度生成对抗网络的遮挡行人重识别方法 |
CN112085765A (zh) * | 2020-09-15 | 2020-12-15 | 浙江理工大学 | 结合粒子滤波及度量学习的视频目标跟踪方法 |
CN112085765B (zh) * | 2020-09-15 | 2024-05-31 | 浙江理工大学 | 结合粒子滤波及度量学习的视频目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104616324B (zh) | 2017-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104616324A (zh) | 基于自适应表观模型和点-集距离度量学习的目标跟踪方法 | |
CN104574445B (zh) | 一种目标跟踪方法 | |
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN103824050B (zh) | 一种基于级联回归的人脸关键点定位方法 | |
CN103544483B (zh) | 一种基于局部稀疏表示的联合目标追踪方法及其系统 | |
CN104599292B (zh) | 一种基于低秩矩阵分解的抗噪运动目标检测算法 | |
CN103003846B (zh) | 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN104408405B (zh) | 人脸表示和相似度计算方法 | |
CN103324938A (zh) | 训练姿态分类器及物体分类器、物体检测的方法及装置 | |
CN104050685B (zh) | 基于粒子滤波视觉注意力模型的运动目标检测方法 | |
CN105869178A (zh) | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 | |
CN104599286A (zh) | 一种基于光流的特征跟踪方法及装置 | |
CN113312973B (zh) | 一种手势识别关键点特征提取方法及系统 | |
CN103747240A (zh) | 融合颜色和运动信息的视觉显著性滤波方法 | |
CN104091350A (zh) | 一种利用运动模糊信息的物体跟踪方法 | |
CN106887012A (zh) | 一种基于循环矩阵的快速自适应多尺度目标跟踪方法 | |
CN110189362A (zh) | 基于多分支自编码对抗网络的高效目标跟踪方法 | |
CN102663777A (zh) | 基于多视点视频的目标跟踪方法及系统 | |
CN112446253B (zh) | 一种骨架行为识别方法及装置 | |
CN106407978A (zh) | 一种结合似物度的无约束视频中显著物体检测方法 | |
CN103839280B (zh) | 一种基于视觉信息的人体姿态跟踪方法 | |
CN110827319B (zh) | 一种基于局部敏感直方图改进的Staple目标跟踪方法 | |
CN104517123A (zh) | 一种采用局部运动特征相似性引导的子空间聚类方法 | |
Van der Merwe et al. | Integrated object deformation and contact patch estimation from visuo-tactile feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170728 |