CN109146920B - 一种可嵌入式实现的目标跟踪方法 - Google Patents

一种可嵌入式实现的目标跟踪方法 Download PDF

Info

Publication number
CN109146920B
CN109146920B CN201810693216.9A CN201810693216A CN109146920B CN 109146920 B CN109146920 B CN 109146920B CN 201810693216 A CN201810693216 A CN 201810693216A CN 109146920 B CN109146920 B CN 109146920B
Authority
CN
China
Prior art keywords
frame
target
point
points
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810693216.9A
Other languages
English (en)
Other versions
CN109146920A (zh
Inventor
赵天云
吕思稼
郭雷
刘雪婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201810693216.9A priority Critical patent/CN109146920B/zh
Publication of CN109146920A publication Critical patent/CN109146920A/zh
Application granted granted Critical
Publication of CN109146920B publication Critical patent/CN109146920B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种可嵌入式实现的目标跟踪方法,首先对视频的初始帧,利用鼠标框选出待跟踪的目标,然后提取第一帧图象的特征点和特征点描述符加以保存;之后对视频的后续帧主要做三部分工作,检测当前帧的特征点与初始帧的前景和背景特征点进行匹配,匹配时利用拉普拉斯约束当前帧的目标中心的可能位置,排除大量背景特征点,再利用前向‑后向光流跟踪算法跟踪得到当前帧的特征点,对这两部分的特征点加以融合得到初步特征点;然后利用当前帧特征点评估出目标相对于初始帧的旋转角度和尺度变化,并进行投票聚类得出新的目标中心和目标框。可以应用在实时性要求较高和计算资源有限的嵌入式系统中实现目标跟踪。

Description

一种可嵌入式实现的目标跟踪方法
技术领域
本发明属于实时目标跟踪技术,涉及一种可嵌入式实现的目标跟踪方法,利用一定的约束对待跟踪目标进行预测,发明成果可用于各类军事或民用的目标跟踪系统中。
背景技术
随着人工智能时代的到来,计算机视觉作为人工智能应用的主要领域,已在学术界和工业界得到的极大地关注。视频信息动态目标跟踪是计算机视觉领域一个非常经典而且很有挑战的一个热点研究方向,是研究场景语义理解,行为识别,人机交互等更深层次任务的基础,对探索人工智能的发展具有重要的前瞻性意义。
计算机运算性能的快速提升和高分辨率摄像技术的快速进步,极大的加速了目标跟踪领域的发展。近几年来,随着便携设备的普及,许多移动摄像设备出现在生活中,其产生的视频信息,如果能够进行处理,将会提高人们的工作效率。并且固定摄像的模式下,视频不能对运动目标进行连续监控,监控范围也有限。在摄像机移动的情况下,摄像机的移动导致背景不再静止,因此目标跟踪的难度也大大的更加。静态背景下常用的视频目标跟踪经典算法已经不再适用。基于视觉的目标检测和目标跟踪技术交叉了计算机、物理学、数学、心理学和图像处理等相关学科的各种知识,被广泛的应用于军事和民用的领域中。因此,研究动态背景下目标跟踪的算法研究具有更重要意义。目前的前沿目标跟踪算法主要集中在核相关滤波和深度学习领域,但是这两种算法对计算机的性能要求较高,同时难以实现实时性,无法应用于有限资源的嵌入式操作系统。近年来,一种利用目标特征点附以光流的跟踪方式较为流行,其对系统资源依赖性少,且可实现实时。但是这类方法跟踪精度略低,不能满足实际的跟踪任务。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种可嵌入式实现的目标跟踪方法,提出一种基于特征点且结合拉普拉斯约束的目标跟踪策略,同时提高了目标跟踪的精度和实时性。
技术方案
一种可嵌入式实现的目标跟踪方法,其特征在于步骤如下:
步骤1:在连续的视频序列图像中,以选定待跟踪目标的视频为初始帧,采用ORB方法检测所有前景特征点和背景特征点及其描述符;
256维的特征描述符向量:
Figure BDA0001713013290000021
所述
Figure BDA0001713013290000022
则每一个特征点都得到了一个256维的特征点描述符记为:
Figure BDA0001713013290000023
其中:n为256,p(x)代表x处像素点的灰度值;
步骤2:采用ORB方法对后续的每一帧视频信息的特征点提取和特征点描述符提取,并且与初始帧的特征点描述符进行全局匹配,结果集合为M,同时对初始帧的前景特征点利用光流法得到下一桢的特征点,结果集合记为T:
将这两种特征点进行融合,过程为:
1、计算第t-1帧的目标框的中心C(x,y),以及目标框的宽度w和高度h,同时设x',y',w',h'为第t帧目标框的中心坐标和尺度,则:
Figure BDA0001713013290000024
δ为相邻帧轨迹变化参数
得出第t帧的更为精简的特征点集合,记为:
Figure BDA0001713013290000031
2、采用海明距离计算步骤1初始帧前景特征点与本步骤计算当前帧特征点之间的距离,采用二次最近邻距离判据,得到结果集合为M:
Figure BDA0001713013290000032
其中d(*)表示特征点描述符之间的海明距离,θ和γ为阈值,其中θ=0.25,γ=0.8;
采用Lucas-Kanade光流法对第t-1帧的前景特征点进行其到第t帧的跟踪:
Figure BDA0001713013290000033
其中,u代表像素点延x轴的速度,v代表像素点延y轴的速度,矩阵A代表n个像素点分别延x轴和y轴的变化,ω为高斯窗口函数,变量为像素点到窗口中心的距离。根据计算出来的光流场可以快速计算出第t帧的特征点位置,结果集合记为T;
3、对全局匹配和光流跟踪得到的两部分前景特征点进行不重复融合,融合后的特征点集合为K:
Figure BDA0001713013290000034
其中,aik为特征点的绝对坐标,mik为特征点对的索引;
步骤3、计算尺度和旋转角度:利用步骤2计算的当前帧图象和初始目标模板的前景特征点之间相对位置关系的几何不变性来进行尺度因子s和旋转因子α的计算:
α=med(Dα)
Figure BDA0001713013290000041
s=med(Ds)
Figure BDA0001713013290000042
步骤4:根据刚性物体目标位置相对不变性,利用当前帧的特征点对当前帧的目标中心进行投票,并且采用层次聚类法得到票数最多的类,确定当前帧目框,过程如下:
hR(a,m)=a-s·Rrm,其中
Figure BDA0001713013290000046
1、投票函数为
其中a当前特征点的坐标;
2、Vc为票数最多的类,则当前目标中心为:
Figure BDA0001713013290000044
设ci为前一帧的目标框的四个顶点,c′i为当前帧目标框的顶点,i=1、2、3、4,则
c′i=μ+s·Rci
3、将为Vc投票的特征点设为最终的当前帧前景特征点,作为下一帧的先验信息。在后续的视频序列中,作为光流跟踪并可以得到第t+1帧的跟踪特征点:
Figure BDA0001713013290000045
所述采用ORB方法检测所有前景特征点和背景特征点及其描述符是:
(1)首先构造图像尺度空间金字塔pyramid,尺度空间金字塔由n个octaves层ci和n个intra-octaves层di;i=0,1…n-1构成,n=4;其中ci是ci-1进行逐步0.5倍下采样得到,原始图像对应c0;每一个di层位于两个octaves之间,且也是di-1进行逐步0.5倍下采样得到;
(2)在金字塔的每一层进行FAST特征点检测,即对于候选像素点p,在以p为圆心,3个像素为半径的离散化圆周上,设定合适的阈值t,如果在这个圆周上的16个像素点,有n个连续的像素点灰度值比I(p)+t都大或者比I(p)+t都小,则说明p为角点,n这里取值为9;其中I(p)为像素点p的灰度值;为加快速度,进行预判断,即先检测P1,P9,P5,P13这四个像素点,如果满足:
Figure BDA0001713013290000051
则p不是角点,否则继续进行检测;同时采用非极大值抑制来排除不是局部领域内极值的点,设立得分score函数S,定义如下:
Figure BDA0001713013290000052
其中M={x|I(px)≥I(p)+t},N={x|I(px)≤I(p)-t}。若角点p的3×3领域内存在多个角点,则计算score函数,若得分最大,则保留p作为一个角点;
(3)增加FAST特征点的方向特征,采用ORB特征的质心法:
设一个patch的m+n阶矩Qmn定义为:
Qmn=∑xmynI(x,y)
质心K的定义为:
Figure BDA0001713013290000053
则特征点的方向可以用角点的中心到质心的向量方向θ来表示:
θ=arctan(Q01,Q10)
(4)构造二进制的ORB特征描述符,对一副高斯平滑后的图象选取大小为l×l的patch,在此区域进行特征描述,其中二值描述符Γ定义为:
Figure BDA0001713013290000061
其中p(x)代表像素点x出的灰度值;则一个256维的特征描述符向量为:
Figure BDA0001713013290000062
则每一个特征点都得到了一个256维的特征点描述符。记为:
Figure BDA0001713013290000063
其中,P1是静态目标模板,
Figure BDA0001713013290000064
表示第一帧图像中目标区域的m1个特征点,ri表示第i个特征点的位置坐标,fi为第i个特征点的二进制特征描述符。
有益效果
本发明提出的一种可嵌入式实现的目标跟踪方法,基于ORB特征点和拉普拉斯约束的目标跟踪方法。基本思想是:首先对视频的初始帧,利用鼠标框选出待跟踪的目标,然后提取第一帧图象的特征点和特征点描述符加以保存;之后对视频的后续帧主要做三部分工作,检测当前帧的特征点与初始帧的前景和背景特征点进行匹配,匹配时利用拉普拉斯约束当前帧的目标中心的可能位置,排除大量背景特征点,再利用前向-后向光流跟踪算法跟踪得到当前帧的特征点,对这两部分的特征点加以融合得到初步特征点;然后利用当前帧特征点评估出目标相对于初始帧的旋转角度和尺度变化,并进行投票得出新的目标中心和目标框。
本发明在进行全局匹配这一比较耗时的阶段前,利用拉普拉斯对当前帧的目标中心进行预测并且加以约束大量缩减了当前帧的候选特征点数量,使得算法的实时性和准确性进一步提高,可以应用在实时性要求较高和计算资源有限的嵌入式系统中实现目标跟踪。
附图说明
图1是本发明的系统框图;
图2是Car数据库与原算法对比示例
图3是Ball数据库与原算法对比示例
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:Lenovo-90CXCTO1WW,4GB RAM,NVIDIA GeForce GT610,运行的软件环境是:ubuntu-16.04.3-amd64。本文做的实验采用OTB50的Car序列和Ball序列同时与原算法进行相同帧时目标中心位置的对比。本实验的参数设置为全局匹配时θ=0.25,γ=0.8,聚类时的阈值δ=20。
本发明具体实施如下:
步骤1、在连续的视频序列图像中,以选定待跟踪目标的视频为初始帧,采用ORB方法检测所有前景特征点和背景特征点及其描述符。
Figure BDA0001713013290000071
其中
Figure BDA0001713013290000072
其中,n为256,p(x)代表x处像素点的灰度值。
(1)首先构造图像尺度空间金字塔(pyramid),尺度空间金字塔由n个octaves层ci和n个intra-octaves层di(i=0,1…n-1)构成,n=4。其中ci是ci-1进行逐步0.5倍下采样得到,原始图像对应c0。每一个di层位于两个octaves之间,且也是di-1进行逐步0.5倍下采样得到。
(2)在金字塔的每一层进行FAST特征点检测,即对于候选像素点p,在以p为圆心,3个像素为半径的离散化圆周上,设定合适的阈值t,如果在这个圆周上的16个像素点,有n个连续的像素点灰度值比I(p)+t都大或者比I(p)+t都小,则可以说明p为角点,n这里取值为9。其中I(p)为像素点p的灰度值。为加快速度,进行预判断,即先检测P1,P9,P5,P13这四个像素点,如果满足:
Figure BDA0001713013290000081
则p不是角点,否则继续进行检测。同时采用非极大值抑制来排除不是局部领域内极值的点,设立得分score函数S,定义如下:
Figure BDA0001713013290000082
其中M={xI(px)≥I(p)+t},N={xI(px)≤I(p)-t}。若角点p的3×3领域内存在多个角点,则计算score函数,若得分最大,则保留p作为一个角点。
(3)增加FAST特征点的方向特征,采用ORB特征的质心法:
设一个patch的m+n阶矩Qmn定义为:
Qmn=∑xmynI(x,y)
质心K的定义为:
Figure BDA0001713013290000083
则特征点的方向可以用角点的中心到质心的向量方向θ来表示:
θ=arctan(Q01,Q10)
(4)构造二进制的ORB特征描述符,对一副高斯平滑后的图象选取大小为l×l的patch,在此区域进行特征描述,其中二值描述符Γ定义为:
Figure BDA0001713013290000084
其中p(x)代表像素点x出的灰度值。则一个256维的特征描述符向量为:
Figure BDA0001713013290000091
则每一个特征点都得到了一个256维的特征点描述符。记为:
Figure BDA0001713013290000092
步骤2、对后续的每一帧视频信息都采用步骤一的特征点提取和特征点描述符提取,并且与初始帧的特征点描述符进行全局匹配,结果集合为M,同时对初始帧的前景特征点利用光流法得到下一桢的特征点,结果集合记为T。融合这两种特征点。
(1)、本发明利用相邻视频帧之间的运动轨迹服从均值为0,尺度为0.2的拉普拉斯分布以及运动尺度变化服从均值为1,尺度为1/15的拉普拉斯分布这两个性质,利用前一帧的目标中心的位置对下一帧的目标中心进行预测,排除大量的FAST特征点,为后续的匹配和跟踪做准备。
(2)、采用海明距离(Hamming Distance)衡量二进制特征点描述符之间的距离,同时在特征点匹配过程中,特征点描述符匹配距离采用二次最近邻距离判据:
Figure BDA0001713013290000093
其中d(*)表示特征点描述符之间的海明距离,θ和γ为阈值,其中θ=0.25,γ=0.8.
(3)、采用Lucas-Kanade光流法对前一帧的前景特征点进行跟踪。
Figure BDA0001713013290000094
其中,u代表像素点延x轴的速度,v代表像素点延y轴的速度,矩阵A代表n个像素点分别延x轴和y轴的变化,ω为高斯窗口函数,变量为像素点到窗口中心的距离。
(4)、对(2)和(3)得到的两部分前景特征点进行不重复融合。融合后的特征点集合为K:
Figure BDA0001713013290000101
其中,aik为特征点的绝对坐标,mik为特征点对的索引。
步骤3、计算尺度和旋转角度。利用当前帧图象和初始目标模板的特征点之间相对位置关系的几何不变性来进行尺度因子s和旋转因子α的计算。
α=med(Dα)
Figure BDA0001713013290000102
s=med(Ds)
Figure BDA0001713013290000103
步骤4、投票和聚类。利用当前帧的特征点对当前帧的目标中心进行投票,并且采用层次聚类法得到票数最多的类。
(1)、投票函数为hR(a,m)=a-s·Rrm,其中
Figure BDA0001713013290000104
(2)、Vc为票数最多的类,则当前目标中心为:
Figure BDA0001713013290000105
设ci为前一帧的目标框的四个顶点,c′i为当前帧目标框的顶点,i=1、2、3、4,则
c′i=μ+s·Rci
(3)、将为Vc投票的特征点设为最终的当前帧前景特征点,作为下一帧的先验信息。
客观评价结果如表1、表2所示。
表1 Car视频序列跟踪性能参数
Figure BDA0001713013290000111
表2 Suv视频序列跟踪性能参数
Figure BDA0001713013290000112

Claims (2)

1.一种可嵌入式实现的目标跟踪方法,其特征在于步骤如下:
步骤1:在连续的视频序列图像中,以选定待跟踪目标的视频为初始帧,采用ORB方法检测所有前景特征点和背景特征点及其描述符;
256维的特征描述符向量:
Figure FDA0003266866700000011
所述
Figure FDA0003266866700000012
则每一个特征点都得到了一个256维的特征点描述符记为:
Figure FDA0003266866700000013
其中:n为256,p(x)代表x处像素点的灰度值;
步骤2:采用ORB方法对后续的每一帧视频信息的特征点提取和特征点描述符提取,并且与初始帧的特征点描述符进行全局匹配,结果集合为M,同时对初始帧的前景特征点利用光流法得到下一桢的特征点,结果集合记为T:
将这两种特征点进行融合,过程为:
1、计算第t-1帧的目标框的中心C(x,y),以及目标框的宽度w和高度h,同时设x',y',w',h'为第t帧目标框的中心坐标和尺度,则:
Figure FDA0003266866700000014
δ为相邻帧轨迹变化参数
得出第t帧的更为精简的特征点集合,记为:
Figure FDA0003266866700000015
2、采用海明距离计算步骤1初始帧前景特征点与本步骤计算当前帧特征点之间的距离,采用二次最近邻距离判据,得到结果集合为M:
Figure FDA0003266866700000021
其中d(*)表示特征点描述符之间的海明距离,θ和γ为阈值,其中θ=0.25,γ=0.8;
采用Lucas-Kanade光流法对第t-1帧的前景特征点进行其到第t帧的跟踪:
Figure FDA0003266866700000022
其中,u代表像素点延x轴的速度,v代表像素点延y轴的速度,矩阵A代表n个像素点分别延x轴和y轴的变化,ω为高斯窗口函数,变量为像素点到窗口中心的距离;根据计算出来的光流场可以快速计算出第t帧的特征点位置,结果集合记为T;
3、对全局匹配和光流跟踪得到的两部分前景特征点进行不重复融合,融合后的特征点集合为K:
Figure FDA0003266866700000023
其中,aik为特征点的绝对坐标,mik为特征点对的索引;
步骤3、计算尺度和旋转角度:利用步骤2计算的当前帧图象和初始目标模板的前景特征点之间相对位置关系的几何不变性来进行尺度因子s和旋转因子α的计算:
α=med(Dα)
Figure FDA0003266866700000024
s=med(Ds)
Figure FDA0003266866700000025
步骤4:根据刚性物体目标位置相对不变性,利用当前帧的特征点对当前帧的目标中心进行投票,并且采用层次聚类法得到票数最多的类,确定当前帧目框,过程如下:
1、投票函数为hR(a,m)=a-s·Rrm,其中
Figure FDA0003266866700000031
其中a当前特征点的坐标;
2、Vc为票数最多的类,则当前目标中心为:
Figure FDA0003266866700000032
设ci为前一帧的目标框的四个顶点,c′i为当前帧目标框的顶点,i=1、2、3、4,则
c′i=μ+s·Rci
3、将为Vc投票的特征点设为最终的当前帧前景特征点,作为下一帧的先验信息;在后续的视频序列中,作为光流跟踪并可以得到第t+1帧的跟踪特征点:
Figure FDA0003266866700000033
2.根据权利要求1所述可嵌入式实现的目标跟踪方法,其特征在于:所述采用ORB方法检测所有前景特征点和背景特征点及其描述符是:
(1)首先构造图像尺度空间金字塔pyramid,尺度空间金字塔由n个octaves层ci和n个intra-octaves层di;i=0,1…n-1构成,n=4;其中ci是ci-1进行逐步0.5倍下采样得到,原始图像对应c0;每一个di层位于两个octaves之间,且也是di-1进行逐步0.5倍下采样得到;
(2)在金字塔的每一层进行FAST特征点检测,即对于候选像素点p,在以p为圆心,3个像素为半径的离散化圆周上,设定合适的阈值t,如果在这个圆周上的16个像素点,有n个连续的像素点灰度值比I(p)+t都大或者比I(p)+t都小,则说明p为角点,n这里取值为9;其中I(p)为像素点p的灰度值;为加快速度,进行预判断,即先检测P1,P9,P5,P13这四个像素点,如果满足:
Figure FDA0003266866700000041
则p不是角点,否则继续进行检测;同时采用非极大值抑制来排除不是局部领域内极值的点,设立得分score函数S,定义如下:
Figure FDA0003266866700000042
其中M={x|I(px)≥I(p)+t},N={x|I(px)≤I(p)-t};若角点p的3×3领域内存在多个角点,则计算score函数,若得分最大,则保留p作为一个角点;
(3)增加FAST特征点的方向特征,采用ORB特征的质心法:
设一个patch的m+n阶矩Qmn定义为:
Qmn=∑xmynI(x,y)
质心K的定义为:
Figure FDA0003266866700000043
则特征点的方向可以用角点的中心到质心的向量方向θ来表示:
θ=arctan(Q01,Q10)
(4)构造二进制的ORB特征描述符,对一副高斯平滑后的图象选取大小为l×l的patch,在此区域进行特征描述,其中二值描述符Γ定义为:
Figure FDA0003266866700000044
其中p(x)代表像素点x出的灰度值;则一个256维的特征描述符向量为:
Figure FDA0003266866700000051
则每一个特征点都得到了一个256维的特征点描述符;记为:
Figure FDA0003266866700000052
其中,P1是静态目标模板,
Figure FDA0003266866700000053
表示第一帧图像中目标区域的m1个特征点,ri表示第i个特征点的位置坐标,fi为第i个特征点的二进制特征描述符。
CN201810693216.9A 2018-06-29 2018-06-29 一种可嵌入式实现的目标跟踪方法 Active CN109146920B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810693216.9A CN109146920B (zh) 2018-06-29 2018-06-29 一种可嵌入式实现的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810693216.9A CN109146920B (zh) 2018-06-29 2018-06-29 一种可嵌入式实现的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109146920A CN109146920A (zh) 2019-01-04
CN109146920B true CN109146920B (zh) 2021-12-28

Family

ID=64802619

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810693216.9A Active CN109146920B (zh) 2018-06-29 2018-06-29 一种可嵌入式实现的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109146920B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109813334B (zh) * 2019-03-14 2023-04-07 西安工业大学 基于双目视觉的实时高精度车辆里程计算方法
CN109978801B (zh) * 2019-03-25 2021-11-16 联想(北京)有限公司 一种图像处理方法及图像处理装置
CN110097578B (zh) * 2019-05-09 2021-08-17 电子科技大学 塑胶颗粒跟踪方法
CN110533699B (zh) * 2019-07-30 2024-05-24 平安科技(深圳)有限公司 基于光流法的像素变化的动态多帧测速方法
CN111696133B (zh) * 2020-05-28 2022-09-30 武汉中海庭数据技术有限公司 一种实时目标跟踪方法及系统
CN112215870B (zh) * 2020-09-17 2022-07-12 武汉联影医疗科技有限公司 一种液体流动轨迹超限检测方法、装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102903122A (zh) * 2012-09-13 2013-01-30 西北工业大学 基于特征光流与在线集成学习的视频目标跟踪方法
CN104200487A (zh) * 2014-08-01 2014-12-10 广州中大数字家庭工程技术研究中心有限公司 一种基于orb特征点匹配的目标跟踪方法
CN105844663A (zh) * 2016-03-21 2016-08-10 中国地质大学(武汉) 一种自适应orb目标跟踪方法
CN106250938A (zh) * 2016-07-19 2016-12-21 易视腾科技股份有限公司 目标跟踪方法、增强现实方法及其装置
CN106878597A (zh) * 2017-03-06 2017-06-20 浙江大学 一种具有全景和特写功能的智能车载摄像机

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102903122A (zh) * 2012-09-13 2013-01-30 西北工业大学 基于特征光流与在线集成学习的视频目标跟踪方法
CN104200487A (zh) * 2014-08-01 2014-12-10 广州中大数字家庭工程技术研究中心有限公司 一种基于orb特征点匹配的目标跟踪方法
CN105844663A (zh) * 2016-03-21 2016-08-10 中国地质大学(武汉) 一种自适应orb目标跟踪方法
CN106250938A (zh) * 2016-07-19 2016-12-21 易视腾科技股份有限公司 目标跟踪方法、增强现实方法及其装置
CN106878597A (zh) * 2017-03-06 2017-06-20 浙江大学 一种具有全景和特写功能的智能车载摄像机

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A Novel Target Tracking Approach Based on ORB Used in Micromanipulation System;Lei Zuo等;《Proceedings of 2012 International Conference on Modelling, Identification and Control》;20120626;第437-442页 *
Multivariate Laplace Filter: a Heavy-Tailed Model for Target Tracking;Daojing Wang等;《2008 19th International Conference on Pattern Recognition》;20090123;第1-4页 *
基于ORB特征点匹配的多目标跟踪算法;李鹏等;《湖南大学学报(自然科学版)》;20171031;第44卷(第10期);第139-149页 *
基于ORB特征的目标检测与跟踪的研究;谢成明;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140415(第4期);I138-1091 *
融合图像显著性与特征点匹配的形变目标跟踪;杨勇等;《中国图象图形学报》;20180331;第23卷(第3期);第384-398页 *

Also Published As

Publication number Publication date
CN109146920A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
CN109146920B (zh) 一种可嵌入式实现的目标跟踪方法
JP5227629B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
Wu et al. Real-time background subtraction-based video surveillance of people by integrating local texture patterns
CN115240130A (zh) 一种行人多目标跟踪方法、装置和计算机可读存储介质
Chen et al. Using FTOC to track shuttlecock for the badminton robot
Zhang et al. Monocular visual traffic surveillance: A review
Zhang et al. Image object detection and semantic segmentation based on convolutional neural network
CN107844739B (zh) 基于自适应同时稀疏表示的鲁棒性目标追踪方法
Yin et al. Fast sequence-matching enhanced viewpoint-invariant 3-d place recognition
Lee et al. Visual object detection and tracking using analytical learning approach of validity level
Sharma Feature-based efficient vehicle tracking for a traffic surveillance system
Tarchoun et al. Hand-Crafted Features vs Deep Learning for Pedestrian Detection in Moving Camera.
Kshirsagar et al. Modified yolo module for efficient object tracking in a video
Gheisari et al. A novel enhanced algorithm for efficient human tracking
Hossain et al. A flexible edge matching technique for object detection in dynamic environment
EP2672425A1 (en) Method and apparatus with deformable model fitting using high-precision approximation
Katiyar et al. Automated defect detection in physical components using machine learning
Cao et al. Real-time dynamic gesture recognition and hand servo tracking using PTZ camera
Khan et al. Feature-Based Tracking via SURF Detector and BRISK Descriptor
Dadgostar et al. Gesture-based human–machine interfaces: a novel approach for robust hand and face tracking
Ramasamy et al. Object detection and tracking in video using deep learning techniques: A review
Dai et al. An Improved ORB Feature Extraction Algorithm Based on Enhanced Image and Truncated Adaptive Threshold
Liu et al. Computer Vision-Based Tracking of Workers in Construction Sites Based on MDNet
Gapon et al. Defect detection and removal for depth map quality enhancement in manufacturing with deep learning
Szczuko Genetic programming extension to APF-based monocular human body pose estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant