CN108090917A - 一种面向智能机器人的目标物体追踪系统 - Google Patents

一种面向智能机器人的目标物体追踪系统 Download PDF

Info

Publication number
CN108090917A
CN108090917A CN201711481224.9A CN201711481224A CN108090917A CN 108090917 A CN108090917 A CN 108090917A CN 201711481224 A CN201711481224 A CN 201711481224A CN 108090917 A CN108090917 A CN 108090917A
Authority
CN
China
Prior art keywords
target person
mrow
target
moment
msubsup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201711481224.9A
Other languages
English (en)
Inventor
潘永森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201711481224.9A priority Critical patent/CN108090917A/zh
Publication of CN108090917A publication Critical patent/CN108090917A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向智能机器人的目标物体追踪系统,包括:视频采集模块、目标人物获取模块、目标人物初始化模块和目标人物追踪模块,本发明能够准确对待跟踪的目标人物进行识别并持续进行跟踪拍摄,节省了人力物力,在影视作品拍摄中或者比赛直播过程中都具有应用价值。

Description

一种面向智能机器人的目标物体追踪系统
技术领域
本发明涉及智能机器人领域,具体涉及一种面向智能机器人的目标物体追踪系统。
背景技术
在影视作品拍摄过程中或在比赛传播过程中,经常会有对某一特定人物进行不间断跟拍的摄像要求,同时由于场地限制或者特定人物的大范围活动问题,导致无法实现摄影师的贴身跟拍。在这种情况下,如何利用智能机器人对某一特定人物进行跟踪拍摄,成为亟需解决的问题。
发明内容
针对上述问题,本发明提供一种面向智能机器人的目标物体追踪系统。
本发明的目的采用以下技术方案来实现:一种面向智能机器人的目标物体追踪系统,该系统包括视频采集模块、目标人物获取模块、目标人物初始化模块和目标人物追踪模块;
视频采集模块用于获取一段实时拍摄的视频流;
目标人物获取模块用于从视频流中选定一帧作为起始帧,并人工标记出起始帧中待跟踪的目标人物;
目标人物初始化模块用于对标记的目标人物进行初始化操作,并把初始化的结果传输至目标人物追踪模块;
目标人物追踪模块用于根据初始化的结果,对目标人物进行追踪。
本发明的有益效果为:本发明提供了一种面向机器人的目标物体追踪系统,该系统能够对待跟踪的目标人物进行识别,并持续进行跟踪拍摄,节省人力物力,在影视作品拍摄中或者比赛直播过程中都具有应用价值。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是本发明的原理图;
图2是本发明的目标人物追踪模块的框架结构图。
附图标记:视频采集模块1;目标人物获取模块2;目标人物初始化模块3;目标人物追踪模块4;外观特征评估单元41;光流特征评估单元42;定位单元43;目标尺度更新及选择单元44.
具体实施方式
结合以下实施例对本发明作进一步描述。
参见图1,一种面向智能机器人的目标物体追踪系统,该系统包括视频采集模块1、目标人物获取模块2、目标人物初始化模块3和目标人物追踪模块4;
视频采集模块1用于获取一段实时拍摄的视频流;
目标人物获取模块2用于从视频流中选定一帧作为起始帧,并人工标记出起始帧中待跟踪的目标人物;
目标人物初始化模块3用于对标记的目标人物进行初始化操作,并把初始化的结果传输至目标人物追踪模块;
目标人物追踪模块4用于根据初始化的结果,对目标人物进行追踪。
视频采集模块1包含CCD摄像机,CCD摄像机将采集到的视频流传输至目标人物获取模块。
优选地,对标记的目标人物进行初始化操作,具体包括:
(1)从起始帧的图像中目标人物所在的前景区域内随机采样一定数量的局部图像块作为正训练样本,从前景区域附近的背景区域内随机采用一定数量的局部图像块作为负训练样本;
从正训练样本和负训练样本中提取起始帧的图像特征,该图像特征包括:正训练样本的颜色特征、梯度特征及其相对于目标人物中心的空间位置偏移信息和负训练样本的颜色特征和梯度特征;根据提取的图像特征构建一个决策树为X的霍夫森林检测器;
(2)从起始帧的前景区域内随机采用一定数量的局部图像块作为光流跟踪块,并对光流跟踪块的初始位置进行随机初始化。
参见图2,优选地,目标人物跟踪模块4包括外观特征评估单元41、光流特征评估单元42、定位单元43和目标尺度更新及选择单元44;
当t时刻的视频图像到来时,所述外观特征评估单元41用于对通过霍夫森林检测器后的t时刻的视频图像中目标人物的中心位置坐标进行霍夫投票,根据投票结果得到外观特征可信度值;
所述光流特征评估单元42用于根据目标人物所在的空时域的运动信息,对光流跟踪块进行处理,输出t时刻的视频图像中目标人物的中心位置坐标的光流特征可信度值;
所述定位单元43用于根据获得的外观特征可信度值和光流特征可信度值对t时刻时的视频图像中目标人物的中心位置坐标进行估计,得到目标人物的中心位置估计坐标;
所述目标尺度更新及选择单元44用于根据定位单元43得到的估计坐标,实现对t时刻时视频图像中的前景区域的尺度更新同时从更新后的视频图像中重新选取正训练样本、负训练样本和光流跟踪块,根据选取的正训练样本和负训练样本重新训练霍夫森林检测器。
优选地,对目标人物的中心位置坐标进行霍夫投票,根据投票的累计值得到外观特征可信度值,具体包括:
(1)载入t时刻时的视频图像,从所述视频图像中选取一定数量的局部图像块,并将每个局部图像块通过霍夫森林检测器,霍夫森林检测器中的决策树判断局部图像块是否属于目标人物,当决策树判定局部图像块属于目标人物时,则对目标人物的中心位置坐标进行霍夫投票,并累积投票结果,其中对t时刻时视频图像坐标(a,b)处的累积投票值计算公式如下:
式中,为t时刻时支持目标人物的中心位置位于坐标(a,b)处的累积投票值,R为感兴趣区域,感兴趣区域是指目标人物所在的前景区域及其前景区域附近的背景区域;X表示霍夫森林检测器中决策树的总数,Lx(m′,n′)表示中心坐标位于(m′,n′)的局部图像块经过第x个决策树模型所到达的叶子节点,p((a,b)|Lx(m′,n′))表示中心坐标是(m′,n′)的局部图像块经过第x个决策树模型的条件下,目标人物的中心位置坐标位于(a,b)处的概率;
(2)计算所有可能为目标人物的中心位置的累积投票值,并利用下式计算所有可能为目标人物的中心位置坐标的外观特征可信度值:
其中,为t时刻时目标人物的中心位置坐标位于(a,b)处的外观特征可信度值,为t时刻时目标人物的中心位置位于(a,b)处的累积投票值,R为感兴趣区域,为所有可能为目标人物的中心位置坐标点处的累积投票值构成的集合。
有益效果:外观特征评估单元41是基于霍夫森林模型实现的,根据上一时刻视频帧训练得到的霍夫森林检测器对下一时刻视频图像中的目标人物的中心位置坐标进行累积投票,该做法降低了目标尺度变化或者姿态变化对外观特征可信度的影响,提高了对目标人物追踪的准确度,有利于后续对跟踪的目标人物进行精确定位。
优选地,对光流跟踪块进行处理,输出t时刻时视频图像中目标人物的中心位置坐标的光流特征可信度值,具体包括:
(1)根据从目标人物初始化模块3得到的光流跟踪块,利用Lucas-Kanade光流算法得到每个光流跟踪块在t时刻时光流跟踪块的中心位置,利用中值滤波滤除前向-后向光流误差较大的光流跟踪块,得到t时刻时有效光流跟踪块中心位置的集合和有效光流跟踪块相对于目标人物中心的偏移量集合其中,C为有效光流跟踪块的个数,(ic t,jc t)为t时刻时第c个有效光流跟踪块中心位置坐标;dic表示第c个有效光流跟踪块中心位置坐标的水平方向的偏移量,djc表示第c个有效光流跟踪块中心位置坐标的垂直方向的偏移量;
(2)利用下式计算t时刻时目标人物的中心位置坐标位于(a,b)处的光流特征累积投票值:
其中,为t时刻目标人物的中心位置位于坐标(a,b)处的光流特征累积投票值;θc为第c个有效光流跟踪块的权重,C为有效光流跟踪块的个数;(ic,jc)为第c个有效光流跟踪块的中心位置坐标;(dic,djc)为第c个有效光流块的中心位置相对于目标人物的中心位置坐标的偏移量;σ2=4;λ1、λ2为设定的常数参量,w为前景区域的宽,h为前景区域的高;
(3)利用下式,得到t时刻时目标人物的中心位置位于(a,b)处的光流特征可信度值:
式中,为t时刻时目标人物的中心位置位于(a,b)处的光流特征可信度值,表示t时刻时目标人物的中心位置位于坐标(a,b)处的光流特征累积投票值,R为感兴趣区域,是所有可能为目标人物中心位置坐标点处的光流特征累积投票值构成的集合。
有益效果:通过光流特征评估单元42来描述目标人物在空时域运动信息,该做法中θc充分利用了局部图像块的空间位置信息对目标人物的中心位置进行约束,即使得靠近目标人物的中心位置的局部图像块的权重更大,有效降低了来自背景区域的局部图像块对目标人物的中心位置估计所带来的不利影响。同时通过计算每个有效光流跟踪块均对目标人物的中心位置的相对权值,并进行累加,最后得到了光流特征可信度值,不仅能够反映出目标人物在视频帧之间的空时关联性,同时解决了由于目标尺度变化或者目标姿态变化时的目标定位问题,使得后续对目标人物的定位更加精准可靠。
优选地,对目标人物的中心位置坐标进行估计,具体包括:
(1)利用下式,计算t时刻的模糊综合可信度值,
式中,为t时刻,目标人物的中心位置位于坐标(a,b)处的模糊综合可信度值,为t时刻,目标人物的中心位置位于(a,b)处的外观特征可信度值,为t时刻,目标人物的中心位置位于(a,b)处的光流特征可信度值;
(2)根据步骤(1),估计t时刻的视频图像中目标人物的中心位置坐标,得到t时刻时目标人物的中心位置估计坐标
式中,R为感兴趣区域。
有益效果:利用模糊综合可信度计算公式计算模糊综合可信度值,该算法使得模糊综合可信度图变得更尖锐,减小了在进行定位时的不确定性,不仅增加了目标跟踪的成功率,同时也有效提高了跟踪的准确性。
优选地,目标尺度更新及选择单元44用于根据定位单元43得到的估计坐标,实现对目标人物所在的前景区域的尺度更新同时从更新后的t时刻的视频图像中重新选取正训练样本、负训练样本和光流跟踪块,根据重新选取的正训练样本和负训练样本对霍夫森林检测器进行更新,具体包括:
(1)根据定位单元43得到的t时刻时目标人物的中心位置的估计坐标确定t时刻时视频图像中的有效光流跟踪块集合为:
其中,τ为常量参数,(i′c,j′c)为集合F中第c个有效光流跟踪块t时刻的中心坐标,为t时刻目标人物中心坐标的估计坐标,F为支持t时刻时目标人物的中心位置的估计坐标是的有效光流跟踪块的集合;||■||2为向量的长度,Ω为t时刻时有效光流跟踪块中心位置坐标构成的集合,Θ为有效光流跟踪块相对于目标人物中心的偏移量构成的集合;
(2)利用下式计算第c个有效光流跟踪块所估计出的目标尺度变化率:
其中,fc为第c个有效光流跟踪块所估计出的目标尺度变化率,||dic,djc||2表示第c个有效光流跟踪块相对于目标中心的偏移向量的长度,(i′c,j′c)为t时刻时第c个有效光流跟踪块中心坐标,为t时刻时目标人物的中心位置坐标的估计坐标。
(3)利用下式计算t时刻前景区域尺度的估计值:
其中,为t时刻前景区域尺度的估计值,为(t-1)时刻前景区域尺度的估计值,C为有效光流跟踪块的个数,w为一个常数,取0<w<1,fc为第c个有效光流跟踪块所估计出的目标尺度变化率,κc为第c个有效光流跟踪块目标尺度变化率的权重因子,{fc}为集合F中所有有效光流跟踪块的目标尺度变化率构成的集合;
(4)根据步骤(3)得到的前景区域尺度估计值,对当前帧的目标人物所在的前景区域尺度进行更新;
(5)如果目标人物中心的模糊综合可信度值zw>μ1,其中μ1为常量,且0<μ1<1,则分别从当前更新后的目标人物所在的前景区域内以及目标人物区域附近区域随机采样若干局部图像块作为新的霍夫森林训练样本;从当前目标人物所在的前景区域内随机采样若干局部图像块作为新的光流跟踪块;当下一时刻视频图像到来时,重新训练霍夫森林检测器,重复执行上述步骤,进而实现对目标人物的跟踪检测。
有益效果:在对前景区域尺度进行更新时,通过定义集合F,τ的取值能够控制支持当前目标人物的中心位置估计的有效光流跟踪块的大小,有利于对目标尺度的准确估计,同时对前景区域尺度进行估计时,考虑了t-1时刻前景区域尺度的估计值,该做法能够有效地抑制t时刻时所估计的目标尺度变化率中的噪声对前景区域尺度估计的影响,提高了前景区域尺度估计的准确度。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细地说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。

Claims (5)

1.一种面向智能机器人的目标物体追踪系统,其特征在于,该系统包括视频采集模块、目标人物获取模块、目标人物初始化模块和目标人物追踪模块;
所述视频采集模块用于获取一段实时拍摄的视频流;
所述目标人物获取模块用于从视频流中选定一帧作为起始帧,并人工标记出起始帧中待跟踪的目标人物;
所述目标人物初始化模块用于对标记的目标人物进行初始化操作,并把初始化的结果传输至所述目标人物追踪模块;
所述目标人物追踪模块用于根据初始化的结果,对目标人物进行追踪。
2.根据权利要求1所述的目标物体追踪系统,其特征在于,所述视频采集模块包含CCD摄像机,所述CCD摄像机将采集到的视频流传输至目标人物获取模块。
3.根据权利要求1所述的目标物体追踪系统,其特征在于,所述对标记的目标人物进行初始化操作,具体包括:
(1)从起始帧的图像中目标人物所在的前景区域内随机采样一定数量的局部图像块作为正训练样本,从前景区域附近的背景区域内随机采用一定数量的局部图像块作为负训练样本;
从正训练样本和负训练样本中提取起始帧的图像特征,该图像特征包括:正训练样本的颜色特征、梯度特征及其相对于目标人物中心的空间位置偏移信息和负训练样本的颜色特征和梯度特征;根据提取的图像特征构建一个决策树为X的霍夫森林检测器;
(2)从起始帧的前景区域内随机采样一定数量的局部图像块作为光流跟踪块,并对光流跟踪块的初始位置进行随机初始化。
4.根据权利要求3所述的目标物体追踪系统,其特征在于,所述目标人物跟踪模块包括外观特征评估单元、光流特征评估单元、定位单元和目标尺度更新及选择单元;
当t时刻的视频图像到来时,所述外观特征评估单元用于对通过霍夫森林检测器后的t时刻的视频图像中目标人物的中心位置坐标进行霍夫投票,根据投票结果得到外观特征可信度值;
所述光流特征评估单元用于根据目标人物所在的空时域的运动信息,对光流跟踪块进行处理,输出t时刻的视频图像中目标人物的中心位置坐标的光流特征可信度值;
所述定位单元用于根据获得的外观特征可信度值和光流特征可信度值对t时刻时的视频图像中目标人物的中心位置坐标进行估计,得到目标人物的中心位置估计坐标;
所述目标尺度更新及选择单元用于根据定位单元得到的估计坐标,实现对t时刻时视频图像中的前景区域的尺度更新同时从更新后的视频图像中重新选取正训练样本、负训练样本和光流跟踪块,根据选取的正训练样本和负训练样本重新训练霍夫森林检测器。
5.根据权利要求4所述的目标物体追踪系统,其特征在于,所述对目标人物的中心位置坐标进行霍夫投票,根据投票结果得到外观特征可信度值,具体包括:
(1)载入t时刻时的视频图像,从所述视频图像中选取一定数量的局部图像块,并将每个局部图像块通过霍夫森林检测器,霍夫森林检测器中的决策树判断局部图像块是否属于目标人物,当决策树判定局部图像块属于目标人物时,则对目标人物的中心位置坐标进行霍夫投票,并累积投票结果,其中对t时刻时视频图像坐标(a,b)处的累积投票值计算公式如下:
<mrow> <msubsup> <mi>g</mi> <mi>d</mi> <mi>t</mi> </msubsup> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <msup> <mi>m</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> <msup> <mi>n</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> <mo>&amp;Element;</mo> <mi>R</mi> </mrow> </munder> <mfrac> <mn>1</mn> <mi>X</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>X</mi> </munderover> <mi>p</mi> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>a</mi> <mo>,</mo> <mi>b</mi> </mrow> <mo>)</mo> <mo>|</mo> <msub> <mi>L</mi> <mi>x</mi> </msub> <mo>(</mo> <mrow> <msup> <mi>m</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> <msup> <mi>n</mi> <mo>&amp;prime;</mo> </msup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
式中,为t时刻时支持目标人物的中心位置位于坐标(a,b)处的累积投票值,R为感兴趣区域,感兴趣区域是指目标人物所在的前景区域及其前景区域附近的背景区域;X表示霍夫森林检测器中决策树的总数,Lx(m′,n′)表示中心坐标位于(m′,n′)的局部图像块经过第x个决策树模型所到达的叶子节点,p((a,b)|Lx(m′,n′))表示中心坐标是(m′,n′)的局部图像块经过第x个决策树模型的条件下,目标人物的中心位置坐标位于(a,b)处的概率;
(2)计算所有可能为目标人物的中心位置的累积投票值,并利用下式计算所有可能为目标人物的中心位置坐标的外观特征可信度值:
<mrow> <msubsup> <mi>z</mi> <mi>d</mi> <mi>t</mi> </msubsup> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>l</mi> <mi>n</mi> <mo>&amp;lsqb;</mo> <msubsup> <mi>g</mi> <mi>d</mi> <mi>t</mi> </msubsup> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mi>l</mi> <mi>n</mi> <mo>&amp;lsqb;</mo> <msubsup> <mi>g</mi> <mi>d</mi> <mi>t</mi> </msubsup> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>+</mo> <mi>l</mi> <mi>n</mi> <mo>&amp;lsqb;</mo> <mi>max</mi> <msubsup> <mrow> <mo>{</mo> <msubsup> <mi>g</mi> <mi>d</mi> <mi>t</mi> </msubsup> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>}</mo> </mrow> <mi>R</mi> <mrow> <mi>t</mi> <mo>=</mo> <mi>l</mi> </mrow> </msubsup> <mo>&amp;rsqb;</mo> </mrow> </mfrac> </mrow>
其中,为t时刻时目标人物的中心位置坐标位于(a,b)处的外观特征可信度值,为t时刻时目标人物的中心位置位于(a,b)处的累积投票值,R为感兴趣区域,为所有可能为目标人物的中心位置坐标点处的累积投票值构成的集合。
CN201711481224.9A 2017-12-29 2017-12-29 一种面向智能机器人的目标物体追踪系统 Withdrawn CN108090917A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711481224.9A CN108090917A (zh) 2017-12-29 2017-12-29 一种面向智能机器人的目标物体追踪系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711481224.9A CN108090917A (zh) 2017-12-29 2017-12-29 一种面向智能机器人的目标物体追踪系统

Publications (1)

Publication Number Publication Date
CN108090917A true CN108090917A (zh) 2018-05-29

Family

ID=62180721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711481224.9A Withdrawn CN108090917A (zh) 2017-12-29 2017-12-29 一种面向智能机器人的目标物体追踪系统

Country Status (1)

Country Link
CN (1) CN108090917A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850429A (zh) * 2018-08-20 2020-02-28 莱卡地球系统公开股份有限公司 自动训练锁定对象或人基于摄像头跟踪目标的勘测装置
CN111417067A (zh) * 2020-03-13 2020-07-14 智慧足迹数据科技有限公司 定位用户到访位置的方法和装置
CN113076123A (zh) * 2021-04-19 2021-07-06 智领高新科技发展(北京)有限公司 一种用于目标跟踪的自适应模板更新系统及方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850429A (zh) * 2018-08-20 2020-02-28 莱卡地球系统公开股份有限公司 自动训练锁定对象或人基于摄像头跟踪目标的勘测装置
CN110850429B (zh) * 2018-08-20 2024-03-22 莱卡地球系统公开股份有限公司 自动训练锁定对象或人基于摄像头跟踪目标的勘测装置
CN111417067A (zh) * 2020-03-13 2020-07-14 智慧足迹数据科技有限公司 定位用户到访位置的方法和装置
CN113076123A (zh) * 2021-04-19 2021-07-06 智领高新科技发展(北京)有限公司 一种用于目标跟踪的自适应模板更新系统及方法

Similar Documents

Publication Publication Date Title
US10769480B2 (en) Object detection method and system
CN109190508B (zh) 一种基于空间坐标系的多摄像头数据融合方法
CN109785363A (zh) 一种无人机航拍视频运动小目标实时检测与跟踪方法
CN104200485B (zh) 一种面向视频监控的人体跟踪方法
Liu et al. Combined frame-and event-based detection and tracking
CN105184824B (zh) 基于图像传感网的智能农业驱鸟系统
CN106355603B (zh) 人体跟踪方法和人体跟踪装置
CN111582234B (zh) 基于uav和深度学习的大范围油茶林果智能检测与计数方法
CN109064484B (zh) 基于子群组划分与动量特征融合的人群运动行为识别方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN106683121A (zh) 一种融合检测过程的鲁棒目标追踪方法
CN107886086A (zh) 一种基于图像视频的目标动物检测方法及装置
CN103778645B (zh) 一种基于图像的圆形目标实时跟踪方法
CN106097391A (zh) 一种基于深度神经网络的识别辅助的多目标跟踪方法
CN110008867A (zh) 一种基于人物异常行为的预警方法、装置及存储介质
CN108090917A (zh) 一种面向智能机器人的目标物体追踪系统
CN110110649A (zh) 基于速度方向的可选择性人脸检测方法
CN109448025B (zh) 视频中短道速滑运动员的自动跟踪与轨迹建模方法
CN107798313A (zh) 一种人体姿态识别方法、装置、终端和存储介质
CN105279769A (zh) 一种联合多特征的层次粒子滤波跟踪方法
US9990857B2 (en) Method and system for visual pedometry
CN104200492A (zh) 基于轨迹约束的航拍视频目标自动检测跟踪方法
CN107230219A (zh) 一种单目机器人上的目标人发现与跟随方法
CN114527294B (zh) 一种基于单个摄像头的目标速度测量方法
CN112541938A (zh) 一种行人速度测量方法、系统、介质及计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20180529