CN106780539B - 机器人视觉跟踪方法 - Google Patents
机器人视觉跟踪方法 Download PDFInfo
- Publication number
- CN106780539B CN106780539B CN201611094744.XA CN201611094744A CN106780539B CN 106780539 B CN106780539 B CN 106780539B CN 201611094744 A CN201611094744 A CN 201611094744A CN 106780539 B CN106780539 B CN 106780539B
- Authority
- CN
- China
- Prior art keywords
- target
- particle
- model
- image
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000002245 particle Substances 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000004927 fusion Effects 0.000 claims abstract description 4
- 238000001914 filtration Methods 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000004040 coloring Methods 0.000 abstract 1
- 238000005070 sampling Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种机器人视觉跟踪方法,包括:目标选择步骤,用于使用矩形框在当前帧的视频图像上选择图像作为将要跟踪的目标,以获得目标模型;位置信息获得步骤,用于基于所述矩形框的尺寸,获得所述目标的位置信息模板;颜色及位置信息融合步骤,用于融合所述目标的颜色信息和位置信息模板以生成五通道图像;直方图生成步骤,用于根据所述五通道图像来生成用于表征所述目标模型的直方图;目标匹配步骤,用于在下一帧的视频图像上通过粒子滤波方法获得与所述目标最佳匹配的估计目标;以及目标判断步骤,用于判定所述估计目标是否为所述目标,以确定是否跟踪所述目标。
Description
技术领域
本发明涉及机器人人工智能领域,具体涉及地面移动机器人在室内外环境中的视觉跟踪方法。
背景技术
智能移动机器人是一类能够通过传感器感知环境和自身状态,实现在有障碍物的环境中面向目标的自主导航运动,从而完成预定任务的机器人系统。视觉跟踪为移动机器人的定位导航、路径规划、人机交互、目标监控,以及基于移动机器人的人体行为分析、人脸识别等任务提供稳定的目标位置、速度和加速度等信息。具有视觉跟踪功能的移动机器人被广泛应用于军事、反恐防暴、宇宙探测、娱乐、社会服务等领域。
基于颜色特征的Mean shift目标跟踪方法具有很好的实时性,但该方法只能跟踪目标最主要的颜色成分,丢失了其他颜色成分信息,并且也丢失了目标颜色组成的位置关系,导致非常容易受到环境中相近颜色的干扰。
发明内容
鉴于以上问题,本发明提供了一种机器人视觉跟踪方法,其通过加入了目标颜色位置信息,并通过粒子滤波实现对目标的跟踪,从而提高了跟踪的稳定性。
根据本发明的一方面,所述机器人视觉跟踪方法包括:
目标选择步骤,用于使用矩形框在当前帧的视频图像上选择图像作为将要跟踪的目标,以获得目标模型;
位置信息获得步骤,用于基于所述矩形框的尺寸,获得所述目标的位置信息模板;
颜色及位置信息融合步骤,用于融合所述目标的颜色信息和位置信息模板以生成五通道图像;
直方图生成步骤,用于根据所述五通道图像来生成用于表征所述目标模型的直方图;
目标匹配步骤,用于在下一帧的视频图像上通过粒子滤波方法获得与所述目标最佳匹配的估计目标;以及
目标判断步骤,用于判定所述估计目标是否为所述目标,以确定是否跟踪所述目标。
根据实施例,在所述目标判断步骤判定所述估计目标是所述目标时,通过比例积分控制,使超声雷达正对所述目标,并通过比例积分控制,跟踪所述目标。
根据实施例,在所述目标判断步骤判定所述估计目标不是所述目标时,则判定是否结束跟踪所述目标或继续寻找所述目标。
根据实施例,所述颜色及位置信息融合步骤包括将表示所述目标的颜色信息的H、S、V三通道颜色信息以及所述矩形框的x和y方向的两通道目标颜色分布的相对位置信息模板进行融合,以生成具有所述矩形框的尺寸的所述五通道图像,其中所述五通道图像的每一个像素为包括颜色分量H、S、V、以及方向分量x、y的五维向量。
根据实施例,所述粒子滤波方法包括:
基于状态转移矩阵、所述目标在获得上一帧图像时的目标模型以及噪声,估计所述目标在获得所述当前帧时的目标模型;
在所述当前时刻的目标模型周围分布预定数量的具有所述矩形框的尺寸的粒子,以获得粒子模型;
针对当前时刻的粒子的集合,基于Bhattacharyya系数计算各个权重值,其中Bhattacharyya系数由表征所述粒子模型的直方图以及表征所述目标模型的直方图计算得到;以及
根据所计算的权重值,估计当前时刻的粒子的集合的平均值,并且提取位置坐标作为所述估计目标的位置。
根据实施例,在所述权重值中的最大值大于预定阈值时,判定所述估计目标是所述目标;否则,判定所述估计目标不是所述目标。
根据实施例,所述目标模型为所述目标的中心坐标、所述目标的移动速度、所述矩形框的列数和行数的集合,其中所述目标的移动速度的初始值为零。
根据实施例,所述粒子模型为所述粒子的中心坐标、所述粒子的移动速度、所述矩形框的列数和行数的集合,其中所述粒子的移动速度通过所述粒子的中心坐标与上一时刻的目标模型的中心坐标计算得到。
根据实施例,所述直方图生成步骤包括:根据颜色分量H、S、V、以及方向分量x、y在各自预定范围内的概率,将所述五通道图像的全部像素分为预定数量的集合,以生成用于表征所述目标模型的直方图。
附图说明
图1为根据本发明实施例的机器人视觉跟踪方法的原理图。
具体实施方式
如上所述,根据本发明实施例的机器人视觉跟踪方法加入了颜色的位置信息,由于加入颜色的位置信息后,目标匹配方式必须使用块匹配的形式,从而大大增加了计算量,因此本发明的机器人视觉跟踪方法进一步考虑利用粒子滤波的采样技术以避免对每个像素都进行领域块匹配,从而大大提高了实时性。
粒子滤波的思想基于蒙特卡洛方法,它是利用粒子集来表示概率,可以用在任何形式的状态空间模型上,其核心思想是通过从后验概率中抽取的随机状态粒子来表达其分布,是一种顺序重要性采样法。简单来说,粒子滤波法是指通过寻找一组在状态空间传播的随机样本对概率密度函数进行近似,以样本均值代替积分运算,从而获得状态最小方差分布的过程。这里的样本即指粒子,当样本数量N→∝时可以逼近任何形式的概率密度分布。
以下进一步参照附图描述根据本发明实施例的机器人视觉跟踪方法。图1示出根据本发明实施例的机器人视觉跟踪方法的原理。如图1所示,本实施例的机器人视觉跟踪方法包括以下步骤:
1)首先选择要跟踪的目标。在本实施例中,该方法用于安保机器人,则假设目标是人或汽车等,因此使用矩形框在当前的视频图像上选择图像作为所要跟踪的目标,以得到目标模型:
s0={x0,y0,vx,vy,w,h}
其中,(x0,y0)为矩形框的中心坐标;vx,vy为目标移动的速度,初始值为0;w为矩形框的列数,h为矩形框的行数。
2)制作位置信息模板。位置信息模板分为x方向和y方向的模板,分别为目标矩形框大小的单通通道图像。f(x,y)为模板(x,y)处的像素值,其中0≤x≤w-1,0≤y≤h-1。对x方向的模板有:
对y方向模板有:
3)融合颜色及位置信息。为了尽可能的减小光照的影响,颜色信息采用HSV三通道H(x,y),S(x,y),V(x,y)表示在像素(x,y)处的各通道像素值。2)中已将位置信息转换为图像信息,将这五个通道进行融合,融合后生成了感兴趣的五通道图像(矩形框选择的图像),图像有Np个像素组成:
Np=wh
其中每个像素P都为一个五维的向量:
P(x,y)={H(x,y),S(x,y),V(x,y),fx(x,y),fy(x,y)}
4)生成五通道直方图Ht。直方图是对感兴趣的五通道图像中像素P的一种统计。将五通道图像中全部像素P分为i个集合
其中,iH∈[1,NH],iS∈[1,NS],iv∈[1,Nv], 是人为通过实验选定的效果较好的值。
每一个集合对应直方图的一个直方条(bin),bin的值为Ht(i),表示对应集合中元素的个数。直方图Ht为目标模型的特征描述,是进行匹配的主要依据。
5)在下一帧获得的图像中通过粒子滤波找到目标的最佳匹配。在t时刻已知粒子集合SPt和目标模型st-1。实际上,粒子spn={xn,yn,vxn,vyn,w,h},spn∈SPt,粒子初始化权重为1/NSP,NSP为人为选定的粒子的个数。表征粒子模型的直方图Ht′和表征目标模型的直方图Ht的计算方法相同。
在本实施例中,粒子滤波算法如下:
(1)基于状态转移矩阵A、目标在获得上一帧图像时的目标模型St-1以及高斯白噪声N,估计目标在获得当前帧时的目标模型S′t;
s′t=Ast-1+Nt-1
其中,
Δt为与相机采样率有关的标定好的数据。
(2)在当前时刻的目标模型周围分布预定数量的具有矩形框的尺寸的粒子,以获得粒子模型。根据人为指定的噪声方差和(x't,y't)确定粒子播撒的范围:
在此范围内按权重1/NSP均匀播撒NSP个粒子,得到每个粒子的中心坐标,w,h不变,根据下式得到每个粒子的速度分量:
(3)针对当前时刻的粒子的集合SPt,基于Bhattacharyya系数ρn计算各个权重值其中Bhattacharyya系数由表征所述粒子模型的直方图以及表征所述目标模型的直方图计算得到;
其中,σ是通过实验人为选定的预定值。
(4)根据所计算的权重值,估计当前时刻的粒子的集合SPt的平均值,并且提取位置坐标作为所述估计目标的位置。目标跟踪的输出St如下式所示:
6)判断跟踪是否可靠。根据5)中的算法一定可以找到一个估计的目标,但由于许多原因跟踪可能存在很大的误差。需要判断是否接受目标。当时接受目标,τ是通过实验人为选定的阈值。否则,拒绝目标。如果拒绝,则根据任务需求判断是否结束跟踪或者继续寻找目标。
7)如果接受目标,则得到了目标的位置x,y。图像中心点的坐标为(xo,yo)。与过比例积分控制相同,使x跟踪到x0,此时超声雷达正对目标。
8)利用超声雷达测得目标的距离,与7)中通过比例积分控制相同,跟踪目标到固定距离。
9)根据任务需求判断是否继续跟踪,如果不跟踪,则任务结束。
综上所述,本发明提供了一种机器人视觉跟踪方法,其通过加入了目标颜色位置信息,并通过粒子滤波实现对目标的跟踪,以实现持续观察可疑目标等要求,其中首先通过视觉跟踪技术使超声雷达对准目标,然后依靠超声雷达测量目标的深度信息进行跟随,从而提高了跟踪的稳定性。在示例实施例中,本发明的方法主要用于安保机器人,然而本发明不限于此,任意智能机器人均可以使用本发明的视觉跟踪方法。
显然,上述实例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而这些属于本发明的精神所引伸出的显而易见的变化或变动仍处于本发明的保护范围之中。
Claims (8)
1.一种机器人视觉跟踪方法,包括:
目标选择步骤,用于使用矩形框在当前帧的视频图像上选择图像作为将要跟踪的目标,以获得目标模型:s0={x0,y0,vx,vy,w,h};其中,(x0,y0)为矩形框的中心坐标;vx,vy为目标移动的速度,初始值为0;w为矩形框的列数,h为矩形框的行数;
位置信息获得步骤,用于基于所述矩形框的尺寸,获得所述目标的位置信息模板,位置信息模板分为x方向和y方向的模板,分别为目标矩形框大小的单通道图像;f(x,y)为模板(x,y)处的像素值,其中0≤x≤w-1,0≤y≤h-1;对x方向的模板有:对y方向的模板有:
颜色及位置信息融合步骤,用于融合所述目标的颜色信息和位置信息模板以生成五通道图像;
直方图生成步骤,用于根据所述五通道图像来生成用于表征所述目标模型的直方图;
目标匹配步骤,用于在下一帧的视频图像上通过粒子滤波方法获得与所述目标最佳匹配的估计目标;以及
目标判断步骤,用于判定所述估计目标是否为所述目标,以确定是否跟踪所述目标;
其中,所述粒子滤波方法包括:
基于状态转移矩阵、所述目标在获得上一帧图像时的目标模型以及噪声,估计所述目标在获得所述当前帧时的目标模型;
在所述当前时刻的目标模型周围分布预定数量的具有所述矩形框的尺寸的粒子,以获得粒子模型;
针对当前时刻的粒子的集合,基于Bhattacharyya系数计算各个权重值,其中Bhattacharyya系数由表征所述粒子模型的直方图以及表征所述目标模型的直方图计算得到;以及
根据所计算的权重值,估计当前时刻的粒子的集合的平均值,并且提取位置坐标作为所述估计目标的位置。
2.如权利要求1所述的机器人视觉跟踪方法,其中,在所述目标判断步骤判定所述估计目标是所述目标时,通过比例积分控制,使超声雷达正对所述目标,并通过比例积分控制,跟踪所述目标。
3.如权利要求1或2所述的机器人视觉跟踪方法,其中,在所述目标判断步骤判定所述估计目标不是所述目标时,则判定是否结束跟踪所述目标或继续寻找所述目标。
4.如权利要求1所述的机器人视觉跟踪方法,其中,所述颜色及位置信息融合步骤包括将表示所述目标的颜色信息的H、S、V三通道颜色信息以及所述矩形框的x和y方向的两通道目标颜色分布的相对位置信息模板进行融合,以生成具有所述矩形框的尺寸的所述五通道图像,其中所述五通道图像的每一个像素为包括颜色分量H、S、V、以及方向分量x、y的五维向量。
5.如权利要求1所述的机器人视觉跟踪方法,其中,在所述权重值中的最大值大于预定阈值时,判定所述估计目标是所述目标;否则,判定所述估计目标不是所述目标。
6.如权利要求1所述的机器人视觉跟踪方法,其中,所述目标模型为所述目标的中心坐标、所述目标的移动速度、所述矩形框的列数和行数的集合,其中所述目标的移动速度的初始值为零。
7.如权利要求1所述的机器人视觉跟踪方法,其中,所述粒子模型为所述粒子的中心坐标、所述粒子的移动速度、所述矩形框的列数和行数的集合,其中所述粒子的移动速度通过所述粒子的中心坐标与上一时刻的目标模型的中心坐标计算得到。
8.如权利要求4所述的机器人视觉跟踪方法,其中,所述直方图生成步骤包括:根据颜色分量H、S、V、以及方向分量x、y在各自预定范围内的概率,将所述五通道图像的全部像素分为预定数量的集合,以生成用于表征所述目标模型的直方图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611094744.XA CN106780539B (zh) | 2016-11-30 | 2016-11-30 | 机器人视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611094744.XA CN106780539B (zh) | 2016-11-30 | 2016-11-30 | 机器人视觉跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106780539A CN106780539A (zh) | 2017-05-31 |
CN106780539B true CN106780539B (zh) | 2019-08-20 |
Family
ID=58883637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611094744.XA Active CN106780539B (zh) | 2016-11-30 | 2016-11-30 | 机器人视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106780539B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108733065B (zh) * | 2017-09-29 | 2021-06-04 | 北京猎户星空科技有限公司 | 一种机器人的避障方法、装置及机器人 |
CN108010058A (zh) * | 2017-11-29 | 2018-05-08 | 广东技术师范学院 | 一种对视频流中目标对象进行视觉跟踪的方法及系统 |
CN107909603A (zh) * | 2017-12-01 | 2018-04-13 | 浙江工业大学 | 一种面向跟随机器人的视觉跟踪方法 |
CN108875683B (zh) * | 2018-06-30 | 2022-05-13 | 北京宙心科技有限公司 | 一种机器人视觉跟踪方法及其系统 |
CN110647806B (zh) * | 2019-08-13 | 2022-05-03 | 浙江大华技术股份有限公司 | 对象行为监测方法、装置、设备、系统及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1619593A (zh) * | 2004-12-09 | 2005-05-25 | 上海交通大学 | 基于多特征信息融合的视频运动目标自适应跟踪方法 |
CN1992911A (zh) * | 2005-12-31 | 2007-07-04 | 中国科学院计算技术研究所 | 体育视频目标跟踪方法 |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN101877130A (zh) * | 2009-04-29 | 2010-11-03 | 中国科学院自动化研究所 | 复杂场景下基于粒子滤波器的运动目标跟踪方法 |
CN102289948A (zh) * | 2011-09-02 | 2011-12-21 | 浙江大学 | 高速公路场景下一种多特征融合的多车辆视频跟踪方法 |
CN104122531A (zh) * | 2014-07-18 | 2014-10-29 | 零八一电子集团有限公司 | 自适应处理雷达天线位置振荡的方法 |
CN105631895A (zh) * | 2015-12-18 | 2016-06-01 | 重庆大学 | 结合粒子滤波的时空上下文视频目标跟踪方法 |
-
2016
- 2016-11-30 CN CN201611094744.XA patent/CN106780539B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1619593A (zh) * | 2004-12-09 | 2005-05-25 | 上海交通大学 | 基于多特征信息融合的视频运动目标自适应跟踪方法 |
CN1992911A (zh) * | 2005-12-31 | 2007-07-04 | 中国科学院计算技术研究所 | 体育视频目标跟踪方法 |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN101877130A (zh) * | 2009-04-29 | 2010-11-03 | 中国科学院自动化研究所 | 复杂场景下基于粒子滤波器的运动目标跟踪方法 |
CN102289948A (zh) * | 2011-09-02 | 2011-12-21 | 浙江大学 | 高速公路场景下一种多特征融合的多车辆视频跟踪方法 |
CN104122531A (zh) * | 2014-07-18 | 2014-10-29 | 零八一电子集团有限公司 | 自适应处理雷达天线位置振荡的方法 |
CN105631895A (zh) * | 2015-12-18 | 2016-06-01 | 重庆大学 | 结合粒子滤波的时空上下文视频目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106780539A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106780539B (zh) | 机器人视觉跟踪方法 | |
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
US7920719B2 (en) | Collision avoidance of a mobile unit | |
Sidla et al. | Pedestrian detection and tracking for counting applications in crowded situations | |
Keller et al. | The benefits of dense stereo for pedestrian detection | |
Lookingbill et al. | Reverse optical flow for self-supervised adaptive autonomous robot navigation | |
Bascetta et al. | Towards safe human-robot interaction in robotic cells: an approach based on visual tracking and intention estimation | |
CN111932580A (zh) | 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统 | |
Treptow et al. | Real-time people tracking for mobile robots using thermal vision | |
KR101455835B1 (ko) | 영상을 이용한 차선인식 및 추적시스템, 이를 이용한 차선인식 및 추적방법 | |
Kim et al. | Visual odometry algorithm using an RGB-D sensor and IMU in a highly dynamic environment | |
CN113568435B (zh) | 一种基于无人机自主飞行态势感知趋势的分析方法与系统 | |
CN111354022B (zh) | 基于核相关滤波的目标跟踪方法及系统 | |
Herghelegiu et al. | Robust ground plane detection and tracking in stereo sequences using camera orientation | |
CN114494594B (zh) | 基于深度学习的航天员操作设备状态识别方法 | |
US11080562B1 (en) | Key point recognition with uncertainty measurement | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
Caporossi et al. | Robust visual tracking from dynamic control of processing | |
Ko et al. | Rectified trajectory analysis based abnormal loitering detection for video surveillance | |
Sun et al. | Real-time and fast RGB-D based people detection and tracking for service robots | |
Tomari et al. | Socially acceptable smart wheelchair navigation from head orientation observation | |
CN106815550B (zh) | 基于视觉恐惧反应脑机制的应急避障方法 | |
Bonin-Font et al. | A monocular mobile robot reactive navigation approach based on the inverse perspective transformation | |
Tomari et al. | Multi-view head detection and tracking with long range capability for social navigation planning | |
Swadzba et al. | Categorizing perceptions of indoor rooms using 3D features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |