CN101630413A - 一种多机器人跟踪移动目标算法 - Google Patents
一种多机器人跟踪移动目标算法 Download PDFInfo
- Publication number
- CN101630413A CN101630413A CN200910101604A CN200910101604A CN101630413A CN 101630413 A CN101630413 A CN 101630413A CN 200910101604 A CN200910101604 A CN 200910101604A CN 200910101604 A CN200910101604 A CN 200910101604A CN 101630413 A CN101630413 A CN 101630413A
- Authority
- CN
- China
- Prior art keywords
- robot
- moving target
- predict
- theta
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 16
- 239000011159 matrix material Substances 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 7
- 238000005259 measurement Methods 0.000 abstract 1
- 238000010276 construction Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明公开了一种新的多机器人跟踪移动目标算法,包括以下步骤:1)使用移动目标的当前位置信息和前一时刻的位置信息构造移动目标的运动预测模型;2)使用移动目标的运动预测模型的移动目标预测位置构造动态的机器人运动控制模型;3)使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,以得到最终的移动目标位置。本发明方法能够保证移动目标始终处于多机器人的可视范围内,可以保证对移动目标位置估计的精确性。
Description
技术领域
本发明涉及多机器人对移动目标跟踪领域,具体来说是根据移动目标的预测位置来动态调整移动机器人的运动模型,以使得移动目标始终处于各个机器人的可视范围。
背景技术
目标跟踪技术已经被广泛应用于监控、自动防卫系统以及机器人领域。随着机器人在人类日常生活中的普及,机器人必须实现诸如编队、对环境的感知、避障等任务。移动目标跟踪也是机器人领域的一个重要,而且富有挑战性的研究方向,尤其是当移动目标的运动路径、运动速度等参数未知的情况下。使用多机器人对随机运动目标进行跟踪时必须考虑如下两个问题,一是如何确保移动目标始终处于各个机器人的可视范围内;二是如何使用各个机器人对移动目标的测量信息融合得到最终的移动目标位置。
发明内容
本发明提供了一种新的多机器人跟踪移动目标的算法,使用移动目标的历史位置信息构造移动目标的位置预测模型,使用移动目标的预测位置构造动态机器人运动控制模型,并使用融合算法对移动目标位置进行更新得到更加精确的移动目标位置。
本发明算法首先根据移动目标的历史信息动态构造移动目标的运动预测模型,并使用此模型对移动目标的位置进行预测,然后使用移动目标的预测位置对机器人的运动控制模型进行动态调整,最后使用各个机器人对移动目标的检测信息来更新移动目标的位置。
一种新的多机器人跟踪移动目标的算法,包括以下步骤:
1)使用移动目标的当前位置信息和前一时刻的位置信息构造移动目标的运动预测模型,构造移动目标的运动预测模型时分两种情况进行考虑:一是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离小于等于之前相邻时刻间移动目标位置间的笛卡尔距离时,预测的移动目标位置和当前时刻移动目标位置之间的欧氏距离差和角度差同当前时刻移动目标位置和前一时刻移动目标位置的差都保持一致的移动目标运动预测模型,简称为等距离等角度的移动目标运动预测模型,二是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离大于之前相邻时刻间移动目标位置间的笛卡尔距离时,预测的移动目标位置和当前时刻移动目标位置之间的欧氏距离差同当前时刻移动目标位置和前一时刻移动目标位置的差都保持一致的移动目标运动预测模型,简称为等距离的移动目标运动预测模型;
2)使用移动目标运动预测模型的移动目标预测位置构造动态的机器人运动控制模型,从而使得移动目标始终处于移动机器人的可视范围内;
3)使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,以得到最终的移动目标位置。
所述的等距离等角度的移动目标运动预测模型如式(3)所示。其中object(k+1)_x和object(k+1)_y表示移动目标在k+1时刻的笛卡尔坐标,object(k)_x和object(k)_y表示移动目标在k时刻的笛卡尔坐标。robot(k+1)_x和robot(k+1)_y表示机器人在k+1时刻的笛卡尔坐标。
其中θ_B为式(2)所示。
θ_B=2×π-θ1-θ2-θ3-θ4 (4)
式(2)中的θ1,θ2,θ3和θ4分别为式(5),(6),(7)所示。
(6)
所述的等距离的移动目标运动预测模型如式(8)所示。
所述的机器人运动控制模型如式(9)所示,其中robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的位置坐标,θ_R(k+2)表示机器人在k+2时刻的方位角,θ_R(k+1)表示机器人在k+1时刻的方位角。object(k+2)_x_predict和object(k+2)_y_predict表示机器人在k+2时刻的移动目标预测位置。
本发明方法使用移动目标当前时刻的位置和前一时刻的位置构造移动目标的运动预测模型,使用移动目标的预测位置对移动机器人的控制模型进行动态调整,同时使用协方差插值融合方法对移动目标位置进行更新。本发明方法能够保证移动目标始终处于多机器人的可视范围内,可以保证对移动目标位置估计的精确性。
附图说明
图1为本发明算法的具体流程图;
图2为移动目标位置预测模型构造描述;
图3为等距离等角度的移动目标运动预测模型;
图4为等距离的移动目标运动预测模型;
图5为机器人的动态控制模型;
图6为两个机器人对移动目标位置预测测试的仿真环境;
图7为机器人R1对移动目标位置跟踪后的机器人路径信息;
图8为机器人R2对移动目标位置跟踪后的机器人路径信息;
图9为两个机器人对移动目标位置跟踪后的移动目标位置信息;
图10为两个机器人对移动目标位置跟踪得到的移动目标位置信息和实际移动目标位置信息的比较。
具体实施方式
一种新的多机器人跟踪移动目标算法,算法流程图如图1所示,首先造移动目标的运动预测模型,构造移动目标的运动预测模型时分两种情况进行考虑:一是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离小于等于之前相邻时刻间移动目标位置间的笛卡尔距离,二是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离大于之前相邻时刻间移动目标位置间的笛卡尔距离。然后使用移动目标运动预测模型的移动目标预测位置构造机器人的运动控制模型,并使用运动控制模型对机器人的位姿进行估计,以保证移动目标始终处于移动机器人的可视范围内。最后使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,得到最终的移动目标位置。
首先构造移动目标的运动预测模型,图2表示了移动目标的运动预测模型构造方法。α表示移动目标在时刻k+1和k的位置坐标之间的角度差,β表示在保证k+2时刻移动目标的位置和k+1时刻移动目标位置之间的欧式距离和k+1时刻与k时刻之间欧式距离相等的条件下,和k+1时刻目标位置之间最大的角度差。对移动目标的运动预测模型构造分为两种情况进行考虑:
一是当β大于α时的移动目标运动预测模型构造,此时构造方法如图3所示,此移动目标运动预测模型称为等距离等角度的移动目标运动预测模型。
二是当β小于α时的移动目标运动预测模型构造,此时构造方法如图4所示,此移动目标运动预测模型称为等距离的移动目标运动预测模型。
由图2可知,α的计算方法为式(1),β的计算方法为式(2)。其中object(k+1)_x和object(k+1)_y表示移动目标在k+1时刻的笛卡尔坐标,object(k)_x和object(k)_y表示移动目标在k时刻的笛卡尔坐标。
由图3可知,当β大于α时,等距离等角度的移动目标运动预测模型为式(3)所示。
式(3)中θ_B表示图3中移动目标k+2时刻的预测位置和x坐标系之间的角度差,如式(4)所示。
θ_B=2×π-θ1-θ2-θ3-θ4 (4)
式(4)中的θ1,θ2,θ3和θ4的值如式(5),(6)和(7)所示。
(6)
由图4可知,当β小于α时,等距离的移动目标运动预测模型为式(8)所示。
其次是根据图5获得机器人的动态控制模型,为了使得移动目标处于机器人的可视范围内,机器人在k+2时刻的方位角必须满足式(9)所示的关系。其中robot(k+1)_x和robot(k+1)_y表示机器人在k+1时刻的笛卡尔坐标位置,θ_R(k+1)表示机器人在k+1时刻的方位角,robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的笛卡尔坐标位置,θ_R(k+2)表示机器人在k+2时刻的方位角。
由图5和式(9)可得,时刻k+2时机器人的动态控制模型如为式(10)所示。其中robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的位置坐标,θ_R(k+2)表示机器人在k+2时刻的方位角,θ_R(k+1)表示机器人在k+1时刻的方位角。object(k+2)_x_predict和object(k+2)_y_predict表示机器人在k+2时刻的移动目标预测位置。
再次是当各个机器人检测到移动路标时,使用扩展卡尔曼滤波器对移动目标位置进行更新。假设机器人R1对移动目标的位置均值和协方差估计依次为object_position_R1,object_position_uncertainty1,机器人R2对移动目标的位置均值和协方差估计object_position_R2和object_position_uncertainty2。使用协方差插值方法对机器人R1和机器人R2的信息进行融合后的移动目标位置估计协方差为式(11)所示。
(object_position_uncertainty)-1=w×(object_position_uncertainty1)-1
(11)
+(1-w)×(object_position_uncertainty2)-1
使用协方差插值方法对机器人R1和机器人R2的信息进行融合后的移动目标位置估计均值为式(12)所示。
w的取值如式(13)所示。式(13)中t1表示object_position_uncertainty1矩阵的迹,t2表示object_position_uncertainty1矩阵的迹。
图6描述的是机器人R1和机器人R2对移动目标进行跟踪的测试环境。图7、图8、图9以及图10为使用本发明算法得到的测试结果。图7为机器人R1对移动目标进行跟踪后机器人的运动轨迹,图8为机器人R2对移动目标进行跟踪后机器人的运动轨迹,图9为机器人R1和R2估计得到的移动目标的运动轨迹,图10为移动目标的估计运动轨迹和实际运动轨迹之间的误差。可以看出,使用本发明得到的移动目标估计轨迹和实际轨迹的误差不大,因此,本发明可以很好的实现多机器人对移动目标的跟踪。
Claims (4)
1.一种新的多机器人跟踪移动目标算法,包括以下步骤:
1)使用移动目标的当前位置信息和前一时刻的位置信息构造移动目标的运动预测模型;
2)使用移动目标的运动预测模型的移动目标预测位置构造动态的机器人运动控制模型;
3)使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,以得到最终的移动目标位置。
2.如权利要求1所述的方法,其特征在于:在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离小于等于之前相邻时刻间移动目标位置间的笛卡尔距离时,移动目标的运动预测模型为式(3)所示,否则,移动目标的运动预测模型为式(4)所示:
其中θ_B如式(5)所示:
θ_B=2×π-θ1-θ2-θ3-θ4 (5)
θ1,θ2,θ3和θ4分别为式(6),(7),(8)所示:
其中object(k+1)_x和object(k+1)_y表示移动目标在k+1时刻的笛卡尔坐标;object(k)_x和object(k)_y表示移动目标在k时刻的笛卡尔坐标;robot(k+1)_x和robot(k+1)_y表示机器人在k+1时刻的笛卡尔坐标;robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的笛卡尔坐标。θR(k+2)表示机器人在k+2时刻的方位角,θ_R(k+1)表示机器人在k+1时刻的方位角;object(k+2)_x_predict和object(k+2)_y_predict表示机器人在k+2时刻的移动目标预测位置。
3.如权利要求1所述的方法,其特征在于:根据移动目标的运动预测模型式(3)或式(4)对移动目标位置进行预测后,机器人的运动控制模型如式(9)所示:
4.如权利要求1所述的方法,其特征在于:使用协方差插值方法进行目标位置协方差信息融合的方法如式(10)所示,目标位置均值信息融合的方法如式(11)所示:
(object_position_uncertainty)-1=w×(objeect_position_uncertainty1)-1
(10)
+(1-w)×(object_position_uncertainty2)-1
其中object_position_R1和object_position_uncertainty1为机器人R1对移动目标的位置均值和协方差估计,object_position_R2和object_position_uncertainty2为机器人R2对移动目标的位置均值和协方差估计,w的值如式(12)所示。
其中t1表示object_position_uncertainty1矩阵的迹,t2表示object_position_uncertainty1矩阵的迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101016044A CN101630413B (zh) | 2009-08-14 | 2009-08-14 | 一种多机器人跟踪移动目标方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101016044A CN101630413B (zh) | 2009-08-14 | 2009-08-14 | 一种多机器人跟踪移动目标方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101630413A true CN101630413A (zh) | 2010-01-20 |
CN101630413B CN101630413B (zh) | 2012-01-25 |
Family
ID=41575513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101016044A Expired - Fee Related CN101630413B (zh) | 2009-08-14 | 2009-08-14 | 一种多机器人跟踪移动目标方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101630413B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176119A (zh) * | 2011-02-18 | 2011-09-07 | 杭州电子科技大学 | 一种基于信息融合机制的多机器人危险气味源定位方法 |
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN103260132A (zh) * | 2012-02-17 | 2013-08-21 | 中国科学院计算技术研究所 | 无线传感器网络的移动多播路由方法 |
CN103517789A (zh) * | 2011-05-12 | 2014-01-15 | 株式会社Ihi | 运动预测控制装置和方法 |
CN104834309A (zh) * | 2015-04-10 | 2015-08-12 | 浙江工业大学 | 基于目标跟踪控制策略的单移动机器人最优巡回控制方法 |
CN110909592A (zh) * | 2019-10-11 | 2020-03-24 | 重庆特斯联智慧科技股份有限公司 | 一种基于多尺度特征量的目标跟踪方法和系统 |
CN113433828A (zh) * | 2021-08-25 | 2021-09-24 | 南京航空航天大学 | 一种多机器人动态目标跟踪协同控制方法 |
US20230008482A1 (en) * | 2021-07-06 | 2023-01-12 | Electronics And Telecommunications Research Institute | Method and apparatus for object following robot using uwb and odometry-based relative position estimation |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100349383C (zh) * | 2004-04-14 | 2007-11-14 | 华为技术有限公司 | 一种信道估计的方法和装置 |
CN100410684C (zh) * | 2006-02-23 | 2008-08-13 | 复旦大学 | 基于贝叶斯线性估计的遥感图像融合方法 |
-
2009
- 2009-08-14 CN CN2009101016044A patent/CN101630413B/zh not_active Expired - Fee Related
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176119B (zh) * | 2011-02-18 | 2012-12-26 | 杭州电子科技大学 | 一种基于信息融合机制的多机器人危险气味源定位方法 |
CN102176119A (zh) * | 2011-02-18 | 2011-09-07 | 杭州电子科技大学 | 一种基于信息融合机制的多机器人危险气味源定位方法 |
CN103517789B (zh) * | 2011-05-12 | 2015-11-25 | 株式会社Ihi | 运动预测控制装置和方法 |
CN103517789A (zh) * | 2011-05-12 | 2014-01-15 | 株式会社Ihi | 运动预测控制装置和方法 |
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN103260132A (zh) * | 2012-02-17 | 2013-08-21 | 中国科学院计算技术研究所 | 无线传感器网络的移动多播路由方法 |
CN103260132B (zh) * | 2012-02-17 | 2016-08-03 | 中国科学院计算技术研究所 | 无线传感器网络的移动多播路由方法 |
CN104834309A (zh) * | 2015-04-10 | 2015-08-12 | 浙江工业大学 | 基于目标跟踪控制策略的单移动机器人最优巡回控制方法 |
CN104834309B (zh) * | 2015-04-10 | 2018-08-21 | 浙江工业大学 | 基于目标跟踪控制策略的单移动机器人最优巡回控制方法 |
CN110909592A (zh) * | 2019-10-11 | 2020-03-24 | 重庆特斯联智慧科技股份有限公司 | 一种基于多尺度特征量的目标跟踪方法和系统 |
US20230008482A1 (en) * | 2021-07-06 | 2023-01-12 | Electronics And Telecommunications Research Institute | Method and apparatus for object following robot using uwb and odometry-based relative position estimation |
US12093055B2 (en) * | 2021-07-06 | 2024-09-17 | Electronics And Telecommunications Research Institute | Method and apparatus for object following robot using UWB and odometry-based relative position estimation |
CN113433828A (zh) * | 2021-08-25 | 2021-09-24 | 南京航空航天大学 | 一种多机器人动态目标跟踪协同控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101630413B (zh) | 2012-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101630413B (zh) | 一种多机器人跟踪移动目标方法 | |
CN108153310B (zh) | 一种基于人类行为模拟的移动机器人实时运动规划方法 | |
CN107885209B (zh) | 一种基于动态窗口与虚拟目标点的避障方法 | |
CN110262508B (zh) | 应用于封闭场地无人驾驶货运车辆上的自动引导系统及方法 | |
CN111670468B (zh) | 移动体行为预测装置以及移动体行为预测方法 | |
CN103909522B (zh) | 一种六自由度工业机器人通过奇异域的方法 | |
Siagian et al. | Mobile robot navigation system in outdoor pedestrian environment using vision-based road recognition | |
US20210200219A1 (en) | Robot plan online adjustment | |
CN105223956A (zh) | 一种全向移动机器人的动态避障方法 | |
CN105082135B (zh) | 一种机器人点动操作的速度控制方法 | |
US11300663B2 (en) | Method for predicting a motion of an object | |
CN104191428A (zh) | 一种基于scara机械手的运动轨迹规划方法及系统 | |
Nilsson et al. | Rule-based highway maneuver intention recognition | |
CN103759732B (zh) | 一种角度信息辅助的集中式多传感器多假设跟踪方法 | |
CN101402199A (zh) | 基于视觉的手眼式低伺服精度机器人移动目标抓取方法 | |
CN105096341B (zh) | 基于三焦张量和关键帧策略的移动机器人位姿估计方法 | |
Du et al. | A novel human–manipulators interface using hybrid sensors with Kalman filter and particle filter | |
CN112857370A (zh) | 一种基于时序信息建模的机器人无地图导航方法 | |
CN115157249A (zh) | 一种动态目标跟踪方法、装置和机器人 | |
CN114594772A (zh) | 机器人、路径规划方法、装置和存储介质 | |
Yang et al. | Prediction Based Trajectory Planning for Safe Interactions Between Autonomous Vehicles and Moving Pedestrians in Shared Spaces | |
CN116225029B (zh) | 一种机器人路径规划方法 | |
Bis et al. | Velocity occupancy space: autonomous navigation in an uncertain, dynamic environment | |
CN103020348A (zh) | 利用多个传感器对动态系统进行跟踪的方法及装置 | |
CN112904855A (zh) | 基于改进动态窗口的跟随机器人局部路径规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120125 |
|
CF01 | Termination of patent right due to non-payment of annual fee |