CN101630413A - 一种多机器人跟踪移动目标算法 - Google Patents

一种多机器人跟踪移动目标算法 Download PDF

Info

Publication number
CN101630413A
CN101630413A CN200910101604A CN200910101604A CN101630413A CN 101630413 A CN101630413 A CN 101630413A CN 200910101604 A CN200910101604 A CN 200910101604A CN 200910101604 A CN200910101604 A CN 200910101604A CN 101630413 A CN101630413 A CN 101630413A
Authority
CN
China
Prior art keywords
robot
moving target
predict
theta
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200910101604A
Other languages
English (en)
Other versions
CN101630413B (zh
Inventor
陈耀武
张亮
蒋荣欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2009101016044A priority Critical patent/CN101630413B/zh
Publication of CN101630413A publication Critical patent/CN101630413A/zh
Application granted granted Critical
Publication of CN101630413B publication Critical patent/CN101630413B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

本发明公开了一种新的多机器人跟踪移动目标算法,包括以下步骤:1)使用移动目标的当前位置信息和前一时刻的位置信息构造移动目标的运动预测模型;2)使用移动目标的运动预测模型的移动目标预测位置构造动态的机器人运动控制模型;3)使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,以得到最终的移动目标位置。本发明方法能够保证移动目标始终处于多机器人的可视范围内,可以保证对移动目标位置估计的精确性。

Description

一种多机器人跟踪移动目标算法
技术领域
本发明涉及多机器人对移动目标跟踪领域,具体来说是根据移动目标的预测位置来动态调整移动机器人的运动模型,以使得移动目标始终处于各个机器人的可视范围。
背景技术
目标跟踪技术已经被广泛应用于监控、自动防卫系统以及机器人领域。随着机器人在人类日常生活中的普及,机器人必须实现诸如编队、对环境的感知、避障等任务。移动目标跟踪也是机器人领域的一个重要,而且富有挑战性的研究方向,尤其是当移动目标的运动路径、运动速度等参数未知的情况下。使用多机器人对随机运动目标进行跟踪时必须考虑如下两个问题,一是如何确保移动目标始终处于各个机器人的可视范围内;二是如何使用各个机器人对移动目标的测量信息融合得到最终的移动目标位置。
发明内容
本发明提供了一种新的多机器人跟踪移动目标的算法,使用移动目标的历史位置信息构造移动目标的位置预测模型,使用移动目标的预测位置构造动态机器人运动控制模型,并使用融合算法对移动目标位置进行更新得到更加精确的移动目标位置。
本发明算法首先根据移动目标的历史信息动态构造移动目标的运动预测模型,并使用此模型对移动目标的位置进行预测,然后使用移动目标的预测位置对机器人的运动控制模型进行动态调整,最后使用各个机器人对移动目标的检测信息来更新移动目标的位置。
一种新的多机器人跟踪移动目标的算法,包括以下步骤:
1)使用移动目标的当前位置信息和前一时刻的位置信息构造移动目标的运动预测模型,构造移动目标的运动预测模型时分两种情况进行考虑:一是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离小于等于之前相邻时刻间移动目标位置间的笛卡尔距离时,预测的移动目标位置和当前时刻移动目标位置之间的欧氏距离差和角度差同当前时刻移动目标位置和前一时刻移动目标位置的差都保持一致的移动目标运动预测模型,简称为等距离等角度的移动目标运动预测模型,二是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离大于之前相邻时刻间移动目标位置间的笛卡尔距离时,预测的移动目标位置和当前时刻移动目标位置之间的欧氏距离差同当前时刻移动目标位置和前一时刻移动目标位置的差都保持一致的移动目标运动预测模型,简称为等距离的移动目标运动预测模型;
2)使用移动目标运动预测模型的移动目标预测位置构造动态的机器人运动控制模型,从而使得移动目标始终处于移动机器人的可视范围内;
3)使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,以得到最终的移动目标位置。
所述的等距离等角度的移动目标运动预测模型如式(3)所示。其中object(k+1)_x和object(k+1)_y表示移动目标在k+1时刻的笛卡尔坐标,object(k)_x和object(k)_y表示移动目标在k时刻的笛卡尔坐标。robot(k+1)_x和robot(k+1)_y表示机器人在k+1时刻的笛卡尔坐标。
object ( k + 2 ) _ x _ predict = object ( k + 1 ) _ x + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 + ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 cos ( θ _ B ) object ( k + 2 ) _ y _ predict = object ( k + 1 ) _ y + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 + ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 sin ( θ _ B ) - - - ( 3 )
其中θ_B为式(2)所示。
θ_B=2×π-θ1-θ2-θ3-θ4              (4)
式(2)中的θ1,θ2,θ3和θ4分别为式(5),(6),(7)所示。
θ 1 = θ 2 = arccos ( robot ( k + 1 ) _ x 2 + robot ( k + 1 ) _ y 2 ) × sin ( arctan object ( k + 1 ) _ y object ( k + 1 ) _ x - arctan object ( k ) _ y object ( k ) _ x ) ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 - - - ( 5 )
θ 3 = arccos ( ( object ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ x ) 2 ) - ( ( object ( k ) _ x ) 2 + ( object ( k ) _ y ) 2 ) * cos ( arctan ( object ( k + 1 ) _ y object ( k + 1 ) _ x - object ( k ) _ y object ( k ) _ x ) ) ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2
(6)
θ 4 = π - arctan object ( k + 1 ) _ y object ( k + 1 ) _ x - - - ( 7 )
所述的等距离的移动目标运动预测模型如式(8)所示。
object ( k + 2 ) _ x _ predict = 2 × object ( k + 1 ) _ x - object ( k ) _ x object ( k + 2 ) _ y _ predict = 2 × object ( k + 1 ) _ y - object ( k ) _ y - - - ( 8 )
所述的机器人运动控制模型如式(9)所示,其中robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的位置坐标,θ_R(k+2)表示机器人在k+2时刻的方位角,θ_R(k+1)表示机器人在k+1时刻的方位角。object(k+2)_x_predict和object(k+2)_y_predict表示机器人在k+2时刻的移动目标预测位置。
robot ( k + 2 ) _ x = robot ( k + 1 ) _ x + ( object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x ) 2 + ( object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y ) 2 - ( object ( k + 1 ) _ x - robot ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ y - robot ( k + 1 ) _ y ) 2 cos ( θ _ R ( k + 2 ) ) robot ( k + 2 ) _ y = robot ( k + 1 ) _ y + ( object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x ) 2 + ( object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y ) 2 - ( object ( k + 1 ) _ x - robot ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ y - robot ( k + 1 ) _ y ) 2 sin ( θ _ R ( k + 2 ) ) θ _ R ( k + 2 ) = arctan object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x - arctan object ( k + 1 ) _ y - robot ( k + 1 ) _ y object ( k + 1 ) _ x - robot ( k + 1 ) _ x + arctan robot ( k + 1 ) _ y robot ( k + 1 ) _ x (9)
本发明方法使用移动目标当前时刻的位置和前一时刻的位置构造移动目标的运动预测模型,使用移动目标的预测位置对移动机器人的控制模型进行动态调整,同时使用协方差插值融合方法对移动目标位置进行更新。本发明方法能够保证移动目标始终处于多机器人的可视范围内,可以保证对移动目标位置估计的精确性。
附图说明
图1为本发明算法的具体流程图;
图2为移动目标位置预测模型构造描述;
图3为等距离等角度的移动目标运动预测模型;
图4为等距离的移动目标运动预测模型;
图5为机器人的动态控制模型;
图6为两个机器人对移动目标位置预测测试的仿真环境;
图7为机器人R1对移动目标位置跟踪后的机器人路径信息;
图8为机器人R2对移动目标位置跟踪后的机器人路径信息;
图9为两个机器人对移动目标位置跟踪后的移动目标位置信息;
图10为两个机器人对移动目标位置跟踪得到的移动目标位置信息和实际移动目标位置信息的比较。
具体实施方式
一种新的多机器人跟踪移动目标算法,算法流程图如图1所示,首先造移动目标的运动预测模型,构造移动目标的运动预测模型时分两种情况进行考虑:一是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离小于等于之前相邻时刻间移动目标位置间的笛卡尔距离,二是在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离大于之前相邻时刻间移动目标位置间的笛卡尔距离。然后使用移动目标运动预测模型的移动目标预测位置构造机器人的运动控制模型,并使用运动控制模型对机器人的位姿进行估计,以保证移动目标始终处于移动机器人的可视范围内。最后使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,得到最终的移动目标位置。
首先构造移动目标的运动预测模型,图2表示了移动目标的运动预测模型构造方法。α表示移动目标在时刻k+1和k的位置坐标之间的角度差,β表示在保证k+2时刻移动目标的位置和k+1时刻移动目标位置之间的欧式距离和k+1时刻与k时刻之间欧式距离相等的条件下,和k+1时刻目标位置之间最大的角度差。对移动目标的运动预测模型构造分为两种情况进行考虑:
一是当β大于α时的移动目标运动预测模型构造,此时构造方法如图3所示,此移动目标运动预测模型称为等距离等角度的移动目标运动预测模型。
二是当β小于α时的移动目标运动预测模型构造,此时构造方法如图4所示,此移动目标运动预测模型称为等距离的移动目标运动预测模型。
由图2可知,α的计算方法为式(1),β的计算方法为式(2)。其中object(k+1)_x和object(k+1)_y表示移动目标在k+1时刻的笛卡尔坐标,object(k)_x和object(k)_y表示移动目标在k时刻的笛卡尔坐标。
α = arctan object ( k + 1 ) _ y object ( k + 1 ) _ x - arctan object ( k ) _ y object ( k ) _ x - - - ( 1 )
β = arcsin ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 + ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 ( object ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ y ) 2 - - - ( 2 )
由图3可知,当β大于α时,等距离等角度的移动目标运动预测模型为式(3)所示。
object ( k + 2 ) _ x _ predict = object ( k + 1 ) _ x + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 + ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 cos ( θ _ B ) object ( k + 2 ) _ y _ predict = object ( k + 1 ) _ y + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 + ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 sin ( θ _ B ) - - - ( 3 )
式(3)中θ_B表示图3中移动目标k+2时刻的预测位置和x坐标系之间的角度差,如式(4)所示。
θ_B=2×π-θ1-θ2-θ3-θ4               (4)
式(4)中的θ1,θ2,θ3和θ4的值如式(5),(6)和(7)所示。
θ 1 = θ 2 = arccos ( robot ( k + 1 ) _ x 2 + robot ( k + 1 ) _ y 2 ) × sin ( arctan object ( k + 1 ) _ y object ( k + 1 ) _ x - arctan object ( k ) _ y object ( k ) _ x ) ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 - - - ( 5 )
θ 3 = arccos ( ( object ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ x ) 2 ) - ( ( object ( k ) _ x ) 2 + ( object ( k ) _ y ) 2 ) * cos ( arctan ( object ( k + 1 ) _ y object ( k + 1 ) _ x - object ( k ) _ y object ( k ) _ x ) ) ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2
(6)
θ 4 = π - arctan object ( k + 1 ) _ y object ( k + 1 ) _ x - - - ( 7 )
由图4可知,当β小于α时,等距离的移动目标运动预测模型为式(8)所示。
object ( k + 2 ) _ x _ predict = 2 × object ( k + 1 ) _ x - object ( k ) _ x object ( k + 2 ) _ y _ predict = 2 × object ( k + 1 ) _ y - object ( k ) _ y - - - ( 8 )
其次是根据图5获得机器人的动态控制模型,为了使得移动目标处于机器人的可视范围内,机器人在k+2时刻的方位角必须满足式(9)所示的关系。其中robot(k+1)_x和robot(k+1)_y表示机器人在k+1时刻的笛卡尔坐标位置,θ_R(k+1)表示机器人在k+1时刻的方位角,robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的笛卡尔坐标位置,θ_R(k+2)表示机器人在k+2时刻的方位角。
arctan object ( k + 1 ) _ y - robot ( k + 1 ) _ y object ( k + 1 ) _ x - robot ( k + 1 ) _ x - θ _ R ( k + 1 ) (9)
= arctan object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x - θ _ R ( k + 2 )
由图5和式(9)可得,时刻k+2时机器人的动态控制模型如为式(10)所示。其中robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的位置坐标,θ_R(k+2)表示机器人在k+2时刻的方位角,θ_R(k+1)表示机器人在k+1时刻的方位角。object(k+2)_x_predict和object(k+2)_y_predict表示机器人在k+2时刻的移动目标预测位置。
robot ( k + 2 ) _ x = robot ( k + 1 ) _ x + ( object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x ) 2 + ( object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y ) 2 - ( object ( k + 1 ) _ x - robot ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ y - robot ( k + 1 ) _ y ) 2 cos ( θ _ R ( k + 2 ) ) robot ( k + 2 ) _ y = robot ( k + 1 ) _ y + ( object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x ) 2 + ( object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y ) 2 - ( object ( k + 1 ) _ x - robot ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ y - robot ( k + 1 ) _ y ) 2 sin ( θ _ R ( k + 2 ) ) θ _ R ( k + 2 ) = arctan object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x - arctan object ( k + 1 ) _ y - robot ( k + 1 ) _ y object ( k + 1 ) _ x - robot ( k + 1 ) _ x + arctan robot ( k + 1 ) _ y robot ( k + 1 ) _ x (10)
再次是当各个机器人检测到移动路标时,使用扩展卡尔曼滤波器对移动目标位置进行更新。假设机器人R1对移动目标的位置均值和协方差估计依次为object_position_R1,object_position_uncertainty1,机器人R2对移动目标的位置均值和协方差估计object_position_R2和object_position_uncertainty2。使用协方差插值方法对机器人R1和机器人R2的信息进行融合后的移动目标位置估计协方差为式(11)所示。
(object_position_uncertainty)-1=w×(object_position_uncertainty1)-1
                                                                            (11)
+(1-w)×(object_position_uncertainty2)-1
使用协方差插值方法对机器人R1和机器人R2的信息进行融合后的移动目标位置估计均值为式(12)所示。
object _ position = object _ position _ uncertainty
× w × ( object _ position _ uncertainty _ 1 ) - 1 × object _ position _ 1 + ( 1 - w ) × ( object _ position _ uncertainty _ 2 ) - 1 × object _ position _ 2 - - - ( 12 )
w的取值如式(13)所示。式(13)中t1表示object_position_uncertainty1矩阵的迹,t2表示object_position_uncertainty1矩阵的迹。
w = t 1 t 1 + t 2 - - - ( 13 )
图6描述的是机器人R1和机器人R2对移动目标进行跟踪的测试环境。图7、图8、图9以及图10为使用本发明算法得到的测试结果。图7为机器人R1对移动目标进行跟踪后机器人的运动轨迹,图8为机器人R2对移动目标进行跟踪后机器人的运动轨迹,图9为机器人R1和R2估计得到的移动目标的运动轨迹,图10为移动目标的估计运动轨迹和实际运动轨迹之间的误差。可以看出,使用本发明得到的移动目标估计轨迹和实际轨迹的误差不大,因此,本发明可以很好的实现多机器人对移动目标的跟踪。

Claims (4)

1.一种新的多机器人跟踪移动目标算法,包括以下步骤:
1)使用移动目标的当前位置信息和前一时刻的位置信息构造移动目标的运动预测模型;
2)使用移动目标的运动预测模型的移动目标预测位置构造动态的机器人运动控制模型;
3)使用移动机器人对移动目标的测量信息更新移动目标的位置信息,同时使用协方差插值方法融合各个机器人对移动目标位置的估计,以得到最终的移动目标位置。
2.如权利要求1所述的方法,其特征在于:在保证移动目标相邻时刻间位置角度差保持一致的条件下,当预测到的移动目标位置和当前时刻移动目标位置之间的笛卡尔距离小于等于之前相邻时刻间移动目标位置间的笛卡尔距离时,移动目标的运动预测模型为式(3)所示,否则,移动目标的运动预测模型为式(4)所示:
object ( k + 2 ) _ x _ predict = object ( k + 1 ) _ x + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 + ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 cos ( θ _ B ) object ( k + 2 ) _ y _ predict = object ( k + 1 ) _ y + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 + ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 sin ( θ _ B ) - - - ( 3 )
object ( k + 2 ) _ x _ predict = 2 × object ( k + 1 ) _ x - object ( k ) _ x object ( k + 2 ) _ y _ predict = 2 × object ( k + 1 ) _ y - object ( k ) _ y - - - ( 4 )
其中θ_B如式(5)所示:
θ_B=2×π-θ1-θ2-θ3-θ4                        (5)
θ1,θ2,θ3和θ4分别为式(6),(7),(8)所示:
θ 1 = θ 2 = arccos ( robot ( k + 1 ) _ x 2 + robot ( k + 1 ) _ y 2 ) × sin ( arctan object ( k + 1 ) _ y object ( k + 1 ) _ x - arctan object ( k ) _ y object ( k ) _ x ) ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 - - - ( 6 )
θθ 3 = arccos ( ( object ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ x ) 2 ) - ( ( object ( k ) _ x ) 2 + ( object ( k ) _ y ) 2 ) * cos × ( arctan ( object ( k + 1 ) _ y object ( k + 1 ) _ x - object ( k ) _ y object ( k ) _ x ) ) ( object ( k + 1 ) _ y - object ( k ) _ y ) 2 + ( object ( k + 1 ) _ x - object ( k ) _ x ) 2 - - - ( 7 )
θ 4 = π - arctan object ( k + 1 ) _ y object ( k + 1 ) _ x - - - ( 8 )
其中object(k+1)_x和object(k+1)_y表示移动目标在k+1时刻的笛卡尔坐标;object(k)_x和object(k)_y表示移动目标在k时刻的笛卡尔坐标;robot(k+1)_x和robot(k+1)_y表示机器人在k+1时刻的笛卡尔坐标;robot(k+2)_x和robot(k+2)_y表示机器人在k+2时刻的笛卡尔坐标。θR(k+2)表示机器人在k+2时刻的方位角,θ_R(k+1)表示机器人在k+1时刻的方位角;object(k+2)_x_predict和object(k+2)_y_predict表示机器人在k+2时刻的移动目标预测位置。
3.如权利要求1所述的方法,其特征在于:根据移动目标的运动预测模型式(3)或式(4)对移动目标位置进行预测后,机器人的运动控制模型如式(9)所示:
robot ( k + 2 ) _ x = robot ( k + 1 ) _ x + ( object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x ) 2 + ( object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y ) 2 - ( object ( k + 1 ) _ x - robot ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ y - robot ( k + 1 ) _ y ) 2 cos ( θ _ R ( k + 2 ) ) robot ( k + 2 ) _ y = robot ( k + 1 ) _ y + ( object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x ) 2 + ( object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y ) 2 - ( object ( k + 1 ) _ x - robot ( k + 1 ) _ x ) 2 + ( object ( k + 1 ) _ y - robbot ( k + 1 ) _ y ) 2 sin ( θ _ R ( k + 2 ) ) θ _ R ( k + 2 ) = arctan object ( k + 2 ) _ y _ predict - robot ( k + 1 ) _ y object ( k + 2 ) _ x _ predict - robot ( k + 1 ) _ x - arctan object ( k + 1 ) _ y - robot ( k + 1 ) _ y object ( k + 1 ) _ x - robot ( k + 1 ) _ x + arctan robot ( k + 1 ) _ y robot ( k + 1 ) _ x                 (9)
4.如权利要求1所述的方法,其特征在于:使用协方差插值方法进行目标位置协方差信息融合的方法如式(10)所示,目标位置均值信息融合的方法如式(11)所示:
(object_position_uncertainty)-1=w×(objeect_position_uncertainty1)-1
                                                                        (10)
+(1-w)×(object_position_uncertainty2)-1
object _ position = object _ position _ uncertainty
× w × ( object _ position _ uncertainty _ 1 ) - 1 × object _ position _ 1 + ( 1 - w ) × ( object _ position _ uncertainty _ 2 ) - 1 × object _ position _ 2 - - - ( 11 )
其中object_position_R1和object_position_uncertainty1为机器人R1对移动目标的位置均值和协方差估计,object_position_R2和object_position_uncertainty2为机器人R2对移动目标的位置均值和协方差估计,w的值如式(12)所示。
w = t 1 t 1 + t 2 - - - ( 12 )
其中t1表示object_position_uncertainty1矩阵的迹,t2表示object_position_uncertainty1矩阵的迹。
CN2009101016044A 2009-08-14 2009-08-14 一种多机器人跟踪移动目标方法 Expired - Fee Related CN101630413B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009101016044A CN101630413B (zh) 2009-08-14 2009-08-14 一种多机器人跟踪移动目标方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009101016044A CN101630413B (zh) 2009-08-14 2009-08-14 一种多机器人跟踪移动目标方法

Publications (2)

Publication Number Publication Date
CN101630413A true CN101630413A (zh) 2010-01-20
CN101630413B CN101630413B (zh) 2012-01-25

Family

ID=41575513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101016044A Expired - Fee Related CN101630413B (zh) 2009-08-14 2009-08-14 一种多机器人跟踪移动目标方法

Country Status (1)

Country Link
CN (1) CN101630413B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102176119A (zh) * 2011-02-18 2011-09-07 杭州电子科技大学 一种基于信息融合机制的多机器人危险气味源定位方法
CN102411371A (zh) * 2011-11-18 2012-04-11 浙江大学 一种基于多传感器服务机器人跟随系统和方法
CN103260132A (zh) * 2012-02-17 2013-08-21 中国科学院计算技术研究所 无线传感器网络的移动多播路由方法
CN103517789A (zh) * 2011-05-12 2014-01-15 株式会社Ihi 运动预测控制装置和方法
CN104834309A (zh) * 2015-04-10 2015-08-12 浙江工业大学 基于目标跟踪控制策略的单移动机器人最优巡回控制方法
CN110909592A (zh) * 2019-10-11 2020-03-24 重庆特斯联智慧科技股份有限公司 一种基于多尺度特征量的目标跟踪方法和系统
CN113433828A (zh) * 2021-08-25 2021-09-24 南京航空航天大学 一种多机器人动态目标跟踪协同控制方法
US20230008482A1 (en) * 2021-07-06 2023-01-12 Electronics And Telecommunications Research Institute Method and apparatus for object following robot using uwb and odometry-based relative position estimation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100349383C (zh) * 2004-04-14 2007-11-14 华为技术有限公司 一种信道估计的方法和装置
CN100410684C (zh) * 2006-02-23 2008-08-13 复旦大学 基于贝叶斯线性估计的遥感图像融合方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102176119B (zh) * 2011-02-18 2012-12-26 杭州电子科技大学 一种基于信息融合机制的多机器人危险气味源定位方法
CN102176119A (zh) * 2011-02-18 2011-09-07 杭州电子科技大学 一种基于信息融合机制的多机器人危险气味源定位方法
CN103517789B (zh) * 2011-05-12 2015-11-25 株式会社Ihi 运动预测控制装置和方法
CN103517789A (zh) * 2011-05-12 2014-01-15 株式会社Ihi 运动预测控制装置和方法
CN102411371A (zh) * 2011-11-18 2012-04-11 浙江大学 一种基于多传感器服务机器人跟随系统和方法
CN103260132A (zh) * 2012-02-17 2013-08-21 中国科学院计算技术研究所 无线传感器网络的移动多播路由方法
CN103260132B (zh) * 2012-02-17 2016-08-03 中国科学院计算技术研究所 无线传感器网络的移动多播路由方法
CN104834309A (zh) * 2015-04-10 2015-08-12 浙江工业大学 基于目标跟踪控制策略的单移动机器人最优巡回控制方法
CN104834309B (zh) * 2015-04-10 2018-08-21 浙江工业大学 基于目标跟踪控制策略的单移动机器人最优巡回控制方法
CN110909592A (zh) * 2019-10-11 2020-03-24 重庆特斯联智慧科技股份有限公司 一种基于多尺度特征量的目标跟踪方法和系统
US20230008482A1 (en) * 2021-07-06 2023-01-12 Electronics And Telecommunications Research Institute Method and apparatus for object following robot using uwb and odometry-based relative position estimation
US12093055B2 (en) * 2021-07-06 2024-09-17 Electronics And Telecommunications Research Institute Method and apparatus for object following robot using UWB and odometry-based relative position estimation
CN113433828A (zh) * 2021-08-25 2021-09-24 南京航空航天大学 一种多机器人动态目标跟踪协同控制方法

Also Published As

Publication number Publication date
CN101630413B (zh) 2012-01-25

Similar Documents

Publication Publication Date Title
CN101630413B (zh) 一种多机器人跟踪移动目标方法
CN108153310B (zh) 一种基于人类行为模拟的移动机器人实时运动规划方法
CN107885209B (zh) 一种基于动态窗口与虚拟目标点的避障方法
CN110262508B (zh) 应用于封闭场地无人驾驶货运车辆上的自动引导系统及方法
CN111670468B (zh) 移动体行为预测装置以及移动体行为预测方法
CN103909522B (zh) 一种六自由度工业机器人通过奇异域的方法
Siagian et al. Mobile robot navigation system in outdoor pedestrian environment using vision-based road recognition
US20210200219A1 (en) Robot plan online adjustment
CN105223956A (zh) 一种全向移动机器人的动态避障方法
CN105082135B (zh) 一种机器人点动操作的速度控制方法
US11300663B2 (en) Method for predicting a motion of an object
CN104191428A (zh) 一种基于scara机械手的运动轨迹规划方法及系统
Nilsson et al. Rule-based highway maneuver intention recognition
CN103759732B (zh) 一种角度信息辅助的集中式多传感器多假设跟踪方法
CN101402199A (zh) 基于视觉的手眼式低伺服精度机器人移动目标抓取方法
CN105096341B (zh) 基于三焦张量和关键帧策略的移动机器人位姿估计方法
Du et al. A novel human–manipulators interface using hybrid sensors with Kalman filter and particle filter
CN112857370A (zh) 一种基于时序信息建模的机器人无地图导航方法
CN115157249A (zh) 一种动态目标跟踪方法、装置和机器人
CN114594772A (zh) 机器人、路径规划方法、装置和存储介质
Yang et al. Prediction Based Trajectory Planning for Safe Interactions Between Autonomous Vehicles and Moving Pedestrians in Shared Spaces
CN116225029B (zh) 一种机器人路径规划方法
Bis et al. Velocity occupancy space: autonomous navigation in an uncertain, dynamic environment
CN103020348A (zh) 利用多个传感器对动态系统进行跟踪的方法及装置
CN112904855A (zh) 基于改进动态窗口的跟随机器人局部路径规划方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120125

CF01 Termination of patent right due to non-payment of annual fee