CN102566432B - 基于Bang-bang控制策略的最优时间追踪捕获系统及其方法 - Google Patents
基于Bang-bang控制策略的最优时间追踪捕获系统及其方法 Download PDFInfo
- Publication number
- CN102566432B CN102566432B CN201210014628.8A CN201210014628A CN102566432B CN 102566432 B CN102566432 B CN 102566432B CN 201210014628 A CN201210014628 A CN 201210014628A CN 102566432 B CN102566432 B CN 102566432B
- Authority
- CN
- China
- Prior art keywords
- robot
- bang
- coordinate
- module
- chases
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明公开了一种基于Bang-bang控制策略的最优时间追踪捕获系统及其方法,其包括定位模块,解耦模块,通信模块,算法分析模块,以及追逐机器人控制模块,其中,所述定位模块、解耦模块、通信模块、算法分析模块与追逐机器人控制模块依次相连。本发明的基于Bang-bang控制策略的最优时间追踪捕获系统将控制算法应用于智能体机器人对入侵者的追踪捕获,保证入侵者在直线运动的情况下捕获时间最短,通过视觉信息对入侵者以及追逐者进行定位,得到位置信息后通过无线传感器节点通信将数据传给追逐机器人,追逐机器人再通过算法分析,得到控制量的施加规律,对自身进行控制,完成追踪捕获。
Description
技术领域
本发明涉及控制系统的技术领域,具体的,涉及一种基于Bang-bang控制策略的最优时间追踪捕获系统及其方法。
背景技术
追踪逃逸的对抗游戏(Pursuit-Evasion Game,PEG)包含两个玩家,一个追逐者和一个逃逸者。追逐者试图捕获到逃逸者,而逃逸者试图避免被捕获。PEG是很多实际问题的数学描述,比如导弹打击飞行器,目标营救,目标监控,移动机器人追踪捕获入侵到目标区域的入侵者等。
近些年,关于PEG的研究从理论的数学模型的建立以及分析,转换到实际应用中来。将PEG理论结合智能机器人的控制应用于目标追踪捕获就是一个研究较多的领域。目标追踪捕获是指在入侵者进入到监测区域时,追逐者机器人对入侵者进行追踪直至捕获,或入侵者离开监测区域。目标的追踪捕获广泛应用于军事侦察,应急搜救,民用监控等。目标追踪捕获问题一直是科学研究的热点,研究者在理论上提出过很多模型来分析这类问题,如狮子模型,K-消极模型,清洁污染模型等,并应用贪婪算法,蚁群算法等优化算法来获得最优路径。这些算法在理论上证明了追踪捕获问题在特定模型下的特定结论。理论上的研究大多是在理想的情况下,不考虑外界环境的干扰,不考虑追逐者自身条件的限制。因此,将理论研究应用到实际中还有一定的距离。目前,目标追踪捕获的研究也大多局限于理论上或计算机仿真上,真正将算法应用到实际并构建追踪系统的很少。
经对现有文献进行检索,在Laurent Alonso等人的文章“Lion and man:upperand lower bounds”中提出在圆形区域内并在狮子和人的速度相同的前提下,可得到连续时间域内狮子追逐到人的时间范围。文章“Solution of David Gale’s lion andman problem”在空间连续但是时间离散的前提下,对狮子追逐到人以及人如何逃避狮子的追逐都进行了理论上的分析并得到了证明。Mohammad Emtiyaz Khan的文章“Game Theory Models for Pursuit Evasion Games”中提出了几种建立PEG问题的模型,如Extensive Form Game,Differential Game,Repeated Game。
然而,上面这些文章都只在理论上进行了分析,模型的建立需要的限制条件较多,与实际应用还有一定差距。中国专利申请号为200810119587.2,名称为“一种基于可行通道的机器人目标追踪方法”的专利申请公开了一种机器人目标追踪方法,该方法建立了实际的目标追踪系统,但是没有应用理论上的控制算法,无法从理论上保证追踪时间最优。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是提供一种应用Bang-bang控制策略完成目标追踪捕获的最优时间控制系统及其方法。本发明通过模块化的思想,设计了可行性强、功能完善的基本模块,并通过基本模块的搭建及相互协作构建一个将Bang-bang控制策略应用到目标追踪捕获以实现时间最优的控制系统。该系统对Bang-bang控制的理论进行了实际的验证及应用,同时该系统可以作为目标追踪捕获算法实现及验证的平台。
为实现上述目的,本发明提供了一种基于Bang-bang控制策略的最优时间追踪捕获系统,其包括
定位模块,其采集逃逸机器人和追逐机器人在监测区域内的定位图像;
解耦模块,其对所述定位模块得到的图像进行处理,从而得到所述追逐机器人和逃逸机器人的特征色块的X,Y方向的坐标数据;
通信模块,其将从所述解耦模块得到的坐标数据传递到所述追逐机器人;
算法分析模块,其根据Bang-bang控制策略计算出所述追逐机器人的控制量以及最短追逐捕获时间;
以及机器人控制模块,其根据所述算法分析模块的计算出的控制量,结合所述追逐机器人自身位置以及运动方向计算所述追逐机器人的目标速度和方向,从而实时调整所述追逐机器人速度和方向以完成追逐捕获任务;
其中,所述定位模块、解耦模块、通信模块、算法分析模块与机器人控制模块依次相连。
进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获系统,其中,所述定位模块采用的是摄像头,所述摄像头连续不断的采集所述监测区域内所述追逐机器人和逃逸机器人的RGB格式的图像,并对图像进行滤波处理。
进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获系统,其中,所述解耦模块包含在监测主机内,通过对所述定位图像进行分析,将图像格式转换为HSB格式,并对整个图像不断进行扫描,通过对所述图像的色相,色调以及饱和度分析得出所述追逐机器人和逃逸机器人的各个特征色块的特征颜色点的X,Y坐标,然后对相应的特征颜色点的X,Y坐标进行求和平均得到所述逃逸机器人的红色色块X,Y坐标、黄色色块X,Y坐标,所述追逐机器人的蓝色色块X,Y坐标、绿色色块X,Y坐标。
更进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获系统,其中,所述通信模块包括无线传感器主节点和无线传感器次节点,其中,所述无线传感器主节点接收所述监测主机串口发送的数据,提取感兴趣的坐标数据,并将所述坐标数据封装为满足无线通信协议的数据帧格式,发送给所述无线传感器次节点;所述无线传感器次节点接收所述无线传感器主节点的数据,并将接收到的数据封装为串口通信协议的数据帧,发送给追逐机器人。
进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获系统,其中,所述算法分析模块以所述通信模块输出的数据作为输入,计算出所述追逐机器人的X,Y方向坐标、X,Y方向的速度以及运动方向矢量;计算出逃逸机器人X,Y方向坐标、X,Y方向的速度;然后根据Bang-bang控制策略,求出所述追逐机器人X,Y方向的控制量以及最短追逐捕获时间。
进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获系统,其中,所述机器人控制模块是将所述算法分析模块得到的控制量应用到所述追逐机器人,通过某时刻的实际速度矢量和下一时刻目标速度矢量进行比较来控制所述追逐机器人的行进方向以及速度,直到完成追逐捕获任务。
进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获系统,其中,所述机器人控制模块是将所述追逐机器人的运动状态分成四种,来保证所述追逐机器人能快速准确的达到目标状态。
另外,本发明还提供一种基于Bang-bang控制策略的最优时间追踪捕获方法,其包括以下步骤:
第一步,连续不断的采集逃逸机器人和追逐机器人在监测区域内的RGB格式的定位图像;
第二步,处理所述图像,得到所述追逐机器人和逃逸机器人的特征色块的X,Y方向的坐标数据;
第三步,将从所述坐标数据传递到所述追逐机器人;
第四步,根据Bang-bang控制策略计算出所述追逐机器人的控制量以及最短追逐捕获时间;
第五步,根据计算出的所述控制量,结合所述追逐机器人自身位置以及运动方向计算所述追逐机器人的目标速度和方向,从而实时调整所述追逐机器人的速度和方向以完成追逐捕获任务。
进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获方法,其中,在第二步中,将采集到的RGB格式的图像转换为HSB格式的图像,并对整个图像不断进行扫描,通过对所述图像的色相,色调以及饱和度分析得出所述追逐机器人和逃逸机器人上的特定颜色点的X,Y坐标,然后对相应的特征颜色点的X,Y坐标进行求和平均得到所述逃逸机器人的红色色块X,Y坐标、黄色色块X,Y坐标,所述追逐机器人的蓝色色块X,Y坐标、绿色色块X,Y坐标。
进一步地,上述的基于Bang-bang控制策略的最优时间追踪捕获方法,其中,第四步中,根据所述坐标数据计算出所述追逐机器人的X,Y方向坐标、X,Y方向的速度以及运动方向矢量,以及逃逸机器人X,Y方向坐标、X,Y方向的速度,根据Bang-bang控制策略,求出所述追逐机器人X,Y方向的控制量以及最短追逐捕获时间,其中,所述控制量为追逐机器人X,Y方向的加速度。
因此,本发明的优点在于:
(1)通过无线传感器节点实现数据通信,其传递距离长,能耗低,从而形成无线传感器网络以应用于智能体协调控制;
(2)本发明将逃逸机器人与追逐机器人的运动状态解耦到单独的X,Y轴进行分析,进而转化为双积分系统的最优控制问题;
(3)通过求解双积分系统的最优控制问题,本发明得到最短时间目标追踪捕获的理论算法的控制规律,即得到了实际可行的Bang-bang控制,该控制策略简单高效;
(4)本发明中的追逐机器人能在逃逸机器人直线逃跑的前提下,根据逃逸机器人的位置以及状态实时调整追逐策略以完成追踪捕获,并且时间最优;
(5)本发明已经应用到实际的控制系统,本发明的体系结构能在各种硬件平台上实现。
附图说明
图1是本发明的基于Bang-bang控制策略的最优时间追踪捕获系统的功能模块结构图;
图2是本发明的基于Bang-bang控制策略的最优时间追踪捕获系统的硬件结构图;
图3是本发明的基于Bang-bang控制策略的最优时间追踪捕获系统的控制流程图;
图4(1)是本发明的追逐机器人在t0时刻的速度矢量图;
图4(2)是本发明的追逐机器人在t0+Ts时刻的速度矢量图;
图5(1)是本发明的追逐机器人在|b-a|<=5时的速度矢量图;
图5(2)是本发明的追逐机器人在|b-a|>=10时的速度矢量图。
具体实施方式
下面结合附图对本发明的具体实施方式进行详细描述,以充分地了解本发明的目的、特征和效果。本实施例给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于本实施例。
如图1所示,本发明的基于Bang-bang控制策略的最优时间追踪捕获系统包括定位模块5,解耦模块1,通信模块4,算法分析模块2,以及机器人控制模块3。其中,定位模块5与解耦模块1相连完成追逐机器人和逃逸机器人的视觉定位信息的解耦;解耦模块1与通信模块4相连传递解耦后的X,Y方向的逃逸机器人和追逐机器人的定位信息;通信模块4与算法分析模块2相连完成视觉定位信息从服务端到客户端的传递;算法分析模块2与机器人控制模块3相连传递追逐机器人控制量的施加规律。
图2是本发明的基于Bang-bang控制策略的最优时间追踪捕获系统的相对应的硬件结构图。由图可知,定位模块5采用的是摄像头6,其完成追逐机器人10以及逃逸机器人视觉的定位信息采集。摄像头6不断的采集监测区域内追逐机器人10以及逃逸机器人的RGB格式的图像信息,并对图像进行滤波操作,以避免光线对图像的干扰。追逐机器人10以及逃逸机器人上有便于识别的特征色块,用以辅助完成位置和方向的定位。本发明中逃逸机器人的上层外壳左右分别贴有红色和黄色特征色块,而追逐机器人10的上层外壳左右分别贴有蓝色和绿色特征色块。
解耦模块为监测主机7上的对摄像头6得到的图像信息进行处理的软件模块。摄像头6通过串口将图像帧数据发送给监测主机7;监测主机7上的解耦模块对图像进行处理,在监测区域内逐点扫描寻找追逐机器人10的蓝色、绿色特征色块以及逃逸机器人的红色、黄色特征色块,并记录上述特征色块上特征颜色点的X,Y坐标,然后通过对各个特征色块上相应的特征颜色点的X,Y坐标进行相加求平均,得到相应特征色块的X,Y坐标。
通信模块4包括服务器端和客户端,均采用的Crossbow IRIS-XM2110的无线传感器节点,分别作为主节点和次节点。服务器端为无线传感器主节点8,其与监测主机7相连,监测主机7将追逐机器人10和逃逸机器人的特征色块的X,Y坐标数据封装成能满足串口与无线传感器主节点8通信协议的一帧数据,不断快速的发送到无线传感器主节点8。封装后的数据帧格式必须要满足无线传感器节点的数据帧格式要求。无线传感器节点的数据帧主要包括帧头标志位,数据位,以及帧的结尾标志位。数据传输的时候为了将数据与帧的标志位区别开来,还需要对数据进行转换,避免冲突。无线传感器主节点对帧进行识别,读出感兴趣的坐标数据,然后将数据封装成能满足无线传感器节点之间的通信协议的一帧数据。客户端为无线传感器次节点,其与追逐机器人相连,在接收到数据后马上封装成可在串口传递的数据帧并发送到追逐机器人。
算法分析模块2是将完成追逐捕获的条件作为给定,将通信模块4传输的数据作为输入,在N*Ts(N=0,1,2…)时刻根据Bang-bang控制策略计算最新的控制量。其中,根据追逐机器人10的蓝色、绿色特征色块的X,Y坐标计算出追逐机器人的X,Y方向坐标、X,Y方向的速度以及运动方向矢量;根据逃逸机器人的红色、黄色特征色块的X,Y坐标计算出逃逸机器人X,Y方向坐标、X,Y方向的速度以及运动方向矢量;然后根据Bang-bang控制策略,求出追逐机器人10的X,Y方向的控制量以及最短追逐捕获时间。本发明中控制量为追逐机器人10的X,Y方向的加速度。考虑到具体的可操作性,本发明实施例中Ts取值为5s。算法分析模块2是追逐机器人10上的软件模块,追逐机器人10以及逃逸机器人均是采用的IMP自主移动机器人。
机器人控制模块3是根据算法分析模块2得到的控制量,再结合自身位置以及运动方向,来确定下一个Ts时刻内追逐机器人运动的方向及速度。本实施例中每个Ts时刻追逐机器人的运动状态根据不同的情况分为四种。追逐机器人在每个Ts时刻内执行Bang-bang控制得到时间最优的控制策略,因而经过若干个Ts时刻最终完成追踪捕获所得到的时间也是最优的。
本发明的基于Bang-bang控制策略的最优时间追踪捕获系统的工作过程如下:
第一步,打开电源,启动各个设备,使得各个模块完成初始化,具体包括定位模块,解耦模块,通信模块,算法分析模块以及追逐机器人控制模块的初始化。
其中,定位模块的初始化是指打开摄像头,并初始化至合适的焦距以及光线识别模式。
解耦模块的初始化是指初始化软件程序,定义各种需要的数据变量,具体包括逃逸机器人红色色块坐标(Red_x,Red_y),黄色色块坐标(Yellow_x,Yellow_y),逃逸机器人的方向矢量m,追逐机器人蓝色色块坐标(Bluex,Bluey),绿色色块坐标(Green_x,Green_y),追逐机器人的方向矢量n。
通信模块的初始化是指无线传感器主节点和次节点程序运行,并建立联系。无线传感器之间采用IEEE802.15.4通信协议,进行快速的周期性的发送数据,无线传感器节点的周期为0.05s,从而减少延时。无线传感器主节点与监测主机之间,无线传感器次节点与追逐机器人之间均直接建立通信联系,通信协议为串口通信,周期为0.05s。
算法分析模块的初始化是指初始化Bang-bang控制策略需要的数据变量以及需要设定的常量,具体包括加速度控制量的最大值Up=2,时间间隔Ts=5s,以及X方向追逐机器人与逃逸机器人位移差X1,速度差X2,Y方向追逐机器人与逃逸机器人位移差Y1,速度差Y2,还有通过算法分析模块得到追逐机器人X,Y方向的加速度控制量Ux,Uy。
机器人控制模块的初始化是完成机器人控制数据的定义,即机器人左、右轮的的速度Vl,Vr以及运动的方向矢量的定义。
初始化完成后本发明的基于Bang-bang控制策略的最优时间追踪捕获系统的工作流程如图3所示,具体如下:
第二步,同时启动定位模块,解耦模块以及通信模块。
定位模块启动后,循环执行以下步骤:
1)在监测区域内不断采集追逐机器人和逃逸机器人的RGB格式的图像信息;
2)将采集到的图像信息传递给监测主机的解耦模块;
解耦模块启动后,循环执行以下步骤:
1)将RGB格式的图像转换为HSB格式,对整个图像不断进行扫描。通过图像帧的色相,色调以及饱和度分析得出图像中各个特征色块中特征颜色点的坐标,再对相应的特征颜色点的X,Y坐标进行求和平均得到逃逸机器人红色色块坐标(Red_x,Red_y),黄色色块坐标(Yellow_x,Yellow_y),追逐机器人蓝色色块坐标(Bluex,Bluey),绿色色块坐标(Green_x,Green_y);
2)解耦模块将分析得到的逃逸机器人和追逐机器人的特征色块的X,Y方向的坐标数据通过串口发送给无线传感器主节点,发送周期设定为0.05s。
通信模块启动后循环执行下面步骤:
1)无线传感器主节点接收监测主机串口发送的数据,提取感兴趣的坐标数据,将坐标数据封装为满足无线通信协议的数据帧格式,并发送给无线传感器次节点;
2)无线传感器次节点接收无线传感器主节点的数据,并提取数据,封装为串口通信协议的数据帧,并发送给追逐机器人。
第三步,启动算法分析模块,机器人控制模块。
算法分析模块启动后循环执行下面步骤:
1)判断逃逸机器人的坐标是否在监测区域内,如果不在则完成任务,退出,否则进行下一步;
2)根据逃逸机器人红色色块坐标(Red_x,Red_y),黄色色块坐标(Yellow_x,Yellow_y),得到逃逸机器人中心点的坐标(evader_x,evader_y)。另外根据红色色块指向黄色色块的方向矢量r可以得到逃逸机器人运动方向矢量m,即为与r正交,并在r方向的逆时针方向90度处。同理根据追逐机器人蓝色色块坐标(Bluex,Bluey),绿色色块坐标(Green_x,Green_y),得到追逐机器人的中心点坐标(pursuit_x,pursuit_y)。另外根据蓝色色块指向绿色色块的方向矢量s可以得到追逐机器人运动方向矢量n,即为与s正交,并在s方向的逆时针方向90度处。另外通过对Ts时刻追逐机器人和逃逸机器人中心点坐标变化的分析可以得到追逐机器人的速度(pursuitspeedx,pursuitspeedy),逃逸机器人的速度(evaderspeedx,,evaderspeedy);由上述速度(pursuitspeedx,pursuitspeedy)和运动方向矢量n便可得知追逐机器人当前的实际速度矢量a;
3)根据1)得到的结果计算X方向追逐机器人与逃逸机器人的位移差,速度差,其中位移差X1=pursuit_x-evader_x,速度差X2=pursuitspeedx-evaderspeedx,同理可以得到Y方向的位移差与速度差,即Y1=pursuit_y-evader_y以及Y2=pursuitspeedy-evaderspeedy;
4)判断上述X,Y方向的位移差和速度差是否达到系统所定义的完成追踪捕获条件,如果达到,则停止追踪捕获,任务完成,退出;否则,进行下一步;
5)根据公式(1)计算追逐机器人X方向加速度控制量Ux;
具体计算过程如下:
(a)计算-X2*|X2|/(2Up)的大小;
(b)比较X1与-X2*|X2|/(2Up)的大小关系;
(c)按公式得到Ux的大小。
6)参照步骤3),4),5)相应的计算追逐机器人Y方向的加速度控制量大小Uy,即
7)根据公式(2)计算追逐机器人X方向最优的追踪捕获时间Tx;
具体计算过程如下:
(c)计算-X2*|X2|/(2Up)的大小;
(d)比较X1与-X2*|X2|/(2Up)的大小关系;
(f)按公式得到Tx的大小。
8)参照步骤3),4),7)相应的计算追逐机器人Y方向最优的追踪捕获时间Ty的大小,即
则整个追踪捕获的最短时间T=max(Tx,Ty),最优时间T作为系统的衡量标准。
机器人控制模块启动后循环执行下面的步骤:
1)根据当前t0时刻追逐机器人的速度(pursuitspeedx,pursuitspeedy)以及算法分析模块得到的控制量Ux,Uy来计算下一个Ts时间段内,追逐机器人前进的目标速度矢量b。如图4(1)所示,追逐机器人t0时刻的速度矢量为V,此时追逐机器人的两个轮子方向与V同向。将矢量V在X,Y方向进行分解,得到矢量pursuitspeedx和pursuitspeedy。计算得到经过Ts时间后X,Y方向上理论的速度值的大小,pursuitspeedx(t0+Ts)=pursuitspeedx+Ts*(-Up),pursuitspeedy(t0+Ts)=pursuitspeedy+Ts*Up;如图4(2)所示,将pursuitspeedx(t0+Ts)与pursuitspeedy(t0+Ts)合成t0+Ts时刻追逐机器人应该加速到的目标速度矢量b=pursuitspeed(t0+Ts),然后追逐机器人按照这个目标速度矢量b=(pursuitspeedx(t0+Ts),pursuitspeedy(t0+Ts))在下一个Ts时刻内前进;
2)根据1)中得到的目标速度矢量b以及算法分析模块执行其上的步骤2)得到的追逐机器人自身的实际速度矢量a来确定追逐机器人具体的运动速度以及策略。每次计算新的控制量后,就会对应得到此时的追逐机器人应该调整到的方向以及速度大小,如图5中t0时刻与t0+Ts时刻。由于追逐机器人的方向不能突变,其速度可以突变,因此根据追逐机器人目标速度矢量方向和实际运行矢量方向间的关系,对应追逐机器人控制有四种状态,根据图5中矢量b的角度与矢量a的角度差来确定。如图5(1)中所示,当|b-a|<=5时,追逐机器人在Ts时间段内按pursuitspeed(t0+Ts)的速度大小走直线;当5<b-a<10时,在Ts时间内追逐机器人以右轮速度为pursuitspeed(t0+Ts)+1,左轮速度为V(t0+Ts)前行,使方向靠近目标方向并接近目标;当-10<b-a<-5时,在Ts时间段内追逐机器人左轮速度为pursuitspeed(t0+Ts)+1,右轮速度为pursuitspeed(t0+Ts)前行,使方向靠近目标方向并接近目标;如图5(2)中所示,当|b-a|>=10时,追逐机器人原地调整方向至目标方向,再在Ts时间内速度按pursuitspeed(t0+Ts)大小走直线。追逐机器人每隔Ts时刻都计算目标速度和自身方向,并按照以上的控制规律进行控制,直到完成追逐,追逐机器人的控制总的来说是算法的近似实现。最终控制效果显著,追逐机器人能在较短时间完成捕获任务。
第四步,重复执行第二,第三步直到算法分析模块输出控制量为0,完成追踪捕获的任务。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种基于Bang-bang控制策略的最优时间追踪捕获系统,其特征在于,包括定位模块,其采集逃逸机器人和追逐机器人在监测区域内的定位图像;
解耦模块,其对所述定位模块得到的图像进行处理,从而得到所述追逐机器人和逃逸机器人的特征色块的X,Y方向的坐标数据;
通信模块,其将从所述解耦模块得到的坐标数据传递到所述追逐机器人;
算法分析模块,其根据Bang-bang控制策略计算出所述追逐机器人的控制量以及最短追逐捕获时间;
以及机器人控制模块,其根据所述算法分析模块的计算出的控制量,结合所述追逐机器人自身位置以及运动方向计算所述追逐机器人的目标速度和方向,从而实时调整所述追逐机器人速度和方向以完成追逐捕获任务;
其中,所述定位模块、解耦模块、通信模块、算法分析模块与机器人控制模块依次相连;
所述控制量为加速度控制量,所述算法分析模块采用如下方法计算所述追逐机器人的加速度控制量:
根据公式(1)计算追逐机器人X方向的加速度控制量Ux:
相应计算追逐机器人Y方向的加速度控制量Uy:
所述算法分析模块采用如下方法计算所述追逐机器人的最短追逐捕获时间:
根据公式(2)计算追逐机器人X方向的最短追逐捕获时间Tx;
相应计算追逐机器人Y方向的最短追逐捕获时间Ty:
则整个最短追逐捕获时间T=max(Tx,Ty);
其中,X1是X方向追逐机器人与逃逸机器人的位移差,X2是X方向追逐机器人与逃逸机器人的速度差;
Y1是Y方向追逐机器人与逃逸机器人的位移差,Y2是Y方向追逐机器人与逃逸机器人的速度差;
Up是加速度控制量的最大值。
2.根据权利要求1所述的基于Bang-bang控制策略的最优时间追踪捕获系统,其特征在于,所述定位模块采用的是摄像头,所述摄像头连续不断的采集所述监测区域内所述追逐机器人和逃逸机器人的RGB格式的图像,并对图像进行滤波处理。
3.根据权利要求1所述的基于Bang-bang控制策略的最优时间追踪捕获系统,其特征在于,所述解耦模块包含在监测主机内,通过对所述定位图像进行分析,将图像格式转换为HSB格式,并对整个图像不断进行扫描,通过对所述图像的色相,色调以及饱和度分析得出所述追逐机器人和逃逸机器人的各个特征色块上特征颜色点的X,Y坐标,然后 对相应的特征颜色点的X,Y坐标进行求和平均得到所述逃逸机器人的红色色块X,Y坐标、黄色色块X,Y坐标,所述追逐机器人的蓝色色块X,Y坐标、绿色色块X,Y坐标。
4.根据权利要求3所述的基于Bang-bang控制策略的最优时间追踪捕获系统,其特征在于,所述通信模块包括无线传感器主节点和无线传感器次节点,其中,所述无线传感器主节点接收所述监测主机串口发送的数据,提取感兴趣的坐标数据,并将所述坐标数据封装为满足无线通信协议的数据帧格式,发送给所述无线传感器次节点;所述无线传感器次节点接收所述无线传感器主节点的数据,并将接收到的数据封装为串口通信协议的数据帧,发送给所述追逐机器人。
5.根据权利要求1所述的基于Bang-bang控制策略的最优时间追踪捕获系统,其特征在于,所述算法分析模块以所述通信模块输出的数据作为输入,计算出所述追逐机器人的X,Y方向坐标、X,Y方向的速度以及运动方向矢量;计算出逃逸机器人X,Y方向坐标、X,Y方向的速度;然后根据Bang-bang控制策略,求出所述追逐机器人X,Y方向的控制量以及最短追逐捕获时间。
6.根据权利要求1所述的基于Bang-bang控制策略的最优时间追踪捕获系统,其特征在于,所述机器人控制模块将所述算法分析模块得到的控制量应用到所述追逐机器人,通过某时刻的实际速度矢量和下一时刻目标速度矢量进行比较来控制所述追逐机器人的行进方向以及速度,直到完成追逐捕获任务。
7.根据权利要求1所述的基于Bang-bang控制策略的最优时间追踪捕获系统,其特征在于,所述机器人控制模块是将所述追逐机器人的运动状态分成四种,来保证所述追逐机器人能快速准确的达到目标状态。
8.一种基于Bang-bang控制策略的最优时间追踪捕获方法,其特征在于,包括
以下步骤:
第一步,连续不断的采集逃逸机器人和追逐机器人在监测区域内的RGB格式的定位图像;
第二步,处理所述定位图像,得到所述追逐机器人和逃逸机器人的特征色块的X,Y方向的坐标数据;
第三步,将从所述坐标数据传递到所述追逐机器人;
第四步,根据Bang-bang控制策略计算出所述追逐机器人的控制量以及最短追逐捕获时间;
所述控制量为加速度控制量,根据公式(1)计算追逐机器人X方向的加速度控制量Ux:
相应计算追逐机器人Y方向的加速度控制量Uy:
根据公式(2)计算追逐机器人X方向的最短追逐捕获时间Tx;
相应计算追逐机器人Y方向的最短追逐捕获时间Ty:
则整个最短追逐捕获时间T=max(Tx,Ty);
其中,X1是X方向追逐机器人与逃逸机器人的位移差,X2是X方向追逐机器人与逃逸机器人的速度差;
Y1是Y方向追逐机器人与逃逸机器人的位移差,Y2是Y方向追逐机器人与逃逸机器人的速度差;
Up是加速度控制量的最大值;
第五步,根据计算出的所述控制量,结合所述追逐机器人自身位置以及运动方向计算所述追逐机器人的目标速度和方向,从而实时调整所述追逐机器人的速度和方向以完成追逐捕获任务。
9.根据权利要求8所述的基于Bang-bang控制策略的最优时间追踪捕获方法,其特征在于,在第二步中,将采集到的RGB格式的图像转换为HSB格式的图像,并对整个图像不断进行扫描,通过对所述图像的色相,色调以及饱和度分析得出所述追逐机器人和逃逸机器人上的特定颜色点的X,Y坐标,然后对相应的特征颜色点的X,Y坐标进行求和平均得到所述逃逸机器人的红色色块X,Y坐标、黄色色块X,Y坐标,所述追逐机器人的蓝色色块X,Y坐标、绿色色块X,Y坐标。
10.根据权利要求8所述的基于Bang-bang控制策略的最优时间追踪捕获方法,其特征在于,第四步中,根据所述坐标数据计算出所述追逐机器人的X,Y方向坐标、X,Y方向的速度以及运动方向矢量,以及逃逸机器人X,Y方向坐标、X,Y方向的速度,根据Bang-bang控制策略,求出所述追逐机器人X,Y方向的控制量以及最短追逐捕获时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210014628.8A CN102566432B (zh) | 2012-01-17 | 2012-01-17 | 基于Bang-bang控制策略的最优时间追踪捕获系统及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210014628.8A CN102566432B (zh) | 2012-01-17 | 2012-01-17 | 基于Bang-bang控制策略的最优时间追踪捕获系统及其方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102566432A CN102566432A (zh) | 2012-07-11 |
CN102566432B true CN102566432B (zh) | 2014-07-30 |
Family
ID=46412085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210014628.8A Active CN102566432B (zh) | 2012-01-17 | 2012-01-17 | 基于Bang-bang控制策略的最优时间追踪捕获系统及其方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102566432B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016074169A1 (zh) * | 2014-11-12 | 2016-05-19 | 深圳市大疆创新科技有限公司 | 一种对目标物体的检测方法、检测装置以及机器人 |
CN108037767A (zh) * | 2017-12-13 | 2018-05-15 | 王俊梅 | 一种无人机视线死角转向逃逸飞行系统 |
CN110007689B (zh) * | 2019-04-26 | 2021-12-14 | 北京中科星通技术有限公司 | 反异构无人机的任务分配方法及装置 |
CN112666984B (zh) * | 2020-12-29 | 2022-11-22 | 北京电子工程总体研究所 | 一种多对一的智能协同追逃博弈方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1101514A2 (en) * | 1999-10-30 | 2001-05-23 | Korea Advanced Institute Of Science And Technology | Football robot control system using infrared modules |
CN1758283A (zh) * | 2005-11-03 | 2006-04-12 | 复旦大学 | 模拟多尺度交叠感受野的神经网络及其建立方法和应用 |
CN101667037A (zh) * | 2008-09-03 | 2010-03-10 | 中国科学院自动化研究所 | 一种基于可行通道的机器人目标追踪方法 |
-
2012
- 2012-01-17 CN CN201210014628.8A patent/CN102566432B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1101514A2 (en) * | 1999-10-30 | 2001-05-23 | Korea Advanced Institute Of Science And Technology | Football robot control system using infrared modules |
CN1758283A (zh) * | 2005-11-03 | 2006-04-12 | 复旦大学 | 模拟多尺度交叠感受野的神经网络及其建立方法和应用 |
CN101667037A (zh) * | 2008-09-03 | 2010-03-10 | 中国科学院自动化研究所 | 一种基于可行通道的机器人目标追踪方法 |
Non-Patent Citations (4)
Title |
---|
张杏等.足球机器人系统中一种快速模式识别算法的研究与实现.《湖南大学学报(自然科学版)》.2002,第29卷(第3期),25-30. |
机器人捕捉运动目标的时间最优控制方法;邝宏武等;《机械设计与研究》;20091231;第25卷(第6期);31-35 * |
足球机器人系统中一种快速模式识别算法的研究与实现;张杏等;《湖南大学学报(自然科学版)》;20020630;第29卷(第3期);25-30 * |
邝宏武等.机器人捕捉运动目标的时间最优控制方法.《机械设计与研究》.2009,第25卷(第6期),31-35. |
Also Published As
Publication number | Publication date |
---|---|
CN102566432A (zh) | 2012-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
McEnroe et al. | A survey on the convergence of edge computing and AI for UAVs: Opportunities and challenges | |
Gu et al. | Multiple moving targets surveillance based on a cooperative network for multi-UAV | |
WO2021073528A1 (zh) | 一种无人艇智能决策方法及系统 | |
CN109657575B (zh) | 室外施工人员智能视频跟踪算法 | |
Palossi et al. | Fully onboard ai-powered human-drone pose estimation on ultralow-power autonomous flying nano-uavs | |
Milford et al. | Single camera vision-only SLAM on a suburban road network | |
CN102566432B (zh) | 基于Bang-bang控制策略的最优时间追踪捕获系统及其方法 | |
CN107544541A (zh) | 一种无人机控制方法及系统 | |
CN105867397A (zh) | 一种基于图像处理和模糊控制的无人机精确位置降落方法 | |
CN103197684A (zh) | 无人机群协同跟踪目标的方法及系统 | |
DE112011104644T5 (de) | Mobiles Roboter-System | |
Ziegler et al. | Distributed formation estimation via pairwise distance measurements | |
CN109144047A (zh) | 一种基于多智能体系统的有限时间编队控制方法 | |
Dang et al. | Vision based ground object tracking using AR. Drone quadrotor | |
CN102967297A (zh) | 空间可移动视觉传感器阵列系统及图像信息融合方法 | |
Chung et al. | Toward robotic sensor webs: Algorithms, systems, and experiments | |
Valenti et al. | An autonomous flyer photographer | |
CN116390138B (zh) | 一种基于数字孪生网络的故障诊断方法及相关设备 | |
Zinonos et al. | Grape leaf diseases identification system using convolutional neural networks and Lora technology | |
Sangam et al. | Transvisdrone: Spatio-temporal transformer for vision-based drone-to-drone detection in aerial videos | |
CN104765360A (zh) | 一种基于图像识别的无人机自主飞行系统 | |
CN106094849A (zh) | 用于农场自主管理的四旋翼飞行器控制系统及控制方法 | |
Vashisth et al. | An overview, survey, and challenges in UAVs communication network | |
CN113627326B (zh) | 一种基于可穿戴设备和人体骨架的行为识别方法 | |
Hao et al. | Rcooper: A real-world large-scale dataset for roadside cooperative perception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |