CN110162094A - 一种基于视觉测量信息的密集编队控制方法 - Google Patents

一种基于视觉测量信息的密集编队控制方法 Download PDF

Info

Publication number
CN110162094A
CN110162094A CN201910510757.8A CN201910510757A CN110162094A CN 110162094 A CN110162094 A CN 110162094A CN 201910510757 A CN201910510757 A CN 201910510757A CN 110162094 A CN110162094 A CN 110162094A
Authority
CN
China
Prior art keywords
intelligent body
intelligent
angle
formation
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910510757.8A
Other languages
English (en)
Other versions
CN110162094B (zh
Inventor
苏文山
陈磊
白显宗
张筱镡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Defense Technology Innovation Institute PLA Academy of Military Science
Original Assignee
National Defense Technology Innovation Institute PLA Academy of Military Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Defense Technology Innovation Institute PLA Academy of Military Science filed Critical National Defense Technology Innovation Institute PLA Academy of Military Science
Priority to CN201910510757.8A priority Critical patent/CN110162094B/zh
Publication of CN110162094A publication Critical patent/CN110162094A/zh
Application granted granted Critical
Publication of CN110162094B publication Critical patent/CN110162094B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明涉及一种基于视觉测量信息的密集编队控制方法。方法首先提出了基于夹角约束的期望编队构型定义方法,给出了期望编队构型下各智能体相对于相邻智能体的期望几何关系描述方法;然后在此基础上,确定了实现编队控制各智能体所需的通信和测量配置,给出了基于视觉测量信息计算各智能体与其两相邻智能体的夹角方法;最后,设计了一种仅利用夹角测量值使得多智能体编队收敛到期望构型的控制方法。本发明的编队控制方法不再依赖于各智能体的自身位置和相对位置测量信息,消除了位置信息测量偏差队编队控制精度的影响,使得编队可利用视觉测量信息实现密集编队的精确控制。

Description

一种基于视觉测量信息的密集编队控制方法
技术领域
本发明属于多智能体系统协同控制技术领域,特别涉及一种基于视觉测量信息的密集编队控制方法。
背景技术
基于几何构型约束的编队是一种常见的多智能体系统协同方式。如在自然界,雁群常呈“人”字形飞行,即实现了头雁对整个雁群的有效领导,又减小了雁群中老弱病残者的体力消耗;海豚群捕食时常对鱼群形成一个包围圈,不断缩小包围半径以提高海豚捕食成功的概率。受自然界这些生物集群自然现象启发,近些年无人机、无人车和无人艇等人造智能体广泛采用编队协同形式,以提高搜索、侦查和监测等应用场景下的任务半径,提高执行效率。
编队的几何构型约束本质上是对编队各智能体相对位置关系的描述,因此,编队常通过控制各智能体间相对位置来使实现期望构型的控制。实际控制中,各智能体首先借助于惯导系统或者GPS系统来测量自身位置信息,然后各智能体借助于通信获取的相邻智能体位置信息来计算相对位置信息,最后各智能体结合期望构型约束下的期望相对位置信息计算控制指令调整自身位置,最终使得相对位置信息等于期望值。可以看出,各智能体自身定位精度对编队控制精度有重要影响。但是惯导系统存在累积偏差,系统工作时间越长位置测量精度越低;GPS系统测量同样存在偏差,特别是当编队任务环境存在遮挡物时,由于不能正常接受GPS信号各智能体将无法准确获悉自身位置信息。因此,当编队密集度较高、相邻智能体间期望相对距离较小时,惯导系统或者GPS系统的定位偏差将会对编队控制精度有重要影响。
发明内容
本发明提出一种基于视觉测量信息的密集编队控制方法,能够在编队智能体自身定位精度较低情况下,提高编队控制的精度。
本发明包括下列步骤:
S1:设计编队期望构型,确定各智能体相邻智能体及其相对于相邻智能体的夹角约束;
S2:根据各智能体需满足夹角约束,确定各智能体需测量视线角的智能体,以及需发送和接收所测量视线信息的智能体;
S3:各智能体利用所测量视线角信息计算其与相邻两智能体的夹角,并将该夹角信息传递给相邻智能体;
S4:基于指定夹角约束的期望值和当前实际值,各智能体计算速度控制指令;
S5:各智能体采用速度控制指令调整自身位置;
S6:若时间到达指定的预定的编队控制任务时间,则编队控制结束,否则返回步骤S3。
进一步地,所述S1中具体步骤为:
假设三维空间下运动的编队由n个智能体组成,各智能体依次编号为1、2、…、n;编队采用主从式拓扑结构,记1号智能体为一级主智能体,2号智能体为二级智能体,3号智能体为三级主智能体,其余智能体为从智能体。其中2号主智能体相对1号和3号智能体有夹角约束φ123,3号智能体相对于1号和2号智能体存在夹角约束φ132;各从智能体l相对于智能体i、j和k均存在夹角约束φikl、φilj和φjlk,其中l≥4,i、j、k<l;实际任务执行过程中,编队中的夹角约束φ123和φ132由3号主智能体执行,φikl、φilj和φjlk由l号主智能体执行;
若编队仅限于二维平面下运动,则只需定义1号和2号智能体为主智能体,其余智能体为从智能体。各从智能体k相对于智能体i和j号智能体存在夹角约束φijk和φikj,其中k≥3,i、j<k,且两夹角约束均由智能体k调整自身位置来满足;二维平面下运动的编队是在1号2号主智能体的带领下完成多样性任务,其余智能体则以保持指定编队构型为目的。
进一步地,所述S2中,
为达到编队下的指定夹角约束,对于三维空间下运动的编队,为提供3号智能调整自身位置需要的信息,需要2号智能体能测得夹角φ123的大小,3号智能体能测得夹角φ132的大小,同时2号智能体应能将φ123发送给3号智能体;l号智能体配有视觉传感器以测得φilj和φjlk的大小,其中l≥4,k号智能体配有视觉传感器以测得夹角φikl的大小、k号智能体能与l号智能体通信以将φikl的值发送给它;
对于二维平面下运动的编队,结合指定的夹角约束知,l号智能体为实现夹角约束φijk和φikj,其中l≥3,则要求j号和k号智能体配有视觉传感器测得夹角φijk和φikj的实际大小,同时j号智能体将φijk发送给k号智能体;
各智能体关于相邻两智能体的夹角具体测量如下:记i号智能体视觉传感器的测量坐标系为oi-xiyizi,相邻j号和k号智能体在该坐标系的视线方位角和高低角分别记为:σij、θij、σik和θik,j号和k号智能体相对于i号智能体的单位视线方向向量可表示为:
则j号和k号智能体关于智能体i智能体的夹角可表示为:
二维平面内,各智能体关于相邻两智能体的夹角可视为其视线角的差值:
φjik=θijik 3
进一步地,所述S4中具体步骤为:
假设各智能体运动特性可用一阶微分环节近似:
其中pi为各智能体位置,ui为各智能体控制输入;对三维空间下运动的编队有二维平面下运动的编队有pi
对于三维空间下运动的编队,3号智能体为满足夹角约束φ123和φ132,采用控制律形式为:
其中表示夹角约束φ123和φ132在期望编队构型下的期望值,e31和e32表示1号智能体和2号智能体相对于3号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,e21和e23表示1号和3号智能体相对于2号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,Pe32表示:
式中表示单位对角阵。
记:
结合Pe32定义知表达式Pe32(e21+e23)对应的物理含义为向量e21+e23在向量e32垂直方向上的分量,即u3,1表示垂直于向量e32的控制加速度。由u3,2的形式知其表示沿向量e32方向的控制加速度;可通过对智能体3施加作用力u3,1使得夹角φ123调整到期望值;通过对智能体3施加控制力u3,2使得在不改变夹角φ123的情况下调整φ132的大小;式5所示控制律可以解耦的形式分别调整夹角φ123和φ132的大小。
对于l(l≥4)号智能体为满足夹角约束φikl、φilj和φjlk,可采用控制律形式如下:
式中分别表示φikl、φilj和φjlk的期望值,表示垂直于j、l和k号智能体所在平面的单位方向向量,可表示为:
其中符合“×”表示向量的叉乘。
记:
其中ul,1表示在i、k和l号智能体所在平面内且垂直于向量ekl的控制力;ul,2表示垂直于i、k和l号智能体所在平面内的控制力;ul,3表示沿向量elk方向的控制力;可通过对l号智能体施加控制力ul,1调整夹角φikl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl的情况下调整夹角φjkl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl和φjkl大小的情况下调整φilk的大小;式8可以解耦的形式调整夹角φikl、φjkl和φilk的大小。
对于二维平面下运动的编队,智能体k为满足其相对于相邻智能体i号和j号需满足夹角约束φijk和φikj,k≥3,i,j<k,采用如下控制律:
本发明提出的基于视觉测量信息的编队控制方法。由于视觉传感器测量量是相对物理量,直接体现了智能体间的相对几何关系,相对于惯导和GPS系统视觉传感器具有智能体间间距越小测量精度越高的特性,因此本发明能够在编队智能体自身定位精度较低情况下,提高编队控制的精度。
附图说明
图1本发明编队控制方法流程图;
图2主智能体间的几何约束;
图3从智能体给定的几何约束;
图4主智能体间的几何约束;
图5从智能体给定的几何约束;
图6对智能体3施加控制力效果示意图;
图7对l号智能体施加控制力效果示意图
图8三维空间下的编队控制效果;
图9二维平面下的编队控制效果。
具体实施方式
下面将结合附图对本发明进行详细的阐述。
为避免惯导和GPS系统自身定位偏差对密集编队控制精度的影响,本发明提出了一种基于视觉测量信息的编队控制方法。视觉传感器测量量是相对物理量,即视线角信息,直接体现了智能体间的相对几何关系,且相对于惯导和GPS系统视觉传感器具有智能体间间距越小测量精度越高的特性。基于此特性,本发明提出了一种基于视觉测量信息的编队控制方法。发明首先给出了一种适用于视觉测量信息实现编队期望构型控制的智能体间关联结构,然后给出了编队的测量和通信配置要求,最后给出了一种各智能体利用视觉测量信息实现编队期望构型的控制策略。
如图1所示,本发明方法有如下步骤:
第一步:设计编队期望构型,确定各智能体相邻智能体及其相对于相邻智能体的夹角约束;
第二步:利用各智能体需满足夹角约束,确定各智能体需测量视线角的智能体,以及需发送和接收所测量视线信息的智能体,即信息测量和交互拓扑结构;
第三步:各智能体利用所测量视线角信息计算其与相邻两智能体的夹角,并根据信息交互拓扑结构将该夹角信息传递给相邻智能体;
第四步:基于指定夹角约束的期望值和当前实际值,各智能体利用式5、8和11计算速度控制指令;
第五步:各智能体采用速度控制指令调整自身位置;
第六步:若时间到达指定的预定的编队控制任务时间,则编队控制结束,否则返回第三步。
一.定义编队几何构型约束
假设三维空间下运动的编队由n个智能体组成,各智能体依次编号为1、2、…、n。编队采用主从式拓扑结构,记1号智能体为一级主智能体,2号智能体为二级智能体,3号智能体为三级主智能体,其余智能体为从智能体。其中2号主智能体相对1号和3号智能体有夹角约束φ123,3号智能体相对于1号和2号智能体存在夹角约束φ132,如图2所示;各从智能体l(l≥4)相对于智能体i、j和k(i、j、k<l)均存在夹角约束φikl、φilj和φjlk,如图3所示。实际任务执行过程中,编队中的夹角约束φ123和φ132由3号主智能体执行,φikl、φilj和φjlk由l号主智能体执行。考虑到编队在三维空间下运动,因此编队中的1号和2号主智能体实际运动过程中无需考虑编队构型约束,可自由运动,带领编队中其余智能体完成多样性任务;3号主智能体实际运动考虑2个约束,还存在一个自由度,可结合实际任务需要配合1号和2号主智能体做一定适应性变化;其余智能体均存在3个约束,主要以维持指定的编队构型为控制目的。
若编队仅限于二维平面下运动,则只需定义1号和2号智能体为主智能体,其余智能体为从智能体。各从智能体k(k≥3)相对于智能体i和j(i、j<k)号智能体存在夹角约束φijk和φikj,且两夹角约束均由智能体k调整自身位置来满足。可以看出,二维平面下运动的编队是在1号2号主智能体的带领下完成多样性任务,其余智能体则以保持指定编队构型为目的。二.确定各智能体测量和通信需求
结合具体任务,三维空间下的编队由1号、2号和3号主智能体相互配合控制任务流程,二维空间下的编队则由1号和2号主智能体配合控制任务流程。因此,任务执行前需对以上智能体的航迹进行规划或者指定任务目的。因此,需要结合具体任务确定1、2和3号智能体的测量需求,如对于循迹飞行任务,则应配有定位测量装置。
为达到编队下的指定夹角约束,对于三维空间下运动的编队,为提供3号智能调整自身位置需要的信息,需要2号智能体能测得夹角φ123的大小,3号智能体能测得夹角φ132的大小,同时2号智能体应能将φ123发送给3号智能体;l(l≥4)号智能体配有视觉传感器以测得φilj和φjlk的大小,k号智能体配有视觉传感器以测得夹角φikl的大小、k号智能体能与l号智能体通信以将φikl的值发送给它。对于二维平面下运动的编队,结合指定的夹角约束知,l(l≥3)号智能体为实现夹角约束φijk和φikj,则要求j号和k号智能体配有视觉传感器测得夹角φijk和φikj的实际大小,同时j号智能体将φijk发送给k号智能体。
各智能体关于相邻两智能体的夹角具体测量如下:记i号智能体视觉传感器的测量坐标系为oi-xiyizi,相邻j号和k号智能体在该坐标系的视线方位角和高低角分别记为:σij、θij、σik和θik,如图4所示,则知j号和k号智能体相对于i号智能体的单位视线方向向量可表示为:
则j号和k号智能体关于智能体i智能体的夹角可表示为:
二维平面内,各智能体关于相邻两智能体的夹角可视为其视线角的差值,如图5所示:
φjik=θijik 3
第三步:确定各智能体控制策略
假设各智能体运动特性可用一阶微分环节近似:
其中pi为各智能体位置,ui为各智能体控制输入。对三维空间下运动的编队有pi二维平面下运动的编队有pi
对于三维空间下运动的编队,3号智能体为满足夹角约束φ123和φ132,采用控制律形式为:
其中表示夹角约束φ123和φ132在期望编队构型下的期望值,e31和e32表示1号智能体和2号智能体相对于3号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,e21和e23表示1号和3号智能体相对于2号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,Pe32表示:
式中表示单位对角阵。
记:
结合Pe32定义知表达式Pe32(e21+e23)对应的物理含义为向量e21+e23在向量e32垂直方向上的分量,即u3,1表示垂直于向量e32的控制加速度。由u3,2的形式知其表示沿向量e32方向的控制加速度。由图6可知:可通过对智能体3施加作用力u3,1使得夹角φ123调整到期望值;通过对智能体3施加控制力u3,2使得在不改变夹角φ123的情况下调整φ132的大小。因此,式5所示控制律可以解耦的形式分别调整夹角φ123和φ132的大小。
对于l(l≥4)号智能体为满足夹角约束φikl、φilj和φjlk,可采用控制律形式如下:
式中分别表示φikl、φilj和φjlk的期望值,表示垂直于j、l和k号智能体所在平面的单位方向向量,可表示为:
其中符合“×”表示向量的叉乘。
记:
由上式中各式形式知:ul,1表示在i、k和l号智能体所在平面内且垂直于向量ekl的控制力;ul,2表示垂直于i、k和l号智能体所在平面内的控制力;ul,3表示沿向量elk方向的控制力。由图7知可通过对l号智能体施加控制力ul,1调整夹角φikl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl的情况下调整夹角φjkl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl和φjkl大小的情况下调整φilk的大小。因此,式8会以解耦的形式调整夹角φikl、φjkl和φilk的大小。
图8给出了三维空间下四智能体编队的控制效果,编队期望几何构型为正四面体,编队下的3号和4号智能体分别采用式5和式8所示控制律,可以看出在该控制律作用下编队收敛到期望构型。
对于二维平面下运动的编队,智能体k(k≥3)为满足其相对于相邻智能体i号和j号(i,j<k)需满足夹角约束φijk和φikj,同样可采用与式5相似的控制律:
图9给出了二维平面下四智能体编队的控制效果,编队期望几何构型为正方形,编队下的3号和4号智能体均采用式11所示控制律,可以看出在该控制律作用下编队收敛到期望构型。

Claims (4)

1.一种基于视觉测量信息的密集编队控制方法,其特征在于,包括下列步骤:
S1:设计编队期望构型,确定各智能体相邻智能体及其相对于相邻智能体的夹角约束;
S2:根据各智能体需满足夹角约束,确定各智能体需测量视线角的智能体,以及需发送和接收所测量视线信息的智能体;
S3:各智能体利用所测量视线角信息计算其与相邻两智能体的夹角,并将该夹角信息传递给相邻智能体;
S4:基于指定夹角约束的期望值和当前实际值,各智能体计算速度控制指令;
S5:各智能体采用速度控制指令调整自身位置;
S6:若时间到达指定的预定的编队控制任务时间,则编队控制结束,否则返回步骤S3。
2.根据权利要求1所述的一种基于视觉测量信息的密集编队控制方法,其特征在于,所述S1中具体步骤为:
假设三维空间下运动的编队由n个智能体组成,各智能体依次编号为1、2、…、n;编队采用主从式拓扑结构,记1号智能体为一级主智能体,2号智能体为二级智能体,3号智能体为三级主智能体,其余智能体为从智能体。其中2号主智能体相对1号和3号智能体有夹角约束φ123,3号智能体相对于1号和2号智能体存在夹角约束φ132;各从智能体l相对于智能体i、j和k均存在夹角约束φikl、φilj和φjlk,其中l≥4,i、j、k<l;实际任务执行过程中,编队中的夹角约束φ123和φ132由3号主智能体执行,φikl、φilj和φjlk由l号主智能体执行;
若编队仅限于二维平面下运动,则只需定义1号和2号智能体为主智能体,其余智能体为从智能体。各从智能体k相对于智能体i和j号智能体存在夹角约束φijk和φikj,其中k≥3,i、j<k,且两夹角约束均由智能体k调整自身位置来满足;二维平面下运动的编队是在1号2号主智能体的带领下完成多样性任务,其余智能体则以保持指定编队构型为目的。
3.根据权利要求1所述的一种基于视觉测量信息的密集编队控制方法,其特征在于,所述S2中,
为达到编队下的指定夹角约束,对于三维空间下运动的编队,为提供3号智能调整自身位置需要的信息,需要2号智能体能测得夹角φ123的大小,3号智能体能测得夹角φ132的大小,同时2号智能体应能将φ123发送给3号智能体;l号智能体配有视觉传感器以测得φilj和φjlk的大小,其中l≥4,k号智能体配有视觉传感器以测得夹角φikl的大小、k号智能体能与l号智能体通信以将φikl的值发送给它;
对于二维平面下运动的编队,结合指定的夹角约束知,l号智能体为实现夹角约束φijk和φikj,其中l≥3,则要求j号和k号智能体配有视觉传感器测得夹角φijk和φikj的实际大小,同时j号智能体将φijk发送给k号智能体;
各智能体关于相邻两智能体的夹角具体测量如下:记i号智能体视觉传感器的测量坐标系为oi-xiyizi,相邻j号和k号智能体在该坐标系的视线方位角和高低角分别记为:σij、θij、σik和θik,j号和k号智能体相对于i号智能体的单位视线方向向量可表示为:
则j号和k号智能体关于智能体i智能体的夹角可表示为:
二维平面内,各智能体关于相邻两智能体的夹角可视为其视线角的差值:
φjik=θijik 3。
4.根据权利要求1所述的一种基于视觉测量信息的密集编队控制方法,其特征在于,所述S4中具体步骤为:
假设各智能体运动特性可用一阶微分环节近似:
其中pi为各智能体位置,ui为各智能体控制输入;对三维空间下运动的编队有pi二维平面下运动的编队有pi
对于三维空间下运动的编队,3号智能体为满足夹角约束φ123和φ132,采用控制律形式为:
其中表示夹角约束φ123和φ132在期望编队构型下的期望值,e31和e32表示1号智能体和2号智能体相对于3号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,e21和e23表示1号和3号智能体相对于2号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,Pe32表示:
式中表示单位对角阵。
记:
结合Pe32定义知表达式Pe32(e21+e23)对应的物理含义为向量e21+e23在向量e32垂直方向上的分量,即u3,1表示垂直于向量e32的控制加速度。由u3,2的形式知其表示沿向量e32方向的控制加速度;可通过对智能体3施加作用力u3,1使得夹角φ123调整到期望值;通过对智能体3施加控制力u3,2使得在不改变夹角φ123的情况下调整φ132的大小;式5所示控制律可以解耦的形式分别调整夹角φ123和φ132的大小。
对于l(l≥4)号智能体为满足夹角约束φikl、φilj和φjlk,可采用控制律形式如下:
式中分别表示φikl、φilj和φjlk的期望值,表示垂直于j、l和k号智能体所在平面的单位方向向量,可表示为:
其中符合“×”表示向量的叉乘。
记:
其中ul,1表示在i、k和l号智能体所在平面内且垂直于向量ekl的控制力;ul,2表示垂直于i、k和l号智能体所在平面内的控制力;ul,3表示沿向量elk方向的控制力;可通过对l号智能体施加控制力ul,1调整夹角φikl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl的情况下调整夹角φjkl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl和φjkl大小的情况下调整φilk的大小;式8可以解耦的形式调整夹角φikl、φjkl和φilk的大小。
对于二维平面下运动的编队,智能体k为满足其相对于相邻智能体i号和j号需满足夹角约束φijk和φikj,k≥3,i,j<k,采用如下控制律:
CN201910510757.8A 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法 Active CN110162094B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910510757.8A CN110162094B (zh) 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910510757.8A CN110162094B (zh) 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法

Publications (2)

Publication Number Publication Date
CN110162094A true CN110162094A (zh) 2019-08-23
CN110162094B CN110162094B (zh) 2022-02-22

Family

ID=67628678

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910510757.8A Active CN110162094B (zh) 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法

Country Status (1)

Country Link
CN (1) CN110162094B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737283A (zh) * 2019-11-04 2020-01-31 中国人民解放军军事科学院国防科技创新研究院 一种面向视觉集群的编队解耦控制方法
CN111650963A (zh) * 2020-06-03 2020-09-11 中国人民解放军军事科学院国防科技创新研究院 一种面向垂直起降固定翼无人机的视觉集群编队控制方法
CN113759982A (zh) * 2021-10-19 2021-12-07 中国人民解放军军事科学院国防科技创新研究院 一种仅基于视线测量信息的无人机编队相对状态估计方法
CN114115334A (zh) * 2021-11-05 2022-03-01 北京理工大学 一种视野角约束条件下的多智能体编队控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685309A (zh) * 2008-09-24 2010-03-31 中国科学院自动化研究所 多机器人协调队形控制方法
CN107943071A (zh) * 2017-11-03 2018-04-20 中国科学院自动化研究所 无人车的编队保持控制方法及系统
CN208013783U (zh) * 2018-04-03 2018-10-26 华南理工大学 基于视觉的移动机器人编队的协同定位系统
CN109857115A (zh) * 2019-02-27 2019-06-07 华南理工大学 一种基于视觉反馈的移动机器人的有限时间编队控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685309A (zh) * 2008-09-24 2010-03-31 中国科学院自动化研究所 多机器人协调队形控制方法
CN107943071A (zh) * 2017-11-03 2018-04-20 中国科学院自动化研究所 无人车的编队保持控制方法及系统
CN208013783U (zh) * 2018-04-03 2018-10-26 华南理工大学 基于视觉的移动机器人编队的协同定位系统
CN109857115A (zh) * 2019-02-27 2019-06-07 华南理工大学 一种基于视觉反馈的移动机器人的有限时间编队控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JING GUO 等: "Second-Order Coordination Control for Triangle Formation Based on Angle Constraints", 《 INTERNATIONAL CONFERENCE ON INFORMATION SCIENCE AND CONTROL ENGINEERING》 *
王楷 等: "双视线测量相对导航方法误差分析与编队设计", 《航空学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737283A (zh) * 2019-11-04 2020-01-31 中国人民解放军军事科学院国防科技创新研究院 一种面向视觉集群的编队解耦控制方法
CN110737283B (zh) * 2019-11-04 2022-09-27 中国人民解放军军事科学院国防科技创新研究院 一种面向视觉集群的编队解耦控制方法
CN111650963A (zh) * 2020-06-03 2020-09-11 中国人民解放军军事科学院国防科技创新研究院 一种面向垂直起降固定翼无人机的视觉集群编队控制方法
CN111650963B (zh) * 2020-06-03 2023-08-18 中国人民解放军军事科学院国防科技创新研究院 一种面向垂直起降固定翼无人机的视觉集群编队控制方法
CN113759982A (zh) * 2021-10-19 2021-12-07 中国人民解放军军事科学院国防科技创新研究院 一种仅基于视线测量信息的无人机编队相对状态估计方法
CN113759982B (zh) * 2021-10-19 2024-05-28 中国人民解放军军事科学院国防科技创新研究院 一种仅基于视线测量信息的无人机编队相对状态估计方法
CN114115334A (zh) * 2021-11-05 2022-03-01 北京理工大学 一种视野角约束条件下的多智能体编队控制方法
CN114115334B (zh) * 2021-11-05 2024-05-07 北京理工大学 一种视野角约束条件下的多智能体编队控制方法

Also Published As

Publication number Publication date
CN110162094B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN110162094A (zh) 一种基于视觉测量信息的密集编队控制方法
US10241520B2 (en) System and method for vision-based flight self-stabilization by deep gated recurrent Q-networks
CN105492985B (zh) 一种用于在环境内控制可移动物体的系统及方法
CN110362089A (zh) 一种基于深度强化学习和遗传算法的无人船自主导航的方法
US12079011B2 (en) System and method for perceptive navigation of automated vehicles
An et al. Uncertain moving obstacles avoiding method in 3D arbitrary path planning for a spherical underwater robot
Wang et al. Model-free visual servo swarming of manned-unmanned surface vehicles with visibility maintenance and collision avoidance
Spasojevic et al. Perception-aware time optimal path parameterization for quadrotors
Zheng et al. The communication and stability evaluation of amphibious spherical robots
CN107563044B (zh) 基于在线安全学习的四旋翼无人机路径跟踪控制方法
WO2022241944A1 (zh) 一种海空协同水下目标追踪的路径规划系统及方法
Jin et al. On-board vision autonomous landing techniques for quadrotor: A survey
CN206411514U (zh) 一种基于二维码定位的智能仓储移动机器人系统
CN106737659A (zh) 一种水下无人航行器和机械手系统的手艇协调控制方法
Rigatos Sensor fusion-based dynamic positioning of ships using Extended Kalman and Particle Filtering
CN109213159A (zh) 一种运用无人机进行海上态势感知监测船舶路径的方法
Sans-Muntadas et al. Learning an AUV docking maneuver with a convolutional neural network
CN105333869A (zh) 一种基于自适应ekf的无人侦察机同步定位与构图方法
CN106056633A (zh) 运动控制方法、装置及系统
Hadi et al. Adaptive formation motion planning and control of autonomous underwater vehicles using deep reinforcement learning
Choi et al. Enhanced SLAM for a mobile robot using extended Kalman filter and neural networks
Ennong et al. Design and experiment of a sea-air heterogeneous unmanned collaborative system for rapid inspection tasks at sea
Fabresse et al. Active perception for 3D range-only simultaneous localization and mapping with UAVs
CN116385909A (zh) 一种基于深度强化学习的无人机目标跟踪方法
Ding et al. Vision-Based Formation Control for a Heterogeneous Multi-Robot System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant