CN112099505A - 一种低复杂度的移动机器人视觉伺服编队控制方法 - Google Patents
一种低复杂度的移动机器人视觉伺服编队控制方法 Download PDFInfo
- Publication number
- CN112099505A CN112099505A CN202010979689.2A CN202010979689A CN112099505A CN 112099505 A CN112099505 A CN 112099505A CN 202010979689 A CN202010979689 A CN 202010979689A CN 112099505 A CN112099505 A CN 112099505A
- Authority
- CN
- China
- Prior art keywords
- follower
- pilot
- visual
- relative
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0295—Fleet control by at least one leading vehicle of the fleet
Abstract
本发明公开了一种低复杂度的移动机器人视觉伺服编队控制方法,该方法首先根据领航者和跟随者之间的相对运动学模型得到图像空间中的相对视觉运动学模型,之后对相对视觉运动学模型进行视觉特征向量转换,得到解耦视觉运动学模型,接着对图像误差向量进行包含预定性能规范误差变换,最后设计出跟随者的角速度和线速度,进而得到基于跟随者角速度和线速度的控制律,实现跟随者对领航者的跟踪控制。本发明设计的控制器的计算量小,不需要机器人之间的相对角度、距离、领航者的速度以及特征点的深度信息。所有需要的信息都从图像上获取,从而减少对额外传感器的依赖,大大提高了系统的自主性。
Description
技术领域
本发明涉及移动机器人编队控制领域,特别是一种低复杂度的移动机器人视觉伺服编队控制方法。
背景技术
多移动机器人编队技术为多个机器人在到达目的地的过程中,保持某种队型,同时又要适应环境约束的一种控制技术。多移动机器人协调合作能提高完成任务的效率,增强系统的容错性、鲁棒性,完成单个机器人难以完成的任务,加强机器人的环境识别能力。因此多移动机器人在不同领域得到了广泛应用,包括军事领域、生产领域、服务领域。
在多移动机器人编队控制中,需要考虑每台机器人与其他成员的感知以获得协调运动所需的信息,同时需要考虑多移动机器人编队控制的运行环境。因此移动机器人会通常会搭载视觉传感器、距离传感器、速度传感器、角度传感器等,机载负荷高及控制算法复杂。而为了减少传感器的应用,目前基于视觉图像传感器的图像编队控制方法对领航者特征点的深度和领航者的速度未知,同时传统机载视觉传感器的视野存在限制,无法准确的进行多移动机器人进行编队控制。
如何保证在基于图象的多移动机器人编队控制的准确性,同时降低计算复杂度,降低机载负荷,成为目前需要解决的问题。
发明内容
本发明要解决的技术问题是,克服现有技术存在的上述缺陷,提供一种低复杂度的移动机器人视觉伺服编队控制方法,保证控制精度,简化机载感知工具,降低控制算法复杂度。
本发明解决技术问题采用的技术方案是,提供一种低复杂度的移动机器人视觉伺服编队控制方法,包括以下步骤:
S1:在移动机器人中确定一个领航者及多个跟随者;
S2:跟随者获取领航者的图像信息,进行特征检测,提取图像中位置信息;
S3:跟随者依据与领航者之间的相对运动学模型得到图像空间中的相对视觉运动学模型;
S4:对相对视觉运动学模型进行视觉特征向量转换,得到解耦视觉运动学模型;
S5:对实时视觉特征向量相对于期望恒定视觉特征向量的图像误差向量进行包含预定性能规范误差变换;
S6:对误差变换后的解耦视觉运动学模型设计跟随者所需要的基于角速度和线速度的控制律,实现跟随者对领航者的自动编队控制。
进一步的,所述步骤S3包括以下步骤:
S31:领航者相对于跟随者在世界坐标系的位置定位为:
其中,rlf=[xlf,ylf]T为领航者相对于跟随者在世界坐标系中的位置,xlf为领航者相对于跟随者在x坐标轴方向的相对位置,ylf为领航者相对于跟随者在y坐标轴的相对位置;在世界坐标系内rl为领航者的位置;rf为跟随者的位置;θf为跟随者的方位;
S32:对领航者相对于跟随者的位置进行一阶微分换算,得到领航者相对于跟随者的相对运动学模型,模型描述为:
S33:领航者的特征点在跟随者相机图像坐标系中的归一化坐标定义为:
其中,P=[X,Y,Z]T为特征点在跟随者相机图像坐标系中的三维坐标,归一化坐标为将三维空间点的坐标都除以Z,使其转化为归一的平面坐标,m为领航者特征点归一化后在x坐标轴方向的坐标值,n为领航者特征点归一化后在y坐标轴方向的坐标值;
S34:设领航者的特征点在领航者的相机坐标系x-y平面的坐标为(Xp,YP)以及跟随者的相机光学中心与领航者的特征点之间的相对高度为Zp,则领航者和跟随者在图像空间中的相对视觉运动学模型为:
进一步的,所述步骤S4包括以下步骤:
S41:定义视觉特征向量s=[p,q]T:
S42:对式(5)进行一阶微分,得到视觉特征向量一阶微分和图像坐标一阶微分的关系:
S43:在一阶微分后的视觉特征向量下领航者和跟随者在图像空间中的相对视觉运动学模型转换为解耦视觉运动学模型,模型表示为:
进一步的,所述步骤S5包括以下步骤:
S51:设置领航者的特征点在跟随者相机平面中的期望恒定视觉特征向量s*=[p*,q*]T;
S52:依据解耦视觉运动学模型实时计算跟随者相机平面中的视觉特征向量s=[p,q]T与期望恒定视觉特征向量s*=[p*,q*]T的误差,设图像误差向量为e=[e1,e2]T,则:
e=[e1,e2]T=[p-p*,q-q*]T (8);
S53:用性能函数ρk(t)定义误差向量e=[e1,e2]T中的图像误差ek的边界:
性能函数ρk(t)由下式定义:
其中,收敛速度l为正参数,误差极限ρ∞为任意值;
S54:定义具有预定性能规范误差变换:
进一步的,所述步骤S6包括以下步骤:
S61:依据预定性能规范误差变换,设计跟随者的线速度和角速度vf、wf如下:
wf=-k1ρε1 (13)
其中,k1和k2为正参数,函数N(ε2)定义为N(ε2)=cos(ε2)ε2,n为领航者特征点归一化后在跟随者图像平面y坐标轴方向的坐标值,ε1为误差向量e1通过预定性能规范误差变换得到,ε2为误差向量e2通过预定性能规范误差变换得到;
S62:依据跟随者的线速度和角速度vf、wf,得到跟随者基于线速度和角速度的控制律:
跟随者依据该控制律实现与领航者的自动编队控制。
进一步的,所述跟随者基于线速度和角速度的控制律,其系数矩阵为一个下三角矩阵,跟随者的编队控制由跟随者线速度vf决定,不依赖于跟随者角速度wf。
进一步的,所述移动机器人搭载相机传感器。
本发明采用移动机器人搭载的相机传感器获取图像信息,简化了机载传感器的数量,使得移动机器人机载负荷低;采用图像空间中的相对视觉运动学模型的坐标变换,及对图像误差向量进行的包含预定性能规范误差变换,设计跟随者所需要的角速度和线速度,得到跟随者基于角速度和线速度的控制律,实现跟随者对领航者的自动编队控制,而不需要计算移动机器人之间的相对角度、距离、领航者的速度及特征点的高度信息,有效降低了计算的复杂度;同时通过直接在图像空间中的处理可见性约束,选择适当性能函数,保证了图像坐标误差在指定的瞬态和稳态性能指标下收敛。
附图说明
图1为本发明提供的一种低复杂度的移动机器人视觉伺服编队控制方法的流程框图;
图2为本发明提供的一种低复杂度的移动机器人视觉伺服编队控制方法的算法过程示意图;
图3为本发明本发明实施例的领航者和跟随者在仿真中的编队过程轨迹示意图;
图4为本发明实施例的领航者和跟随者在仿真中的编队误差收敛示意图,其中,||r1-r0||表示机器人R1与机器人R0之间的编队误差,||r2-r0||表示机器人R2与机器人R0之间的编队误差;
图5为本发明实施例的连个跟随者的线速度和角速度曲线示意图,其中v1为机器人R1的线速度,w1为机器人R1的角速度,v2为机器人R2的线速度,w2为机器人R2的角速度;
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
参考图1、图2,图1为本发明提供一种低复杂度的移动机器人视觉伺服编队控制方法,包括以下步骤:
S1:在移动机器人中确定一个领航者及多个跟随者;
S2:跟随者获取领航者的图像信息,进行特征检测,提取图像中位置信息;
S3:跟随者依据与领航者之间的相对运动学模型得到图像空间中的相对视觉运动学模型;
S4:对相对视觉运动学模型进行视觉特征向量转换,得到解耦视觉运动学模型;
S5:对实时视觉特征向量相对于期望恒定视觉特征向量的图像误差向量进行包含预定性能规范误差变换;
S6:对误差变换后的解耦视觉运动学模型设计跟随者所需要的基于角速度和线速度的控制律,实现跟随者对领航者的自动编队控制。
参考图3,考虑一组3个非完整的机器人R0、R1、R2,R0为领航者,R1和R2为跟随者。仿真设置为跟随者跟着领航者呈“8”字形的轨迹运动,领航者在x-y平面的参考轨迹为xl=2sin(0.1πt)和y=3sin(0.05πt),机器人相机传感器的固有参数为:m0=320像素,n0=240像素,am=an=616像素。
进一步的,所述步骤S3包括以下步骤:
S31:领航者相对于跟随者在世界坐标系的位置定位为:
其中,rlf=[xlf,ylf]T为领航者相对于跟随者在世界坐标系中的位置,xlf为领航者相对于跟随者在x坐标轴方向的相对位置,ylf为领航者相对于跟随者在y坐标轴的相对位置;在世界坐标系内rl为领航者的位置;rf为跟随者的位置;θf为跟随者的方位;
S32:对领航者相对于跟随者的位置进行一阶微分换算,得到领航者相对于跟随者的相对运动学模型,模型描述为:
S33:领航者的特征点在跟随者相机图像坐标系中的归一化坐标定义为:
其中,P=[X,Y,Z]T为特征点在跟随者相机图像坐标系中的三维坐标,归一化坐标为将三维空间点的坐标都除以Z,使其转化为归一的平面坐标,m为领航者特征点归一化后在x坐标轴方向的坐标值,n为领航者特征点归一化后在y坐标轴方向的坐标值;
S34:设领航者的特征点在领航者的相机坐标系x-y平面的坐标为(Xp,YP)以及跟随者的相机光学中心与领航者的特征点之间的相对高度为Zp,R1和R2相机传感器和R0上的特征点之间的相对高度分别假定为是h01=0.3,h02=-0.3。则领航者和跟随者在图像空间中的相对视觉运动学模型为:
进一步的,所述步骤S4包括以下步骤:
S41:定义视觉特征向量s=[p,q]T:
S42:对式(5)进行一阶微分,得到视觉特征向量一阶微分和图像坐标一阶微分的关系:
S43:在一阶微分后的视觉特征向量下领航者和跟随者在图像空间中的相对视觉运动学模型转换为解耦视觉运动学模型,模型表示为:
进一步的,所述步骤S5包括以下步骤:
S51:设置领航者的特征点在跟随者相机平面中的期望恒定视觉特征向量s*=[p*,q*]T;
R1期望标准化坐标为(m1 *,n1 *)=(0.1111,0.4176)或(p1 *,q1 *)=(0.102,0.3826),R2期望标准化坐标为(m2 *,n2 *)=(-0.375,-0.4176)或(p2 *,q2 *)=(-0.3271,-0.3635);
S52:依据解耦视觉运动学模型实时计算跟随者相机平面中的视觉特征向量s=[p,q]T与期望恒定视觉特征向量s*=[p*,q*]T的误差,设图像误差向量为e=[e1,e2]T,则:
e=[e1,e2]T=[p-p*,q-q*]T (8);
S53:用性能函数ρk(t)定义误差向量e=[e1,e2]T中的图像误差ek的边界:
性能函数ρk(t)由下式定义:
其中,收敛速度l为正参数,误差极限ρ∞为任意值。设置ρ∞=0.01(6个像素),收敛速度为l=0.8;
S54:定义具有预定性能规范误差变换:
进一步的,所述步骤S6包括以下步骤:
S61:依据预定性能规范误差变换,设计跟随者的线速度和角速度vf、wf如下:
wf=-k1ρε1 (13)
其中,k1和k2为正参数,函数N(ε2)定义为N(ε2)=cos(ε2)ε2,n为领航者特征点归一化后在跟随者图像平面y坐标轴方向的坐标值,ε1为误差向量e1通过预定性能规范误差变换得到,ε2为误差向量e2通过预定性能规范误差变换得到。选择控制器增益为k1=0.2和k2=0.2;
S62:依据跟随者的线速度和角速度vf、wf,得到跟随者基于线速度和角速度的控制律:
跟随者依据该控制律实现与领航者的自动编队控制。
进一步的,所述跟随者基于线速度和角速度的控制律,其系数矩阵为一个下三角矩阵,跟随者的编队控制由跟随者线速度vf决定,不依赖于跟随者角速度wf。
进一步的,所述移动机器人搭载相机传感器。
参考图3-9所示,图3显示了平面中的编队轨迹。从图4可以看出,所有跟随者的形成误差迅速接近零。图5显示了跟随机器人的线速度和角速度的变化曲线。两个跟随者的图像坐标误差曲线如图6-图9所示。它们表明所有的图像特征误差不仅收敛迅速,所提出的控制器可以使所有图像特征误差保持在预定范围内,以使特征点始终处于相机的视野约束范围,编队误差具有满意的动态和稳态性能。
进一步的,所述移动机器人搭载相机传感器。
以上对本发明所提供的一种低复杂度的移动机器人视觉伺服编队控制方法进行了详细介绍,并通过实施例对本发明的具体原理及实施方式进行了阐述,这些说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也属于本发明权利要求的保护范围。
Claims (7)
1.一种低复杂度的移动机器人视觉伺服编队控制方法,其特征在于,包括以下步骤:
S1:在移动机器人中确定一个领航者及多个跟随者;
S2:跟随者获取领航者的图像信息,进行特征检测,提取图像中位置信息;
S3:跟随者依据与领航者之间的相对运动学模型得到图像空间中的相对视觉运动学模型;
S4:对相对视觉运动学模型进行视觉特征向量转换,得到解耦视觉运动学模型;
S5:对实时视觉特征向量相对于期望恒定视觉特征向量的图像误差向量进行包含预定性能规范误差变换;
S6:对误差变换后的解耦视觉运动学模型设计跟随者所需要的基于角速度和线速度的控制律,实现跟随者对领航者的自动编队控制。
2.根据权利要求1所述的一种低复杂度的移动机器人视觉伺服编队控制方法,其特征在于,所述步骤S3包括以下步骤:
S31:领航者相对于跟随者在世界坐标系的位置定位为:
其中,rlf=[xlf,ylf]T为领航者相对于跟随者在世界坐标系中的位置,xlf为领航者相对于跟随者在x坐标轴方向的相对位置,ylf为领航者相对于跟随者在y坐标轴的相对位置;在世界坐标系内rl为领航者的位置;rf为跟随者的位置;θf为跟随者的方位;
S32:对领航者相对于跟随者的位置进行一阶微分换算,得到领航者相对于跟随者的相对运动学模型,模型描述为:
S33:领航者的特征点在跟随者相机图像坐标系中的归一化坐标定义为:
其中,P=[X,Y,Z]T为特征点在跟随者相机图像坐标系中的三维坐标,归一化坐标为将三维空间点的坐标都除以Z,使其转化为归一的平面坐标,m为领航者特征点归一化后在x坐标轴方向的坐标值,n为领航者特征点归一化后在y坐标轴方向的坐标值;
S34:设领航者的特征点在领航者的相机坐标系x-y平面的坐标为(Xp,YP)以及跟随者的相机光学中心与领航者的特征点之间的相对高度为Zp,则领航者和跟随者在图像空间中的相对视觉运动学模型为:
4.根据权利要求3所述的一种低复杂度的移动机器人视觉伺服编队控制方法,其特征在于,所述步骤S5包括以下步骤:
S51:设置领航者的特征点在跟随者相机平面中的期望恒定视觉特征向量s*=[p*,q*]T;
S52:依据解耦视觉运动学模型实时计算跟随者相机平面中的视觉特征向量s=[p,q]T与期望恒定视觉特征向量s*=[p*,q*]T的误差,设图像误差向量为e=[e1,e2]T,则:
e=[e1,e2]T=[p-p*,q-q*]T (8);
S53:用性能函数ρk(t)定义误差向量e=[e1,e2]T中的图像误差ek的边界:
性能函数ρk(t)由下式定义:
其中,收敛速度l为正参数,误差极限ρ∞为任意值;
S54:定义具有预定性能规范误差变换:
6.根据权利要求5所述的一种低复杂度的移动机器人视觉伺服编队控制方法,其特征在于,所述跟随者基于线速度和角速度的控制律,其系数矩阵为一个下三角矩阵,跟随者的编队控制由跟随者线速度vf决定,不依赖于跟随者角速度wf。
7.根据权利要求6所述的一种低复杂度的移动机器人视觉伺服编队控制方法,其特征在于,所述移动机器人搭载相机传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010979689.2A CN112099505B (zh) | 2020-09-17 | 2020-09-17 | 一种低复杂度的移动机器人视觉伺服编队控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010979689.2A CN112099505B (zh) | 2020-09-17 | 2020-09-17 | 一种低复杂度的移动机器人视觉伺服编队控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112099505A true CN112099505A (zh) | 2020-12-18 |
CN112099505B CN112099505B (zh) | 2021-09-28 |
Family
ID=73759513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010979689.2A Active CN112099505B (zh) | 2020-09-17 | 2020-09-17 | 一种低复杂度的移动机器人视觉伺服编队控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112099505B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113065499A (zh) * | 2021-04-14 | 2021-07-02 | 湖南大学 | 基于视觉学习驱动的空中机器人集群控制方法及系统 |
CN117492381A (zh) * | 2023-09-08 | 2024-02-02 | 中山大学 | 机器人协同指向仿真可视化方法、系统、设备和存储介质 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080039987A1 (en) * | 2006-02-28 | 2008-02-14 | Airbus France | Device for aiding the guidance of a follower aircraft forming part of a patrol, as well as a system for aiding a patrol flight comprising such a device |
CN101793526A (zh) * | 2010-04-12 | 2010-08-04 | 哈尔滨工业大学 | 一种多信息融合编队航天器自主相对导航方法 |
US9302393B1 (en) * | 2014-04-15 | 2016-04-05 | Alan Rosen | Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes |
CN106950970A (zh) * | 2017-05-05 | 2017-07-14 | 东华大学 | 一种基于客户端‑服务器结构的多机器人协同编队方法 |
CN107797560A (zh) * | 2017-11-28 | 2018-03-13 | 广州中国科学院先进技术研究所 | 一种用于机器人跟踪的视觉识别系统及方法 |
CN108469823A (zh) * | 2018-04-04 | 2018-08-31 | 浙江大学 | 一种基于单应性的移动机器人编队跟随方法 |
CN109062204A (zh) * | 2018-07-25 | 2018-12-21 | 南京理工大学 | 一种基于跟随领航者编队的多移动机器人控制系统 |
CN109270934A (zh) * | 2018-11-01 | 2019-01-25 | 中国科学技术大学 | 基于领航者切换的多机器人编队续航方法 |
CN109857102A (zh) * | 2019-01-21 | 2019-06-07 | 大连理工大学 | 一种基于相对位置的轮式机器人编队与跟踪控制方法 |
WO2019159927A1 (ja) * | 2018-02-14 | 2019-08-22 | 日本電信電話株式会社 | 制御装置、方法及びプログラム |
US20190302784A1 (en) * | 2018-03-29 | 2019-10-03 | Mitsubishi Electric Research Laboratories, Inc. | Robust Source Seeking and Formation Learning-based Controller |
US20190346861A1 (en) * | 2011-07-06 | 2019-11-14 | Peloton Technology, Inc. | Vehicle platooning systems and methods |
CN110737283A (zh) * | 2019-11-04 | 2020-01-31 | 中国人民解放军军事科学院国防科技创新研究院 | 一种面向视觉集群的编队解耦控制方法 |
US20200116498A1 (en) * | 2018-10-16 | 2020-04-16 | Ubtech Robotics Corp | Visual assisted distance-based slam method and mobile robot using the same |
CN111267848A (zh) * | 2020-03-24 | 2020-06-12 | 湖南大学 | 一种指定收敛时间的车辆编队控制方法和系统 |
CN111522362A (zh) * | 2020-06-15 | 2020-08-11 | 湖南大学 | 一种无线速度反馈的四旋翼无人机分布式编队控制方法 |
CN111552293A (zh) * | 2020-05-13 | 2020-08-18 | 湖南大学 | 一种视野约束下基于图像的移动机器人编队控制方法 |
CN111596690A (zh) * | 2020-06-15 | 2020-08-28 | 湖南大学 | 一种无线速度测量的四旋翼飞行机器人机动编队控制方法 |
-
2020
- 2020-09-17 CN CN202010979689.2A patent/CN112099505B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080039987A1 (en) * | 2006-02-28 | 2008-02-14 | Airbus France | Device for aiding the guidance of a follower aircraft forming part of a patrol, as well as a system for aiding a patrol flight comprising such a device |
CN101793526A (zh) * | 2010-04-12 | 2010-08-04 | 哈尔滨工业大学 | 一种多信息融合编队航天器自主相对导航方法 |
US20190346861A1 (en) * | 2011-07-06 | 2019-11-14 | Peloton Technology, Inc. | Vehicle platooning systems and methods |
US9302393B1 (en) * | 2014-04-15 | 2016-04-05 | Alan Rosen | Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes |
CN106950970A (zh) * | 2017-05-05 | 2017-07-14 | 东华大学 | 一种基于客户端‑服务器结构的多机器人协同编队方法 |
CN107797560A (zh) * | 2017-11-28 | 2018-03-13 | 广州中国科学院先进技术研究所 | 一种用于机器人跟踪的视觉识别系统及方法 |
WO2019159927A1 (ja) * | 2018-02-14 | 2019-08-22 | 日本電信電話株式会社 | 制御装置、方法及びプログラム |
US20190302784A1 (en) * | 2018-03-29 | 2019-10-03 | Mitsubishi Electric Research Laboratories, Inc. | Robust Source Seeking and Formation Learning-based Controller |
CN108469823A (zh) * | 2018-04-04 | 2018-08-31 | 浙江大学 | 一种基于单应性的移动机器人编队跟随方法 |
CN109062204A (zh) * | 2018-07-25 | 2018-12-21 | 南京理工大学 | 一种基于跟随领航者编队的多移动机器人控制系统 |
US20200116498A1 (en) * | 2018-10-16 | 2020-04-16 | Ubtech Robotics Corp | Visual assisted distance-based slam method and mobile robot using the same |
CN109270934A (zh) * | 2018-11-01 | 2019-01-25 | 中国科学技术大学 | 基于领航者切换的多机器人编队续航方法 |
CN109857102A (zh) * | 2019-01-21 | 2019-06-07 | 大连理工大学 | 一种基于相对位置的轮式机器人编队与跟踪控制方法 |
CN110737283A (zh) * | 2019-11-04 | 2020-01-31 | 中国人民解放军军事科学院国防科技创新研究院 | 一种面向视觉集群的编队解耦控制方法 |
CN111267848A (zh) * | 2020-03-24 | 2020-06-12 | 湖南大学 | 一种指定收敛时间的车辆编队控制方法和系统 |
CN111552293A (zh) * | 2020-05-13 | 2020-08-18 | 湖南大学 | 一种视野约束下基于图像的移动机器人编队控制方法 |
CN111522362A (zh) * | 2020-06-15 | 2020-08-11 | 湖南大学 | 一种无线速度反馈的四旋翼无人机分布式编队控制方法 |
CN111596690A (zh) * | 2020-06-15 | 2020-08-28 | 湖南大学 | 一种无线速度测量的四旋翼飞行机器人机动编队控制方法 |
Non-Patent Citations (3)
Title |
---|
YUANZHE WANG: "Multiple Nonholonomic Mobile Robots in Unknown Obstacle Environments", 《IEEE TRANSACTIONS ON CONTROL SYSTEMS TECHNOLOGY》 * |
易国: "非完整移动机器人领航-跟随编队分布式控制", 《仪器仪表学报》 * |
贾永楠: "多机器人编队控制研究进展,", 《工程科学学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113065499A (zh) * | 2021-04-14 | 2021-07-02 | 湖南大学 | 基于视觉学习驱动的空中机器人集群控制方法及系统 |
CN113065499B (zh) * | 2021-04-14 | 2022-07-01 | 湖南大学 | 基于视觉学习驱动的空中机器人集群控制方法及系统 |
CN117492381A (zh) * | 2023-09-08 | 2024-02-02 | 中山大学 | 机器人协同指向仿真可视化方法、系统、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112099505B (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109308693B (zh) | 由一台ptz相机构建的目标检测和位姿测量单双目视觉系统 | |
CN112396664B (zh) | 一种单目摄像机与三维激光雷达联合标定及在线优化方法 | |
CN106919944B (zh) | 一种基于orb算法的大视角图像快速识别方法 | |
CN112099505B (zh) | 一种低复杂度的移动机器人视觉伺服编队控制方法 | |
CN111552293B (zh) | 一种视野约束下基于图像的移动机器人编队控制方法 | |
CN107831776A (zh) | 基于九轴惯性传感器的无人机自主返航方法 | |
CN112000135B (zh) | 基于人脸最高温点特征反馈的三轴云台视觉伺服控制方法 | |
CN113189875A (zh) | 一种基于圆形特征的无人机在移动平台上鲁棒着陆方法 | |
Luo et al. | Docking navigation method for UAV autonomous aerial refueling | |
CN108681324A (zh) | 基于全局视觉的移动机器人轨迹跟踪控制方法 | |
CN107449416A (zh) | 基于矢量累积的恒星拖尾星点提取方法 | |
Copot et al. | Image-based and fractional-order control for mechatronic systems | |
CN113051767A (zh) | 一种基于视觉伺服的agv滑模控制方法 | |
CN115582831A (zh) | 机械手臂的自动校正方法与系统 | |
CN109048911B (zh) | 一种基于矩形特征的机器人视觉控制方法 | |
Lee et al. | Autonomous landing system for aerial mobile robot cooperation | |
Srivastava et al. | Range estimation and visual servoing of a dynamic target using a monocular camera | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 | |
CN113269100B (zh) | 基于视觉的飞机海上平台着陆飞行视景仿真系统及方法 | |
Duan et al. | Image digital zoom based single target apriltag recognition algorithm in large scale changes on the distance | |
CN115908562A (zh) | 一种异面点合作标志器及测量方法 | |
CN115562304A (zh) | 一种基于深度点云的移动机器人视觉伺服控制方法和系统 | |
CN112747752B (zh) | 基于激光里程计的车辆定位方法、装置、设备和存储介质 | |
CN114549586A (zh) | 一种基于视觉感知机械臂的目标定位方法 | |
CN114510065A (zh) | 一种多旋翼无人机地面目标跟踪控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |