CN109445432A - 基于图像的无人机和地面移动机器人编队定位方法 - Google Patents

基于图像的无人机和地面移动机器人编队定位方法 Download PDF

Info

Publication number
CN109445432A
CN109445432A CN201811292513.9A CN201811292513A CN109445432A CN 109445432 A CN109445432 A CN 109445432A CN 201811292513 A CN201811292513 A CN 201811292513A CN 109445432 A CN109445432 A CN 109445432A
Authority
CN
China
Prior art keywords
unmanned plane
robot
image
point
localization method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811292513.9A
Other languages
English (en)
Inventor
秦家虎
高炤
王帅
余雷
陈宇航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN201811292513.9A priority Critical patent/CN109445432A/zh
Publication of CN109445432A publication Critical patent/CN109445432A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种基于图像的无人机和地面移动机器人编队定位方法,包括:步骤A:空中的无人机与地面站信号相连;步骤B:对无人机拍摄到的原始图像进行校准点识别;步骤C:采用相似变换处理对无人机拍摄的原始图像进行修正;步骤D:对修正后的图像进行机器人位姿识别,并将无人机和机器人的定位信息返回地面站。本公开无误差累积,有利于为移动机器人编队或空地协同编队提供准确定位信息。

Description

基于图像的无人机和地面移动机器人编队定位方法
技术领域
本公开涉及机器人编队和空地协同编队领域,尤其涉及一种基于图像的无人机和地面移动机器人编队定位方法。
背景技术
机器人定位可分为相对定位和绝对定位。典型的相对定位方法包括航位推算法和惯性导航法。航位推算法首先在移动机器人车轮上安装编码器,通过对车轮转动进行记录并得到位置变化量,再结合之前位置信息对当前位置进行更新,而惯性导航法是在已知起点坐标的情况下,通过安装的陀螺仪和加速度传感器得到角加速度和线加速度数据,再对角加速度和线加速度分别进行二次积分得到角度和位置信息。绝对定位方法主要包含信标定位法和地图匹配法,信标定位法是指机器人通过各种传感器被动接收或主动探测已知位置的信标,经过定位计算(三边定位或三角定位)得出机器人与信标的相对位置,再根据信标的位置坐标,计算出机器人的坐标。地图匹配法是指机器人通过自身的各种传感器探测周围环境,利用感知到的局部环境信息进行局部的地图构造,并与其内部事先存储的完整地图进行匹配,通过匹配关系可以获得自己在全局环境中的位置。
但是,无论是航位推算法还是惯性导航法都是在利用传感器采集的数据对位置信息进行更新,由于传感器采集的数据总是存在误差,因而在数据积分的过程中,误差也在不断累积,最终导致定位信息产生较大偏移。信标定位法虽然不会产生累积误差,但其安装和维护信标的花费很高,同时,在进行移动机器人编队控制时,不仅要求已知机器人位置还要求已知机器人姿态,而信标定位法并不能直接获得移动机器人姿态信息。
发明内容
(一)要解决的技术问题
本公开提供了一种基于图像的无人机和地面移动机器人编队定位方法,以至少部分解决以上所提出的技术问题。
(二)技术方案
根据本公开的一个方面,提供了一种基于图像的无人机和地面移动机器人编队定位方法,包括:
步骤A:空中的无人机与地面站信号相连;
步骤B:无人机拍摄得到原始图像,对原始图像进行校准点识别;
步骤C:采用相似变换处理对无人机拍摄的原始图像进行修正得到修正图像;
步骤D:对修正后的图像进行机器人位姿识别,并将无人机和机器人的定位信息返回地面站。
在本公开的一些实施例中,步骤B包括:
子步骤B1:为每架无人机提供两个地面校准点的模板图像;
子步骤B2:利用模板匹配法,对每帧原始图像进行校准点识别,并将匹配区域的中心像素点位置作为校准点坐标。
在本公开的一些实施例中,步骤C包括:
子步骤C1:将原始图像中两个校准点坐标P1和P2和对应修正图像中的两个校准点坐标P′1和P′2作为两对对应点;
子步骤C2:求解相似变换矩阵,由点P1=(x1,y1)到点P1′=(x1′,y1′)的一个相似变换可表示为:
求解相似变换矩阵,由点P2=(x2,y2)到点P2′=(x2′,y2′)的一个相似变换可表示为:
式中:θ1和θ2表示旋转角度,s表示缩放系数,t=[tx1 ty1]T和t=[tx2 ty2]T是二维平移向量;
子步骤C3:求解相似变换的参数矩阵H,进行相似变换,得到修正图像。
在本公开的一些实施例中,子步骤C3还包括:计算无人机的水平位置坐标并返回地面站。
在本公开的一些实施例中,所述步骤D包括:
子步骤D1:在机器人表面做两个标记点,根据模板匹配法得到机器人的两个标记点坐标;
子步骤D2:计算两个标记点连线的中心作为机器人位置坐标,计算两个标记点连线的斜率作为姿态角;根据机器人位置坐标和姿态角确定机器人位姿信息,完成机器人位姿识别;
子步骤D3:将无人机和机器人的定位信息返回地面站。
在本公开的一些实施例中,所述模板匹配法采用OpenCV库提供的模板匹配函数。
在本公开的一些实施例中,所述步骤B中两个地面校准点布置在机器人活动区域内;无人机视野包含两个校准点。
在本公开的一些实施例中,所述活动区域为矩形;两个校准点设置在活动区域的两个对顶角上。
在本公开的一些实施例中,所述步骤B中所述无人机的拍摄平面始终平行于地面。
在本公开的一些实施例中,步骤B中的校准点和步骤D中的机器人标记点均为圆形。
(三)有益效果
从上述技术方案可以看出,本公开基于图像的无人机和地面移动机器人编队定位方法至少具有以下有益效果其中之一或其中一部分:
(1)采用模板匹配法对无人机拍摄到的原始图像进行校准点识别,能够有效改善识别效果。
(2)采用相似变换处理对无人机拍摄的原始图像进行修正,使修正后的图像不再受无人机位姿的影响。
(3)对修正后的图像进行机器人位姿识别,识别方法采用模板匹配法。识别时,通过提高机器人颜色区分度改善识别效果,通过图像切割减小运算开销。
(4)对修正后的图像进行机器人位姿识别,识别方法采用模板匹配法,识别时分别通过提高机器人颜色区分度改善识别效果和图像切割减小运算开销。
附图说明
图1为本公开实施例基于图像的无人机和地面移动机器人编队定位方法的流程框图。
图2为图1的逻辑示意图。
图3为定位系统示意图。
图4为本公开实施例在Gazebo中搭建的仿真环境示意图。
图5为本公开实施例中机器人模型示意图。
图6为本公开实施例中地面校准点识别结果示意图。
图7为本公开实施例中图像修正结果示意图。
图8为本公开实施例中图像修正结果示意图。
图9为本公开实施例无人机水平位置计算结果示意图。
图10为本公开实施例机器人识别结果示意图。
图11为本公开实施例机器人识别结果示意图。
【附图中本公开实施例主要元件符号说明】
1-无人机;
2-机器人;
3-校准点;
4-地面站;
5-标记点;
L-活动区域;
M-无人机视野。
具体实施方式
本公开提供了一种基于图像的无人机和地面移动机器人编队定位方法。包括:步骤A:空中的无人机与地面站信号相连;步骤B:对无人机拍摄到的原始图像进行校准点识别;步骤C:采用相似变换处理对无人机拍摄的原始图像进行修正;步骤D:对修正后的图像进行机器人位姿识别,并将无人机和机器人的定位信息返回地面站。本公开无误差累积,有利于为移动机器人编队或空地协同编队提供准确定位信息。
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
本公开某些实施例于后方将参照所附附图做更全面性地描述,其中一些但并非全部的实施例将被示出。实际上,本公开的各种实施例可以许多不同形式实现,而不应被解释为限于此数所阐述的实施例;相对地,提供这些实施例使得本公开满足适用的法律要求。
在本公开提供了一种基于图像的无人机和地面移动机器人编队定位方法。图1为本公开实施例基于图像的无人机和地面移动机器人编队定位方法的流程框图。图2为图1的逻辑示意图。图3为定位系统示意图。如图1至图3所示,一种基于图像的无人机和地面移动机器人编队定位方法,包括:
步骤A:空中的无人机1与地面站4信号相连;其中,无人机1可以为四旋翼无人机。在具体实施例中,四旋翼无人机可在垂直方向和水平方向进行飞行,其携带的摄像头用于拍摄地面机器人2图像,二者通过云台连接使像平面始终平行于地面,同时无人机1装载传感器用于检测姿态信息及高度,装载无线通信模块向地面站4反馈信息。
步骤B:无人机1拍摄得到原始图像,对原始图像进行校准点3识别;具体地,还包括:
子步骤B1:为每架无人机1提供两个地面校准点3的模板图像;
子步骤B2:利用模板匹配法,对每帧原始图像进行校准点3识别,并将匹配区域的中心像素点位置作为校准点3坐标。
在具体实施例中,对无人机1拍摄的原始图像进行校准点3识别。现提供两个校准点3的模板图像,采用OpenCV库提供的模板匹配函数,对每帧图像进行校准点3识别。需要注意的是,模板匹配法也存在自身局限,如当原始图像中匹配对象发生旋转时,仍采用同一模板图像可能会导致匹配结果出错,因此这里将校准点3设计为圆形以进行改善。
由于OpenCV的匹配函数结果保存为映射图像,因此还需对映射图像进行搜索找到匹配程度最高的匹配区域,并返回该矩形区域的中心作为校准点3位置。图6为本公开实施例中地面校准点识别结果示意图。如图6所示最终识别效果,图中右侧窗口中两校准点3中心均有标记,说明识别准确。
步骤C:采用相似变换处理对无人机1拍摄的原始图像进行修正得到修正图像;具体地,还包括:
子步骤C1:将原始图像中两个校准点坐标P1和P2和对应修正图像中的两个校准点坐标P′1和P′2作为两对对应点;
子步骤C2:求解相似变换矩阵,由点P1=(x1,y1)到点P1′=(x1′,y1′)的一个相似变换可表示为:
求解相似变换矩阵,由点P2=(x2,y2)到点P2′=(x2′,y2′)的一个相似变换可表示为:
式中:θ1和θ2表示旋转角度,s表示缩放系数,t=[tx1 ty1]T和t=[tx2 ty2]T是二维平移向量;
子步骤C3:求解相似变换的参数矩阵H,进行相似变换,得到修正图像。
进一步地,子步骤C3还包括:计算无人机1的水平位置坐标并返回地面站4。
具体地,子步骤C3中参数矩阵H含有四个自由度,可由两对对应点求解。P1和P2分别为原始图像中识别出的两个校准点坐标,P′1和P′2分别为对应修正图像中的坐标,则可求解出相似变换的参数矩阵H。
在具体实施例中,图7为本公开实施例中图像修正结果示意图。图8为本公开实施例中图像修正结果示意图。将原始图像各点经矩阵H进行变换得到图7所示结果,图中左下角为原始图像,右上角为修正图像,现改变无人机1高度和航向角,并保持地面移动机器人2相互位置关系不变,得到图8所示结果,同样展示了修正前后的图像,对比两次结果可发现,校准点3的原始图像由于无人机1运动而发生明显变化,但修正后的图像并不受影响,这一结果表明修正图像只受移动机器人2位置关系的影响。
由于摄像头的像平面总是平行于地面的,所以原始图像中心点是无人机1的正投影点,同样将该点进行变换,得到在修正图像中的位置坐标,此时,无人机1和移动机器人2位置表示均处在同一尺度的图像内。图9为本公开实施例无人机水平位置计算结果示意图。图9所示的修正图像中框选的标点表示无人机位置。
步骤D:对修正后的图像进行机器人2位姿识别,并将无人机1和机器人2的定位信息返回地面站4。具体的,步骤D中包括:
子步骤D1:在机器人表面做两个标记点,根据模板匹配法得到机器人的两个标记点坐标;
子步骤D2:计算两个标记点连线的中心作为机器人位置坐标,计算两个标记点连线的斜率作为姿态角;根据机器人位置坐标和姿态角确定机器人位姿信息,完成机器人位姿识别;
子步骤D3:将无人机和机器人的定位信息返回地面站。
需要对修正后的图像进行机器人2位姿识别,并将无人机1和机器人2的定位信息经无线网络返回地面站4。出于机器人2控制的需要,我们不仅需要在机器人2表面做两个标记点5,将两个标记点5连线中心作为机器人2位置坐标。进一步地,为提高机器人2识别的准确性,一般添加周围环境有明显区别的颜色进行标记。还需要机器人2的姿态角,为此,在每个机器人2表面做两个圆形标记用于姿态计算。
识别方法同样采用模板匹配法,同样提供三幅模板图像,先通过识别颜色标记得到机器人2中心位置,再以该点作为几何中心,取一刚好覆盖整个机器人2的矩形区域,并将其作为输入图像,结合两幅标记点5模板图像再次进行识别,这样不仅提高了识别准确度,还减少了匹配算法的计算开销。图10为本公开实施例机器人识别结果示意图,最终的识别效果如图10,识别位置已在图中标出,当改变机器人2姿态角,图11为本公开实施例机器人识别结果示意图,如图11所示,采用同样的模板得到的结果,识别同样准确,之后通过计算两点所在直线斜率得到机器人姿态角。
以下分别对本实施例基于图像的无人机和地面移动机器人编队定位方法的各个组成部分进行详细描述。
机器人2,在地面进行移动。考虑到姿态角的计算,在机器人2表面做两个标记点5,将两点连线中心作为机器人2位置坐标,为提高机器人2识别的准确性,添加与周围环境有明显区别的颜色标记,并将标记点5设计为圆形。
无人机1,其携带的摄像头用于拍摄地面机器人2图像,无人机1与其携带的摄像头通过云台连接使像平面始终平行于地面。同时无人机1装载传感器用于检测姿态信息及高度,装载无线通信模块用于向地面站4反馈信息。
地面站4,接收无人机1返回的定位信息,为后续进行无人机1和移动机器人2的编队控制提供反馈。
在本公开提供的一种基于图像的无人机和地面移动机器人编队定位方法的一具体实施例中,图4为本公开实施例在Gazebo中搭建的仿真环境示意图。如图4所示,在Gazebo中搭建仿真环境,两架无人机1悬停在空中,镜头平行地面向下,图中右上角窗口是由一架无人机1拍摄的实时图像,图像分辨率设为800*800,下方场地布置了两个校准点3,同时四台移动机器人2任意分布在场地中央,其中,图5为本公开实施例中机器人模型示意图。如图5所示机器人模型,在其表面作了两个圆形标记,用于姿态角的计算。
至此,已经结合附图对本公开实施例进行了详细描述。需要说明的是,在附图或说明书正文中,未绘示或描述的实现方式,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。例如:
(1)本公开可以应用于机器人编队和空地协同编队领域,还可以应用于其它涉及目标定位的领域。
(2)本公开可通过布置多对校准点,并结合各对校准点之间的位置转换,对活动场地进行扩展。
依据以上描述,本领域技术人员应当对本公开基于图像的无人机和地面移动机器人编队定位方法有了清楚的认识。
综上所述,本公开通过对每帧修正图像进行识别,在正确识别的前提下,可以得到机器人准确的位置坐标,同时通过识别机器人表面的两个标记点计算斜率,得到准确的姿态角,进而限制摄像头的像平面平行于地面,使无人机正投影点总是处于其原始图像的几何中心,经相似变换使该点的参考系与机器人坐标的参考系一致。整个过程中无误差累积,使位姿信息更加准确。
还需要说明的是,实施例中提到的方向用语,例如“上”、“下”、“前”、“后”、“左”、“右”等,仅是参考附图的方向,并非用来限制本公开的保护范围。贯穿附图,相同的元素由相同或相近的附图标记来表示。在可能导致对本公开的理解造成混淆时,将省略常规结构或构造。
并且图中各部件的形状和尺寸不反映真实大小和比例,而仅示意本公开实施例的内容。另外,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。
除非有所知名为相反之意,本说明书及所附权利要求中的数值参数是近似值,能够根据通过本公开的内容所得的所需特性改变。具体而言,所有使用于说明书及权利要求中表示组成的含量、反应条件等等的数字,应理解为在所有情况中是受到「约」的用语所修饰。一般情况下,其表达的含义是指包含由特定数量在一些实施例中±10%的变化、在一些实施例中±5%的变化、在一些实施例中±1%的变化、在一些实施例中±0.5%的变化。
再者,单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。
说明书与权利要求中所使用的序数例如“第一”、“第二”、“第三”等的用词,以修饰相应的元件,其本身并不意味着该元件有任何的序数,也不代表某一元件与另一元件的顺序、或是制造方法上的顺序,该些序数的使用仅用来使具有某命名的一元件得以和另一具有相同命名的元件能做出清楚区分。
此外,除非特别描述或必须依序发生的步骤,上述步骤的顺序并无限制于以上所列,且可根据所需设计而变化或重新安排。并且上述实施例可基于设计及可靠度的考虑,彼此混合搭配使用或与其他实施例混合搭配使用,即不同实施例中的技术特征可以自由组合形成更多的实施例。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的启示一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本公开也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本公开的内容,并且上面对特定语言所做的描述是为了披露本公开的最佳实施方式。
本公开可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。本公开的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本公开实施例的相关设备中的一些或者全部部件的一些或者全部功能。本公开还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本公开的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
类似地,应当理解,为了精简本公开并帮助理解各个公开方面中的一个或多个,在上面对本公开的示例性实施例的描述中,本公开的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本公开要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,公开方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本公开的单独实施例。
以上所述的具体实施例,对本公开的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本公开的具体实施例而已,并不用于限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (10)

1.一种基于图像的无人机和地面移动机器人编队定位方法,包括:
步骤A:空中的无人机与地面站信号相连;
步骤B:无人机拍摄得到原始图像,对原始图像进行校准点识别;
步骤C:采用相似变换处理对无人机拍摄的原始图像进行修正得到修正图像;
步骤D:对修正后的图像进行机器人位姿识别,并将无人机和机器人的定位信息返回地面站。
2.根据权利要求1所述的定位方法,其中,步骤B包括:
子步骤B1:为每架无人机提供两个地面校准点的模板图像;
子步骤B2:利用模板匹配法,对每帧原始图像进行校准点识别,并将匹配区域的中心像素点位置作为校准点坐标。
3.根据权利要求1所述的定位方法,其中,步骤C包括:
子步骤C1:将原始图像中两个校准点坐标P1和P2和对应修正图像中的两个校准点坐标P′1和P′2作为两对对应点;
子步骤C2:求解相似变换矩阵,由点P1=(x1,y1)到点P1′=(x1′,y1′)的一个相似变换可表示为:
求解相似变换矩阵,由点P2=(x2,y2)到点P2′=(x2′,y2′)的一个相似变换可表示为:
式中:θ1和θ2表示旋转角度,s表示缩放系数,t=[tx1 ty1]T和t=[tx2 ty2]T是二维平移向量;
子步骤C3:求解相似变换的参数矩阵H,进行相似变换,得到修正图像。
4.根据权利要求3所述的定位方法,其中,子步骤C3还包括:计算无人机的水平位置坐标并返回地面站。
5.根据权利要求1所述的定位方法,其中,所述步骤D包括:
子步骤D1:在机器人表面做两个标记点,根据模板匹配法得到机器人的两个标记点坐标;
子步骤D2:计算两个标记点连线的中心作为机器人位置坐标,计算两个标记点连线的斜率作为姿态角;根据机器人位置坐标和姿态角确定机器人位姿信息,完成机器人位姿识别;
子步骤D3:将无人机和机器人的定位信息返回地面站。
6.根据权利要求5所述的定位方法,其中,所述模板匹配法采用OpenCV库提供的模板匹配函数。
7.根据权利要求1所述的定位方法,其中,所述步骤B中两个地面校准点布置在机器人活动区域内;无人机视野包含两个校准点。
8.根据权利要求7所述的定位方法,其中,所述活动区域为矩形;两个校准点设置在活动区域的两个对顶角上。
9.根据权利要求1所述的定位方法,其中,所述步骤B中所述无人机的拍摄平面始终平行于地面。
10.根据权利要求5所述的定位方法,其中,步骤B中的校准点和步骤D中的机器人标记点均为圆形。
CN201811292513.9A 2018-10-31 2018-10-31 基于图像的无人机和地面移动机器人编队定位方法 Pending CN109445432A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811292513.9A CN109445432A (zh) 2018-10-31 2018-10-31 基于图像的无人机和地面移动机器人编队定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811292513.9A CN109445432A (zh) 2018-10-31 2018-10-31 基于图像的无人机和地面移动机器人编队定位方法

Publications (1)

Publication Number Publication Date
CN109445432A true CN109445432A (zh) 2019-03-08

Family

ID=65549605

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811292513.9A Pending CN109445432A (zh) 2018-10-31 2018-10-31 基于图像的无人机和地面移动机器人编队定位方法

Country Status (1)

Country Link
CN (1) CN109445432A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112859923A (zh) * 2021-01-25 2021-05-28 西北工业大学 一种无人机视觉编队飞行控制系统
CN112987718A (zh) * 2021-01-15 2021-06-18 北京理工大学 一种基于异构机器人的自主跟踪系统及方法
CN116929350A (zh) * 2023-08-23 2023-10-24 南京理工大学 一种基于数据链测距的快速临机重构协同导航系统及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101349565A (zh) * 2008-09-10 2009-01-21 北京航空航天大学 一种基于计算机视觉的飞行器航向跟踪方法
US20110123315A1 (en) * 2009-11-21 2011-05-26 Robinson Lee J Multi-stage turbocharger system
CN102997910A (zh) * 2012-10-31 2013-03-27 上海交通大学 一种基于地面路标的定位导引系统及方法
CN104484868A (zh) * 2014-10-08 2015-04-01 浙江工业大学 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法
CN105000194A (zh) * 2015-08-13 2015-10-28 史彩成 基于地面合作标志的无人机助降视觉引导方法及机载系统
CN105550994A (zh) * 2016-01-26 2016-05-04 河海大学 一种基于卫星影像的无人机影像快速概略拼接方法
CN107659774A (zh) * 2017-09-30 2018-02-02 深圳市未来媒体技术研究院 一种基于多尺度相机阵列的视频成像系统及视频处理方法
CN107784634A (zh) * 2017-09-06 2018-03-09 广东工业大学 一种基于模板匹配的输电线杆塔鸟巢识别方法
CN108122255A (zh) * 2017-12-20 2018-06-05 哈尔滨工业大学 一种基于梯形与圆形组合地标的无人机位姿估计方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101349565A (zh) * 2008-09-10 2009-01-21 北京航空航天大学 一种基于计算机视觉的飞行器航向跟踪方法
US20110123315A1 (en) * 2009-11-21 2011-05-26 Robinson Lee J Multi-stage turbocharger system
CN102997910A (zh) * 2012-10-31 2013-03-27 上海交通大学 一种基于地面路标的定位导引系统及方法
CN104484868A (zh) * 2014-10-08 2015-04-01 浙江工业大学 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法
CN105000194A (zh) * 2015-08-13 2015-10-28 史彩成 基于地面合作标志的无人机助降视觉引导方法及机载系统
CN105550994A (zh) * 2016-01-26 2016-05-04 河海大学 一种基于卫星影像的无人机影像快速概略拼接方法
CN107784634A (zh) * 2017-09-06 2018-03-09 广东工业大学 一种基于模板匹配的输电线杆塔鸟巢识别方法
CN107659774A (zh) * 2017-09-30 2018-02-02 深圳市未来媒体技术研究院 一种基于多尺度相机阵列的视频成像系统及视频处理方法
CN108122255A (zh) * 2017-12-20 2018-06-05 哈尔滨工业大学 一种基于梯形与圆形组合地标的无人机位姿估计方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
徐大宏 等: "足球机器人视觉系统中彩色目标分割方法", 《中南工业大学学报》 *
段一琛: "基于视觉的移动目标识别与跟踪算法研究与实现", 《西安工业大学硕士论文》 *
王刚 等: "结合模板匹配和梯度峰值的对角标志自动提取方法", 《光学学报》 *
王蒙 等: "单目视觉下目标三维行为的时间尺度不变建模及识别", 《自动化学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112987718A (zh) * 2021-01-15 2021-06-18 北京理工大学 一种基于异构机器人的自主跟踪系统及方法
CN112987718B (zh) * 2021-01-15 2022-03-04 北京理工大学 一种基于异构机器人的自主跟踪系统及方法
CN112859923A (zh) * 2021-01-25 2021-05-28 西北工业大学 一种无人机视觉编队飞行控制系统
CN116929350A (zh) * 2023-08-23 2023-10-24 南京理工大学 一种基于数据链测距的快速临机重构协同导航系统及方法
CN116929350B (zh) * 2023-08-23 2023-11-21 南京理工大学 一种基于数据链测距的快速临机重构协同导航系统及方法

Similar Documents

Publication Publication Date Title
CN109579843A (zh) 一种空地多视角下的多机器人协同定位及融合建图方法
US20200173777A1 (en) Real time position and orientation tracker
WO2015096806A1 (zh) 智能机姿态测定、全景影像生成及目标识别方法
CN109374003A (zh) 一种基于ArUco码的移动机器人视觉定位与导航方法
CN108571971A (zh) 一种agv视觉定位系统及方法
JP2019536170A (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
KR102295809B1 (ko) 이동체의 전방향에 대한 거리 취득 장치 및 방법
CN107292965A (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN109445432A (zh) 基于图像的无人机和地面移动机器人编队定位方法
CN109146938A (zh) 动态障碍物的位置校准方法、装置、设备及存储介质
CN106017458A (zh) 移动机器人组合式导航方法及装置
Bischoff et al. Fusing vision and odometry for accurate indoor robot localization
CN110009682A (zh) 一种基于单目视觉的目标识别定位方法
CN108549376A (zh) 一种基于信标的导航定位方法及系统
CN109945871B (zh) 一种通信带宽与距离受限情况下的多无人平台同步定位与地图构建方法
CN110488838A (zh) 一种室内自主导航机器人精确重复定位方法
US11922685B2 (en) Presentation of information from the sky
Ruchanurucks et al. Automatic landing assist system using IMU+ P n P for robust positioning of fixed-wing UAVs
CN109099908A (zh) 指向设备位置跟踪的方法、架构、装置、系统
CN112184786A (zh) 一种基于合成视觉的目标定位方法
CN109661631A (zh) 无人机的控制方法、装置和无人机
CN111833443A (zh) 自主机器应用中的地标位置重建
Liu et al. Intensity image-based LiDAR fiducial marker system
Pollini et al. Experimental evaluation of vision algorithms for formation flight and aerial refueling
CN111121818B (zh) 一种无人车中相机与二维码的标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190308

RJ01 Rejection of invention patent application after publication