CN112419403A - 一种基于二维码阵列的室内无人机定位方法 - Google Patents

一种基于二维码阵列的室内无人机定位方法 Download PDF

Info

Publication number
CN112419403A
CN112419403A CN202011374345.5A CN202011374345A CN112419403A CN 112419403 A CN112419403 A CN 112419403A CN 202011374345 A CN202011374345 A CN 202011374345A CN 112419403 A CN112419403 A CN 112419403A
Authority
CN
China
Prior art keywords
apriltag
unmanned aerial
aerial vehicle
camera
dimensional code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011374345.5A
Other languages
English (en)
Inventor
黄梦醒
冯思玲
邱成浩
冯文龙
张雨
吴迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hainan University
Original Assignee
Hainan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hainan University filed Critical Hainan University
Priority to CN202011374345.5A priority Critical patent/CN112419403A/zh
Publication of CN112419403A publication Critical patent/CN112419403A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • G06K17/0022Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
    • G06K17/0025Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device the arrangement consisting of a wireless interrogation device in combination with a device for optically marking the record carrier

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于二维码阵列的室内无人机定位方法,包括以下步骤:S1、无人机获取并执行起飞指令,通过图像采集组件采集地面图像并对AprilTag进行识别;S2、图像采集组件传输AprilTag信息至上位机,上位机基于AprilTag信息进行世界坐标系转换,获得无人机定位信息及飞机轨迹并进行可视化。本发明在二维码识别方面,采用AprilTag二维码,其复杂程度一般,具有识别错误率低,识别速度快等特点,使得本方法不需要具备很高算力的CPU,仅依靠单个摄像头即可进行定位,并且可在室内取得较好的定位效果。

Description

一种基于二维码阵列的室内无人机定位方法
技术领域
本发明涉及室内定位技术领域,尤其涉及一种基于二维码阵列的室内无人机定位方法。
背景技术
无人机应用场景非常广泛,在室外可用于探测地形、送快递、以及农业施肥等,在室内可进行无人机编队协作、室内探索救援等。随着应用场景变得越来越复杂,无人机定位技术也变得越来越重要,目前室内定位技术越来越成熟,已经出现了UWB定位、WIFI定位、蓝牙定位、二维码定位以及SLAM定位等方案,但是在无人机上室内定位仍然是一个热点问题,尤其在中小型无人机上,本身设备算力以及续航能力都受到了限制,这造成不少定位方案无法在这种类型的无人机上有效实施。现有的无人机室内定位技术中,基于蓝牙的定位受环境干扰大,且不能遮挡设备。基于UWB的定位方案在无人机上有所应用,但是最少需要3个基站,且信号传播会受到墙壁、天花板、门、人等障碍物的阻挡,导致信号发生反射、折射、衍射现象,发射信号经过不同的时间、不同路径到达UWB接收端,最终造成UWB精度降低,需要较复杂的算法进行滤波以及优化。基于视觉SLAM的定位方案在运行的过程中占用CPU大量资源,需要比较强悍的CPU才能实时运行,设备成本高,技术难度大,且需要环境纹理特征丰富,而室内无人机的俯视视角的纹理特征并不是特别丰富,所以一般的SLAM算法并不完全适用于无人机俯视视角,且定位轨迹容易漂移。采用三维激光雷达来进行建图与定位,其成本昂贵,且重量大,对无人机要求极高。
发明内容
鉴以此,本发明的目的在于提供一种基于二维码阵列的室内无人机定位方法,对无人机的硬件要求低且可行性较高,以克服或至少部分解决现有技术所存在的上述问题。
一种基于二维码阵列的室内无人机定位方法,包括以下步骤:
S1、无人机获取并执行起飞指令,通过图像采集组件采集地面图像并对AprilTag进行识别;
S2、图像采集组件传输AprilTag信息至上位机,上位机基于AprilTag信息进行世界坐标系转换,获得无人机定位信息及飞机轨迹并进行可视化。
进一步的,当无人机接收到上位机发送的AprilTag ID时,判断图像采集组件所识别AprilTag ID是否包含所接收AprilTag ID,若包含则悬停于所接收AprilTag ID对应的AprilTag上方,否则根据光流传感器采集数据进行悬停。
进一步的,所述通过图像采集组件对AprilTag进行识别包括步骤:边界分割、检测矩形、求解相机姿态、AprilTag编解码。
进一步的,所述求解相机姿态为通过单应矩阵求解相机姿态,或通过PnP算法求解相机姿态。
进一步的,通过单应矩阵求解得到相机姿态T后,采用非线性优化算法求解光束法平差,具体包括以下步骤:
S11、给定初始变换矩阵和阻尼因子μ,通过公式(JTJ+μI)Δx=-JTe进行迭代计算,其中J为2*6雅克比矩阵,e为误差函数;
S12、计算阻尼因子ρ,表达式为:
Figure BDA0002807781410000021
当ρ>0.75,μ=μ*2,接受本次更新xnew;当ρ<0.75,μ=μ/3,拒绝本次更新xnew
S13、判断算法是否收敛,若收敛则结束迭代,否则重新执行步骤S11。
进一步的,通过PnP算法求解相机姿态后,计算重投影误差,基于重投影误差计算结果再次对相机姿态T进行迭代优化,重投影误差f(x)计算公式为:
Figure BDA0002807781410000031
其中P为已知世界坐标系下空间点坐标(Xw,Yw,Zw),该空间点在相机坐标系下齐次坐标点为p=(u,v,1),Rcw为世界坐标系到相机坐标系的旋转矩阵,tcw为平移向量,K为相机内参。
进一步的,所述通过图像采集组件对AprilTag进行识别还包括:对AprilTag图像之间的变换矩阵进行位姿图优化,具体包括:
假设每个AprilTag图像的姿态为T1,…,Tn,i,j∈[1,n],Ti和Tj之间的变换矩阵为Tij,可得:
Tij=Ti -1Tj
设每个AprilTag图像的姿态之间的变换误差为eij,可得:
eij=ln(Tij -1Ti -1Tj)
设所有边的集合为ε,则总体目标函数为:
Figure BDA0002807781410000032
对目标函数进行非线性优化。
进一步的,所述通过图像采集组件对AprilTag进行识别具体还包括:将AprilTag的中心与图像中心的欧式距离可信度权重,对多个空间点进行融合获得融合后的空间点信息,设两个不同的AprilTag的中心像素与图像中心的欧式距离为r1、r2,以及对应的空间点坐标为P1、P2,则融合后的空间点P为:
Figure BDA0002807781410000041
与现有技术相比,本发明的有益效果是:
本发明所提供的一种基于二维码阵列的室内无人机定位方法,在二维码识别方面,采用AprilTag二维码,其复杂程度一般,具有识别错误率低,识别速度快等特点,使得本方法不需要具备很高算力的CPU,仅依靠单个摄像头即可进行定位,并且可在室内取得较好的定位效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的优选实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于二维码阵列的室内无人机定位方法整体流程示意图。
图2是使用普通摄像头采集的AprilTag姿态优化结果示意图。
图3是使用OpenMV采集的AprilTag姿态优化结果示意图。
图4是本发明实施例提供的定位轨迹比较示意图a。
图5是本发明实施例提供的定位轨迹比较示意图b。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所列举实施例只用于解释本发明,并非用于限定本发明的范围。
参照图1,本发明提供一种基于二维码阵列的室内无人机定位方法,所述方法包括以下步骤:
S1、无人机获取并执行起飞指令,通过图像采集组件采集地面图像并对AprilTag进行识别。所述AprilTag均设置于地面上。
S2、图像采集组件传输AprilTag信息至上位机,上位机基于AprilTag信息进行世界坐标系转换,获得无人机定位信息及飞机轨迹并进行可视化。
所述图像采集组件设置于无人机上,本实施例中,所述图像采集组件采用OpenMV和免驱USB摄像头,其中OpenMV用于识别AprilTag,免驱USB摄像头用于进行图像采集或在线航拍。另外无人机上还设有微控制器、电源、飞控、光流传感器、蓝牙模块等,所述微控制器可以采用树莓派微型电脑。用户可以通过遥控器对无人机进行控制,也可以通过上位机向无人机发送控制指令,所述上位机可以是计算机或服务器一类的设备。
无人机得到遥控器的起飞指令后,会自动飞到指定高度悬停,此时OpenMV开始识别周围的AprilTag。当无人机接收到上位机发送的AprilTag ID时,判断图像采集组件所识别AprilTag ID是否包含所接收AprilTag ID,若包含则悬停于所接收AprilTag ID对应的AprilTag上方,否则根据光流传感器采集数据进行悬停。
所述通过图像采集组件对AprilTag进行识别包括步骤:边界分割、监测矩形、求解相机姿态和AprilTag编解码。
AprilTag识别成功后,需要根据矩形的四个角点与三维空间点建立对应的联系,并进行姿态解算。
一种实施方式中,求解相机姿态为通过单应矩阵求解。单应矩阵用于描述两个平面之间的映射关系,当已知空间点共面时,可用单应矩阵求解相机姿态。设单应矩阵为H,AprilTag坐标系下空间点坐标为(X,Y,Z),由于每个AprilTag共面,且跟x-y平面重叠,所以所有AprilTag空间点中的Z=0,AprilTag矩阵的角点坐标为x,K为相机内参,则有:
x=sK[R t]3×4[X Y Z 1]T
r0、r1为旋转矩阵R的第一列和第二列,所述旋转矩阵R可通过Matlab棋盘标定法对相机求解内参和畸变参数,除了内参和畸变参数外,Matlab还会求解出变换矩阵T,变换矩阵T由旋转矩阵R和平移向量t构成。经过整理可得:
x=sK[r0 r1 t]3×3[X Y 1]T
令H=sK[r0 r1 t],P=[X Y 1],最后可得:
x=HP
H矩阵可以通过DLT等算法求解得出。
一些实施方式中,通过单应矩阵求解得到相机姿态T后,采用非线性优化算法求解光束法平差,具体包括以下步骤:
S11、给定初始变换矩阵和阻尼因子μ,通过公式(JTJ+μI)Δx=-JTe进行迭代计算,其中J为2*6雅克比矩阵,e为误差函数,形式如下:
Figure BDA0002807781410000061
Figure BDA0002807781410000062
其中(X',Y',Z')为相机坐标系下的空间点左边,δξ为变换矩阵T在特殊欧式群SE(3)下的扰动,(u,v)为像素坐标,k1、k2为畸变系数,fx、fy、cx、cy为相机内参,r为像素坐标在归一化坐标系与原点的距离。特殊欧式群SE(3)的定义如下:
Figure BDA0002807781410000063
其中∧为对3*1向量转换为反对称矩阵形式,其形式如下:
Figure BDA0002807781410000071
进行迭代前,需要提供一个良好的变换矩阵作为初始值,否则误差函数会收敛到局部极值,该初值的选取可以选取为单应矩阵得到的相机姿态T。加入阻尼因子可以有效控制误差往下降方向进行,且保证了矩阵的正定性。
S12、计算阻尼因子ρ,表达式为:
Figure BDA0002807781410000072
当ρ>0.75,μ=μ*2,接受本次更新xnew;当ρ<0.75,μ=μ/3,拒绝本次更新xnew
S13、判断算法是否收敛,若收敛则结束迭代,否则重新执行步骤S11。
另一种实施方式中,求解相机姿态可以通过PnP算法求解。PnP求解方法可以是DLT、P3P、EPnP与迭代法等。
通过PnP算法求解相机姿态后,计算重投影误差,基于重投影误差计算结果再次对相机姿态T进行迭代优化,重投影误差f(x)计算公式为:
Figure BDA0002807781410000073
其中P为已知世界坐标系下空间点坐标(Xw,Yw,Zw),该空间点在相机坐标系下齐次坐标点为p=(u,v,1),Rcw为世界坐标系到相机坐标系的旋转矩阵,tcw为平移向量,K为相机内参。
在AprilTag识别过程中需要对AprilTag之间的变换矩阵进行采集,但是所采集的矩阵存在较大的误差,需要降低误差。为了解决该问题,作为一个示例,所述通过图像采集组件对AprilTag进行识别还包括:对AprilTag图像之间的变换矩阵进行位姿图优化,具体包括:
假设每个AprilTag图像的姿态为T1,…,Tn,i,j∈[1,n],Ti和Tj之间的变换矩阵为Tij,可得:
Tij=Ti -1Tj
设每个AprilTag图像的姿态之间的变换误差为eij,可得:
eij=ln(Tij -1Ti -1Tj)
设所有边的集合为ε,则总体目标函数为:
Figure BDA0002807781410000081
其中
Figure BDA0002807781410000082
为6*6的对角信息矩阵,代表对应变量的不确定性,对目标函数进行非线性优化。使用普通摄像头采集的AprilTag姿态进行优化,结果如图2所示,使用OpenMV采集的AprilTag姿态进行优化,结果如图3所示。从优化结果看,位姿图优化用于AprilTag优化是完全有效,能够尽可能的降低误差,如对OpenMV得到的AprilTag姿态进行优化,明显可以看出优化效果较好,但是由于OpenMV获取的图像没有去畸变处理,所以优化的结果不算最优,但是能够尽可能降低畸变参数的影响。对于普通摄像头,由于提前进行了图像去畸变等处理,未优化前得到的AprilTag姿态误差本身比较小,经过优化后的效果十分理想。
作为一个示例,所述通过图像采集组件对AprilTag进行识别具体还包括:将AprilTag的中心与图像中心的欧式距离可信度权重,对多个空间点进行融合获得融合后的空间点信息,设两个不同的AprilTag的中心像素与图像中心的欧式距离为r1、r2,以及对应的空间点坐标为P1、P2,则融合后的空间点P为:
Figure BDA0002807781410000091
在本发明的一个实施例中,以在3*3的AprilTag二维码阵列上空进行紧凑不规则椭圆运动作为测试数据,测试平台为ubuntu 16.04,输出数据为空间坐标点(X,Y,Z),可视化数据平台为Matlab2019a,分别对本方法与近几年来精度比较高的视觉SLAM方案ORBSLAM2所生成的定位轨迹进行比较,结果如图4和图5所示。从图4、图5可以看出:
(1)ORBSLAM2的定位结果有明显的漂移且出现跳跃线段如图4中(c),而基于AprilTag的定位轨迹明显紧凑基本无跳跃线段如图5中(e)、(f);
(2)通过AprilTag定位的轨迹是有真实的尺度信息,在本发明中AprilTag定位单位为米,而ORBSLAM2由于单目尺度的不确定所以无法得知具体尺度;
(3)采用密立根大学开源代码中的姿态解算API后,并换算到世界坐标系下后的结果如图5中(d),从图可知,该算法得出的部分姿态有明显的错误,效果不如本设计姿态解算的AprilTag的姿态。而采用了多个AprilTag信息融合的定位效果如图5中(f),在局部一些位置明显优于未融合多个AprilTag信息的位置。可见,在有明确标志物时本发明的定位轨迹优于ORBSLAM2定位轨迹,在室内可以取得更好的定位效果。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于二维码阵列的室内无人机定位方法,其特征在于,所述方法包括以下步骤:
S1、无人机获取并执行起飞指令,通过图像采集组件采集地面图像并对AprilTag进行识别;
S2、图像采集组件传输AprilTag信息至上位机,上位机基于AprilTag信息进行世界坐标系转换,获得无人机定位信息及飞机轨迹并进行可视化。
2.根据权利要求1所述的一种基于二维码阵列的室内无人机定位方法,其特征在于,当无人机接收到上位机发送的AprilTag ID时,判断图像采集组件所识别AprilTag ID是否包含所接收AprilTag ID,若包含则悬停于所接收AprilTag ID对应的AprilTag上方,否则根据光流传感器采集数据进行悬停。
3.根据权利要求1所述的一种基于二维码阵列的室内无人机定位方法,其特征在于,所述通过图像采集组件对AprilTag进行识别包括步骤:边界分割、检测矩形、求解相机姿态、AprilTag编解码。
4.根据权利要求2所述的一种基于二维码阵列的室内无人机定位方法,其特征在于,所述求解相机姿态为通过单应矩阵求解相机姿态,或通过PnP算法求解相机姿态。
5.根据权利要求4所述的一种基于二维码阵列的室内无人机定位方法,其特征在于,通过单应矩阵求解得到相机姿态T后,采用非线性优化算法求解光束法平差,具体包括以下步骤:
S11、给定初始变换矩阵和阻尼因子μ,通过公式(JTJ+μI)Δx=-JTe进行迭代计算,其中J为2*6雅克比矩阵,e为误差函数;
S12、计算阻尼因子ρ,表达式为:
Figure FDA0002807781400000011
当ρ>0.75,μ=μ*2,接受本次更新xnew;当ρ<0.75,μ=μ/3,拒绝本次更新xnew
S13、判断算法是否收敛,若收敛则结束迭代,否则重新执行步骤S11。
6.根据权利要求4所述的一种基于二维码阵列的室内无人机定位方法,其特征在于,通过PnP算法求解相机姿态后,计算重投影误差,基于重投影误差计算结果再次对相机姿态T进行迭代优化,重投影误差f(x)计算公式为:
Figure FDA0002807781400000021
其中P为已知世界坐标系下空间点坐标(Xw,Yw,Zw),该空间点在相机坐标系下齐次坐标点为p=(u,v,1),Rcw为世界坐标系到相机坐标系的旋转矩阵,tcw为平移向量,K为相机内参。
7.根据权利要求3所述的一种基于二维码阵列的室内无人机定位方法,其特征在于,所述通过图像采集组件对AprilTag进行识别还包括:对AprilTag图像之间的变换矩阵进行位姿图优化,具体包括:
假设每个AprilTag图像的姿态为T1,…,Tn,i,j∈[1,n],Ti和Tj之间的变换矩阵为Tij,可得:
Tij=Ti -1Tj
设每个AprilTag图像的姿态之间的变换误差为eij,可得:
eij=ln(Tij -1Ti -1Tj)
设所有边的集合为ε,则总体目标函数为:
Figure FDA0002807781400000022
对目标函数进行非线性优化。
8.根据权利要求3所述的一种基于二维码阵列的室内无人机定位方法,其特征在于,所述通过图像采集组件对AprilTag进行识别具体还包括:将AprilTag的中心与图像中心的欧式距离可信度权重,对多个空间点进行融合获得融合后的空间点信息,设两个不同的AprilTag的中心像素与图像中心的欧式距离为r1、r2,以及对应的空间点坐标为P1、P2,则融合后的空间点P为:
Figure FDA0002807781400000031
CN202011374345.5A 2020-11-30 2020-11-30 一种基于二维码阵列的室内无人机定位方法 Pending CN112419403A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011374345.5A CN112419403A (zh) 2020-11-30 2020-11-30 一种基于二维码阵列的室内无人机定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011374345.5A CN112419403A (zh) 2020-11-30 2020-11-30 一种基于二维码阵列的室内无人机定位方法

Publications (1)

Publication Number Publication Date
CN112419403A true CN112419403A (zh) 2021-02-26

Family

ID=74828897

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011374345.5A Pending CN112419403A (zh) 2020-11-30 2020-11-30 一种基于二维码阵列的室内无人机定位方法

Country Status (1)

Country Link
CN (1) CN112419403A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113176594A (zh) * 2021-03-12 2021-07-27 中国软件评测中心(工业和信息化部软件与集成电路促进中心) 基于沙盘的车载预警测试方法、装置、计算机和存储介质
CN115617079A (zh) * 2022-12-14 2023-01-17 四川轻化工大学 一种可交互无人机系统
CN117808872A (zh) * 2024-03-01 2024-04-02 西安猎隼航空科技有限公司 一种无人机姿态位置估计方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107314771A (zh) * 2017-07-04 2017-11-03 合肥工业大学 基于编码标志点的无人机定位以及姿态角测量方法
CN108051002A (zh) * 2017-12-04 2018-05-18 上海文什数据科技有限公司 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法
CN108594848A (zh) * 2018-03-29 2018-09-28 上海交通大学 一种基于视觉信息融合的无人机分阶段自主着艇方法
CN108919811A (zh) * 2018-07-27 2018-11-30 东北大学 一种基于tag标签的室内移动机器人SLAM方法
CN109658461A (zh) * 2018-12-24 2019-04-19 中国电子科技集团公司第二十研究所 一种基于虚拟仿真环境的合作二维码的无人机定位方法
CN110345937A (zh) * 2019-08-09 2019-10-18 东莞市普灵思智能电子有限公司 一种基于二维码的导航定姿定位方法和系统
CN110503688A (zh) * 2019-08-20 2019-11-26 上海工程技术大学 一种用于深度相机的位姿估计方法
CN111582123A (zh) * 2020-04-29 2020-08-25 华南理工大学 一种基于信标识别与视觉slam的agv定位方法
CN111968128A (zh) * 2020-07-10 2020-11-20 北京航空航天大学 一种基于图像标记的无人机视觉姿态和位置解算方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107314771A (zh) * 2017-07-04 2017-11-03 合肥工业大学 基于编码标志点的无人机定位以及姿态角测量方法
CN108051002A (zh) * 2017-12-04 2018-05-18 上海文什数据科技有限公司 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN108594848A (zh) * 2018-03-29 2018-09-28 上海交通大学 一种基于视觉信息融合的无人机分阶段自主着艇方法
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法
CN108919811A (zh) * 2018-07-27 2018-11-30 东北大学 一种基于tag标签的室内移动机器人SLAM方法
CN109658461A (zh) * 2018-12-24 2019-04-19 中国电子科技集团公司第二十研究所 一种基于虚拟仿真环境的合作二维码的无人机定位方法
CN110345937A (zh) * 2019-08-09 2019-10-18 东莞市普灵思智能电子有限公司 一种基于二维码的导航定姿定位方法和系统
CN110503688A (zh) * 2019-08-20 2019-11-26 上海工程技术大学 一种用于深度相机的位姿估计方法
CN111582123A (zh) * 2020-04-29 2020-08-25 华南理工大学 一种基于信标识别与视觉slam的agv定位方法
CN111968128A (zh) * 2020-07-10 2020-11-20 北京航空航天大学 一种基于图像标记的无人机视觉姿态和位置解算方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113176594A (zh) * 2021-03-12 2021-07-27 中国软件评测中心(工业和信息化部软件与集成电路促进中心) 基于沙盘的车载预警测试方法、装置、计算机和存储介质
CN115617079A (zh) * 2022-12-14 2023-01-17 四川轻化工大学 一种可交互无人机系统
CN115617079B (zh) * 2022-12-14 2023-02-28 四川轻化工大学 一种可交互无人机系统
CN117808872A (zh) * 2024-03-01 2024-04-02 西安猎隼航空科技有限公司 一种无人机姿态位置估计方法
CN117808872B (zh) * 2024-03-01 2024-05-28 西安猎隼航空科技有限公司 一种无人机姿态位置估计方法

Similar Documents

Publication Publication Date Title
US11506500B2 (en) Aligning measured signal data with SLAM localization data and uses thereof
US10192113B1 (en) Quadocular sensor design in autonomous platforms
Krajník et al. A practical multirobot localization system
US10496104B1 (en) Positional awareness with quadocular sensor in autonomous platforms
CN112419403A (zh) 一种基于二维码阵列的室内无人机定位方法
CN105865449B (zh) 基于激光和视觉的移动机器人的混合定位方法
Weiss et al. Intuitive 3D maps for MAV terrain exploration and obstacle avoidance
Bian et al. A monocular vision–based perception approach for unmanned aerial vehicle close proximity transmission tower inspection
Bian et al. A novel monocular-based navigation approach for UAV autonomous transmission-line inspection
Sanfourche et al. Perception for UAV: Vision-Based Navigation and Environment Modeling.
CN112184812B (zh) 提升无人机相机对AprilTag识别定位精度方法及定位方法和系统
CN111178148A (zh) 一种基于无人机视觉系统的地面目标地理坐标定位方法
US20220050461A1 (en) Control and navigation systems, pose optimization, mapping, and localization techniques
Kim et al. UAV-UGV cooperative 3D environmental mapping
Kemp Visual control of a miniature quad-rotor helicopter
Chen et al. Autonomous aerial refueling ground test demonstration—A sensor-in-the-loop, non-tracking method
CN110823223A (zh) 一种无人机群的路径规划方法及装置
Wang et al. Autonomous landing of multi-rotors UAV with monocular gimbaled camera on moving vehicle
Springer et al. Autonomous Drone Landing with Fiducial Markers and a Gimbal-Mounted Camera for Active Tracking
Chatzikalymnios et al. Landing site detection for autonomous rotor wing UAVs using visual and structural information
Yang et al. A semantic SLAM-based method for navigation and landing of UAVs in indoor environments
Muller et al. A probabilistic sonar sensor model for robust localization of a small-size blimp in indoor environments using a particle filter
Bai et al. Research on obstacles avoidance technology for UAV based on improved PTAM algorithm
Basit et al. Joint localization of pursuit quadcopters and target using monocular cues
CN117406771A (zh) 一种基于四旋翼无人机的高效自主探索方法、系统及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination