CN107167140A - 一种无人机视觉定位累积误差抑制方法 - Google Patents

一种无人机视觉定位累积误差抑制方法 Download PDF

Info

Publication number
CN107167140A
CN107167140A CN201710384346.XA CN201710384346A CN107167140A CN 107167140 A CN107167140 A CN 107167140A CN 201710384346 A CN201710384346 A CN 201710384346A CN 107167140 A CN107167140 A CN 107167140A
Authority
CN
China
Prior art keywords
mrow
moment
msub
image
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710384346.XA
Other languages
English (en)
Other versions
CN107167140B (zh
Inventor
朱轶
陈晔
黄茹辉
王新平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201710384346.XA priority Critical patent/CN107167140B/zh
Publication of CN107167140A publication Critical patent/CN107167140A/zh
Application granted granted Critical
Publication of CN107167140B publication Critical patent/CN107167140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种无人机视觉定位累积误差抑制方法。该方法不需要事先建立路标库,仅利用可信历史访问点的图像信息优化定位结果,能更好的适应未知环境,更易于实施:先利用当前捕获的图像信息对自身位置进行估算,再以估算位置为圆心作圆,将圆内具有高图像特征点匹配率的历史访问点集定义为可信空间,进而利用可信空间中可信历史访问点的图像信息进行定位结果优化;用当前捕获的图像与各可信历史访问点的图像信息,结合各可信历史访问点的已知坐标,逐一计算两点之间的相对旋转量与位移量,并以图像特征点匹配率作为权重进行加权,最终得到优化定位结果。本发明有效抑制全局累积误差,可应用于小型无人机常见的室内巡航场景。

Description

一种无人机视觉定位累积误差抑制方法
技术领域
本发明涉及无人机(Unmanned Aerial Vehicle,UAV)中的视觉定位,具体设计一种基于历史访问信息的无人机视觉定位累积误差抑制方法,英文名称为Cumulative ErrorSuppression Method based on Historical Visiting Information,CES-HVI(B64C 27/08有两个或多个旋翼的;H04N 1/409误差的抑制;H04W 40/20定位)。
背景技术
机器的自动化是当今时代的需求。出于安全性、速度、准确性和精密度的考虑,自主驾驶的车辆、机器人和自动化生产系统的需求量越来越大。无人机在这一领域具有很长的研究历史。无人机具有隐蔽性好、操作灵活、可适应各种恶劣环境的特点,可以最大程度地将人从环境中解放出来,所以随着现代科学技术的不断发展,具有自主导航能力的智能机器人、无人机等载体的运用得到了广泛的关注。2005年8月,美国国防部在《无人机系统发展图(2005-2030)》中明确指出将把无人机作为近30年航空器发展重点。
视觉定位是通过摄像机获取环境图像,再经过处理器分析计算得出物体位置的过程。相比激光测距仪、航迹推算和GPS全球定位系统等如今众多的定位方式,视觉定位不但解决了室内定位面临的无线屏蔽、干扰等不利因素的影响。还更好地解决了诸如激光测距定位价格昂贵、航迹推算定位误差大等一系列定位问题。正是由于算法的诸多优点,现被广泛运用于无人机室内定位技术中。美国爱荷华州立大学用IMU和摄像头实现了无人机在规则走廊内的自主飞行。2010年在德国国防部支持下Markus Kleinert等人成功实现了单目视觉下的SLAM和IMU数据的融合算法,完成了室内多处场景全局地图构建;ScientificSystems Company的Jeffrey Byrne提出了利用图像特征点在视野内扩张速度结合惯导数据估计障碍物距离的方法,并在2010年将视觉技术成功地运用在了无GPS的无人机楼宇间的飞行中。
但视觉定位技术也有其一定的缺陷,由于视觉定位是利用上一时刻的位置计算结果去估算下一时刻的位置,长时间的飞行会导致无人机视觉定位误差的累积,累积的误差严重了影响了无人机视觉定位的效果,如今如何抑制累积误差成了无人机视觉定位系统中的关键问题。部分研究者试图通过抑制单次定位误差来获得好的定位效果。文献[1]中南京理工大学通过建立误差矩阵模型进行参数补偿,从而提高定位精度。文献[2]中四川大学制造科学与工程学院提出一种基于模型控制方法和基于智能计算方法相结合的方法,该方法有利于提高机器人的视觉定位精度。文献[3]中科院自动化研究所得到摄像机的内部参数随机器人位置的变化关系,使机器人在粗定位的基础上,自动地调节摄像头的内参,补偿定位误差提高定位精度。不同于以上通过误差补偿提高定位精度的思路,另一种解决方案直接针对累积误差本身的抑制问题,文献[4-5]提出在飞行过程中设置坐标已知的路标,从而纠正累积定位误差。文献[4]中刘振宇设计了一种可扩展的彩色人工路标,并给出路标的编码方法减少了定位的累积误差。文献[5]浙江大学陈明芽提出单目视觉自然路标辅助的移动机器人定位方法,在GPS受限情况下提高了惯性导航定位的精度和鲁棒性。
综合现有的视觉定位累积误差抑制方法,误差补偿虽从一定程度上减少了累积误差的影响,但是对于不同的视觉定位系统,固定的误差补偿方法不具有一定的通用性,而且误差补偿需提前建立视觉定位模型,从视觉定位模型中得出误差模型,再进行误差补偿。这样的误差补偿不能够很好的适应无人机的需求。建立已知路标库的方法,就是在无人机飞行过程中通过识别已知坐标的路标,从而达到抑制累积误差的效果,该方法在很大程度上抑制了累积误差,却很难运用到未知环境中去。该方法需要提前设置路标库,一旦无人机进入未提前设置路标库的区域内,该方法将完全不适用,并且当在新的环境中使用该累积误差抑制方法时,需要提前设置大量路标,这必将损耗大量的人力物力。
对比文件
[1]LIU YOUWU,ZHANG QING etc.The compensative technique of positioningerrors for NC machine tools[J].International Conference on IntelligentManufacturing.Wuhan,1995:843-846.
[2]尹湘云,殷国富,胡晓兵,等.基于支持矢量机回归的机器人视觉系统定位精度[J].机械工程学报,2011,47(1):48-54.
[3]李新征,易建强,赵冬斌.基于视觉的机器人定位精度提高方法[J].计算机测量与控制,2005,13(6):545-547.
[4]刘振宇,姜楠,张令涛.基于人工路标和立体视觉的移动机器人自定位[J].计算机工程与应用,2010,46(9):190-192.
[5]陈明芽,项志宇,刘济林.单目视觉自然路标辅助的移动机器人定位方法[J].浙江大学学报工学版,2014(2):285-291.
发明内容
本发明的目的在于提供一种无人机视觉定位累积误差抑制方法,以有效抑制全局累积误差。
为了解决以上技术问题,本发明采用的具体技术方案如下:
一种无人机视觉定位累积误差抑制方法,其特征在于:针对具备双摄像头的小型无人机,先利用当前捕获的图像信息对自身位置进行估算,估算出初始坐标,再以估算的初始坐标为圆心作圆,将圆内具有高图像特征点匹配率的历史访问点集定义为可信空间,进而利用可信空间中可信历史访问点的图像信息进行定位结果优化;用当前捕获的图像与各可信历史访问点的图像信息,结合各可信历史访问点的已知坐标,逐一计算两点之间的相对旋转量与位移量,并以图像特征点匹配率作为权重进行加权,最终得到优化定位结果,即tm时刻无人机位置坐标
tm时刻无人机位置坐标的计算步骤如下:
步骤一、计算初始坐标
已知tm-1时刻无人机在地面坐标系下的坐标为左右摄像头在tm-1时刻获取的图像分别为 其中u和v是图像坐标系下的像素坐标值,I是图像灰度值矩阵;初始坐标的计算方法为:
Step1:获取tm-1时刻的左右图像并用SIFT算法对两幅图片进行特征点提取和特征点匹配,得出匹配特征点的像素坐标矩阵,并结合摄像头的内部参数,计算出匹配特征点在tm-1时刻摄像头坐标系下的坐标矩阵同时存储匹配特征点的信息;这里,匹配到的特征点有个,的矩阵,其中 分别是匹配特征点在tm-1时刻摄像头坐标系下坐标值向量;
Step2:获取tm时刻的左右图像并重复Step1,计算出图像中匹配特征点在tm时刻摄像头坐标系下的坐标矩阵同样的矩阵;
Step3:利用tm-1时刻存储的匹配特征点信息对tm时刻的匹配特征点进行特征点追踪,得到的追踪特征点个数为个,将新形成的的矩阵代入方程计算得出无人机在这段飞行距离里的相对旋转量和相对位移量
经过以上的步骤便可以得出tm时刻无人机在地面坐标系下的初始坐标表示为
步骤二、可信空间构建
以步骤一计算出的初始坐标为圆点、λ为半径作圆,在圆内寻找与tm时刻图像特征点匹配率大于δ的历史访问点,从而构成可信空间;此时可信空间中的点便是对于tm时刻的可信历史访问点,构建的可信历史访问点集可以表示成HP={tj|j∈N},其中可信历史访问点集中可信历史访问点的个数为d,表示为|HP|=d;
所述图像特征点匹配率定义为:假设nti为ti时刻由左、右摄像头图像计算出的匹配特征点个数,同时建立并存储ti时刻特征点的描述算子,在tj时刻由左、右摄像头图像计算出的匹配特征点中追踪ti时刻的匹配特征点,假设追踪到的匹配特征点个数为则定义为这两个时刻的图像特征点匹配率;若ti时刻所存储的历史图像信息满足公式(1),则定义是在的可信空间中的可信历史访问点;
式1中,λ表示可信空间范围大小;δ为图像特征点匹配率阈值;
步骤三、当前位置与可信历史点的相对旋转量与位移量计算
利用HP(k)时刻所存储可信历史访问点的图像匹配特征点信息,结合tm时刻提取的图像匹配特征点信息,重新计算记为 分别是估算出的两位置特征点坐标的相对旋转量和相对位移量,遍历HP中d个历史点,逐一与目标位置计算相对旋转量与位移量;1≤k≤d;
步骤四、得出优化定位结果
利用匹配率,按公式(2)进行定位结果的优化,并以优化结果作为最终坐标输出;
式(2)中,代表tm时刻图像与HP(k)时刻图像特征点匹配率,代表直接利用tm时刻图像信息与HP(k)时刻图像信息计算出的tm时刻位置坐标,为最终输出的tm时刻坐标。
所述可信空间构建中,可信空间范围大小λ、图像特征点匹配率阈值δ,可按照下表给出的不同无人机飞行速度和摄像头帧率条件下的参考值进行设置。
本发明具有有益效果。现有的视觉定位累积误差抑制方法,误差补偿对于不同的视觉定位系统,固定的误差补偿方法不具有一定的通用性,而且误差补偿需提前建立视觉定位模型,这样的误差补偿不能够很好的适应无人机的需求。建立已知路标库的方法在很大程度上抑制了累积误差,但是却很难运用到未知环境中去。本发明针对建立路标库的方法进行改进,针对小型无人机常见的室内巡航场景,利用可信历史访问点作为已知路标,不需要提前建立路标库,能够更好地适应未知环境,同时可以有效抑制全局累积误差。
附图说明
图1为本发明实施示例图,取点25为例示意;
图2为本发明预设轨迹、未优化原始算法轨迹和CES-HVI方法轨迹对比图。
具体实施方式
下面结合附图和具体实施例,对本发明的技术方案做进一步详细说明。
设定实验的无人机飞行路线如图2中预设轨迹所示,无人机未优化原始定位计算的轨迹和CES-HVI方法轨迹也如图2所示,实施的定位过程如下所示:
步骤1.确定可信历史访问点的选取条件
鉴于飞行实验中无人机飞行速度为60cm/s、摄像头的帧率为50帧/s,根据本发明权利要求第二点中给出的参考数据,将λ取200cm,δ取0.25。
下面使用图1中从(0,0)开始的第25个点为例,说明CES-HVI方法的具体步骤。其中25号点的预设坐标为(478,102)。
步骤2.实施CES-HVI方法
Step1.在25号点的位置获取左右摄像头图像,结合24号点获取的左右摄像头图像,计算两点间中无人机飞行的相对旋转量与偏移量,得出25号位置的坐标为(557,111)。
Step2.根据已确定的λ取值200cm,在距离坐标(557,111)半径为200cm的范围内寻找历史访问点。
Step3.在步骤2找到的历史点中,根据已确定的特征点匹配率阈值δ=0.25,排除掉特征点匹配率小于0.25的历史点,将剩下的点放到集合HP中,称之为可信历史访问点集。其中集合中可信历史访问点分别是点5,点6,点7,点23和点24,同时这五个位置点图片信息与点25图片信息计算出的特征点匹配率分别为0.58,0.81,0.55,0.53,0.61。
Step4.分别利用点5,点6,点7,点23和点24图片信息与点25图片信息直接计算点25的坐标分别为(487,102),(490,102),(491,102),(540,107)和(557,111)。
Step5.利用公式计算最终的优化定位结果,最终坐标为(511,104)。
得到的最终坐标为(511,104),比未经优化的计算坐标(557,111)更加接近预设坐标(478,102),可以明显看出CES-HVI优化算法对于累积误差的改善。

Claims (3)

1.一种无人机视觉定位累积误差抑制方法,其特征在于:针对具备双摄像头的小型无人机,先利用当前捕获的图像信息对自身位置进行估算,估算出初始坐标,再以估算的初始坐标为圆心作圆,将圆内具有高图像特征点匹配率的历史访问点集定义为可信空间,进而利用可信空间中可信历史访问点的图像信息进行定位结果优化;用当前捕获的图像与各可信历史访问点的图像信息,结合各可信历史访问点的已知坐标,逐一计算两点之间的相对旋转量与位移量,并以图像特征点匹配率作为权重进行加权,最终得到优化定位结果,即tm时刻无人机位置坐标
2.根据权利要求1所述的一种无人机视觉定位累积误差抑制方法,其特征在于tm时刻无人机位置坐标的计算步骤如下:
步骤一、计算初始坐标
已知tm-1时刻无人机在地面坐标系下的坐标为左右摄像头在tm-1时刻获取的图像分别为 其中u和v是图像坐标系下的像素坐标值,I是图像灰度值矩阵;初始坐标的计算方法为:
Step1:获取tm-1时刻的左右图像并用SIFT算法对两幅图片进行特征点提取和特征点匹配,得出匹配特征点的像素坐标矩阵,并结合摄像头的内部参数,计算出匹配特征点在tm-1时刻摄像头坐标系下的坐标矩同时存储匹配特征点的信息;这里,匹配到的特征点有个,的矩阵,其中 分别是匹配特征点在tm-1时刻摄像头坐标系下坐标值向量;
的矩阵;
Step3:利用tm-1时刻存储的匹配特征点信息对tm时刻的匹配特征点进行特征点追踪,得到的追踪特征点个数为个,将新形成的的矩阵代入方程计算得出无人机在这段飞行距离里的相对旋转量和相对位移量
经过以上的步骤便可以得出tm时刻无人机在地面坐标系下的初始坐标表示为
步骤二、可信空间构建
以步骤一计算出的初始坐标为圆点、λ为半径作圆,在圆内寻找与tm时刻图像特征点匹配率大于δ的历史访问点,从而构成可信空间;此时可信空间中的点便是对于tm时刻的可信历史访问点,构建的可信历史访问点集可以表示成HP={tj|j∈N},其中可信历史访问点集中可信历史访问点的个数为d,表示为|HP|=d;
所述图像特征点匹配率定义为:假设为ti时刻由左、右摄像头图像计算出的匹配特征点个数,同时建立并存储ti时刻特征点的描述算子,在tj时刻由左、右摄像头图像计算出的匹配特征点中追踪ti时刻的匹配特征点,假设追踪到的匹配特征点个数为则定义为这两个时刻的图像特征点匹配率;若ti时刻所存储的历史图像信息满足公式(1),则定义是在的可信空间中的可信历史访问点;
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mrow> <mo>|</mo> <mrow> <msub> <mi>S</mi> <msub> <mi>t</mi> <mi>i</mi> </msub> </msub> <mo>-</mo> <msub> <mi>S</mi> <msub> <mi>t</mi> <mi>j</mi> </msub> </msub> </mrow> <mo>|</mo> </mrow> <mo>&amp;le;</mo> <mi>&amp;lambda;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>r</mi> <mrow> <msub> <mi>t</mi> <mi>j</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> </mrow> </msub> <mo>&amp;GreaterEqual;</mo> <mi>&amp;delta;</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
式1中,λ表示可信空间范围大小;δ为图像特征点匹配率阈值;
步骤三、当前位置与可信历史点的相对旋转量与位移量计算
利用HP(k)时刻所存储可信历史访问点的图像匹配特征点信息,结合tm时刻提取的图像匹配特征点信息,重新计算记为 分别是估算出的两位置特征点坐标的相对旋转量和相对位移量,遍历HP中d个历史点,逐一与目标位置计算相对旋转量与位移量;1≤k≤d;
步骤四、得出优化定位结果
利用匹配率,按公式(2)进行定位结果的优化,并以优化结果作为最终坐标输出;
<mrow> <msubsup> <mi>S</mi> <msub> <mi>t</mi> <mi>m</mi> </msub> <mo>*</mo> </msubsup> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>d</mi> </munderover> <msub> <mi>r</mi> <mrow> <mi>H</mi> <mi>P</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mi>t</mi> <mi>m</mi> </msub> </mrow> </msub> <msub> <mi>S</mi> <mrow> <mi>H</mi> <mi>P</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mi>t</mi> <mi>m</mi> </msub> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
式(2)中,代表tm时刻图像与HP(k)时刻图像特征点匹配率,代表直接利用tm时刻图像信息与HP(k)时刻图像信息计算出的tm时刻位置坐标,为最终输出的tm时刻坐标。
3.根据权利要求1中所述的一种视觉定位累积误差抑制方法,其特征在于:所述可信空间构建中,可信空间范围大小λ、图像特征点匹配率阈值δ,可按照下表给出的不同无人机飞行速度和摄像头帧率条件下的参考值进行设置。
CN201710384346.XA 2017-05-26 2017-05-26 一种无人机视觉定位累积误差抑制方法 Active CN107167140B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710384346.XA CN107167140B (zh) 2017-05-26 2017-05-26 一种无人机视觉定位累积误差抑制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710384346.XA CN107167140B (zh) 2017-05-26 2017-05-26 一种无人机视觉定位累积误差抑制方法

Publications (2)

Publication Number Publication Date
CN107167140A true CN107167140A (zh) 2017-09-15
CN107167140B CN107167140B (zh) 2019-11-08

Family

ID=59820870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710384346.XA Active CN107167140B (zh) 2017-05-26 2017-05-26 一种无人机视觉定位累积误差抑制方法

Country Status (1)

Country Link
CN (1) CN107167140B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108051836A (zh) * 2017-11-02 2018-05-18 中兴通讯股份有限公司 一种定位方法、装置、服务器及系统
CN108717712A (zh) * 2018-05-29 2018-10-30 东北大学 一种基于地平面假设的视觉惯导slam方法
CN110335313A (zh) * 2019-06-17 2019-10-15 腾讯科技(深圳)有限公司 音频采集设备定位方法及装置、说话人识别方法及系统
CN111989631A (zh) * 2018-04-20 2020-11-24 本田技研工业株式会社 自身位置推定方法
CN113074751A (zh) * 2019-12-17 2021-07-06 杭州海康威视数字技术股份有限公司 一种视觉定位误差检测方法及装置
CN116698086A (zh) * 2023-07-31 2023-09-05 中国人民解放军国防科技大学 仿生偏振视觉导航传感器的误差联合标定方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080167814A1 (en) * 2006-12-01 2008-07-10 Supun Samarasekera Unified framework for precise vision-aided navigation
CN101556647A (zh) * 2009-05-20 2009-10-14 哈尔滨理工大学 一种基于改进sift算法的移动机器人视觉定位方法
CN102135429A (zh) * 2010-12-29 2011-07-27 东南大学 一种基于视觉的机器人室内定位导航方法
CN103954283A (zh) * 2014-04-01 2014-07-30 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
CN104359464A (zh) * 2014-11-02 2015-02-18 天津理工大学 基于立体视觉的移动机器人定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080167814A1 (en) * 2006-12-01 2008-07-10 Supun Samarasekera Unified framework for precise vision-aided navigation
CN101556647A (zh) * 2009-05-20 2009-10-14 哈尔滨理工大学 一种基于改进sift算法的移动机器人视觉定位方法
CN102135429A (zh) * 2010-12-29 2011-07-27 东南大学 一种基于视觉的机器人室内定位导航方法
CN103954283A (zh) * 2014-04-01 2014-07-30 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
CN104359464A (zh) * 2014-11-02 2015-02-18 天津理工大学 基于立体视觉的移动机器人定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张华 等: "《基于双目视觉的机器人自定位方法研究》", 《华中科技大学学报(自然科学版)》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108051836A (zh) * 2017-11-02 2018-05-18 中兴通讯股份有限公司 一种定位方法、装置、服务器及系统
CN111989631A (zh) * 2018-04-20 2020-11-24 本田技研工业株式会社 自身位置推定方法
CN108717712A (zh) * 2018-05-29 2018-10-30 东北大学 一种基于地平面假设的视觉惯导slam方法
CN108717712B (zh) * 2018-05-29 2021-09-03 东北大学 一种基于地平面假设的视觉惯导slam方法
CN110335313A (zh) * 2019-06-17 2019-10-15 腾讯科技(深圳)有限公司 音频采集设备定位方法及装置、说话人识别方法及系统
CN110335313B (zh) * 2019-06-17 2022-12-09 腾讯科技(深圳)有限公司 音频采集设备定位方法及装置、说话人识别方法及系统
CN113074751A (zh) * 2019-12-17 2021-07-06 杭州海康威视数字技术股份有限公司 一种视觉定位误差检测方法及装置
CN113074751B (zh) * 2019-12-17 2023-02-07 杭州海康威视数字技术股份有限公司 一种视觉定位误差检测方法及装置
CN116698086A (zh) * 2023-07-31 2023-09-05 中国人民解放军国防科技大学 仿生偏振视觉导航传感器的误差联合标定方法和装置
CN116698086B (zh) * 2023-07-31 2023-10-20 中国人民解放军国防科技大学 仿生偏振视觉导航传感器的误差联合标定方法和装置

Also Published As

Publication number Publication date
CN107167140B (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
CN107167140B (zh) 一种无人机视觉定位累积误差抑制方法
CN109211241B (zh) 基于视觉slam的无人机自主定位方法
CN110222581B (zh) 一种基于双目相机的四旋翼无人机视觉目标跟踪方法
CN109579843B (zh) 一种空地多视角下的多机器人协同定位及融合建图方法
CN108776492B (zh) 一种基于双目相机的四轴飞行器自主避障与导航方法
US20190138029A1 (en) Collision avoidance system, depth imaging system, vehicle, map generator and methods thereof
CN107656545A (zh) 一种面向无人机野外搜救的自主避障与导航方法
US10240930B2 (en) Sensor fusion
Sim et al. Integrated position estimation using aerial image sequences
US20220292711A1 (en) Pose estimation method and device, related equipment and storage medium
KR20180079428A (ko) 자동 로컬리제이션을 위한 장치 및 방법
CN107727079A (zh) 一种微小型无人机全捷联下视相机的目标定位方法
CN113916243A (zh) 目标场景区域的车辆定位方法、装置、设备和存储介质
CN104880187A (zh) 一种基于双摄像机的飞行器光流检测装置的运动估计方法
CN109582032B (zh) 多旋翼无人机在复杂环境下的快速实时避障路径选择方法
CN112378397B (zh) 无人机跟踪目标的方法、装置及无人机
CN110887486B (zh) 一种基于激光线辅助的无人机视觉导航定位方法
CN111426320A (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN113467500A (zh) 一种基于双目视觉的无人机非合作目标追踪系统
CN112947569B (zh) 基于预设性能四旋翼无人机视觉伺服目标跟踪控制方法
CN114077249B (zh) 一种作业方法、作业设备、装置、存储介质
CN109764864B (zh) 一种基于颜色识别的室内无人机位姿获取方法及系统
CN112380933B (zh) 无人机识别目标的方法、装置及无人机
CN113155126B (zh) 一种基于视觉导航的多机协同目标高精度定位系统及方法
Mostafa et al. Optical flow based approach for vision aided inertial navigation using regression trees

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant