CN107735797A - 用于确定第一坐标系与第二坐标系之间的运动的方法 - Google Patents

用于确定第一坐标系与第二坐标系之间的运动的方法 Download PDF

Info

Publication number
CN107735797A
CN107735797A CN201680039165.7A CN201680039165A CN107735797A CN 107735797 A CN107735797 A CN 107735797A CN 201680039165 A CN201680039165 A CN 201680039165A CN 107735797 A CN107735797 A CN 107735797A
Authority
CN
China
Prior art keywords
posture
motion
coordinate system
key point
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680039165.7A
Other languages
English (en)
Other versions
CN107735797B (zh
Inventor
S·拉姆阿里加姆
李锦喜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN107735797A publication Critical patent/CN107735797A/zh
Application granted granted Critical
Publication of CN107735797B publication Critical patent/CN107735797B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

一种方法通过首先从由设置在运动物体上的摄像头获取的场景的第一图像和第二图像提取第一组关键点和第二组关键点来确定第一坐标系与第二坐标系之间的运动。从第一组关键点和第二组关键点确定第一姿态和第二姿态。使用评分函数和由训练数据构建的姿态过渡图确定针对第一姿态与第二姿态之间的各可能运动的得分,其中,姿态过渡图中的各节点表示相对姿态,并且各边表示两个连续相对姿态之间的运动。然后,基于得分选择最佳运动作为第一坐标系与第二坐标系之间的运动。

Description

用于确定第一坐标系与第二坐标系之间的运动的方法
技术领域
本发明总体涉及计算机视觉,更具体地涉及使用特征点对应来确定在道路上的车辆的两个坐标系之间的运动,其中,各坐标系与摄像头的摄像头坐标系对应,该摄像头例如单目或立体摄像头。
背景技术
视觉测程(visual odometry)是指使用来自由例如安装在物体上的一个或更多个摄像头获取的图像的特征确定运动物体从一个位置到另一个位置的运动的问题,该运动物体例如车辆或机器人。已知几种方法使用诸如点的几何图元来估计运动。例如,可以使用5个或更多个点对应以使用在一个坐标系中的2D点到另一坐标系之间的对应以确定运动,参见Nister,“An efficient solution to the five-point relative pose problem”PAMI,2004。
还存在2D到3D姿态估计方法,其用于基于由先前的立体图像重构建的部分3D点云来估计运动物体的位置,参见Kitt等人,“Visual odometry based on stereo imagesequences with ransac-based outlier rejection scheme”IV,2010年。
一种方法在迭代最近点(ICP)方法中使用3D到3D点对应来确定立体摄像头之间的运动,参见Milella等人,“Stereo-based ego-motion estimation using pixel trackingand iterative closest point”,ICCVS,2006年。
投票策略已用于计算视觉测程,参见US20120308114,“Voting strategy forvisual ego-motion from stereo”,并且机器学习过程已用于估计摄像头姿态,参见WO2014130404,“Method and device for calculating a camera or object pose”。
发明内容
本发明的实施方式提供了一种用于确定第一坐标系与第二坐标系之间的运动的方法。方法从训练数据构建紧凑姿态过渡图。该图可以用于在不执行任何明确的运动或姿态确定的情况下获得视觉测程。
通常,运动或姿态估计涉及多项式方程组的求解。该方法不需要任何代数方程组来获得姿态。相反,该方法简单地针对最佳运动在姿态过渡图中进行搜索。在姿态过渡图中,各节点表示两个连续摄像头位置之间的可能相对姿态。两个相对姿态之间的边表示在进行视觉测程的同时在连续帧中具有这两个相对姿态的可能性。
方法与使用诸如3或5点姿态估计这样的运动估计过程的用于视觉测程的其他方法不同。
方法使用评分函数,该评分函数基于点对应确定距离度量,其可以从姿态过渡图有效地识别正确的运动。
附图说明
[图1]
图1是根据本发明的实施方式的在我们的视觉测程过程中使用的用于确定第一坐标系与第二坐标系之间的运动的方法的流程图;
[图2]
图2是根据本发明的实施方式的三个连续图像和两个连续相对姿态的示意图;以及
[图3]
图3示出了根据本发明的实施方式的用于两个连续帧之间的可能相对姿态的后过渡图。
具体实施方式
如图1所示,本发明的实施方式提供了一种用于确定第一坐标系与第二坐标系之间的运动的方法。例如,该方法可以用于视觉测程应用,其中,该方法使用来自由例如安装在运动物体110上的一个或更多个摄像头120获取的场景130的图像的特征确定该物体从一个位置到另一个位置的运动,该物体例如车辆或机器人。
该方法使用从训练数据110构建的紧凑姿态过渡图300,参见图3。该图然后可以用于在不执行任何明确的运动或姿态确定的情况下获得视觉测程。
大多数现有技术视觉测程方法通过对随机抽样一致(RANSAC)方法的多项式方程求解,使用明确的运动或姿态确定。
我们不使用明确的运动确定,并且我们不使用RANSAC。我们的方案使用姿态过渡图和点对应来“搜索”相对姿态,而不是直接确定对应。
对我们方法的输入是由已校准的摄像头获取的图像序列101。从图像序列,我们提取103关键点、关键点的描述符,以确定匹配的关键点。
在训练期间,我们从训练数据110构建102姿态过渡图300。姿态过渡图300表示可能的运动假设。在该图中,每个节点表示在由获取的场景130的视频中的两个连续图像之间的相对姿态的候选,该视频例如设置在车辆110上的摄像头120获取。连接两个节点的各边表示两个连续相对姿态之间的可能运动。
为了进行这一点,我们使用由安装在运动125上的摄像头获取的数千个地面实况相对姿态,运动物体125例如道路130上的车辆110。通过去除冗余姿态来对这些相对姿态群集并压缩。使用已压缩的姿态组,我们构建对从一个相对姿态到另一相对姿态的状态过渡进行编码的紧凑图。
对于视频中的每个图像,我们使用传统的关键点检测器来检测关键点,诸如加速鲁棒特征(SURF)。我们还在步骤103中提取SURF描述符,并且匹配所有连续的图像对。
对于姿态过渡图中的每个相对姿态,我们识别104如步骤105中所示的一致的内点(inlier)匹配的数量。
我们使用内点上的评分函数来确定产生得分的距离度量。距离度量识别最佳运动106,该最佳运动106可以被输出。
方法可以在如本领域中已知的由总线连接到存储器和输入/输出接口的处理器中执行。
如图2所示,我们分别示出三个连续的图像F(t-2)201、F(t-1)203以及F(t)205。图像F(t-2)与F(t-1)之间的相对姿态由Pi 202给出。类似地,图像F(t-1)与F(t)之间的相对姿态由Pj 204给出。
如图3所示,我们描述了用于在训练期间构建后过渡图300中的基本构思。在该图中,每个节点表示在从场景130的视频中的两个连续图像之间的相对姿态的候选,该视频例如由设置在车辆110上的摄像头120获取。连接两个节点的各边表示两个连续相对姿态之间的可能运动。
例如,在图3中,边302表示与在相对姿态Pm之后具有相对姿态Pr对应的可能运动。换言之,如图2所示,存在三个图像F(t-2)201、F(t-1)203以及F(t)125,使得F(t-2)与F(t-1)之间的相对姿态是Pm,并且F(t-1)与F(t)之间的相对姿态是Pr。节点Pk 304上的环303指示可以存在都等于相对姿态Pk的两个连续相对姿态。
后过渡图是使用训练视频序列即训练数据110来构建的。我们使用分析运动估计过程和光束平差(bundle)调整机构来获得连续帧之间的相对姿态。换言之,我们使用传统的分析相对和绝对姿态估计过程来生成地面实况。
我们还可以使用全球定位系统(GPS)和/或惯性测量单元(IMU)来获得用于训练数据的相对姿态信息。假设Qi(其中,i={1,2,..,m})为来自训练数据的所有连续图像对的相对姿态。然后,我们对这些姿态群集,使得类似的全部相对姿态属于一个群集,并且我们使用来自一个群集的代表相对姿态。通过这样做,我们获得的较小的相对姿态组Pi,其中,i={1,2,…,n},其中,n<<m。
使用该较小的相对姿态组,我们以以下方式构建图2所示的过渡图。
1.初始化n个节点,其中,各节点与组Pi(i={1,2,…,n})中的相对姿态对应。
2.对于每个连续的相对姿态Qi和Qj:
a.如果经压缩的组中的最近相对姿态是Pi和Pj,那么我们添加从Pi到Pj的边。
b.如果经压缩的组中的最近相对姿态都是Pk,那么我们添加针对节点Pk的自身环。
假设F(t-2)、F(t-1)以及F(t)为三个连续的图像。假设F(t-2)与F(t-1)之间的相对姿态由Pi给出。我们使用以下评分函数来确定F(t-1)与F(t)之间的当前相对姿态Pj:
得分(Pj)=内点(Pj)+S*w(Pi,Pj)
其中,S是调节内点和w的相对重要性的尺度参数。参数S可以是学习的或是人工固定的。内点(Pj)通过使用相对姿态Pj来获得。与从Pi到Pj的状态过渡对应的权重是w(Pi,Pj)。
该方法可以用于多个应用,包括但不限于自主驾驶应用中的汽车,诸如用于移动机器人、手持设备以及无人机的精确定位和视觉测程。

Claims (14)

1.一种用于确定第一坐标系与第二坐标系之间的运动的方法,该方法包括以下步骤:
从由设置在运动物体上的摄像头获取的场景的第一图像提取第一组关键点;
从由所述摄像头获取的所述场景的第二图像提取第二组关键点;
分别从所述第一组关键点和所述第二组关键点确定第一姿态和第二姿态;
使用评分函数和从训练数据构建的姿态过渡图确定针对所述第一姿态与所述第二姿态之间的各可能运动的得分,其中,该后过渡图中的各节点表示相对姿态,并且各边表示两个连续相对姿态之间的运动;以及
基于所述得分选择最佳运动作为所述第一坐标系与所述第二坐标系之间的所述运动,其中,这些步骤在处理器中执行。
2.根据权利要求1所述的方法,其中,使用加速鲁棒特征SURF来获得所述关键点。
3.根据权利要求1所述的方法,其中,使用从由所述摄像头获取的视频序列获得的训练数据来构建所述姿态过渡图。
4.根据权利要求1所述的方法,其中,使用分析运动估计过程来确定所述姿态过渡图中表示的所述姿态。
5.根据权利要求1所述的方法,其中,使用地理定位系统GPS来确定所述姿态。
6.根据权利要求1所述的方法,其中,使用惯性测量单元IMU来确定所述姿态。
7.根据权利要求1所述的方法,其中,所述姿态被群集以去除类似的运动,来构造紧凑的姿态过渡图。
8.根据权利要求4所述的方法,其中,使用分析运动估计和5点2D到2D运动估计过程来获得所述相对运动。
9.根据权利要求4所述的方法,其中,使用分析运动估计和3点2D到3D运动估计过程来获得所述相对运动。
10.根据权利要求1所述的方法,其中,所述评分函数依赖于从所述第一组关键点与所述第二第二组关键点的匹配获得的内点的数量。
11.根据权利要求1所述的方法,其中,所述运动用于视觉测程的任务。
12.根据权利要求1所述的方法,其中,所述运动用于通过使用所述场景的3D模型来定位的任务。
13.根据权利要求1所述的方法,其中,所述运动物体是车辆。
14.根据权利要求1所述的方法,其中,所述运动物体是机器人。
CN201680039165.7A 2015-06-30 2016-06-10 用于确定第一坐标系与第二坐标系之间的运动的方法 Active CN107735797B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/755,324 2015-06-30
US14/755,324 US9558424B2 (en) 2015-06-30 2015-06-30 On-road stereo visual odometry without explicit pose determinations
PCT/JP2016/068022 WO2017002637A1 (en) 2015-06-30 2016-06-10 Method for determining a motion between a first coordinate system and a second coordinate system

Publications (2)

Publication Number Publication Date
CN107735797A true CN107735797A (zh) 2018-02-23
CN107735797B CN107735797B (zh) 2021-03-19

Family

ID=56555663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680039165.7A Active CN107735797B (zh) 2015-06-30 2016-06-10 用于确定第一坐标系与第二坐标系之间的运动的方法

Country Status (5)

Country Link
US (1) US9558424B2 (zh)
JP (1) JP6261811B2 (zh)
CN (1) CN107735797B (zh)
DE (1) DE112016002995T5 (zh)
WO (1) WO2017002637A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364785A (zh) * 2020-11-13 2021-02-12 中移雄安信息通信科技有限公司 一种运动训练指导方法、装置、设备及计算机存储介质

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
DE102016211805A1 (de) * 2015-10-09 2017-04-13 Volkswagen Aktiengesellschaft Fusion von Positionsdaten mittels Posen-Graph
WO2018192984A1 (en) 2017-04-19 2018-10-25 Robert Bosch Gmbh Methods and systems for aligning a vehicle with a trailer
US10565714B2 (en) 2018-05-25 2020-02-18 Denso Corporation Feature tracking for visual odometry
US10634777B2 (en) * 2018-05-30 2020-04-28 Ford Global Technologies, Llc Radar odometry for vehicle
DE102018117660A1 (de) 2018-07-20 2020-01-23 Man Truck & Bus Se Verfahren und system zum bestimmen einer position eines fahrzeugs
KR102559203B1 (ko) * 2018-10-01 2023-07-25 삼성전자주식회사 포즈 정보를 출력하는 방법 및 장치
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1213683A2 (en) * 2000-11-30 2002-06-12 Mixed Reality Systems Laboratory Inc. Position and orientation determining method and apparatus and storage medium
US20050140670A1 (en) * 2003-11-20 2005-06-30 Hong Wu Photogrammetric reconstruction of free-form objects with curvilinear structures
CN103247199A (zh) * 2013-05-15 2013-08-14 安徽三联交通应用技术股份有限公司 一种机动车移动位置和姿态的精确测量方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
CN103578117A (zh) * 2012-08-01 2014-02-12 三菱电机株式会社 确定摄像头相对于环境的姿态的方法
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
CN104457761A (zh) * 2014-11-18 2015-03-25 上海新跃仪表厂 基于多目视觉的相对位置和姿态的特征接力方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011305154B2 (en) * 2010-09-24 2015-02-05 Irobot Corporation Systems and methods for VSLAM optimization
US9020187B2 (en) * 2011-05-27 2015-04-28 Qualcomm Incorporated Planar mapping and tracking for mobile devices
US8744169B2 (en) 2011-05-31 2014-06-03 Toyota Motor Europe Nv/Sa Voting strategy for visual ego-motion from stereo
JP6086474B2 (ja) * 2012-11-26 2017-03-01 Kddi株式会社 情報端末装置
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
WO2014159726A1 (en) * 2013-03-13 2014-10-02 Mecommerce, Inc. Determining dimension of target object in an image using reference object
US10533850B2 (en) * 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
US9495761B2 (en) * 2013-11-04 2016-11-15 The Regents Of The University Of California Environment mapping with automatic motion model selection
US20150286873A1 (en) * 2014-04-03 2015-10-08 Bruce L. Davis Smartphone-based methods and systems
US20150277550A1 (en) * 2014-04-01 2015-10-01 Moju Labs, Inc. Face-Centered Motion-Based Content Navigation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1213683A2 (en) * 2000-11-30 2002-06-12 Mixed Reality Systems Laboratory Inc. Position and orientation determining method and apparatus and storage medium
US20050140670A1 (en) * 2003-11-20 2005-06-30 Hong Wu Photogrammetric reconstruction of free-form objects with curvilinear structures
CN103578117A (zh) * 2012-08-01 2014-02-12 三菱电机株式会社 确定摄像头相对于环境的姿态的方法
CN103247199A (zh) * 2013-05-15 2013-08-14 安徽三联交通应用技术股份有限公司 一种机动车移动位置和姿态的精确测量方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
CN104457761A (zh) * 2014-11-18 2015-03-25 上海新跃仪表厂 基于多目视觉的相对位置和姿态的特征接力方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANDREAS ESS ET AL: "A Mobile Vision System for Robust Multi-Person Tracking", 《COMPUTER VISION AND PATTERN RECOGNITION》 *
JOAQUIM SALVI ET AL: "A comparative review of camera calibrating methods with accuracy evaluation", 《PATTERN RECOGNITION》 *
M. POLLEFEYS ET AL: "Detailed Real-Time Urban 3D Reconstruction from Video", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
OLAF BOOIJ ET AL: "The planar two point algorithm", 《INFORMATICS INSTITUTE》 *
王鹏等: "单目视觉位姿测量的线性求解", 《仪器仪表学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364785A (zh) * 2020-11-13 2021-02-12 中移雄安信息通信科技有限公司 一种运动训练指导方法、装置、设备及计算机存储介质
CN112364785B (zh) * 2020-11-13 2023-07-25 中移雄安信息通信科技有限公司 一种运动训练指导方法、装置、设备及计算机存储介质

Also Published As

Publication number Publication date
CN107735797B (zh) 2021-03-19
WO2017002637A1 (en) 2017-01-05
US20170004379A1 (en) 2017-01-05
JP2017528833A (ja) 2017-09-28
DE112016002995T5 (de) 2018-03-15
US9558424B2 (en) 2017-01-31
JP6261811B2 (ja) 2018-01-17

Similar Documents

Publication Publication Date Title
CN107735797A (zh) 用于确定第一坐标系与第二坐标系之间的运动的方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
Hu et al. A sliding-window visual-IMU odometer based on tri-focal tensor geometry
Park et al. High-precision depth estimation with the 3d lidar and stereo fusion
US9959625B2 (en) Method for fast camera pose refinement for wide area motion imagery
US20210049371A1 (en) Localisation, mapping and network training
Gräter et al. Robust scale estimation for monocular visual odometry using structure from motion and vanishing points
Honegger et al. Embedded real-time multi-baseline stereo
CN108917753B (zh) 基于从运动恢复结构的飞行器位置确定方法
JP2009266224A (ja) リアルタイム・ビジュアル・オドメトリの方法およびシステム
JP6613876B2 (ja) 姿勢推定装置、姿勢推定方法、およびプログラム
JP2014137815A (ja) 歪みのあるカメラ画像を補正するシステム及び方法
Mammarella et al. Comparing optical flow algorithms using 6-dof motion of real-world rigid objects
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CA2803346A1 (en) Systems and methods for estimating pose
JP2020170500A (ja) エゴモーション情報推定装置及び方法
Spaenlehauer et al. A loosely-coupled approach for metric scale estimation in monocular vision-inertial systems
Son et al. Synthetic deep neural network design for lidar-inertial odometry based on CNN and LSTM
CN113570716A (zh) 云端三维地图构建方法、系统及设备
Hong et al. Visual inertial odometry using coupled nonlinear optimization
Li et al. 3D mapping based VSLAM for UAVs
Garro et al. Fast Metric Acquisition with Mobile Devices.
CN111784798B (zh) 地图生成方法、装置、电子设备和存储介质
Billy et al. Adaptive SLAM with synthetic stereo dataset generation for real-time dense 3D reconstruction
JP2018205949A (ja) 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant