CN107735797A - 用于确定第一坐标系与第二坐标系之间的运动的方法 - Google Patents
用于确定第一坐标系与第二坐标系之间的运动的方法 Download PDFInfo
- Publication number
- CN107735797A CN107735797A CN201680039165.7A CN201680039165A CN107735797A CN 107735797 A CN107735797 A CN 107735797A CN 201680039165 A CN201680039165 A CN 201680039165A CN 107735797 A CN107735797 A CN 107735797A
- Authority
- CN
- China
- Prior art keywords
- posture
- motion
- coordinate system
- key point
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000033001 locomotion Effects 0.000 title claims abstract description 37
- 230000007704 transition Effects 0.000 claims abstract description 21
- 238000005259 measurement Methods 0.000 claims description 2
- 230000001133 acceleration Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种方法通过首先从由设置在运动物体上的摄像头获取的场景的第一图像和第二图像提取第一组关键点和第二组关键点来确定第一坐标系与第二坐标系之间的运动。从第一组关键点和第二组关键点确定第一姿态和第二姿态。使用评分函数和由训练数据构建的姿态过渡图确定针对第一姿态与第二姿态之间的各可能运动的得分,其中,姿态过渡图中的各节点表示相对姿态,并且各边表示两个连续相对姿态之间的运动。然后,基于得分选择最佳运动作为第一坐标系与第二坐标系之间的运动。
Description
技术领域
本发明总体涉及计算机视觉,更具体地涉及使用特征点对应来确定在道路上的车辆的两个坐标系之间的运动,其中,各坐标系与摄像头的摄像头坐标系对应,该摄像头例如单目或立体摄像头。
背景技术
视觉测程(visual odometry)是指使用来自由例如安装在物体上的一个或更多个摄像头获取的图像的特征确定运动物体从一个位置到另一个位置的运动的问题,该运动物体例如车辆或机器人。已知几种方法使用诸如点的几何图元来估计运动。例如,可以使用5个或更多个点对应以使用在一个坐标系中的2D点到另一坐标系之间的对应以确定运动,参见Nister,“An efficient solution to the five-point relative pose problem”PAMI,2004。
还存在2D到3D姿态估计方法,其用于基于由先前的立体图像重构建的部分3D点云来估计运动物体的位置,参见Kitt等人,“Visual odometry based on stereo imagesequences with ransac-based outlier rejection scheme”IV,2010年。
一种方法在迭代最近点(ICP)方法中使用3D到3D点对应来确定立体摄像头之间的运动,参见Milella等人,“Stereo-based ego-motion estimation using pixel trackingand iterative closest point”,ICCVS,2006年。
投票策略已用于计算视觉测程,参见US20120308114,“Voting strategy forvisual ego-motion from stereo”,并且机器学习过程已用于估计摄像头姿态,参见WO2014130404,“Method and device for calculating a camera or object pose”。
发明内容
本发明的实施方式提供了一种用于确定第一坐标系与第二坐标系之间的运动的方法。方法从训练数据构建紧凑姿态过渡图。该图可以用于在不执行任何明确的运动或姿态确定的情况下获得视觉测程。
通常,运动或姿态估计涉及多项式方程组的求解。该方法不需要任何代数方程组来获得姿态。相反,该方法简单地针对最佳运动在姿态过渡图中进行搜索。在姿态过渡图中,各节点表示两个连续摄像头位置之间的可能相对姿态。两个相对姿态之间的边表示在进行视觉测程的同时在连续帧中具有这两个相对姿态的可能性。
方法与使用诸如3或5点姿态估计这样的运动估计过程的用于视觉测程的其他方法不同。
方法使用评分函数,该评分函数基于点对应确定距离度量,其可以从姿态过渡图有效地识别正确的运动。
附图说明
[图1]
图1是根据本发明的实施方式的在我们的视觉测程过程中使用的用于确定第一坐标系与第二坐标系之间的运动的方法的流程图;
[图2]
图2是根据本发明的实施方式的三个连续图像和两个连续相对姿态的示意图;以及
[图3]
图3示出了根据本发明的实施方式的用于两个连续帧之间的可能相对姿态的后过渡图。
具体实施方式
如图1所示,本发明的实施方式提供了一种用于确定第一坐标系与第二坐标系之间的运动的方法。例如,该方法可以用于视觉测程应用,其中,该方法使用来自由例如安装在运动物体110上的一个或更多个摄像头120获取的场景130的图像的特征确定该物体从一个位置到另一个位置的运动,该物体例如车辆或机器人。
该方法使用从训练数据110构建的紧凑姿态过渡图300,参见图3。该图然后可以用于在不执行任何明确的运动或姿态确定的情况下获得视觉测程。
大多数现有技术视觉测程方法通过对随机抽样一致(RANSAC)方法的多项式方程求解,使用明确的运动或姿态确定。
我们不使用明确的运动确定,并且我们不使用RANSAC。我们的方案使用姿态过渡图和点对应来“搜索”相对姿态,而不是直接确定对应。
对我们方法的输入是由已校准的摄像头获取的图像序列101。从图像序列,我们提取103关键点、关键点的描述符,以确定匹配的关键点。
在训练期间,我们从训练数据110构建102姿态过渡图300。姿态过渡图300表示可能的运动假设。在该图中,每个节点表示在由获取的场景130的视频中的两个连续图像之间的相对姿态的候选,该视频例如设置在车辆110上的摄像头120获取。连接两个节点的各边表示两个连续相对姿态之间的可能运动。
为了进行这一点,我们使用由安装在运动125上的摄像头获取的数千个地面实况相对姿态,运动物体125例如道路130上的车辆110。通过去除冗余姿态来对这些相对姿态群集并压缩。使用已压缩的姿态组,我们构建对从一个相对姿态到另一相对姿态的状态过渡进行编码的紧凑图。
对于视频中的每个图像,我们使用传统的关键点检测器来检测关键点,诸如加速鲁棒特征(SURF)。我们还在步骤103中提取SURF描述符,并且匹配所有连续的图像对。
对于姿态过渡图中的每个相对姿态,我们识别104如步骤105中所示的一致的内点(inlier)匹配的数量。
我们使用内点上的评分函数来确定产生得分的距离度量。距离度量识别最佳运动106,该最佳运动106可以被输出。
方法可以在如本领域中已知的由总线连接到存储器和输入/输出接口的处理器中执行。
如图2所示,我们分别示出三个连续的图像F(t-2)201、F(t-1)203以及F(t)205。图像F(t-2)与F(t-1)之间的相对姿态由Pi 202给出。类似地,图像F(t-1)与F(t)之间的相对姿态由Pj 204给出。
如图3所示,我们描述了用于在训练期间构建后过渡图300中的基本构思。在该图中,每个节点表示在从场景130的视频中的两个连续图像之间的相对姿态的候选,该视频例如由设置在车辆110上的摄像头120获取。连接两个节点的各边表示两个连续相对姿态之间的可能运动。
例如,在图3中,边302表示与在相对姿态Pm之后具有相对姿态Pr对应的可能运动。换言之,如图2所示,存在三个图像F(t-2)201、F(t-1)203以及F(t)125,使得F(t-2)与F(t-1)之间的相对姿态是Pm,并且F(t-1)与F(t)之间的相对姿态是Pr。节点Pk 304上的环303指示可以存在都等于相对姿态Pk的两个连续相对姿态。
后过渡图是使用训练视频序列即训练数据110来构建的。我们使用分析运动估计过程和光束平差(bundle)调整机构来获得连续帧之间的相对姿态。换言之,我们使用传统的分析相对和绝对姿态估计过程来生成地面实况。
我们还可以使用全球定位系统(GPS)和/或惯性测量单元(IMU)来获得用于训练数据的相对姿态信息。假设Qi(其中,i={1,2,..,m})为来自训练数据的所有连续图像对的相对姿态。然后,我们对这些姿态群集,使得类似的全部相对姿态属于一个群集,并且我们使用来自一个群集的代表相对姿态。通过这样做,我们获得的较小的相对姿态组Pi,其中,i={1,2,…,n},其中,n<<m。
使用该较小的相对姿态组,我们以以下方式构建图2所示的过渡图。
1.初始化n个节点,其中,各节点与组Pi(i={1,2,…,n})中的相对姿态对应。
2.对于每个连续的相对姿态Qi和Qj:
a.如果经压缩的组中的最近相对姿态是Pi和Pj,那么我们添加从Pi到Pj的边。
b.如果经压缩的组中的最近相对姿态都是Pk,那么我们添加针对节点Pk的自身环。
假设F(t-2)、F(t-1)以及F(t)为三个连续的图像。假设F(t-2)与F(t-1)之间的相对姿态由Pi给出。我们使用以下评分函数来确定F(t-1)与F(t)之间的当前相对姿态Pj:
得分(Pj)=内点(Pj)+S*w(Pi,Pj)
其中,S是调节内点和w的相对重要性的尺度参数。参数S可以是学习的或是人工固定的。内点(Pj)通过使用相对姿态Pj来获得。与从Pi到Pj的状态过渡对应的权重是w(Pi,Pj)。
该方法可以用于多个应用,包括但不限于自主驾驶应用中的汽车,诸如用于移动机器人、手持设备以及无人机的精确定位和视觉测程。
Claims (14)
1.一种用于确定第一坐标系与第二坐标系之间的运动的方法,该方法包括以下步骤:
从由设置在运动物体上的摄像头获取的场景的第一图像提取第一组关键点;
从由所述摄像头获取的所述场景的第二图像提取第二组关键点;
分别从所述第一组关键点和所述第二组关键点确定第一姿态和第二姿态;
使用评分函数和从训练数据构建的姿态过渡图确定针对所述第一姿态与所述第二姿态之间的各可能运动的得分,其中,该后过渡图中的各节点表示相对姿态,并且各边表示两个连续相对姿态之间的运动;以及
基于所述得分选择最佳运动作为所述第一坐标系与所述第二坐标系之间的所述运动,其中,这些步骤在处理器中执行。
2.根据权利要求1所述的方法,其中,使用加速鲁棒特征SURF来获得所述关键点。
3.根据权利要求1所述的方法,其中,使用从由所述摄像头获取的视频序列获得的训练数据来构建所述姿态过渡图。
4.根据权利要求1所述的方法,其中,使用分析运动估计过程来确定所述姿态过渡图中表示的所述姿态。
5.根据权利要求1所述的方法,其中,使用地理定位系统GPS来确定所述姿态。
6.根据权利要求1所述的方法,其中,使用惯性测量单元IMU来确定所述姿态。
7.根据权利要求1所述的方法,其中,所述姿态被群集以去除类似的运动,来构造紧凑的姿态过渡图。
8.根据权利要求4所述的方法,其中,使用分析运动估计和5点2D到2D运动估计过程来获得所述相对运动。
9.根据权利要求4所述的方法,其中,使用分析运动估计和3点2D到3D运动估计过程来获得所述相对运动。
10.根据权利要求1所述的方法,其中,所述评分函数依赖于从所述第一组关键点与所述第二第二组关键点的匹配获得的内点的数量。
11.根据权利要求1所述的方法,其中,所述运动用于视觉测程的任务。
12.根据权利要求1所述的方法,其中,所述运动用于通过使用所述场景的3D模型来定位的任务。
13.根据权利要求1所述的方法,其中,所述运动物体是车辆。
14.根据权利要求1所述的方法,其中,所述运动物体是机器人。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/755,324 | 2015-06-30 | ||
US14/755,324 US9558424B2 (en) | 2015-06-30 | 2015-06-30 | On-road stereo visual odometry without explicit pose determinations |
PCT/JP2016/068022 WO2017002637A1 (en) | 2015-06-30 | 2016-06-10 | Method for determining a motion between a first coordinate system and a second coordinate system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107735797A true CN107735797A (zh) | 2018-02-23 |
CN107735797B CN107735797B (zh) | 2021-03-19 |
Family
ID=56555663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680039165.7A Active CN107735797B (zh) | 2015-06-30 | 2016-06-10 | 用于确定第一坐标系与第二坐标系之间的运动的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9558424B2 (zh) |
JP (1) | JP6261811B2 (zh) |
CN (1) | CN107735797B (zh) |
DE (1) | DE112016002995T5 (zh) |
WO (1) | WO2017002637A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364785A (zh) * | 2020-11-13 | 2021-02-12 | 中移雄安信息通信科技有限公司 | 一种运动训练指导方法、装置、设备及计算机存储介质 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106170676B (zh) * | 2015-07-14 | 2018-10-09 | 深圳市大疆创新科技有限公司 | 用于确定移动平台的移动的方法、设备以及系统 |
DE102016211805A1 (de) * | 2015-10-09 | 2017-04-13 | Volkswagen Aktiengesellschaft | Fusion von Positionsdaten mittels Posen-Graph |
WO2018192984A1 (en) | 2017-04-19 | 2018-10-25 | Robert Bosch Gmbh | Methods and systems for aligning a vehicle with a trailer |
US10565714B2 (en) | 2018-05-25 | 2020-02-18 | Denso Corporation | Feature tracking for visual odometry |
US10634777B2 (en) * | 2018-05-30 | 2020-04-28 | Ford Global Technologies, Llc | Radar odometry for vehicle |
DE102018117660A1 (de) | 2018-07-20 | 2020-01-23 | Man Truck & Bus Se | Verfahren und system zum bestimmen einer position eines fahrzeugs |
KR102559203B1 (ko) * | 2018-10-01 | 2023-07-25 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
US11783707B2 (en) | 2018-10-09 | 2023-10-10 | Ford Global Technologies, Llc | Vehicle path planning |
US11460851B2 (en) | 2019-05-24 | 2022-10-04 | Ford Global Technologies, Llc | Eccentricity image fusion |
US11521494B2 (en) | 2019-06-11 | 2022-12-06 | Ford Global Technologies, Llc | Vehicle eccentricity mapping |
US11662741B2 (en) | 2019-06-28 | 2023-05-30 | Ford Global Technologies, Llc | Vehicle visual odometry |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1213683A2 (en) * | 2000-11-30 | 2002-06-12 | Mixed Reality Systems Laboratory Inc. | Position and orientation determining method and apparatus and storage medium |
US20050140670A1 (en) * | 2003-11-20 | 2005-06-30 | Hong Wu | Photogrammetric reconstruction of free-form objects with curvilinear structures |
CN103247199A (zh) * | 2013-05-15 | 2013-08-14 | 安徽三联交通应用技术股份有限公司 | 一种机动车移动位置和姿态的精确测量方法 |
CN103345751A (zh) * | 2013-07-02 | 2013-10-09 | 北京邮电大学 | 一种基于鲁棒特征跟踪的视觉定位方法 |
CN103578117A (zh) * | 2012-08-01 | 2014-02-12 | 三菱电机株式会社 | 确定摄像头相对于环境的姿态的方法 |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN104457761A (zh) * | 2014-11-18 | 2015-03-25 | 上海新跃仪表厂 | 基于多目视觉的相对位置和姿态的特征接力方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2011305154B2 (en) * | 2010-09-24 | 2015-02-05 | Irobot Corporation | Systems and methods for VSLAM optimization |
US9020187B2 (en) * | 2011-05-27 | 2015-04-28 | Qualcomm Incorporated | Planar mapping and tracking for mobile devices |
US8744169B2 (en) | 2011-05-31 | 2014-06-03 | Toyota Motor Europe Nv/Sa | Voting strategy for visual ego-motion from stereo |
JP6086474B2 (ja) * | 2012-11-26 | 2017-03-01 | Kddi株式会社 | 情報端末装置 |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
WO2014159726A1 (en) * | 2013-03-13 | 2014-10-02 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
US10533850B2 (en) * | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
US9495761B2 (en) * | 2013-11-04 | 2016-11-15 | The Regents Of The University Of California | Environment mapping with automatic motion model selection |
US20150286873A1 (en) * | 2014-04-03 | 2015-10-08 | Bruce L. Davis | Smartphone-based methods and systems |
US20150277550A1 (en) * | 2014-04-01 | 2015-10-01 | Moju Labs, Inc. | Face-Centered Motion-Based Content Navigation |
-
2015
- 2015-06-30 US US14/755,324 patent/US9558424B2/en active Active
-
2016
- 2016-06-10 WO PCT/JP2016/068022 patent/WO2017002637A1/en active Application Filing
- 2016-06-10 DE DE112016002995.0T patent/DE112016002995T5/de active Pending
- 2016-06-10 JP JP2017513572A patent/JP6261811B2/ja active Active
- 2016-06-10 CN CN201680039165.7A patent/CN107735797B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1213683A2 (en) * | 2000-11-30 | 2002-06-12 | Mixed Reality Systems Laboratory Inc. | Position and orientation determining method and apparatus and storage medium |
US20050140670A1 (en) * | 2003-11-20 | 2005-06-30 | Hong Wu | Photogrammetric reconstruction of free-form objects with curvilinear structures |
CN103578117A (zh) * | 2012-08-01 | 2014-02-12 | 三菱电机株式会社 | 确定摄像头相对于环境的姿态的方法 |
CN103247199A (zh) * | 2013-05-15 | 2013-08-14 | 安徽三联交通应用技术股份有限公司 | 一种机动车移动位置和姿态的精确测量方法 |
CN103345751A (zh) * | 2013-07-02 | 2013-10-09 | 北京邮电大学 | 一种基于鲁棒特征跟踪的视觉定位方法 |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN104457761A (zh) * | 2014-11-18 | 2015-03-25 | 上海新跃仪表厂 | 基于多目视觉的相对位置和姿态的特征接力方法 |
Non-Patent Citations (5)
Title |
---|
ANDREAS ESS ET AL: "A Mobile Vision System for Robust Multi-Person Tracking", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
JOAQUIM SALVI ET AL: "A comparative review of camera calibrating methods with accuracy evaluation", 《PATTERN RECOGNITION》 * |
M. POLLEFEYS ET AL: "Detailed Real-Time Urban 3D Reconstruction from Video", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 * |
OLAF BOOIJ ET AL: "The planar two point algorithm", 《INFORMATICS INSTITUTE》 * |
王鹏等: "单目视觉位姿测量的线性求解", 《仪器仪表学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364785A (zh) * | 2020-11-13 | 2021-02-12 | 中移雄安信息通信科技有限公司 | 一种运动训练指导方法、装置、设备及计算机存储介质 |
CN112364785B (zh) * | 2020-11-13 | 2023-07-25 | 中移雄安信息通信科技有限公司 | 一种运动训练指导方法、装置、设备及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107735797B (zh) | 2021-03-19 |
WO2017002637A1 (en) | 2017-01-05 |
US20170004379A1 (en) | 2017-01-05 |
JP2017528833A (ja) | 2017-09-28 |
DE112016002995T5 (de) | 2018-03-15 |
US9558424B2 (en) | 2017-01-31 |
JP6261811B2 (ja) | 2018-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107735797A (zh) | 用于确定第一坐标系与第二坐标系之间的运动的方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
Hu et al. | A sliding-window visual-IMU odometer based on tri-focal tensor geometry | |
Park et al. | High-precision depth estimation with the 3d lidar and stereo fusion | |
US9959625B2 (en) | Method for fast camera pose refinement for wide area motion imagery | |
US20210049371A1 (en) | Localisation, mapping and network training | |
Gräter et al. | Robust scale estimation for monocular visual odometry using structure from motion and vanishing points | |
Honegger et al. | Embedded real-time multi-baseline stereo | |
CN108917753B (zh) | 基于从运动恢复结构的飞行器位置确定方法 | |
JP2009266224A (ja) | リアルタイム・ビジュアル・オドメトリの方法およびシステム | |
JP6613876B2 (ja) | 姿勢推定装置、姿勢推定方法、およびプログラム | |
JP2014137815A (ja) | 歪みのあるカメラ画像を補正するシステム及び方法 | |
Mammarella et al. | Comparing optical flow algorithms using 6-dof motion of real-world rigid objects | |
CN111623773B (zh) | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 | |
CA2803346A1 (en) | Systems and methods for estimating pose | |
JP2020170500A (ja) | エゴモーション情報推定装置及び方法 | |
Spaenlehauer et al. | A loosely-coupled approach for metric scale estimation in monocular vision-inertial systems | |
Son et al. | Synthetic deep neural network design for lidar-inertial odometry based on CNN and LSTM | |
CN113570716A (zh) | 云端三维地图构建方法、系统及设备 | |
Hong et al. | Visual inertial odometry using coupled nonlinear optimization | |
Li et al. | 3D mapping based VSLAM for UAVs | |
Garro et al. | Fast Metric Acquisition with Mobile Devices. | |
CN111784798B (zh) | 地图生成方法、装置、电子设备和存储介质 | |
Billy et al. | Adaptive SLAM with synthetic stereo dataset generation for real-time dense 3D reconstruction | |
JP2018205949A (ja) | 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |