CN111091084A - 一种应用深度数据分布约束的运动估计方法 - Google Patents
一种应用深度数据分布约束的运动估计方法 Download PDFInfo
- Publication number
- CN111091084A CN111091084A CN201911256881.2A CN201911256881A CN111091084A CN 111091084 A CN111091084 A CN 111091084A CN 201911256881 A CN201911256881 A CN 201911256881A CN 111091084 A CN111091084 A CN 111091084A
- Authority
- CN
- China
- Prior art keywords
- distance
- point
- points
- matching
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 8
- 238000009616 inductively coupled plasma Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000010845 search algorithm Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 abstract 1
- 238000013507 mapping Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种应用深度数据分布约束的运动估计方法,本专利方案主要针对视觉 SLAM 中从相邻两次图像数据估计机器人运动的需求,使用特征提取算法提取特征点和特征点描述子,对于特征点根据距离分为近点和远点两类,分别使用RANSAC方法剔除错误结果,使得最终的匹配结果中,能够存在相对合理数量的近距离特征点和远距离特征点,并在此基础上改善机器人位姿运动估计的精度和稳定性。
Description
技术领域
本发明涉及计算机视觉技术领域,具体为一种应用深度数据分布约束的运动估计方法。
背景技术
近年来移动机器人感知环境的技术不断发展,机器人同时估计自身位置和构建环境地图技术(Simultaneous Localization and Mapping, SLAM)是实现智能化机器人的关键技术。当移动机器人位于未知场景中且无法通过外部信息直接获取自身位置和姿态信息时,机器人本体需要分析自身传感器实时数据同时完成自身位置的估计和环境地图的构建。
SLAM 问题可以描述为:机器人在未知环境中从初始点出发,运动时通过外部传感器获得的环境观测信息以及内部的里程计数据实现自定位,同时在此基础上结合传感器观测信息逐步构建环境地图,其主要流程如图6所示。
早期机器人定位主要借助于激光雷达、IMU、距离传感器等,而随着计算机视觉的发展,相机以其廉价、低功率、数据丰富的特点在 SLAM 领域得到广泛的应用,被称为视觉SLAM。机器人在运动的过程中,安装在机器人本体的上的RGB-D相机能够实时采集图像数据。RGB-D相机上的彩色摄像头记录了环境的彩色图像数据,RGB-D相机上的深度摄像头记录了对应彩色图像上像素点距离机器人本体的距离信息,我们称之为深度数据。
视觉 SLAM 利用摄像机作为获取环境场景信息的工具,能够从抓取的图像中得到非常丰富的图像特征,根据机器人工作环境和任务要求,从可重复性,准确性,稳定性,效率以及不变性等特点出发来评价和确定具体要采用的特征提取方式,然后选取合适的特征表达方法(如特征描述子),保证特征的提取和表达既能够准确的反应真实环境信息又便于高效处理。
为了获得完整一致的环境地图,机器人需要通过局部与全局的数据关联才能将在不同时间不同地点获得的观测信息进行整合。数据关联指的是对不同图像间相同特征的匹配关联以及闭环检测过程(Loop closure detection),其中RGB-D相机拍摄到的相邻图像的特征对应关系确定代表的是局部数据关联,可用于估计机器人在这段时间的运动。错误的数据关联往往会带来非常严重的问题,引发错误的运动估计,从而使得地图构建出现不一致和混乱,因此研究准确高效的数据关联和运动估计算法成为视觉SLAM中的关键技术。
目前基于RGB-D数据的视觉SLAM技术虽然已经得到了很大的发展,但针对 RGB-D数据中的深度信息的利用依然较为单调,深度数据中所包含的信息在SLAM中相邻关键帧的匹配应用值得进一步的研究,且依旧没有一个公认准确的解决方案。
在视觉 SLAM 中,为了计算两帧图像间移动机器人的运动大小,必须充分的利用这两帧图像所包含的相同信息。通常的做法是利用从图像中还原得到的点的三维信息进行ICP(迭代最近点,Iterative Closest Point)匹配来估计图像间的运动。ICP 算法通常用于对两个具有运动关系的二维或者三维的点集进行配准对齐,以求解得到点集间的旋转和平移变换关系。无论两个点集间点的对应关系是否已知,ICP 都能够通过不断地迭代来力求求解最优值。
针对点的匹配又有两种不同的操作方式:一种是将两帧图像中从图像中得到的全部三维点进行匹配,另一种即通过挑选两帧图像中具有共同典型特征的点进行匹配。
第一种匹配方式直接简单,但是一次匹配的点很多(如一帧 RGB-D 深度图包含近10 万个点),需要消耗很大的内存与计算量,且因点多密集容易引发 ICP 匹配的错误极值问题,往往得到的图像运动估计精度不太理想。第二种匹配方式一般通过随机采样一致(RANSAC)算法的处理只留下图像间共有的少数的关键特征点再结合ICP算法进行运动估计,提高了运动估计的速度和准确度。但是实际应用场景中出现近距离物体上纹理丰富特征点数量远多于远处物体上的特征点数量时,大多数的inliers分布在近距离的物体上,从而下一步的ICP结果会偏移,产生较大的误差,亟待一种改进的技术来解决现有技术中所存在的这一问题。
发明内容
本发明的目的在于提供一种应用深度数据分布约束的运动估计方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种应用深度数据分布约束的运动估计方法,包括以下步骤:
步骤一:RGB-D相机采集相邻时间的两帧图像,并分别对近距离和远距离提取图像中的特征点及其描述子;
步骤二:在通过特征提取算法得到图像特征点及其描述子之后,通过匹配来确定两幅图中共同视觉特征的对应关系;
步骤三:通过计算两个描述子间的距离来度量其相似性;
步骤四:使用FlannBasedMatcher利用快速近似最近邻搜索算法查找,找到一个相对优秀的最近邻近似匹配;
步骤五:采用随机采样一致性算法分别对近距离和远距离特征点和特征点描述子的错误匹配对进行剔除,从匹配对中随机的选取 3 个匹配对,使用选取的 3 个匹配对计算图像间的基础矩阵,然后利用基础矩阵计算图一中每个特征点在图二中的极线,然后计算图二对应特征点到对应极线的距离,距离小于给定阈值的匹配被认定为合格,否则判定为错误的匹配;对以上过程重复迭代一定次数,选取合格数量最多的那次迭代作为最终的匹配效果,其合格被当成准确的匹配并基于此次迭代的所有合格重新计算基础矩阵;
步骤六:通过特征提取和匹配环节,两帧图像间相同特征点的一一对应关系得以确立,利用两个图像对应特征点的深度信息生成两个对应的三维点集,然后对点集进行配准,首先从匹配点集中随机选取 3 个匹配对,利用 ICP算法估计这三个匹配对的变换 T,然后来统计内点数量,重复随机取点到内点统计的过程,迭代 N 次后采用内点数量最多的 T 作为运动变换估计;
步骤七:使用结合随机采样一致性算法的 ICP 算法对两个三维点集进行配准,估计机器人的运动。
优选的,所述步骤二中特征提取算法为 SIFT、SURF或ORB算法其中的任意一种。
优选的,所述步骤三中计算两个描述子间的距离采用的方法为欧氏距离,马氏距离,汉明距离以及海宁格距离其中的一种或多种。
优选的,所述步骤五中随机采样一致性算法的基本算法为给定一个包含噪声的样本点集 O 和样本集包含的函数模型 M 的形式,随机采样一致性算法随机的从样本点集 O中选取计算函数模型 M 最少所需的 N 个点,利用选取的点计算模型 M 的参数,然后通过计算得到的函数模型 M 来判定样本点集中的每个点是否为内点,统计内点的数量,不断地重复以上的随机取点到统计内点的过程,迭代一定次数以后,取内点数最多的那次迭代所计算的函数模型 M 作为样本点集 O 可信赖的描述模型,其内点为合格点。
优选的,所述步骤六中3个匹配对先要检验三个点对是否满足 ICP 算法的基本条件,如果不符合则重新选取匹配对。
与现有技术相比,本发明的有益效果是:
本发明方案主要针对视觉 SLAM 中从相邻两次图像数据估计机器人运动的需求,使用特征提取算法提取特征点和特征点描述子,对于特征点根据距离分为近点和远点两类,分别使用RANSAC方法剔除错误结果,使得最终的匹配结果中,能够存在相对合理数量的近距离特征点和远距离特征点,从而提高运动估计的精度和稳定性。
附图说明
图1为RGB-D相机采集图像示意图。
图2为RGB原始图像和SIFT特征提取实景示意图。
图3为FlannBasedMatcher匹配结果实景示意图。
图4为RANSAC算法步骤示意图。
图5为RANSAC方法剔除错误结果实景示意图。
图6为SLAM流程示意图。
图7为传统方法在使用RANSAC剔除误匹配阶段只使用一个基础矩阵示意图。
图8为本发明方案对近点和远点用独立的RANSAC算法剔除误匹配示意图。
图9为传统方案和本发明方案对于运动估计结果的对比示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:一种应用深度数据分布约束的运动估计方法,包括以下步骤:
步骤一:如图1-2所示,RGB-D相机采集相邻时间的两帧图像,并分别提取图像中的特征点及其描述子,目前,视觉 SLAM 中最为常用的特征提取算法主要有 SIFT,SURF 和ORB等算法,本发明使用SIFT算法;
步骤二:在通过特征提取算法得到图像特征点及其描述子之后,需要通过匹配来确定两幅图中共同视觉特征的对应关系,图像特征点的匹配需要解决以下三个问题:一是特征描述子向量的相似性度量;二是两个特征点是匹配的判定条件;三是如何剔除误匹配;
步骤三:通过计算两个描述子间的距离来度量其相似性,其中较常使用的距离计算方法有:欧氏距离(Euclidean distance),马氏距离(Mahalanobisdistance),汉明距离(Hamming distance)以及海宁格距离(Hellinger distance),本发明使用欧式距离计算方法;
步骤四:使用FlannBasedMatcher 利用快速近似最近邻搜索算法查找,可以更快的找到一个相对优秀的最近邻近似匹配,结果如图3所示;
步骤五:使用匹配提纯方法就是采用随机采样一致性(Random Sample Consensus)算法对错误匹配对进行剔除,RANSAC 是一种用于对包含噪声的数据样本进行去噪的算法,它通过不断的迭代过程计算嘈杂数据中所包含的模型和选取符合模型的样本,它的基本算法流程如图4所示,给定一个包含噪声的样本点集 O 和样本集包含的函数模型 M 的形式,RANSAC算法随机的从样本点集 O 中选取计算函数模型 M 最少所需的 N 个点,利用选取的点计算模型 M 的参数,然后通过计算得到的函数模型 M 来判定样本点集中的每个点是否为内点,统计内点的数量。不断地重复以上的随机取点到统计内点的过程,迭代一定次数以后,取内点数最多的那次迭代所计算的函数模型 M 作为样本点集 O 可信赖的描述模型,其内点为合格点;将 RANSAC 应用于错误匹配剔除时,其主要过程为:从匹配对中随机的选取 3 个匹配对,使用选取的 3 个匹配对计算图像间的基础矩阵,然后利用基础矩阵计算图一中每个特征点在图二中的极线,然后计算图二对应特征点到对应极线的距离,距离小于给定阈值的匹配被认定为合格(inliers),否则判定为错误的匹配(outliers);对以上过程重复迭代一定次数,选取 inliers数量最多的那次迭代作为最终的匹配效果,其inliers 被当成准确的匹配并基于此次迭代的所有 inliers 重新计算基础矩阵。采用了RANSAC 提纯后的匹配的效果如图5所示;
步骤六:通过特征提取和匹配环节,两帧图像间相同特征点的一一对应关系得以确立。为了进一步求解图像间对应的机器人运动,需要利用两个图像对应特征点的深度信息生成两个对应的三维点集,然后对点集进行配准,对于这一类点集配准的问题,使用 ICP(Iterative Closest Point,迭代最近点)算法来解决,本发明中使用结合RANSAC 的 ICP算法,其主要过程为:首先从匹配点集中随机选取 3 个匹配对(检验三个点对是否满足ICP 的基本条件,不符合则重新选取),利用 ICP估计这三个匹配对的变换 T,然后来统计内点数量,重复随机取点到内点统计的过程,迭代 N 次后采用内点数量最多的 T 作为运动变换估计;
步骤七:使用结合RANSAC 的 ICP 算法对两个三维点集进行配准,估计机器人的运动。
原理:传统的方法在 SLAM 的图像匹配中,一般设定一个特征点最小匹配对数量作为判定图像是否匹配成功的阈值,如果图像间特征点匹配对的数量大于给定阈值,则认为图像匹配成功,可以在此基础上进行图像对应机器人位姿的运动估计,传统方法在使用RANSAC剔除误匹配阶段只使用一个基础矩阵,可能会使得近距离特征点数量远大于远距离特征点,如图7所示。
本发明考虑到实际情况中出现视差较大的情形,也就是近距离物体上的特征点和远距离背景上特征点距离相对较大的情况且数量相差较大的情况,一个基础矩阵并不能很好的处理近距离特征点和远距离特征点的对应关系,有可能近距离特征点的数量远多于远距离特征点,本发明方法对特征点进行分类,对于近距离特征点和远距离特征点根据距离分为近点和远点两类,分别使用RANSAC方法剔除错误结果,如图8所述,使得最终的匹配结果中,能够存在相对合理数量的近距离特征点和远距离特征点,并在此基础上进行图像对应机器人位姿的运动估计,如图9所示。
本发明方案主要针对视觉 SLAM 中从相邻两次图像数据估计机器人运动的需求,使用特征提取算法提取特征点和特征点描述子,对于特征点根据距离分为近点和远点两类,分别使用RANSAC方法剔除错误结果,使得最终的匹配结果中,能够存在相对合理数量的近距离特征点和远距离特征点,并在此基础上提高运动估计的精度和稳定性。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (5)
1.一种应用深度数据分布约束的运动估计方法,其特征在于:包括以下步骤:
步骤一:RGB-D相机采集相邻时间的两帧图像,并分别对近距离和远距离提取图像中的特征点及其描述子;
步骤二:在通过特征提取算法得到图像特征点及其描述子之后,通过匹配来确定两幅图中共同视觉特征的对应关系;
步骤三:通过计算两个描述子间的距离来度量其相似性;
步骤四:使用FlannBasedMatcher利用快速近似最近邻搜索算法查找,找到一个相对优秀的最近邻近似匹配;
步骤五:采用随机采样一致性算法分别对近距离和远距离特征点和特征点描述子的错误匹配对进行剔除,从匹配对中随机的选取 3 个匹配对,使用选取的 3 个匹配对计算图像间的基础矩阵,然后利用基础矩阵计算图一中每个特征点在图二中的极线,然后计算图二对应特征点到对应极线的距离,距离小于给定阈值的匹配被认定为合格,否则判定为错误的匹配;对以上过程重复迭代一定次数,选取合格数量最多的那次迭代作为最终的匹配效果,并基于此次迭代的所有合格特征点重新计算基础矩阵;
步骤六:通过特征提取和匹配环节,两帧图像间相同特征点的一一对应关系得以确立,利用两个图像对应特征点的深度信息生成两个对应的三维点集,然后对点集进行配准,首先从匹配点集中随机选取 3 个匹配对,利用 ICP算法估计这三个匹配对的变换 T,然后来统计内点数量,重复随机取点到内点统计的过程,迭代 N 次后采用内点数量最多的 T 作为运动变换估计;
步骤七:使用结合随机采样一致性算法的 ICP 算法对两个三维点集进行配准,估计机器人的运动。
2.根据权利要求1所述的一种应用深度数据分布约束的运动估计方法,其特征在于:所述步骤二中特征提取算法为ORB、 SIFT或SURF算法其中的任意一种。
3.根据权利要求1所述的一种应用深度数据分布约束的运动估计方法,其特征在于:所述步骤三中计算两个描述子间的距离采用的方法为欧氏距离,马氏距离,汉明距离以及海宁格距离其中的一种或多种。
4.根据权利要求1所述的一种应用深度数据分布约束的运动估计方法,其特征在于:所述步骤五中随机采样一致性算法的基本算法为给定一个包含噪声的样本点集 O 和样本集包含的函数模型 M 的形式,随机采样一致性算法随机地从样本点集 O 中选取计算函数模型 M 最少所需的 N 个点,利用选取的点计算模型 M 的参数,然后通过计算得到的函数模型 M 来判定样本点集中的每个点是否为内点,统计内点的数量,不断地重复以上的随机取点到统计内点的过程,迭代一定次数以后,取内点数最多的那次迭代所计算的函数模型 M作为样本点集 O 可信赖的描述模型,其内点为合格点。
5.根据权利要求1所述的一种应用深度数据分布约束的运动估计方法,其特征在于:所述步骤六中3个匹配对先要检验三个点对是否满足 ICP 算法的基本条件,如果不符合则重新选取匹配对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911256881.2A CN111091084A (zh) | 2019-12-10 | 2019-12-10 | 一种应用深度数据分布约束的运动估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911256881.2A CN111091084A (zh) | 2019-12-10 | 2019-12-10 | 一种应用深度数据分布约束的运动估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111091084A true CN111091084A (zh) | 2020-05-01 |
Family
ID=70394835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911256881.2A Pending CN111091084A (zh) | 2019-12-10 | 2019-12-10 | 一种应用深度数据分布约束的运动估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111091084A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104851094A (zh) * | 2015-05-14 | 2015-08-19 | 西安电子科技大学 | 一种基于rgb-d的slam算法的改进方法 |
CN106556412A (zh) * | 2016-11-01 | 2017-04-05 | 哈尔滨工程大学 | 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
-
2019
- 2019-12-10 CN CN201911256881.2A patent/CN111091084A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104851094A (zh) * | 2015-05-14 | 2015-08-19 | 西安电子科技大学 | 一种基于rgb-d的slam算法的改进方法 |
CN106556412A (zh) * | 2016-11-01 | 2017-04-05 | 哈尔滨工程大学 | 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Walch et al. | Image-based localization using lstms for structured feature correlation | |
CN108960211B (zh) | 一种多目标人体姿态检测方法以及系统 | |
CN104200495B (zh) | 一种视频监控中的多目标跟踪方法 | |
Su et al. | Vanishing point constrained lane detection with a stereo camera | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN111210477B (zh) | 一种运动目标的定位方法及系统 | |
CN109472828B (zh) | 一种定位方法、装置、电子设备及计算机可读存储介质 | |
CN111862213A (zh) | 定位方法及装置、电子设备、计算机可读存储介质 | |
Jellal et al. | LS-ELAS: Line segment based efficient large scale stereo matching | |
CN102236794A (zh) | 3d场景中3d对象的识别和姿态确定 | |
CN114782499A (zh) | 一种基于光流和视图几何约束的图像静态区域提取方法及装置 | |
Li et al. | Hierarchical semantic parsing for object pose estimation in densely cluttered scenes | |
CN114088081B (zh) | 一种基于多段联合优化的用于精确定位的地图构建方法 | |
WO2022170896A9 (zh) | 关键点检测方法、系统、智能终端和存储介质 | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
CN111325828A (zh) | 一种基于三目相机的三维人脸采集方法及装置 | |
Streiff et al. | 3D3L: Deep learned 3D keypoint detection and description for LiDARs | |
Hirner et al. | FC-DCNN: A densely connected neural network for stereo estimation | |
CN109872343B (zh) | 弱纹理物体姿态跟踪方法、系统及装置 | |
He et al. | A generative feature-to-image robotic vision framework for 6D pose measurement of metal parts | |
CN113610967B (zh) | 三维点检测的方法、装置、电子设备及存储介质 | |
Singh et al. | Fusing semantics and motion state detection for robust visual SLAM | |
CN113112547A (zh) | 机器人及其重定位方法、定位装置及存储介质 | |
CN117351078A (zh) | 基于形状先验的目标尺寸与6d姿态估计方法 | |
Ward et al. | A model-based approach to recovering the structure of a plant from images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200501 |
|
WD01 | Invention patent application deemed withdrawn after publication |