CN104537709B - 一种基于位姿变化的实时三维重建关键帧确定方法 - Google Patents
一种基于位姿变化的实时三维重建关键帧确定方法 Download PDFInfo
- Publication number
- CN104537709B CN104537709B CN201410772995.3A CN201410772995A CN104537709B CN 104537709 B CN104537709 B CN 104537709B CN 201410772995 A CN201410772995 A CN 201410772995A CN 104537709 B CN104537709 B CN 104537709B
- Authority
- CN
- China
- Prior art keywords
- mrow
- key frame
- mtd
- msub
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出一种基于位姿变化的实时三维重建关键帧确定方法,通过当前帧定位、定位质量评价、视野差计算、判断是否插入关键帧四个步骤实现。本发明中的方法具有优点是:关键帧质量高,速度快,稳定性好,通过判断图像帧的定位质量,可以有效防止错误帧的插入;同时提出了视野差的概念,利用视野差阀值保证插入的关键帧都包含一定新的图像信息,有效减少关键帧之间的冗余,减轻了地图创建的负担。
Description
技术领域
本发明涉及机器人、无人机视觉自主导航领域,具体为一种基于位姿变化的实时三维重建关键帧确定方法。
背景技术
机器人领域的即时定位与地图构建(Simultaneous Localization and Mapping,SLAM),也称为并发建图与定位Concurrent Mapping and Localization(CML),最早由Smith、Self和Cheeseman于1988年提出。由于其重要的理论与应用价值,被很多学者认为是实现真正全自主移动机器人的关键技术之一,经过多年的发展,其已经在一些机器人上得到了应用。其主要分成了两个分支:基于概率模型的方法如EKF-SLAM和Fast-SLAM,以及基于多视图几何的方法,如机器视觉领域的从运动恢复结构(Structure from Motion,SfM)。其中后者能够应对更大的场景,更快速的运动,定位和画图不必捆绑在一起进行,并且可以生成相对稠密的三维地图,在实际应用中更有潜力。
在SfM中定位往往依赖地图中已知特征点与当前帧之间的匹配关系,而地图创建工作通过处理关键帧中的特征点进行,关键帧的选取质量直接影响地图的质量,从而又影响定位的精准度,同时地图全局校准工作复杂度随关键帧的数量迅速增加,限制关键帧中信息的冗余度对运行速度有着重要影响。关键帧的选择应该满足以下条件:
1、单个关键帧图像质量应该较好,定位足够准确;
2、尽可能地减小信息的冗余度,空间分布尽量均匀;
3、关键帧应该尽量包含图像序列的所有信息。
目前SFM应用中所使用的关键帧选择方法大都比较简单,如与前一个关键帧比较对应特征点的平均像素位移,当超过某一固定阀值时则被选择为关键帧。这样的方法存在以下几点不足:
1、没有考虑当前关键帧的图像质量以及定位质量,很容易导致低质量甚至是错误帧的插入,给系统带来严重的后果;
2、在某些情况如摄像头在同一个地方左右晃动时将产生大量的冗余关键帧,浪费系统的运行时间。
传统的SfM往往侧重大量无序图像的三维重建,因此无法实现实时SLAM,为了达到实时速度Klein、Murray等人提出了一种为小范围增强现实应用的同时跟踪与地图构建方法(Parallel Tracking and Mapping,PTAM)。其最大的特点是将定位和画图分开到两个线程中进行,定位不再和计算量较大的地图更新绑在一起,地图更新有更多的CPU时间专注地处理少量的关键帧,从而使得提高了定位的速度精度和鲁棒性,也使得地图质量可以相对更好。其关键帧的选择方法引入了定位质量的评价,只有当定位质量较好时添加关键帧,同时为了减少冗余,关键帧之间需要有足够的平移。
其方法存在以下不足:
1、由于其关键帧选择方式并没有考虑摄像头旋转带来的视野变化,当摄像头旋转较多而平移很少时并不会添加关键帧;
2、固定地要求每个关键帧的定位质量达到很高才被选为关键帧,但在实际情况下是不切实际的,如果不及时地在关键时刻添加关键帧,很容易导致后面的帧都无法进行定位,造成系统失效。
以上所述的两点问题其实都是信息丢失的问题,也就是说,理想的关键帧选择方法在防止低质、错误帧插入的情况下,既要尽可能地减少系统冗余,同时也要保证不能过分丢失信息,只有这样才能保证系统在正常运行的基础上能够拥有更高的效率。
发明内容
为克服现有技术在同时定位与地图构建过程中,三维重建速度随关键帧的数目增加迅速变慢的问题,本发明提出了一种基于位姿变化和定位质量的关键帧选择算法,此算法可为基于图像序列的实时三维地图重建提供鲁棒、高质量的关键帧。
本发明的技术方案为:
所述一种基于位姿变化的实时三维重建关键帧确定方法,其特征在于:对于摄像头实时获取的图像,通过以下步骤判断是否被选为关键帧:
步骤1:获取摄像头当前帧,并通过特征点提取、特征点匹配、位姿估计步骤进 行当前帧定位,得到当前帧在世界坐标系下的位姿矩阵Ecw以及当前帧的平均深度Depth;
步骤2:根据步骤1的当前帧定位过程,对当前帧的定位质量进行评价,得到评价结果:
其中,指标ErrGood和ErrBad分别为设定的评价阈值;FeatrueTry为特征点匹配过程中选择进行匹配的特征点个数,FeatrueFound为成功匹配的特征点个数,σT为在位姿估计步骤中得到的重投影误差阈值,Obj()函数为Tukey双权值目标函数,ej为重投影误差向量,σj为|ej|的归一化因子;
步骤3:计算当前帧与已有的关键帧的视野差,并得到最小的视野差D;当前帧与关键帧Ki的视野差为:
DKiC=|t|/Depth+cos-1([0 0 1]·rz)
其中|t|表示当前帧与关键帧Ki的相对位移大小,rz为关键帧Ki在世界坐标系中姿态的z轴单位向量,z轴为相机指向轴;
步骤4:根据步骤2得到的当前帧定位质量评价以及步骤3得到的最小视野差D,判断是否插入当前帧作为关键帧;满足插入当前帧作为关键帧的条件是:
(D>D1&&TrackQuality=良好)||(D>D2&&TrackQuality=一般)
其中D1,D2分别为两个视野差阀值,且满足D2>D1。
进一步的优选方案:所述一种基于位姿变化的实时三维重建关键帧确定方法,其特征在于:步骤3中,采用K-D树数据结构对关键帧的平移量以及Z轴方向的单位向量进行描述,将当前帧代入K-D树数据结构进行计算,得到最小视野差D。
进一步的优选方案:所述一种基于位姿变化的实时三维重建关键帧确定方法,其特征在于:步骤3中,对当前帧的平均深度Depth进行限制:
有益效果
本发明中的方法具有以下优点:
1、关键帧质量高。与一般方法相比,本发明中的方法通过判断图像帧的定位质量,可以有效防止错误帧的插入;同时提出了视野差的概念,利用视野差阀值保证插入的关键帧都包含一定新的图像信息,有效减少关键帧之间的冗余,减轻了地图创建的负担。
2、速度快。本发明中用到的位姿信息,平均深度信息以及定位质量信息在定位中得到,都是机器人导航所需要用到的,在选择关键帧的时候可以视为已知,利用已有的结果计算视野差,运算成本较小,从而可以保证较快的速度。
3、稳定性好。一方面由于关键帧质量有较好的保证,由此得到的地图错误率较少,定位精度高;同时系统在关键时刻也没有过分拘泥于很严格的定位质量,可以及时插入关键帧,除非非常恶劣的情况下才会引起定位丢失的情况,因此系统拥有较高的稳定性。
附图说明
图1是本发明的流程示意图。
图2是使用本发明中的方法选择关键帧重建出来的三维点云地图。
图3是重建图2地图时相机的移动轨迹以及关键帧分布图。
图4是重建图2地图的部分关键帧。
具体实施方式
下面结合具体实施例描述本发明:
对于摄像头实时获取的图像,都需要进行以下四个步骤判断是否被选为关键帧,其中第一步是导航应用中原本就应该包含的,前两步为后两步提供判断数据,最终决定当前帧是否为关键帧。
第一步:当前帧定位。对于机器人自主导航来说,地图创建只需要少量的关键帧,而定位的频率则要求较高,对于摄像头当前获取的图像帧,通过与现有地图进行特征点匹配即可获取当前相机在地图中的位姿信息。得到的位姿信息一方面可以用于导航,同时也可以用来作为关键帧的选择判断条件。在这个过程中,通过当前图像帧中成功匹配的特征点也可以估算平均深度值。
根据当前摄像头获取的图像信息进行定位是SLAM的核心任务,其方法较多,一般流程为特征点提取、特征点匹配、位姿估计。这里仅为示例,实际应用中可以用其他方法代替。
1、特征点提取
对于获取的图像,首先转化为灰度图,然后进行特征提取。常用的图像特征有SIFT,SURF,Fast角点等,其中Fast角点特征运算量较小,计算速度快,示例中将采用其进行特征提取。计算时,检测候选特征点周围一圈的像素值,如果候选点周围邻域内有足够多的像素点与该候选点p的灰度值差别够大,则认为该候选点为一个特征点。即:
其中,I(x)为圆周上任意一点的灰度,I(p)为圆心的灰度,εd为灰度值差的阈值。如果N大于给定阈值(一般为周围圆圈点的四分之三),则认为p是一个角点,或者特征点。这里为了提高系统抗图像模糊的能力,对图像建立金字塔,并在金字塔的每一层都进行Fast角点特征提取。
2、特征点匹配
为了计算当前相机姿态,需要建立当前图像特征点与已有地图中特征点的对应关系,这里采取的办法是将特征地图中的点投影到当前帧中,然后在投影得到的图像位置附近寻找对应。这一步首先将世界坐标系中的点pjW转换到当前粗略估计的相机坐标系中,这个相机位姿可以通过运动学模型得到,如式(2),其转换只需要左乘相机在世界坐标系下的位姿矩阵Ecw。
pjC=EcwpjW (2)
对于一个已经标定的相机,其相机坐标系中的点投影到图像坐标系的函数设定为CamProj(),则世界坐标系中的点pjW投影到当前帧图像坐标系中的点(ui vi)可表示为:
要在当前帧里面找到地图点,我们在预期位置周围的一个固定范围内寻找对应。这里采用SSD(Sum of Squared Differences,零均值的归一化协方差)的方法,为了实现这一查找,对应的像素片应该根据之前观测所处位置和当前相机的位置的关系进行一个变换。我们用矩阵A来表示这个仿射变换:
其中{us,vs}表示原层次金字塔图片对应水平和垂直方向上的像素位移,{uc,vc}对应当前帧大图(第0层)上对应的像素位移。将源关键帧金字塔等级单位像素位移投影到像素片对应的平面上,然后将其投影到当前帧,便可以得到矩阵A的值。执行上述投影可以保证矩阵不仅补偿角度和大小,还补偿了整个图像镜头畸变的影响。
A可以用来决定应该在当前的哪个金字塔层搜索对应,其行列式值等于原单个像素在当前大图上对应的像素数目;det(A)/4对应在层次1金字塔中对应的像素数,等等。其目标金字塔等级可以通过使det(A)/4l接近1得到,我们尝试在这个最接近其大小的等级寻找其对应。
一个8×8的像素块模板在原层次上经仿射变换A/2l和双线性插值产生,从每个像素值中减去平均像素强度,用来应对光照强度的变化。接下来,在其预测位置固定的半径范围内寻找该模板的最佳匹配,这一步通过在圆形搜索区域内的所有FAST拐角位置评估零平均SSD分数并选择分数最低的位置,如果这是一个预设的阈值之下,该像素块被认为找到。
在某些情况下,特别是在高金字塔层,整数像素的位置不够准确用来产生平滑的跟踪结果,可以通过在找到的位置执行一个迭代误差最小化来使位置更精确。我们使用反向合成方法,最大限度地减少了变换和光强带来的影响,然而,如果对每个像素块都进行这一操作就太耗时间了,所以只对高金字塔层进行这样的操作。
当使用的特征为SIFT时,匹配工作将变得简单,A矩阵并不需要,投影也可以选择性进行。因为SIFT特征不受拍摄角度和大小的影响,而是使用一个128维的向量描 述其特征,可以通过建立K-D树寻找当前帧中特征点在地图中的最近邻匹配,投影判断是否在其附近即可。
3、位姿估计
实际运动情况下,运动学模型对当前位姿的估计是非常粗糙的,要利用这样的一个粗略位姿使用SSD进行匹配需要较大的搜索范围,而大范围搜索尤其对于较多点找对应时的时间消耗是巨大的,同时也将带来非常多的离群点。为了加快其速度,同时也增加系统鲁棒性,在大量点匹配前我们首先需要对运动学模型得到的位姿信息进行优化,进行一个粗略的位姿更新。
粗略的位姿更新方法是通过少量点(50个)在较大范围内寻找匹配计算的,其中50个点优先使用高金字塔中的信息,并对其进行亚像素的匹配从而得到更高精度,这些点有较好的抗模糊能力。通过给出一组成功的对应观测Z(其中包含n个地图点pjW与当前帧上像素位置的对应关系),可以计算相机的位姿,典型的方法如OpenCV中的solvePnPRansac函数。
由于大范围的搜索将带来较多的离群点,为了算法的鲁棒性,这里使用RANSAC-WLS计算初始的位姿,由于其点数量较少,RANSAC的迭代次数并不需要太多,放在这里尤其适合。
使用RANSAC计算位姿的步骤如下:
1.从50个匹配中随机抽取3个计算位姿,计算Inlier个数;
2.将上一步迭代N次,选取Inlier最多的位姿作为RANSAC迭代后的位姿;
3.使用前一步位姿计算Inlier,利用所有Inlier更新得到最终位姿。
其中在实际操作中其评价并不简单地利用Inlier的个数,而是利用Inlier的平均重投影误差来评价当前姿态的好坏。RANSAC获取Inlier数据后便可以采用WLS(带权值的最小二乘方法)更新位姿,其中权值由鲁棒的Tukey估计器得到。
位姿更新通过使得鲁棒重投影误差代价函数最小得出:
其中ej表示重投影误差向量:
其中Obj(x,y)是Tukey双权值目标函数,其具体表达式由(7)给出。每一个观测都对应着一个像素位置(指向大图的像素单元),其应该包含σ2=22l倍2x2单位矩阵的测量噪声。σT是由残差分布推导出来的鲁棒估计值。
每次迭代可以算出位姿的更新位移μ,从而得到新的位姿矩阵Ecw,我们使用10次迭代以使得估计可以从任何一组测量收敛。相机位姿粗略更新后,通过投影匹配大量点可以获得精确位姿Ecw。
根据最终的位姿Ecw及其Inlier地图点可以估计当前帧的平均深度Depth。这里由于使用Kinect传感器,可以直接使用深度图计算。
第二步:定位质量评价。对于第一步得到的位姿信息,其可信度和准确度并不一定有保证,为了剔除模糊的图像以及错误的位姿估计,根据特征点匹配数量以及重投影误差等标准将定位质量分为‘良好’,‘一般’,‘较差’三个等级。其中‘良好’代表定位可信并且精确度较高,‘一般’代表定位可信但精度不高,‘较差’代表定位不可信。定位质量可用在导航中作为置信度的衡量,也可以用来作为关键帧选择的标准之一。
为了防止错误的帧被添加到地图中,一个鲁棒的位姿评价非常重要,通常的作法是使用成功匹配点的百分数作为当前位姿质量的评价标准,对于很小的且没有遮挡的场景这是可行的,但一旦有了遮挡,其无法将错误匹配和遮挡区分开来将导致系统将好的估计误认为是很差的估计,导致系统错误启动定位恢复程序从而定位失败。
当定位错误时,会带来以下影响:
1.找到对应匹配的比例下降,数目减少;
2.σT增大;
3.重投影误差增大,点集欧氏距离和增大。
这里采用了一个更加鲁棒的方式,使用3者的乘积Error作为质量评价的好坏, 其表达式由(10)给出:
ErrGood和ErrBad分别为设定的评价阈值;FeatrueTry为特征点匹配过程中选择进行匹配的特征点个数,FeatrueFound为成功匹配的特征点个数,σT为在位姿估计步骤中得到的重投影误差阈值,Obj()函数为Tukey双权值目标函数,ej为重投影误差向量,σj为|ej|的归一化因子。
我们将定位质量划分三个等级:‘良好’,‘一般’,‘较差’。其划分方法可表示为:
第三步:视野差计算。为了减少关键帧冗余,要在众多现有关键帧的基础上判断当前帧是否包含新的信息,计算图像匹配点之间的像素差是一种可行的方法,但是速度较慢。这里我们可以结合第一步中得到的位姿信息和平均深度值进行判断,将平移和旋转的加权和作为视野差,计算当前帧与地图中已有关键帧之间的最小视野差,这个视野差即可代表当前帧包含新场景信息的多少,从而通过控制关键帧之间的视野差避免插入冗余的关键帧。
对于关键帧Ki,其在世界坐标系中的姿态为其相对于当前相机的姿态矩阵为
矩阵可以写成(9)中的形式:
[rxryrz]是旋转矩阵R的列向量形式,rxryrz分别代表姿态中三个轴在世界坐标系中的单位向量。其新Z轴与原Z轴的夹角可由rz算出,这里z轴为相机指向轴:
θz=cos-1([0 0 1]·rz) (13)
当前图像帧与关键帧Ki之间的视野差可以表示为:
其中|t|表示当前帧与关键帧Ki的相对位移大小,同时为了让系统更鲁棒,我们将Depth限制到一个固定的范围内(这里使用0.5~5,根据应用场景可做调整):
对于每个关键帧都计算其与当前关键帧的视野差,选择最小的视野差D即可作为下一步是否插入关键帧的判据。但这样对于每一个关键帧都要进行计算,当关键帧比较多的时候速度会变得很慢,为了加快速度,我们使用K-D树对关键帧的平移量以及Z轴方向的单位向量进行描述,这样可以快速找到视野差的最小值。
第四步:判断是否插入关键帧。当获取了以上定位质量以及视野差信息后,便可以判断是否插入当前帧作为关键帧,在以下两种情况下将插入关键帧:
1)视野差大于阀值D1且定位质量良好。这种属于一般情况,系统良好运行中,定位质量较好,一旦视野差积累到D1便将插入关键帧;
2)视野差大于阀值D2(D2>D1)且定位质量为一般。这种情况是为了在系统定位质量虽然不高但系统迫切需要关键帧的时候插入关键帧,为随后的图像序列定位作过渡。
一般情况下定位质量都比较好,一旦视野差D达到阀值D1就会插入关键帧。但在某些环境下,图像出现一段质量不高的序列,导致定位质量一般但仍然可以用来定位,如果抛弃这些信息,之后的图像序列将无法进行正常定位,这个时候必须适时地插入关键帧作为定位的过渡,第二种情况便是针对这样的情形设置的。
附图2是使用本发明中的方法选择关键帧进行重建得到的三维点云地图,可以看到其在实际应用中的表现非常不错,为了更加直观地体现关键帧的分布,我们将其对应的相机移动轨迹以及关键帧分布图提取出来如附图3,其中轨迹由定位质量良好的帧组成。注意附图3右上角的局部放大图中,虚框内的两帧的定位质量为一般,其身后没有定位良好帧留下的黑点路径,但这两帧却起到过渡作用,没有这两帧后面的定位无法正常进行。附图4展示了部分关键帧的原始图像与对齐深度图。
在应用实例中,平均每帧总共的处理时间不超过40ms,足以满足实时需求,其中质量评价以及视野差计算加上关键帧判断总共花的时间不超过2ms,而主要的时间花费在于特征点提取,特征点匹配,位姿估计上,这一部分定位时间花费是导航应用不可避免的。
Claims (3)
1.一种基于位姿变化的实时三维重建关键帧确定方法,其特征在于:对于摄像头实时获取的图像,通过以下步骤判断是否被选为关键帧:
步骤1:获取摄像头当前帧,并通过特征点提取、特征点匹配、位姿估计步骤进行当前帧定位,得到当前帧在世界坐标系下的位姿矩阵Ecw以及当前帧的平均深度Depth;
步骤2:根据步骤1的当前帧定位过程,对当前帧的定位质量进行评价,得到评价结果:
其中,指标
<mrow>
<mi>Error</mi>
<mo>=</mo>
<mfrac>
<mi>FeatureTry</mi>
<mi>FeatureFound</mi>
</mfrac>
<mo>&times;</mo>
<msub>
<mi>&sigma;</mi>
<mi>T</mi>
</msub>
<mo>&times;</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mo>.</mo>
<mo>.</mo>
<mo>.</mo>
<mo>,</mo>
<mi>FeatureFound</mi>
</mrow>
</msub>
<mi>Obj</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>e</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
</mrow>
<msub>
<mi>&sigma;</mi>
<mi>j</mi>
</msub>
</mfrac>
<mo>,</mo>
<msub>
<mi>&sigma;</mi>
<mi>T</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
ErrGood和
ErrBad分别为设定的评价阈值;FeatrueTry为特征点匹配过程中选择进行匹配的特征点个
数,FeatrueFound为成功匹配的特征点个数,σT为在位姿估计步骤中得到的重投影误差阈
值,Obj()函数为Tukey双权值目标函数,ej为重投影误差向量,σj为|ej|的归一化因子;
步骤3:计算当前帧与已有的关键帧的视野差,并得到最小的视野差D;当前帧与关键帧Ki的视野差为:
<mrow>
<msub>
<mi>D</mi>
<mrow>
<msub>
<mi>K</mi>
<mi>i</mi>
</msub>
<mi>C</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>|</mo>
<mi>t</mi>
<mo>|</mo>
<mo>/</mo>
<mi>Depth</mi>
<mo>+</mo>
<msup>
<mi>cos</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mfenced open='[' close=']'>
<mtable>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>&CenterDot;</mo>
<msub>
<mi>r</mi>
<mi>z</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
其中|t|表示当前帧与关键帧Ki的相对位移大小,rz为关键帧Ki在世界坐标系中姿态的z轴单位向量,z轴为相机指向轴;
步骤4:根据步骤2得到的当前帧定位质量评价以及步骤3得到的最小视野差D,判断是否插入当前帧作为关键帧;满足插入当前帧作为关键帧的条件是:
(D>D1&&TrackQuality=良好)||(D>D2&&TrackQuality=一般)
其中D1,D2分别为两个视野差阀值,且满足D2>D1。
2.根据权利要求1所述一种基于位姿变化的实时三维重建关键帧确定方法,其特征在于:步骤3中,采用K-D树数据结构对关键帧的平移量以及Z轴方向的单位向量进行描述,将当前帧代入K-D树数据结构进行计算,得到最小视野差D。
3.根据权利要求1所述一种基于位姿变化的实时三维重建关键帧确定方法,其特征在于:步骤3中,对当前帧的平均深度Depth进行限制:
<mrow>
<mi>Depth</mi>
<mo>=</mo>
<mfenced open='{' close=''>
<mtable>
<mtr>
<mtd>
<mn>0.5</mn>
</mtd>
<mtd>
<mrow>
<mo>(</mo>
<mi>Depth</mi>
<mo><</mo>
<mn>0.5</mn>
<mo>)</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Depth</mi>
</mtd>
<mtd>
<mrow>
<mo>(</mo>
<mn>0.5</mn>
<mo>&le;</mo>
<mi>Depth</mi>
<mo>&le;</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>5</mn>
</mtd>
<mtd>
<mrow>
<mo>(</mo>
<mi>Depth</mi>
<mo>></mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>.</mo>
</mrow>
1
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410772995.3A CN104537709B (zh) | 2014-12-15 | 2014-12-15 | 一种基于位姿变化的实时三维重建关键帧确定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410772995.3A CN104537709B (zh) | 2014-12-15 | 2014-12-15 | 一种基于位姿变化的实时三维重建关键帧确定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104537709A CN104537709A (zh) | 2015-04-22 |
CN104537709B true CN104537709B (zh) | 2017-09-29 |
Family
ID=52853228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410772995.3A Active CN104537709B (zh) | 2014-12-15 | 2014-12-15 | 一种基于位姿变化的实时三维重建关键帧确定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104537709B (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881029B (zh) * | 2015-05-15 | 2018-01-30 | 重庆邮电大学 | 基于一点ransac和fast算法的移动机器人导航方法 |
CN105069804B (zh) * | 2015-08-21 | 2018-04-20 | 清华大学 | 基于智能手机的三维模型扫描重建方法 |
CN105678754B (zh) * | 2015-12-31 | 2018-08-07 | 西北工业大学 | 一种无人机实时地图重建方法 |
CN105758408A (zh) * | 2016-01-05 | 2016-07-13 | 福州华鹰重工机械有限公司 | 局部地图构建方法及装置 |
WO2017166089A1 (en) * | 2016-03-30 | 2017-10-05 | Intel Corporation | Techniques for determining a current location of a mobile device |
CN105974932B (zh) * | 2016-04-27 | 2018-11-09 | 中国人民解放军装甲兵工程学院 | 无人机控制方法 |
CN106097304B (zh) * | 2016-05-31 | 2019-04-23 | 西北工业大学 | 一种无人机实时在线地图生成方法 |
CN106875437B (zh) * | 2016-12-27 | 2020-03-17 | 北京航空航天大学 | 一种面向rgbd三维重建的关键帧提取方法 |
CN106845435A (zh) * | 2017-02-10 | 2017-06-13 | 深圳前海大造科技有限公司 | 一种基于实物检测追踪算法的扩增实境技术实现方法 |
CN107341814B (zh) * | 2017-06-14 | 2020-08-18 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
WO2019019157A1 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | INITIALIZING IMAGE SENSOR IN A ROBOTIC VEHICLE |
WO2019104571A1 (zh) * | 2017-11-30 | 2019-06-06 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备 |
CN107784671B (zh) * | 2017-12-01 | 2021-01-29 | 驭势科技(北京)有限公司 | 一种用于视觉即时定位与建图的方法与系统 |
CN108428249A (zh) * | 2018-01-30 | 2018-08-21 | 哈尔滨工业大学深圳研究生院 | 一种基于光流跟踪和双几何模型的初始位姿估计方法 |
CN108648270B (zh) * | 2018-05-12 | 2022-04-19 | 西北工业大学 | 实时同步定位与地图构建的无人机实时三维场景重建方法 |
CN109035334B (zh) * | 2018-06-27 | 2024-07-12 | 腾讯科技(北京)有限公司 | 位姿的确定方法和装置、存储介质及电子装置 |
CN108898630B (zh) * | 2018-06-27 | 2020-12-15 | 清华-伯克利深圳学院筹备办公室 | 一种三维重建方法、装置、设备和存储介质 |
CN116088783A (zh) | 2018-07-24 | 2023-05-09 | 奇跃公司 | 用于确定和/或评价图像显示设备的定位地图的方法和装置 |
CN110855601B (zh) * | 2018-08-21 | 2021-11-19 | 华为技术有限公司 | Ar/vr场景地图获取方法 |
CN109545072B (zh) * | 2018-11-14 | 2021-03-16 | 广州广电研究院有限公司 | 地图构建的位姿计算方法、装置、存储介质和系统 |
CN111433818A (zh) * | 2018-12-04 | 2020-07-17 | 深圳市大疆创新科技有限公司 | 目标场景三维重建方法、系统及无人机 |
JP7501372B2 (ja) * | 2018-12-28 | 2024-06-18 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
CN109887053B (zh) * | 2019-02-01 | 2020-10-20 | 广州小鹏汽车科技有限公司 | 一种slam地图拼接方法及系统 |
CN111829532B (zh) * | 2019-04-18 | 2022-05-17 | 丰翼科技(深圳)有限公司 | 一种飞行器重定位系统和重定位方法 |
CN110070577B (zh) * | 2019-04-30 | 2023-04-28 | 电子科技大学 | 基于特征点分布的视觉slam关键帧与特征点选取方法 |
CN111474953B (zh) * | 2020-03-30 | 2021-09-17 | 清华大学 | 多动态视角协同的空中目标识别方法及系统 |
CN111861335B (zh) * | 2020-07-23 | 2021-08-06 | 印象(山东)大数据有限公司 | 工业互联物料管理系统 |
CN113160130A (zh) * | 2021-03-09 | 2021-07-23 | 北京航空航天大学 | 一种回环检测方法、装置及计算机设备 |
CN113177971A (zh) * | 2021-05-07 | 2021-07-27 | 中德(珠海)人工智能研究院有限公司 | 一种视觉跟踪方法、装置、计算机设备及存储介质 |
CN114577215B (zh) * | 2022-03-10 | 2023-10-27 | 山东新一代信息产业技术研究院有限公司 | 一种移动机器人的特征地图更新方法、设备及介质 |
CN117765084B (zh) * | 2024-02-21 | 2024-05-03 | 电子科技大学 | 基于动态分支预测的迭代求解的面向视觉定位方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
EP2706749A2 (en) * | 2012-09-10 | 2014-03-12 | Hisense Co., Ltd. | 3D Video conversion system and method, key frame selection method, key frame selection method and apparatus thereof |
-
2014
- 2014-12-15 CN CN201410772995.3A patent/CN104537709B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2706749A2 (en) * | 2012-09-10 | 2014-03-12 | Hisense Co., Ltd. | 3D Video conversion system and method, key frame selection method, key frame selection method and apparatus thereof |
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
Non-Patent Citations (4)
Title |
---|
基于RGB-D相机的移动机器人三维SLAM;贾松敏等;《华中科技大学学报(自然科学版)》;20140121;第42卷(第1期);第103-109页 * |
基于视觉测量的GPS导航关键技术研究;张泊平等;《许昌学院学报》;20140930;第33卷(第5期);第46-49页 * |
增强现实三维配准技术方法研究;郭昌达;《中国优秀硕士学位论文全文数据库信息科技辑》;20140215(第2期);参见第3-4章 * |
面向服务机器人的室内语义地图构建的研究;王锋;《中国博士学位论文全文数据库信息科技辑》;20141015(第10期);第I140-47页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104537709A (zh) | 2015-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104537709B (zh) | 一种基于位姿变化的实时三维重建关键帧确定方法 | |
CN110945565B (zh) | 利用概率面元地图的密集视觉slam | |
US9613420B2 (en) | Method for locating a camera and for 3D reconstruction in a partially known environment | |
Cvišić et al. | SOFT‐SLAM: Computationally efficient stereo visual simultaneous localization and mapping for autonomous unmanned aerial vehicles | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN107980150B (zh) | 对三维空间建模 | |
Forster et al. | SVO: Fast semi-direct monocular visual odometry | |
CN112985416A (zh) | 激光与视觉信息融合的鲁棒定位和建图方法及系统 | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及系统 | |
CN105856230A (zh) | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 | |
CN106934827A (zh) | 三维场景的重建方法和装置 | |
US11568601B2 (en) | Real-time hand modeling and tracking using convolution models | |
CN106373141A (zh) | 空间慢旋碎片相对运动角度和角速度的跟踪系统和跟踪方法 | |
Zhang et al. | Learning geometry-guided depth via projective modeling for monocular 3d object detection | |
Tao et al. | Stereo priori RCNN based car detection on point level for autonomous driving | |
Ceriani et al. | Pose interpolation slam for large maps using moving 3d sensors | |
Zhao et al. | RTSfM: Real-time structure from motion for mosaicing and DSM mapping of sequential aerial images with low overlap | |
Yang et al. | CubeSLAM: Monocular 3D object detection and SLAM without prior models | |
CN110490222A (zh) | 一种基于低性能处理器设备的半直接视觉定位方法 | |
Yan et al. | Crossloc: Scalable aerial localization assisted by multimodal synthetic data | |
Wang et al. | Robust and accurate monocular pose tracking for large pose shift | |
Zhang et al. | A visual-inertial dynamic object tracking SLAM tightly coupled system | |
Huang et al. | MC-VEO: A visual-event odometry with accurate 6-DoF motion compensation | |
Li et al. | BA-LIOM: tightly coupled laser-inertial odometry and mapping with bundle adjustment | |
Buck et al. | Capturing uncertainty in monocular depth estimation: Towards fuzzy voxel maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |