CN109493384A - 相机位姿估计方法、系统、设备及存储介质 - Google Patents
相机位姿估计方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN109493384A CN109493384A CN201811100162.7A CN201811100162A CN109493384A CN 109493384 A CN109493384 A CN 109493384A CN 201811100162 A CN201811100162 A CN 201811100162A CN 109493384 A CN109493384 A CN 109493384A
- Authority
- CN
- China
- Prior art keywords
- feature
- point
- image
- matching
- observed image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种相机位姿估计方法,包括如下步骤:通过相机观测选取的模板图像获取观测图像;分别提取模板图像和观测图像中的点特征和直线特征;对模板图像和观测图像中的点特征和直线特征进行特征匹配;将模板图像中的二维点和直线转换到三维空间,得到模板图像的三维点特征和三维直线特征,并与观测图像中的点特征和直线特征形成3D‑2D的点匹配对和直线匹配对;通过3D‑2D的点匹配对和直线匹配对计算得到相机位姿。本发明的相机位姿估计方法直接使用直线匹配构建约束,而不是转换成点匹配,这样没有直线平行的限制,而且只有一条直线也能用来和点特征一起估计,融合点特征和直线特征,提高PnP位置估计的精度。
Description
技术领域
本发明涉及定位追踪领域,尤其涉及相机位姿估计方法。
背景技术
相机位姿估计是计算机视觉中的经典问题,它是已知三维空间中一些3D坐标点以及它们在相机图像上的2D投影坐标,来估算相机在三维空间中的位置和姿态。相机位姿估计其中一个最为常见的应用是相机标定中外参标定,外参标定通过相机拍摄棋盘格的图像,标定出相机的内参(焦距,光心,畸变系数)后,估计每张图像的相机相对于棋盘格的三维位置和三维姿态。
相机位姿估计中最为常用的方法是PnP(Perspective n Points)及其一系列改进算法,该方法先根据特征匹配将三维空间的3D坐标点与图像中的2D特征点进行关联,然后根据相机模型:
对每对2D-3D点匹配对构建约束,(x,y,z)是3D坐标,(u,v)是2D坐标,fx,fy是焦距,cy,cy是相机光心,r0-8和t0-2是需要待求的相机外参,分别是旋转矩阵R和平移向量t。通过3组以上的2D-3D点构建约束方程,通过线性方程求解,可以求出R和t。
对一些规则的图案(如矩形),特征点比较少,但有很多线段特征,单纯依赖特征点,可能效果不好,但如果用到直线信息,匹配效果会大幅增加,即将PnP算法改进成PnPL(Pespective n Points and Lines)。现在也有一些PnPL的方法,不过是将直线匹配转换成点匹配(假设两条三维直线与两条图像上的二维直线对应,那么可以转换成这两条直线在三维空间的交点和二维图像空间的交点对应),最终还是通过PnP来求解。
常规的PnP算法依赖与特征点匹配,当特征点比较少的时候,位姿估计的精度不高。
现有的PnPL算法将直线匹配转换成点匹配,要求至少两条直线,而且直线要相交,当直线接近平行时,交点的误差会很大。
发明内容
为解决上述问题,本发明提供一种相机位姿估计方法、系统、设备及存储介质,直接使用直线匹配构建约束,而不是转换成点匹配,这样没有直线平行的限制,而且只有一条直线也能用来和点特征一起估计,融合点特征和直线特征,提高PnP位置估计的精度。
本发明提供一种相机位姿估计方法,包括以下步骤:通过相机观测选取的模板图像获取观测图像;提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配;提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配;将模板图像中的点特征和直线特征转换到三维空间,得到模板图像的三维点特征和三维直线特征,并与观测图像中的点特征和直线特征形成3D-2D的点匹配对和直线匹配对;根据3D-2D的点匹配对和直线匹配对计算得到相机位姿。
优选地,通过3D-2D的点匹配对和直线匹配对得到相机位姿之后,还包括利用点特征和直线特征的重投影误差构建目标函数,得到最优估计的相机位姿;其中,点特征的重投影误差为三维点特征投影到观测图像上与观测图像中的点之间的欧式距离,直线特征的重投影误差为三维直线投影到观测图像上与观测图像中的观测直线之间的距离。
优选地,利用最小二乘法构建目标函数
其中,ξ为相机的位姿,λ为权重系数,和分别为点特征和直线特征的重投影误差,M为点特征匹配对的个数,N为直线匹配对的个数。
优选地,利用梯度下降法优化目标函数,得到
即,最优估计的相机位姿ξ。
优选地,提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配,包括根据点特征的特征描述对模板图像和观测图像中的点特征进行特征匹配。
优选地,提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配,包括根据直线近邻匹配对模板图像和观测图像中的直线特征进行匹配。
本发明还提供一种相机位姿估计系统,包括:图像获取模块,配置用于获取相机观测选取的模板图像得到的观测图像;点特征提取模块,配置用于提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配;直线特征提取模块,配置用于提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配;特征转换模块,配置用于将模板图像中的点特征和直线特征转换到三维空间,得到模板图像的三维点特征和三维直线特征,并与观测图像中的点特征和直线特征形成3D-2D的点匹配对和直线匹配对;位姿计算模块,配置用于通过3D-2D的点匹配对和直线匹配对计算得到相机位姿。
优选地,本发明的相机位姿估计系统还包括位姿优化模块,配置用于利用点特征和直线特征的重投影误差构建目标函数,得到最优估计的相机位姿;其中,点特征的重投影误差为三维点特征投影到观测图像上与观测图像中的点之间的欧式距离,直线特征的重投影误差为三维直线投影到观测图像上与观测图像中的观测直线之间的距离。
本发明还提供一种设备,包括:一个或多个处理器;存储器,其上存储有一个或多个程序;当一个或多个处理器执行一个或多个程序时,实现如上所述方法的步骤。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述方法的步骤。
本发明提供的相机位姿估计方法直接使用直线匹配构建约束,而不是转换成点匹配,这样没有直线平行的限制,而且只有一条直线也能用来和点特征一起估计,融合点特征和直线特征,提高PnP位置估计的精度。
本发明的相机位姿估计方法构建了一个图优化的框架,同时优化点特征的约束和直线特征的约束,通过迭代优化得到非常精准的相机位姿。
附图说明
下面参考附图描述本发明的优选实施例,附图为了说明本发明的优选实施例而不是为了限制本发明的目的。附图中,
图1为本发明实施例的相机位姿估计方法的总体流程框图;
图2为本发明实施例的点特征匹配对示意图;
图3为本发明实施例的直线特征匹配对示意图;
图4为本发明实施例的图优化框架示意图;
图5为常规点特征匹配与本发明实施例的点线特征融合匹配效果对比图。
具体实施方式
本发明的具体实施方式用来具体说明本发明,但并不局限于该具体实施方式。
图1为本发明实施例的相机位姿估计方法的总体流程框图;
如图1所示,本发明实施例的相机位姿估计方法,包括如下步骤:
步骤S1,通过相机观测选取的模板图像获取观测图像。
首先,先选取一个模板图像Im,模板的尺寸已知,设模板的真实物理宽高分别为Wp,Hp,其单位为米;设模板图像的宽高分别为Wm,Hm,其单位为像素。
然后使用相机观测选取的模板图像Im,得到观测图像It。
步骤S2,提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配。
在模板图像Im和观测图像It中分别提取特征点和特征描述,特征提取和描述方法可以采用SIFT,SURF,ORB等方法。
本实施例中,采用ORB特征提取和特征描述方法,ORB特征描述算法的运行时间远优于SIFT与SURF,可用于实时性特征检测。ORB特征基于FAST角点的特征点检测与描述技术,具有尺度与旋转不变性,同时对噪声及透视仿射也具有不变性。
ORB特征检测主要分为特征提取和特征描述以下两个步骤:
首先,方向FAST特征点检测;
FAST角点检测是一种基于机器学习的快速角点特征检测算法,具有方向的FAST特征点检测是对兴趣点所在圆周上的16个像素点进行判断,若判断后的当前中心像素点为暗或亮,将确定其是否为角点。FAST角点检测为加速算法实现,通常先对回周上的点集进行排序,排序使得其计算过程大大得到了优化。
其次,BRIEF特征描述;
从图像中提取到特征的关键点信息,通常只是其在图像的位置信息(有可能包含尺度和方向信息),仅仅利用这些信息无法很好的进行特征点的匹配,所以就需要更详细的信息,将特征区分开来,这就是特征描述子。另外,通过特征描述子可以消除视角的变化带来图像的尺度和方向的变化,能够更好的在图像间匹配。
BRIEF描述子主要是通过随机选取兴趣点周围区域的若干点来组成小兴趣区域,将这些小兴趣区域的灰度二值化并解析成二进制码串,将串特征作为该特征点的描述子,BRIEF描述子选取关键点附近的区域并对每一位比较其强度大小,然后根据图像块中两个二进制点来判断当前关键点编码是0还是1。因为BRIEF描述子的所有编码都是二进制数的,这样就节省了计算机存储空间。
特征提取和描述方法包括但不限于以上的SIFT,SURF,ORB方法。
按照以上ORB方法提取模板图像和观测图像中的点特征后,对模板图像和观测图像中的点特征进行特征匹配,匹配的方法包括根据点特征的特征描述对模板图像和观测图像中的点特征进行特征匹配。
根据特征描述对模板图像Im和观测图像It中的点特征进行特征匹配,点特征匹配方法包括但不限于暴力搜索匹配,K近邻匹配等。
本实施例中采用K近邻匹配法,在匹配的时候选择K个和特征点最相似的点,如果这K个点之间的区别足够大,则选择最相似的那个点作为匹配点,通常选择K=2,也就是最近邻匹配。对每个匹配返回两个最近邻的匹配,如果第一匹配和第二匹配距离比率足够大(向量距离足够远),则认为这是一个正确的匹配,比率的阈值通常在2左右。
通过上述方法,对模板图像和观测图像中的点特征进行特征匹配,得到点特征匹配对其中,分别为模板图像和观测图像上的二维特征点坐标,M为点特征匹配对的个数。图像坐标系定义为:图像左上角为原点,x轴指向图像右侧,y轴指向图像下方。
图2为本发明实施例的点特征匹配对示意图。
如图2所示,选取模板图像Im,通过相机观测得到观测图像It,提取模板图像和观测图像中的点特征后,对模板图像和观测图像中的点特征进行特征匹配,得到点匹配对。
步骤S3,提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配。
在模板图像Im和观测图像It中分别提取直线特征,本实施例中,采用Hough变换法提取直线特征。直线提取方法包括但不限于Hough变换法。
提取模板图像和观测图像中的直线特征后,对模板图像和观测图像中的直线特征进行特征匹配,包括根据直线近邻匹配,对模板图像和观测图像中的直线特征进行匹配。
根据直线近邻匹配,对模板图像Im和观测图像It中的直线特征进行匹配,得到直线匹配对其中每条直线由图像上直线的两个端点表示,即N为直线匹配对的个数。
直线近邻匹配方法如下:对于每条直线,计算其与其他所有直线之间的夹角,将夹角大于某一阈值(如5度)的直线先剔除,对剩余的直线计算该直线中心到当前直线之间的距离,如果最近的距离小于某一阈值(如10个像素),则将当前直线与最近的直线进行匹配对。
图3为本发明实施例的直线特征匹配对示意图。
如图3所示,选取模板图像Im,通过相机观测得到观测图像It,提取模板图像和观测图像中的直线特征后,对模板图像和观测图像中的直线特征进行特征匹配,得到直线匹配对。
步骤S4,将模板图像中的二维点特征和直线特征转换到三维空间,得到模板图像的三维点特征和三维直线特征,并与观测图像中的点特征和直线特征形成3D-2D的点匹配对和直线匹配对;
将模板图像中的二维点和直线转换到三维空间,定义三维坐标系,坐标原点为模板图像的左上角,x轴指向Im右侧,y轴指向Im下侧,z轴方向由右手坐标系确定。转换方法如下:
对于模板图像中的任一点pk=(uk,vk),其在三维坐标系下的坐标Pk=(xk,yk,zk)为:
zk=0
通过转换,可以得到3D-2D的点匹配对和直线匹配对
步骤S5,通过3D-2D的点匹配对和直线匹配对计算得到相机位姿。
相机的位姿由三维特殊欧式群SE(3)上的李代数ξ∈se(3)表示。
其中,ρ为三维相机位置,为三维姿态向量。且满足
设相机内参矩阵为K,则相机模型可以重写为
其中,表示相机位姿估计值。
步骤S6,利用点特征和直线特征的重投影误差构建目标函数,得到最优估计的相机位姿;其中,点特征的重投影误差为三维点特征投影到观测图像上与观测图像中的点之间的欧式距离,直线特征的重投影误差为三维直线投影到观测图像上与观测图像中的观测直线之间的距离。
利用最小二乘法构建目标函数
其中,ξ为相机的位姿,λ为权重系数,和分别为点特征和直线特征的重投影误差,M为点特征匹配对的个数,N为直线匹配对的个数。
点特征的重投影误差表示为:将3D点投影到图像上与图像中的观测点之间的欧式距离,如下式
直线特征的重投影误差表示为:将3D直线投影到图像上(即将直线上两点分别投影到图像上)与图像中的观测直线之间的距离。直线之间的距离定义为投影线段的两个端点到距离的平均。根据的两个端点可以确定一条二维直线 为直线的单位法向量,为原点到该直线的距离,则直线的重投影误差如下式:
其中,是尺度因子,分别是的z坐标。
图4为本发明实施例的图优化框架示意图。
如图4所示,将步骤S6中的约束问题用图来表述,相机位姿用一个顶点描述,对于每组特征点匹配对,每个三维特征点用一个顶点描述,三维特征点到相机位姿之间构建一条约束边,边的误差即为步骤S6中的同理,每条三维直线用一个顶点描述,三维直线到相机位姿之间构建一条约束边,边的误差为所有的三维特征点和三维直线的顶点固定,只有相机位姿ξ是可以自由的优化量,通过图优化的方法可以求解出相机的位姿ξ。
图优化框架的本质是利用利用梯度下降法优化目标函数,最终得到
即,最优估计的相机位姿ξ。
优化算法还包括但不限于高斯牛顿法、Levenberg-Marquardt等算法。
图5为常规点特征匹配与本发明实施例的点线特征融合匹配效果对比图。
如图5所示,本发明实施例的点线特征融合匹配P1的效果明显优于常规点特征匹配P2。本发明的相机位姿估计方法构建的图优化的框架,融合点特征和直线特征,同时优化点特征的约束和直线特征的约束,通过迭代优化得到非常精准的相机位姿,提高PnP位置估计的精度。
本发明还提供一种相机位姿估计系统,包括:图像获取模块,配置用于获取相机观测选取的模板图像得到的观测图像;点特征提取模块,配置用于提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配;直线特征提取模块,配置用于提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配;特征转换模块,配置用于将模板图像中的点特征和直线特征转换到三维空间,得到模板图像的三维点特征和三维直线特征,并与观测图像中的点特征和直线特征形成3D-2D的点匹配对和直线匹配对;位姿计算模块,配置用于通过3D-2D的点匹配对和直线匹配对计算得到相机位姿。
优选地,本发明的相机位姿估计系统还包括位姿优化模块,配置用于利用点特征和直线特征的重投影误差构建目标函数,得到最优估计的相机位姿;其中,点特征的重投影误差为三维点特征投影到观测图像上与观测图像中的点之间的欧式距离,直线特征的重投影误差为三维直线投影到观测图像上与观测图像中的观测直线之间的距离。
本发明还提供一种设备,包括:一个或多个处理器;存储器,其上存储有一个或多个程序;当一个或多个处理器执行一个或多个程序时,实现如上所述方法的步骤。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述方法的步骤。
以上实施例为本发明的优选实施例,并不用以限定本发明的目的,凡在本发明的精神和原则之内进行的修改和替换,均在本发明的保护之内。
Claims (10)
1.一种相机位姿估计方法,其特征在于,包括以下步骤:
通过相机观测选取的模板图像获取观测图像;
提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配;
提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配;
将模板图像中的点特征和直线特征转换到三维空间,得到模板图像的三维点特征和三维直线特征,并与观测图像中的点特征和直线特征形成3D-2D的点匹配对和直线匹配对;
根据3D-2D的点匹配对和直线匹配对计算得到相机位姿。
2.根据权利要求1所述的相机位姿估计方法,其特征在于,所述通过3D-2D的点匹配对和直线匹配对得到相机位姿之后,还包括
利用点特征和直线特征的重投影误差构建目标函数,得到最优估计的相机位姿;其中,
点特征的重投影误差为三维点特征投影到观测图像上与观测图像中的点之间的欧式距离,直线特征的重投影误差为三维直线投影到观测图像上与观测图像中的观测直线之间的距离。
3.根据权利要求2所述的相机位姿估计方法,其特征在于,利用最小二乘法构建目标函数
其中,ξ为相机的位姿,λ为权重系数,和分别为点特征和直线特征的重投影误差,M为点特征匹配对的个数,N为直线匹配对的个数。
4.根据权利要求3所述的相机位姿估计方法,其特征在于,利用梯度下降法优化目标函数,得到
即,最优估计的相机位姿ξ。
5.根据权利要求1所述的相机位姿估计方法,其特征在于,
所述提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配,包括
根据点特征的特征描述对模板图像和观测图像中的点特征进行特征匹配。
6.根据权利要求1所述的相机位姿估计方法,其特征在于,
所述提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配,包括
根据直线近邻匹配对模板图像和观测图像中的直线特征进行匹配。
7.一种相机位姿估计系统,其特征在于,包括
图像获取模块,配置用于获取相机观测选取的模板图像得到的观测图像;
点特征提取模块,配置用于提取模板图像和观测图像中的点特征,对模板图像和观测图像中的点特征进行特征匹配;
直线特征提取模块,配置用于提取模板图像和观测图像中的直线特征,对模板图像和观测图像中的直线特征进行特征匹配;
特征转换模块,配置用于将模板图像中的点特征和直线特征转换到三维空间,得到模板图像的三维点特征和三维直线特征,并与观测图像中的点特征和直线特征形成3D-2D的点匹配对和直线匹配对;
位姿计算模块,配置用于通过3D-2D的点匹配对和直线匹配对计算得到相机位姿。
8.根据权利要求7所述的相机位姿估计系统,其特征在于,还包括
位姿优化模块,配置用于利用点特征和直线特征的重投影误差构建目标函数,得到最优估计的相机位姿;其中,
点特征的重投影误差为三维点特征投影到观测图像上与观测图像中的点之间的欧式距离,直线特征的重投影误差为三维直线投影到观测图像上与观测图像中的观测直线之间的距离。
9.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序;
当所述一个或多个处理器执行所述一个或多个程序时,实现如权利要求1至6任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至6任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811100162.7A CN109493384B (zh) | 2018-09-20 | 2018-09-20 | 相机位姿估计方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811100162.7A CN109493384B (zh) | 2018-09-20 | 2018-09-20 | 相机位姿估计方法、系统、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109493384A true CN109493384A (zh) | 2019-03-19 |
CN109493384B CN109493384B (zh) | 2021-03-09 |
Family
ID=65690674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811100162.7A Active CN109493384B (zh) | 2018-09-20 | 2018-09-20 | 相机位姿估计方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109493384B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111388A (zh) * | 2019-05-10 | 2019-08-09 | 北京航空航天大学 | 三维物体位姿参数估计方法及视觉设备 |
CN111136656A (zh) * | 2019-12-24 | 2020-05-12 | 上海智殷自动化科技有限公司 | 一种用于机器人三维不规则物体自动识别及抓取的方法 |
CN112393721A (zh) * | 2020-09-30 | 2021-02-23 | 苏州大学应用技术学院 | 相机位姿估计方法 |
CN113129376A (zh) * | 2021-04-22 | 2021-07-16 | 青岛联合创智科技有限公司 | 一种基于棋盘格的相机实时定位方法 |
CN114546125A (zh) * | 2022-04-27 | 2022-05-27 | 北京影创信息科技有限公司 | 键盘跟踪方法及跟踪系统 |
WO2022147774A1 (zh) * | 2021-01-08 | 2022-07-14 | 浙江大学 | 基于三角剖分和概率加权ransac算法的物体位姿识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120063638A1 (en) * | 2010-09-10 | 2012-03-15 | Honda Motor Co., Ltd. | Egomotion using assorted features |
US20160086057A1 (en) * | 2014-09-22 | 2016-03-24 | Kabushiki Kaisha Toshiba | Feature point detection device, feature point detection method, and computer program product |
CN107871327A (zh) * | 2017-10-23 | 2018-04-03 | 武汉大学 | 基于特征点线的单目相机位姿估计和优化方法及系统 |
CN108242079A (zh) * | 2017-12-30 | 2018-07-03 | 北京工业大学 | 一种基于多特征视觉里程计和图优化模型的vslam方法 |
-
2018
- 2018-09-20 CN CN201811100162.7A patent/CN109493384B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120063638A1 (en) * | 2010-09-10 | 2012-03-15 | Honda Motor Co., Ltd. | Egomotion using assorted features |
US20160086057A1 (en) * | 2014-09-22 | 2016-03-24 | Kabushiki Kaisha Toshiba | Feature point detection device, feature point detection method, and computer program product |
CN107871327A (zh) * | 2017-10-23 | 2018-04-03 | 武汉大学 | 基于特征点线的单目相机位姿估计和优化方法及系统 |
CN108242079A (zh) * | 2017-12-30 | 2018-07-03 | 北京工业大学 | 一种基于多特征视觉里程计和图优化模型的vslam方法 |
Non-Patent Citations (2)
Title |
---|
RUBEN等: "Robust Stereo Visual Odometry through a Probabilistic Combination of Points and Line Segments", 《IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》 * |
谢晓佳: "基于点线综合特征的双目视觉SLAM方法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111388A (zh) * | 2019-05-10 | 2019-08-09 | 北京航空航天大学 | 三维物体位姿参数估计方法及视觉设备 |
CN111136656A (zh) * | 2019-12-24 | 2020-05-12 | 上海智殷自动化科技有限公司 | 一种用于机器人三维不规则物体自动识别及抓取的方法 |
CN111136656B (zh) * | 2019-12-24 | 2020-12-08 | 上海智殷自动化科技有限公司 | 一种用于机器人三维不规则物体自动识别及抓取的方法 |
CN112393721A (zh) * | 2020-09-30 | 2021-02-23 | 苏州大学应用技术学院 | 相机位姿估计方法 |
CN112393721B (zh) * | 2020-09-30 | 2024-04-09 | 苏州大学应用技术学院 | 相机位姿估计方法 |
WO2022147774A1 (zh) * | 2021-01-08 | 2022-07-14 | 浙江大学 | 基于三角剖分和概率加权ransac算法的物体位姿识别方法 |
CN113129376A (zh) * | 2021-04-22 | 2021-07-16 | 青岛联合创智科技有限公司 | 一种基于棋盘格的相机实时定位方法 |
CN114546125A (zh) * | 2022-04-27 | 2022-05-27 | 北京影创信息科技有限公司 | 键盘跟踪方法及跟踪系统 |
CN114546125B (zh) * | 2022-04-27 | 2022-08-09 | 北京影创信息科技有限公司 | 键盘跟踪方法及跟踪系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109493384B (zh) | 2021-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109493384A (zh) | 相机位姿估计方法、系统、设备及存储介质 | |
CN106651942B (zh) | 基于特征点的三维旋转运动检测与旋转轴定位方法 | |
CN106651752B (zh) | 三维点云数据配准方法及拼接方法 | |
CN106716450B (zh) | 利用边缘向量的基于图像的特征检测 | |
CN107679537B (zh) | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 | |
CN108509848A (zh) | 三维物体的实时检测方法及系统 | |
CN109271937B (zh) | 基于图像处理的运动场地标志物识别方法及系统 | |
CN106228507A (zh) | 一种基于光场的深度图像处理方法 | |
CN104036480B (zh) | 基于surf算法的快速消除误匹配点方法 | |
Wang et al. | Robust 3D reconstruction with an RGB-D camera | |
CN106991695A (zh) | 一种图像配准方法及装置 | |
CN104835144A (zh) | 利用一个球的球心的像及正交性求解摄像机内参数 | |
CN103839277A (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN112396643A (zh) | 一种尺度不变特征与几何特征融合的多模态高分影像配准方法 | |
CN105335952B (zh) | 匹配代价计算方法和装置、以及视差值计算方法和设备 | |
CN104123554A (zh) | 基于mmtd的sift图像特征提取方法 | |
CN108960267A (zh) | 用于模型调整的系统和方法 | |
CN107330930B (zh) | 三维图像深度信息提取方法 | |
CN103353941A (zh) | 基于视角分类的自然标志物注册方法 | |
Peng et al. | 3D reconstruction based on SIFT and Harris feature points | |
Xie et al. | A4lidartag: Depth-based fiducial marker for extrinsic calibration of solid-state lidar and camera | |
CN109003307A (zh) | 基于水下双目视觉测量的捕鱼网目尺寸设计方法 | |
CN104978558B (zh) | 目标的识别方法及装置 | |
JP5931646B2 (ja) | 画像処理装置 | |
CN105631860A (zh) | 基于局部排序方向直方图描述子的图像同名点提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210713 Address after: 518000 5th floor, block B, building 1, software industry base, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Patentee after: Fengyi Technology (Shenzhen) Co.,Ltd. Address before: 518000 Xuefu Road (south) and Baishi Road (east) intersection of Nanshan District, Shenzhen City, Guangdong Province, 6-13 floors, Block B, Shenzhen Software Industry Base Patentee before: SF TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |