CN110322507B - 一种基于深度重投影和空间一致性特征匹配的方法 - Google Patents

一种基于深度重投影和空间一致性特征匹配的方法 Download PDF

Info

Publication number
CN110322507B
CN110322507B CN201910481847.9A CN201910481847A CN110322507B CN 110322507 B CN110322507 B CN 110322507B CN 201910481847 A CN201910481847 A CN 201910481847A CN 110322507 B CN110322507 B CN 110322507B
Authority
CN
China
Prior art keywords
feature
points
depth
reprojection
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910481847.9A
Other languages
English (en)
Other versions
CN110322507A (zh
Inventor
张涛
张硕骁
魏宏宇
颜亚雄
陈浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910481847.9A priority Critical patent/CN110322507B/zh
Publication of CN110322507A publication Critical patent/CN110322507A/zh
Application granted granted Critical
Publication of CN110322507B publication Critical patent/CN110322507B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度重投影和空间一致性特征匹配的方法,包括以下步骤:使用RGBD相机获得RGBD图像和深度图像,生成三维点云并利用RANSAC提取平面;使用ORB对生成的点云图像进行特征点提取,建立描述子;通过KNN算法建立两帧之间的粗略对应关系;利用特征点的空间一致性得到更可靠的对应关系,进行特征匹配,给定3D坐标,通过图优化得到可靠的匹配特征。本发明通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性。

Description

一种基于深度重投影和空间一致性特征匹配的方法
技术领域
本发明涉及适用于智能机器人、无人飞行器等自主导航领域,特别是涉及一种基于深度重投影和空间一致性特征匹配的方法。
背景技术
随着计算机视觉技术的不断发展以及自主导航技术的不断进步,视觉SLAM正成为无人机、智能机器人等方向的研究热点。SLAM的主要目研究标是同时进行设备的定位与周边三维地图的构建。指搭载特殊传感器的设备,在没有先验信息的基础上,在整个运动过程中估计自己的运动状态,并建立环境的模型。视觉里程计就是估计摄像机相对其周围环境的位姿变化。
视觉SLAM系统中,常用的相机种类主要是单目相机,多目相机以及RGBD相机,多目相机中又以双目相机为主。由于RGB-D相机成本低,重量轻,可以提供彩色图像和深度图像,基于RGB-D相机的SLAM系统使我们能够更轻松地匹配帧,估计并重建3D环境。
许多RGB-D SLAM系统采用迭代最近点(ICP)和RANSAC作为标准算法来对齐特征点。但是,当数据中的噪声增加或帧之间的偏移很大时,RANSAC的结果可能不可靠。为了提高这种场景中轨迹估计的准确性,提出了一种利用RGB-D SLAM中点特征的空间一致性进行特征匹配的新方法。通过利用点特征的空间结构信息,我们的方法可以比使用RANSAC的特征匹配方法更可靠地提取帧之间的对应关系,特征匹配的准确性增加。
发明内容
针对数据中的噪声或帧之间的偏移变大时,基于RANSAC的特征匹配算法的准确性受到影响,本发明提供一种基于深度重投影和空间一致性特征匹配的方法,通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性,为达此目的,本发明提供一种基于深度重投影和空间一致性特征匹配的方法,包括以下步骤:
步骤1:使用RGBD相机获取场景中的彩色图和深度图,利用RANSAC算法生成点云并提取局部平面;
其中平面的模型为P=(a,b,c,d)={x,y,z|ax+by+cz+d=0},a,b,c,d为待估计的参数,d*为每个关键点的深度值;
根据深度重投影方程计算每个内点的位置,减小d*的噪声;
步骤2:对步骤1得到的平面进行特征点提取,采用KNN算法对步骤1中的特征点进行初始匹配;
步骤3:根据步骤2得到的结果,确定相应特征点pi和pi'之间的距离dii',定义函数
Figure BDA0002084098500000021
来衡量空间一致性得分;
其中ci和cj两个N维点集,dii'为欧几里得距离;
步骤4:构建图G=(V,E),给定两组帧P、Q和对应映射特征点对(i,i')的集合C;
其中V是顶点集合,E是边集合;
步骤5:(1)构建关联矩阵M,给定n个候选赋值的列表C,每个赋值的关联度a∈C和每对赋值a,b∈C存储在n×n的矩阵M中;
其中
Figure BDA0002084098500000022
(2)给定两组特征点的集合给定两组帧P、Q,引入指示向量l来描述所有初始对应关系的匹配结果,双射约束可以表示线性约束Ax≤b;
其中A为稀疏矩阵,由0和1两个元素构成;
步骤6:步骤6:消除假阳性匹配包括如下具体步骤:
(1)利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
(2)对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
(3)当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换,输出匹配特征;
至此,完成基于深度重投影和空间一致性特征匹配全过程。
作为本发明进一步改进,步骤1中所述的平面提取和深度重投影具体包括如下步骤:
步骤1.1:使用RANSAC算法估计平面的系数和内点;
步骤1.2:采用ORB算法对平面进行特征点提取,计算每个特征点的描述子;
步骤1.3:将关键点从每个平面投影到焦平面,设(u,v)为图像中的点坐标,d为深度测量,(x,y,z)为点云中的空间位置,可得到重投影方程:
Figure BDA0002084098500000031
其中fx,fy,cx,cy是相机的内参,s是比例因子。
步骤1.4:投影后,恢复每个平面的灰度图像,检测ORB关键点,通过计算视线与提取的平面的交点来估计每个关键点的深度值d*
Figure BDA0002084098500000032
步骤1.5:利用(u,v,d*)和重投影方程计算每个特征点的三维坐标(x,y,z)的值,以减小噪声。
作为本发明进一步改进,步骤2中所述的建立相邻两帧之间的特征对应关系具体包括如下步骤:
步骤2.1:根据描述子,利用KNN算法建立相邻两帧之间的粗略对应。
作为本发明进一步改进,步骤3中所述的确定对应特征点之间的距离和衡量空间一致性得分包括如下步骤:
步骤3.1:根据欧几里得公式
Figure BDA0002084098500000033
计算对应特征点之间的距离;
步骤3.2:给定N维点集ci和cj,定义空间一致性得分函数
Figure BDA0002084098500000034
其中σd为距离差的方差,且为可调参数;
当0≤Sd=(ci,cj)≤1时,即认为ci和cj在空间上是一致对应的,予以保留;当Sd=(ci,cj)>1时,ci和cj在空间上不一致对应,予以剔除。
作为本发明进一步改进,步骤4中所述的构建空间一致性图和给定特征点对的集合具体包括以下步骤:
步骤4.1:P和Q中属于C中某些对的特征点是内点,P和Q中不属于C中某些对的特征点是外点;
步骤4.2:节点vi∈V和C中的特征点对初始对应,每条边eij∈E是权重w(i,j)=Sd(ci,cj),用来描述ci对应cj的空间一致性;
作为本发明进一步改进,所述步骤5具体包括如下步骤:
步骤5.1:对于每一个候选赋值(i',j'),利用得分或者关联度来衡量P中的元素i,和Q中的元素i'的匹配程度;
步骤5.2:对于每一对赋值(a,b),a=(i,i'),b=(j,j'),利用关联度衡量数据特征(i,j)和模型特征(i',j')的兼容性;
步骤5.3:每个对角元素mii用来描述初始对应ci中的特征相似性,每个非对角元素mij测量对应ci和cj之间的空间一致性;
步骤5.4:将mij=Sd=(ci,cj)设置为空间一致性得分,dij和di'j'分别是点i和j之间以及它们的候选匹配之间的欧几里得距离。
作为本发明进一步改进,步骤6中引入指示向量l来描述所有初始对应关系具体包括如下步骤:
步骤6.1:对于帧P中的特征点pi和帧Q中的特征点pi',向量li定义为:若点pi和点pi'是匹配的,则li=1,否则为0,并且不再映射到Pj(i≠j),A为稀疏矩阵,由0和1两个元素构成。A的每一行上非零元素显示与一帧中的相同关键点相关联的对应关系;
求解最优解lb *
步骤6.2:利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
步骤6.3:对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
步骤6.4:当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换。
本发明公开了一种基于深度重投影和空间一致性特征匹配的方法,包括以下步骤:使用RGBD相机获得RGBD图像和深度图像,生成三维点云并利用RANSAC提取平面;使用ORB对生成的点云图像进行特征点提取,建立描述子;通过KNN算法建立两帧之间的粗略对应关系;利用特征点的空间一致性得到更可靠的对应关系,进行特征匹配,给定3D坐标,通过图优化得到可靠的匹配特征。本发明通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性。
附图说明
图1是本发明的方法流程图;
图2是本发明的空间一致性的示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供一种基于深度重投影和空间一致性特征匹配的方法,通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性。
为使本发明的目的、技术方案和优点更加清楚明白,结合附图,对本发明进一步详细说明。
图1是本发明的方法流程图。如图1所示,本发明提出的基于深度重投影和空间一致性的特征匹配方法包括以下步骤:
步骤1:使用RGBD相机获取场景中的彩色图和深度图,利用RANSAC算法生成点云并提取局部平面;
其中平面的模型为P=(a,b,c,d)={x,y,z|ax+by+cz+d=0},a,b,c,d为待估计的参数,d*为每个关键点的深度值
根据深度重投影方程计算每个内点的位置,减小d*的噪声;
步骤2:对步骤1得到的平面进行特征点提取,采用KNN(K-NearestNeighbor)算法对步骤1中的特征点进行初始匹配;
步骤3:根据步骤2得到的结果,确定相应特征点pi和pi'之间的距离dii',定义函数
Figure BDA0002084098500000051
来衡量空间一致性得分;
其中ci和cj两个N维点集,dii'为欧几里得距离;
步骤4:构建图G=(V,E),给定两组帧P、Q和对应映射特征点对(i,i')的集合C;
其中V是顶点集合,E是边集合;
步骤5:(1)构建关联矩阵M,给定n个候选赋值的列表C,每个赋值的关联度a∈C和每对赋值a,b∈C存储在n×n的矩阵M中。
其中
Figure BDA0002084098500000061
(2)给定两组特征点的集合给定两组帧P、Q,引入指示向量x来描述所有初始对应关系的匹配结果,双射约束可以表示线性约束Ax≤b。
其中A为稀疏矩阵,由0和1两个元素构成。
步骤6:改写总得分S,利用光谱匹配技术求解xb *
其中
Figure BDA0002084098500000062
s.t.Ax≤b,xb *∈(0,1)n。在给定映射约束情况下,最优解x*是二进制向量,最大化得分。
相比于RANSAC(Random Sample Consensus)算法,当噪声增加或者帧之间的偏移很大时,基于深度重投影和空间一致性的特征匹配方法可以有效减小错误匹配,具体步骤如下:
步骤1.1:使用RANSAC算法估计平面的系数和内点;
步骤1.2:采用ORB(Oriented FAST and Rotated BRIEF)算法对平面进行特征点提取,计算每个特征点的描述子。
步骤1.3:将关键点从每个平面投影到焦平面,设(u,v)为图像中的点坐标,d为深度测量,(x,y,z)为点云中的空间位置,可得到重投影方程:
Figure BDA0002084098500000063
其中fx,fy,cx,cy是相机的内参,s是比例因子。
图2是空间一致性型匹配,如果匹配正确,则帧P和帧Q中对应特征点的空间结构相似,刚体转换后,三维空间中特征点的空间结构保持不变,这些点的3D空间位置用于空间一致性的特征匹配,具体步骤如下:
步骤2.1:根据描述子,利用KNN算法建立相邻两帧之间的粗略对应
步骤3.1:根据欧几里得公式
Figure BDA0002084098500000064
计算对应特征点之间的距离;
步骤3.2:给定N维点集ci和cj,定义空间一致性得分函数
Figure BDA0002084098500000071
其中σd为距离差的方差,且为可调参数;
当0≤Sd=(ci,cj)≤1时,即认为ci和cj在空间上是一致对应的,予以保留;当Sd=(ci,cj)>1时,ci和cj在空间上不一致对应,予以剔除;
图优化包括以下具体步骤:
步骤4.1:P和Q中属于C中某些对的特征点是内点,P和Q中不属于C中某些对的特征点是外点;
步骤4.2:节点vi∈V和C中的特征点对初始对应,每条边eij∈E是权重w(i,j)=Sd(ci,cj),用来描述ci对应cj的空间一致性。
步骤5.1:对于每一个候选赋值(i',j'),利用得分或者关联度来衡量P中的元素i,和Q中的元素i'的匹配程度;
步骤5.2:对于每一对赋值(a,b),a=(i,i'),b=(j,j'),利用关联度衡量数据特征(i,j)和模型特征(i',j')的兼容性;
步骤5.3:每个对角元素mii用来描述初始对应ci中的特征相似性,每个非对角元素mij测量对应ci和cj之间的空间一致性;
步骤5.4:将mij=Sd=(ci,cj)设置为空间一致性得分,dij和di'j'分别是点i和j之间以及它们的候选匹配之间的欧几里得距离。
消除假阳性匹配包括如下具体步骤:
步骤6.1:利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
步骤6.2:对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0。
步骤6.3:当获得向量l时,就能从初始匹配中消除假阳性匹配。当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换,输出匹配特征。
至此,完成基于深度重投影和空间一致性特征匹配全过程。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (7)

1.一种基于深度重投影和空间一致性特征匹配的方法,其特征在于,包括以下步骤:
步骤1:使用RGBD相机获取场景中的彩色图和深度图,利用RANSAC算法生成点云并提取局部平面;
其中平面的模型为P=(a,b,c,d)={x,y,z|ax+by+cz+d=0},a,b,c,d为待估计的参数,d*为每个关键点的深度值
根据深度重投影方程计算每个内点的位置,减小d*的噪声;
步骤2:对步骤1得到的平面进行特征点提取,采用KNN算法对步骤1中的特征点进行初始匹配;
步骤3:根据步骤2得到的结果,确定相应特征点pi和pi'之间的距离dii',定义函数
Figure FDA0003936857010000011
来衡量空间一致性得分;
其中ci和cj两个N维点集,dii'为欧几里得距离;
步骤4:构建图G=(V,E),给定两组帧P、Q和对应映射特征点对(i,i')的集合C;
其中V是顶点集合,E是边集合;
步骤5:(1)构建关联矩阵M,给定n个候选赋值的列表C,每个赋值的关联度a∈C和每对赋值a,b∈C存储在n×n的矩阵M中;
其中
Figure FDA0003936857010000012
(2)给定两组特征点的集合给定两组帧P、Q,引入指示向量l来描述所有初始对应关系的匹配结果,双射约束可以表示线性约束Ax≤b;
其中A为稀疏矩阵,由0和1两个元素构成;
步骤6:消除假阳性匹配包括如下具体步骤:
(1)利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
(2)对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
(3)当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换,输出匹配特征;
至此,完成基于深度重投影和空间一致性特征匹配全过程。
2.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤1中所述的局部平面提取和深度重投影具体包括如下步骤:
步骤1.1:使用RANSAC算法估计平面的系数和内点;
步骤1.2:采用ORB算法对平面进行特征点提取,计算每个特征点的描述子;
步骤1.3:将关键点从每个平面投影到焦平面,设(u,v)为图像中的点坐标,d为深度测量,(x,y,z)为点云中的空间位置,可得到重投影方程:
Figure FDA0003936857010000021
其中fx,fy,cx,cy是相机的内参,s是比例因子;
步骤1.4:投影后,恢复每个平面的灰度图像,检测ORB关键点,通过计算视线与提取的平面的交点来估计每个关键点的深度值d*
Figure FDA0003936857010000022
步骤1.5:利用(u,v,d*)和重投影方程计算每个特征点的三维坐标(x,y,z)的值,以减小噪声。
3.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤2中特征点进行初始匹配,即建立相邻两帧之间的特征对应关系具体包括如下步骤:
步骤2.1:根据描述子,利用KNN算法建立相邻两帧之间的粗略对应。
4.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤3中所述的确定确定相应特征点pi和pi'之间的距离dii'和衡量空间一致性得分包括如下步骤:
步骤3.1:根据欧几里得公式
Figure FDA0003936857010000023
计算对应特征点之间的距离;
步骤3.2:给定N维点集ci和cj,定义空间一致性得分函数
Figure FDA0003936857010000031
其中σd为距离差的方差,且为可调参数;
当0≤Sd=(ci,cj)≤1时,即认为ci和cj在空间上是一致对应的,予以保留;当Sd=(ci,cj)>1时,ci和cj在空间上不一致对应,予以剔除。
5.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤4中所述的构建图和给定两组帧P、Q和对应映射特征点对(i,i')的集合C具体包括以下步骤:
步骤4.1:P和Q中属于C中某些对的特征点是内点,P和Q中不属于C中某些对的特征点是外点;
步骤4.2:节点vi∈V和C中的特征点对初始对应,每条边eij∈E是权重w(i,j)=Sd(ci,cj),用来描述ci对应cj的空间一致性;
6.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于,所述步骤5具体包括如下步骤:
步骤5.1:对于每一个候选赋值(i',j'),利用得分或者关联度来衡量P中的元素i,和Q中的元素i'的匹配程度;
步骤5.2:对于每一对赋值(a,b),a=(i,i'),b=(j,j'),利用关联度衡量数据特征(i,j)和模型特征(i',j')的兼容性;
步骤5.3:每个对角元素mii用来描述初始对应ci中的特征相似性,每个非对角元素mij测量对应ci和cj之间的空间一致性;
步骤5.4:将mij=Sd=(ci,cj)设置为空间一致性得分,dij和di'j'分别是点i和j之间以及它们的候选匹配之间的欧几里得距离。
7.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于,步骤6中引入指示向量l来描述所有初始对应关系具体包括如下步骤:
步骤6.1:对于帧P中的特征点pi和帧Q中的特征点pi',向量li定义为:若点pi和点pi'是匹配的,则li=1,否则为0,并且不再映射到Pj(i≠j),A为稀疏矩阵,由0和1两个元素构成,A的每一行上非零元素显示与一帧中的相同关键点相关联的对应关系;
求解最优解lb *
步骤6.2:利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
步骤6.3:对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
步骤6.4:当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换。
CN201910481847.9A 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法 Active CN110322507B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910481847.9A CN110322507B (zh) 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910481847.9A CN110322507B (zh) 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法

Publications (2)

Publication Number Publication Date
CN110322507A CN110322507A (zh) 2019-10-11
CN110322507B true CN110322507B (zh) 2023-04-07

Family

ID=68119403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910481847.9A Active CN110322507B (zh) 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法

Country Status (1)

Country Link
CN (1) CN110322507B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784680B (zh) * 2020-07-06 2022-06-28 天津大学 基于双目摄像头左右目视图关键点一致性的检测方法
CN112380966B (zh) * 2020-11-12 2023-06-02 西安电子科技大学 基于特征点重投影的单眼虹膜匹配方法
CN112752028B (zh) * 2021-01-06 2022-11-11 南方科技大学 移动平台的位姿确定方法、装置、设备和存储介质
CN112560818B (zh) * 2021-02-22 2021-07-27 深圳阜时科技有限公司 应用于窄条形指纹传感器的指纹识别方法及存储介质
CN112862874B (zh) * 2021-04-23 2021-07-13 腾讯科技(深圳)有限公司 点云数据匹配方法、装置、电子设备及计算机存储介质
CN113643217B (zh) * 2021-10-15 2022-03-29 广州市玄武无线科技股份有限公司 视频去运动模糊方法、装置、终端设备及可读存储介质
CN117351052B (zh) * 2023-10-16 2024-09-20 北京科技大学顺德创新学院 一种基于特征一致性和空间一致性的点云精配准方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355550A (zh) * 2016-10-31 2017-01-25 微景天下(北京)科技有限公司 图像拼接系统和图像拼接方法
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355550A (zh) * 2016-10-31 2017-01-25 微景天下(北京)科技有限公司 图像拼接系统和图像拼接方法
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于光场分析的多线索融合深度估计方法;杨德刚;《计算机学报》;20151230;第38卷(第12期);全文 *

Also Published As

Publication number Publication date
CN110322507A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
CN110322507B (zh) 一种基于深度重投影和空间一致性特征匹配的方法
CN110135455B (zh) 影像匹配方法、装置及计算机可读存储介质
CN109345588B (zh) 一种基于Tag的六自由度姿态估计方法
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位系统及方法
CN109671119A (zh) 一种基于slam的室内定位方法及装置
CN107735797B (zh) 用于确定第一坐标系与第二坐标系之间的运动的方法
CN110568447A (zh) 视觉定位的方法、装置及计算机可读介质
CN111145232A (zh) 一种基于特征信息变化度的三维点云自动配准方法
CN110570474B (zh) 一种深度相机的位姿估计方法及系统
CN112419374A (zh) 一种基于图像配准的无人机定位方法
CN111797684B (zh) 一种运动车辆双目视觉测距方法
CN110243390B (zh) 位姿的确定方法、装置及里程计
CN111144349A (zh) 一种室内视觉重定位方法及系统
EP4295268A1 (en) Computer vision systems and methods for supplying missing point data in point clouds derived from stereoscopic image pairs
Rubio et al. Efficient monocular pose estimation for complex 3D models
CN112507056A (zh) 一种基于视觉语义信息的地图构建方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN108447084B (zh) 基于orb特征的立体匹配补偿方法
CN111664845A (zh) 交通标志定位、视觉地图制作方法及装置、定位系统
KR102249381B1 (ko) 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 시스템 및 방법
CN117409386A (zh) 一种基于激光视觉融合的垃圾定位方法
Guerrero et al. Robust line matching and estimate of homographies simultaneously
KR20220062709A (ko) 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법
CN111860084B (zh) 图像特征的匹配、定位方法及装置、定位系统
CN114708321B (zh) 一种基于语义的相机位姿估计方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant