CN116662600B - 一种基于轻量结构化线地图的视觉定位方法 - Google Patents
一种基于轻量结构化线地图的视觉定位方法 Download PDFInfo
- Publication number
- CN116662600B CN116662600B CN202310678818.8A CN202310678818A CN116662600B CN 116662600 B CN116662600 B CN 116662600B CN 202310678818 A CN202310678818 A CN 202310678818A CN 116662600 B CN116662600 B CN 116662600B
- Authority
- CN
- China
- Prior art keywords
- line
- image
- line segment
- dimensional
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000000007 visual effect Effects 0.000 title claims abstract description 35
- 238000005457 optimization Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 15
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 14
- 230000004807 localization Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000010845 search algorithm Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 238000004590 computer program Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于轻量结构化线地图的视觉定位方法,包括:通过图像检索,将查询图像与数据库图像进行图像匹配,根据图像匹配结果,找到与查询图像最相似的多个数据库图像,作为候选数据库图像;构建用于视觉定位的线地图;对所述查询图像和所述候选数据库图像进行线提取和匹配,构建二维到三维的线对应关系;基于构建的二维到三维的线对应关系,求解初始姿态;对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿。本发明可在较低的内存消耗下估计出较好的相机六自由度位姿,具有重大的应用前景和价值。
Description
技术领域
本发明涉及计算机视觉定位技术领域,特别涉及一种基于轻量结构化线地图的视觉定位方法。
背景技术
视觉定位,即估计拍摄图像时相机在某个坐标系下(比如世界坐标系下)的六自由度位姿,即三自由度的位置和三自由度的方向。他是自动驾驶汽车、智能机器人、虚拟现实、增强现实、同时定位和建图(SLAM)和由运动恢复结构(SFM)等应用算法的核心组成部分。
因为点特征具有紧凑和稳健的表示,基于点特征定位的范式一直是该领域主要的研究方向,因此,目前最先进的视觉定位算法主要为基于点特征的方法,基于点特征的定位算法在定位时通常依据预先构建好的三维场景地图,将场景表示为稀疏的三维点云,这一般是通过SFM算法构建的三维点云地图,在定位查询图像时,通过基于局部点特征的提取和匹配在查询图像中的特征点和场景地图的三维点之间建立对应关系,即二维到三维匹配,最后通过在随机采样一致性算法循环中利用透视N点算法(PNP)算法来求解相机位姿,此类方法缺点在于当扩展到大场景时,地图的存储量往往很大,三维点云的数量很容易膨胀到几百万个点,这限制了移动端的应用部署,且计算效率不高。
为了将场景规模扩大并可以处理复杂照明和季节变化,一种混合的方法被提出,即先通过图像检索找出与查询图像外观相似的一些数据库图像,把二维到三维的对应关系限制在这些数据库图像可见的三维点上,避免了与所有数据库图像进行匹配造成的资源浪费和时间代价高,虽然计算效率相较于基于点特征的方法有所提升,但是还是需要存储庞大的点云地图,限制了其应用发展。
为了进一步提高精度,有一些方法利用图像中的高层信息,比如语义,线段等,有文献提出了一种点线联合优化方法来解决相机姿态估计问题,即设计了一个线提取卷积神经网络用于后续的线匹配和姿态优化过程,采用了一种基于极几何约束和线重投影误差过滤的由粗到细的匹配方法,还构建了一个点线联合优化代价函数来优化相机姿态,但是其方法高精度的主要贡献来自基于点特征的定位,即需要提供一个良好的初值。
随着深度学习技术的发展壮大,也带动了深度学习技术在视觉定位领域的研究,基于学习的方法目前来看仅使用于室内场景和小场景,通过网络直接端到端的回归相机姿态被证明更类似于基于检索的方法,因为通过训练,网络似乎记住了所有数据库图像的位姿,在推断时也是在这些位姿附近进行,并不会推断出远离这些位姿的结果。缺点是其泛化性,其在没有训练过的场景下的定位效果不理想,方法不够通用。
综上,现有技术还存在应用场景受限、计算效率较低,通用性差等问题。
发明内容
本发明提供了一种基于轻量结构化线地图的视觉定位方法,以解决现有技术所存在的应用场景受限、计算效率较低,通用性差的技术问题。
为解决上述技术问题,本发明提供了如下技术方案:
一种基于轻量结构化线地图的视觉定位方法,用于估计已经校准过的查询图像的六自由度绝对相机姿态,所述方法包括:
通过图像检索,将查询图像与数据库图像进行图像匹配,根据图像匹配结果,找到与查询图像最相似的多个数据库图像,作为候选数据库图像;
构建用于视觉定位的线地图;
基于所述线地图,对所述查询图像和所述候选数据库图像进行线提取和匹配,构建二维到三维的线对应关系;
基于构建的二维到三维的线对应关系,求解初始姿态;
对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿。
进一步地,所述通过图像检索,将查询图像与数据库图像集进行图像匹配,根据图像匹配结果,找到与查询图像最近的多个数据库图像,作为候选数据库图像,包括:
将查询图像和数据库中包含的数据库图像均采用NetVLAD(Net Vector oflocally aggregated descriptors,融合可训练局部聚集描述子向量)描述符表示;
通过计算查询图像和数据库图像各自的全局描述符之间的归一化距离,从数据库中选择多个与查询图像最相似的数据库图像,作为候选数据库图像。
进一步地,所述构建用于视觉定位的线地图,包括:
采用Line3D++算法构建用于视觉定位的线地图;其中,Line3D++算法中的对视觉邻居的搜索算法采用NetVLAD检索算法代替。
进一步地,对所述查询图像和所述候选数据库图像进行线提取和匹配,包括:
采用预设的线段检测算法,对查询图像和候选数据库图像进行线提取;
采用特征点辅助的线段匹配算法对查询图像和候选数据库图像进行线匹配。
进一步地,所述采用特征点辅助的线段匹配算法对查询图像和候选数据库图像进行线匹配,包括:
使用每个匹配的线段和线段的局部区域内的匹配特征点来构造仿射不变量;
通过比较仿射不变量来评估线段的相似性,实现线匹配。
进一步地,线段的局部区域内的匹配特征点的确定过程包括:
通过计算线段上所有像素的平均梯度来定义线段的梯度;
基于线段的梯度方向将线段的局部区域划分为右侧局部区域和左侧局部区域,基于线段的长度来定义线段的局部区域;如果一个点到线段的距离在α×length(l)之内,且到线段的垂直平分线的距离在β×length(l)之内,则认为其在线段的局部区域内;其中,α,β均为预设值,length(l)表示线段l的长度。
进一步地,通过比较仿射不变量来评估线段的相似性,实现线匹配,包括:
针对一对要匹配的线段,通过使用线段的左侧局部区域和右侧局部区域中的对应点来计算线段的相似度;其中,使用线段的右侧局部区域中的对应点来计算线段的相似度的计算过程如下:
假设右侧局部区域内有N对对应点,则选择一对作为锚点对,其余N-1对作为参考点对;
基于由一条线和两对对应点构建的仿射不变量来计算相似度,公式为:
i∈[1,N],i≠k
其中,表示利用待匹配线段对的右侧局部区域中的对应点,根据和/>所计算出的相似度;e表示自然对数的底数;/>和/>表示由一幅图像中的第m条线段和另一幅图像中的第n条线段组成的待匹配的线段对;/>和/>表示选取的锚点对;/>和/>表示第i对参考点对;
计算所得到的N-1个的值的中值,作为使用线段的右侧局部区域中的对应点计算出的线段的相似度Sright,公式为:
使用线段的左侧局部区域中的对应点来计算线段的相似度的方式与使用线段的右侧局部区域中的对应点来计算线段的相似度的方式同理;
最终的线段相似度的计算公式为:
其中,表示使用线段的右侧局部区域中的对应点计算出的线段的相似度,表示使用线段的左侧局部区域中的对应点计算出的线段的相似度。
进一步地,基于构建的二维到三维的线对应关系,求解初始姿态,包括:
基于构建的二维到三维的线对应关系,使用基于直接线性变换的线性PNL(Perspective-N-Line,透视N线)算法来求解初始姿态;其中,对于匹配误差,通过代数异常值拒绝算法来剔除,所述代数异常值拒绝算法以迭代重加权最小二乘法的方式求解方程组,对高于预定义阈值的残差的线对分配零权重,并从下一次迭代的处理中去除。
进一步地,所述对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿,包括:
通过设计的几何误差函数使用迭代方法来最小化初始姿态,以获得最终的相机姿态估计结果;其中,所述几何误差函数的表达式为:
其中,M表示二维到三维线对应的数量,函数h(K,T,Li)表示使用相机内参矩阵K和初始姿态估计T将三维线段Li投影到查询图像上;函数fv表示计算两条线段之间的垂直距离,函数fh表示计算两线段之间的水平距离;ei表示二维线段;Ai,Bi均为对查询图像中的二维线段进行参数化表示的方程中的参数;A′i,B′i均为对三维线段在查询图像中投影的二维线段进行参数化表示的方程中的参数;
所述几何误差函数被视为一个非线性最小二乘问题,使用Levenberg-Marquardt算法和Huber损失函数来获得最终优化的相机姿态。
本发明提供的技术方案带来的有益效果至少包括:
本发明利用图像中提取到的线特征构建线地图,利用构建好的轻量且富含结构化信息的线地图来进行后续的定位算法,相对于点云地图,本发明所构建的线地图更加紧凑轻量,占用的存储量更少,同一场景下,线地图模型比点云模型的存储量降低了10-20倍,从而使得本发明可以在较低的内存消耗情况下估计出较好的相机六自由度位姿,而且,随着数据量的降低,方法的效率也随之提升。这使其可以扩展到大规模场景。同时对场景没有要求,方法足够通用。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于轻量结构化线地图的视觉定位方法的执行流程示意图;
图2是本发明实施例提供的基于轻量结构化线地图的视觉定位方法的实施原理示意图;
图3是本发明构建的线图的示意图;
图4是本发明方法在剧烈光照变化与遮挡条件下的匹配性能示意图;
图5是本发明方法在大的尺度变换条件下的匹配性能示意图;
图6是本发明方法在光照与大的视角变换条件下的匹配性能示意图;
图7是本发明方法在光照与重复纹理/弱纹理条件下的匹配性能示意图;
图8是本发明实施例提供的距离误差定义示意图;其中,(a)为垂直距离示意图,(b)为水平距离示意图,(c)为角度误差示意图;
图9为本发明实施例提供的定性结果示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
传统的视觉定位算法往往是在由SFM等算法构造的点云地图上进行定位,但是点特征对弱纹理、照明变换等很敏感,此外生成的三维点云地图很容易就有几百万个点,对设备的存储和计算资源提出了更高的要求,此外,世界是由更高层的几何结构组成的,比如线条、平面等,与点相比,线段在场景中广泛存在,尤其是在人造环境中,而这些环境恰恰是定位应用最广泛的场景,并且相对于点特征,线特征在纹理较差的区域和环境剧烈变换的条件下仍可以稳定检测到,而且与点特征相比,线具有自然的方向性,一组线提供了关于场景结构的强几何线索,因此我们有理由认为线条可以替代点完成视觉定位任务。基于此,本实施例提出一种基于轻量结构化线地图的视觉定位方法,即本实施例的视觉定位方法不提取和匹配图像中的点特征,而是选择图像中可以表达场景结构化信息的线段作为图像特征,构造轻量的且包含丰富场景结构化信息的线地图,之后利用设计的线提取、匹配和位姿初值估计算法以及位姿优化算法,可以在不依赖基于点特征的定位算法提供良好初值的情况下进行定位。
本实施例的视觉定位方法可以由电子设备实现,该电子设备可以是终端或者服务器。该方法的执行流程如图1所示,包括以下步骤:
S1,通过图像检索,将查询图像与数据库图像进行图像匹配,根据图像匹配结果,找到与查询图像最相似的多个数据库图像,作为候选数据库图像;
S2,构建用于视觉定位的线地图;
S3,基于构建的线地图,对所述查询图像和所述候选数据库图像进行线提取和匹配,构建二维到三维的线对应关系;
S4,基于构建的二维到三维的线对应关系,求解初始姿态;
S5,对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿。
具体地,本方法的目标是估计已经校准过的查询图像IQ的六自由度绝对相机姿态(R,t),其中,是世界坐标系到相机坐标系的旋转矩阵,/>是平移向量。算法的输入为用于构建线地图和图像检索的场景的数据库图像{ID},生成的线地图由三维空间中线段集/>组成,其中/>分别表示第i个线段的起点和终点坐标,n表示线段总数。每一对/>对应一组图像中的二维线段其中,ID表示对应的数据库图像,/>分别表示对应的三维线段在数据库图像ID中的观测二维线段的起点和终点坐标,k表示观测二维线段的数量。
算法流程主要包括以下几个部分:首先通过图像检索,这里使用全局描述子将查询图像与数据库图像集进行匹配来执行粗略搜索,找到与查询图像最近的j个数据库图像;然后构建线地图用于后续的定位;对查询图像和检索得到的候选数据库图像进行线提取和匹配构建二维到三维的线对应关系,这里设计了一种点辅助的线匹配算法来提升线匹配的鲁棒性,之后利用一种代数形式的算法来求解初始姿态,最后在设计的优化函数上进行姿态迭代优化得到最终的相机位姿,算法原理如图2所示。下面对各部分的实施过程进行详细说明。
图像检索:
原则上,建图和定位可以通过考虑所有可能的图像对来实现。然而,在实际的现实世界应用中,这种方法不能很好地扩展,比如在大规模环境中,如大型建筑甚至整个城市下的定位时。为了使视觉定位具有可扩展性,图像检索起着至关重要的作用。通过有效地从数据库中检索图像并识别与查询图像最相似的候选图像,该过程为后续的姿态估计和线图构建提供了有价值的输入信息。因此,图像检索增强了算法的整体准确性和鲁棒性。具体地,本实施例使用NetVLAD作为我们的检索算法,NetVLAD在每个像素的输出是一个矩阵,对应于描述符到每个聚类中心的距离。随后将所有像素矩阵聚合为单个矩阵,然后对其进行归一化并利用主成分分析(PCA)算法以进行降维。在我们的方法中,查询图像和数据库图像都由NetVLAD描述符表示。通过计算它们各自的全局描述符之间的归一化距离,我们从数据库中选择j个最佳匹配的图像。
线地图的构建:
由于构造线图的固有缺陷,例如由部分遮挡引起的图像中的不一致的线端点,以及每个图像中的多个线段属于同一三维线段的可能性,因此与三维点云地图相比,建立线图的轨迹关联要复杂得多。此外,线图不像点云地图那样具有极线几何来验证两个视图之间的特征点匹配,并且线匹配描述符的多样性远不如点匹配描述符。因此,文献中很少有基于线的重建方法,其实际应用成功率也没有达到点云地图的水平。
然而,最近的线检测器和匹配器正在弥合点和线之间的性能差距,我们也相信线段可以提供比局部特征点更多的几何信息。在我们的方法中,我们采用了一个称为Line3D++(Line3D++是一种用C++编写的基于线的多视图立体(MVS)算法,可以根据图像序列生成3D线模型)的方法,该方法利用二维线段作为图像特征,并应用弱极线约束来建立图像之间的线段对应关系。所设计的评分公式区分了每个线段的正确匹配和不正确匹配,并对不同视图的二维线段进行图聚类以获得最终的线地图。为了避免所有图像相互匹配,为每个图像计算一组视觉上相似的相邻图像。这是通过计算图像的相似性系数和每个图像中共同可见三维点的所需信息来实现的。为了加速线图的构建,我们使用前一步中引入的图像检索来代替原始算法中对视觉邻居的搜索。通过改进算法构建的线图如图3所示,与点云图相比,它提供了丰富的场景结构信息,同时占用的存储空间减少了10-20倍。
线段检测和匹配:
关于线段检测和匹配,我们的算法允许使用任何可用的线段检测算法。在我们的实际实现中,我们使用了最常用的基于深度学习的线段检测(LSD)线段检测算法来保持与以前的线图构造的一致性。然而它可以替换为其他开源算法。LSD线段检测算法已经可以获得足够可用的线段,后续的线段匹配才是至关重要的。因此,我们设计了一种特征点辅助的线段匹配算法。我们算法的基本思想是在点匹配结果的基础上提高线匹配的鲁棒性。
具体来说,我们使用每个匹配的线段和线段的局部区域内的匹配特征点来构造仿射不变量。通过比较仿射不变量来评估线段的相似性。在直线的局部区域,仿射变换可以近似为单应性,因此我们直接使用由直线和点组成的仿射不变量来比较线段的相似性。考虑到在图像中检测到的线通常位于表面的边缘,可以在线段的至少一侧的局部区域中找到与线在同一平面上的一些对应点。因此,我们通过计算线段上所有像素的平均梯度来定义线段的梯度。通过基于梯度方向将图像的局部区域划分为右侧和左侧,基于线段的长度来定义线段的局部区域。如果一个点到线段的距离在α×length(l)之内,且到线段的垂直平分线的距离在β×length(l)之内,则认为其在线段的局部区域内。在实践中,我们将α设置为2.0,将β设置为0.5,length(l)为线段l的长度。
给定一对要匹配的线段,我们通过使用左、右局部区域中的对应点来计算线段的相似性。以右侧局部区域为例(左侧局部区域同理),假设其中有N对对应点,则选择一对作为锚点对,其余N-1对作为参考点对。我们基于由一对线和两对对应点构建的仿射不变量来计算得到N-1个相似性:
i∈[1,N],i≠k
其中,表示利用待匹配线段对的右侧局部区域中的对应点,根据和/>所计算出的相似度,e表示自然对数的底数,和/>分别表示由一个锚点对、一个参考点对和一对线构建的仿射不变量,其定义为:
其中,和/>表示一幅图像中的第m条线段和另一幅图像中的第n条线段组成的待匹配的线段对,/>和/>表示选取的N对对应点中第k对作为锚点对,/>和/>表示其余的N-1对对应点中第i对对应点(也即参考点对)。
计算它们之间的值的中值,作为使用线段的右侧局部区域中的对应点计算出的线段的相似度Sright:
然后,依次选择不同的锚点对,取最大值作为局部区域相似度:
其中,表示线段对/>和/>的最终相似性,/>表示线段对/>和/>的右侧局部区域相似性,/>表示线段对/>和/>的左侧局部区域相似性,其计算过程和/>一致。
在匹配过程中,保持了线的唯一性约束,这意味着一幅图像中的线段与另一幅图像的线段唯一匹配。
我们设计的算法的匹配性能如图4-图7所示,其中包括剧烈的照明变化、视点变化和尺度变化,这些变化通常会导致基于点的定位方法失败。
姿态初始化:
基于在前一步骤中获得的查询图像和数据库图像之间的二维到二维的线对应关系,我们建立了查询图像中的线和三维线图中的线之间的二维到三维的线对应关系。由于不是所有的二维到三维的线对应都能准确确定,我们使用二维到二维线对应最多的数据库图像对应的三维线来构建二维到三维线对应。然后我们使用基于直接线性变换的线性PNL(线性透视N线算法)来估计初始相机姿态。该算法将构建的二维到三维线对应关系转换为齐次线性方程系统,其中系数形成测量矩阵。解则在矩阵的零空间中,并且通过求解线性方程组来估计姿态。与其他PNL算法相比,该算法速度更快,只需要五条线对应关系即可求救,并且它不会像迭代方法那样陷入局部极小值。由于匹配误差,一些线对应不可避免的是不正确的,我们引入一种代数异常值拒绝算法来剔除它们。我们不使用RANSAC(RandomSample Consensus,使用随机抽样一致性)来去除和识别异常值,因为它增加了所需的迭代次数和算法的复杂性。具体而言,该代数异常值拒绝算法以迭代重加权最小二乘法的方式求解方程组,其中高于预定义阈值的残差的线对应被分配零权重,并从下一次迭代的处理中去除。在没有这些对应关系的情况下重新计算解,直到解的误差停止减小。
姿态迭代优化:
由于从上一步获得的姿态初始值可能不是几何最优的,我们通过设计的特定几何误差函数使用迭代方法来最小化初始姿态以获得最终的相机姿态估计,这是一个非线性最小二乘问题。考虑一组二维到三维线对应关系Lcorr=(ei,Li),查询图像的姿态由T表示,三维线Li被重投影到查询图像的线段li。二维线段ei和li的线性方程可以分别表示为Aix+Biy+Ci=0和Ai′x′+Bi′y′+Ci′=0。(Ai,Bi表示对查询图像中的二维线段的参数化表示(Aix+Biy+Ci=0),A′i,B′i表示对三维线段在查询图像中投影的二维线段的参数化表示(A′ix+B′iy+C′i=0))通过最小化li和对应的二维线段ei之间的距离误差和角度误差来优化姿态T。
我们设计的距离误差定义为垂直距离误差和水平距离误差,其中垂直距离误差优化确保两条线在垂直方向上彼此靠近,如图8(a)所示。d1和d3是线段li的端点到线段ei的距离,d2和d4是线段ei的端点到线段li的距离。
从li到ei的垂直距离定义为:
dv(li,ei)=max(d1,d2,d3,d4)
水平距离误差优化确保两条线在水平方向上彼此靠近,如图8(b)所示,从线段li到线段ei的水平距离dh定义为从li中点到ei的垂直平分线的距离。角度误差被定义为线段li和线段ei之间的角度的正弦,如图8(c)所示。
最终代价函数可以表示如下:
其中,M为二维到三维线对应的数量,函数h(K,T,Li))表示使用相机内参矩阵K和从先前步骤获得的初始姿态估计T将三维线Li投影到查询图像上。函数fv表示计算两条线段之间的垂直距离,函数fh表示计算两线段之间的水平距离。
代价函数被视为一个非线性最小二乘问题,使用Levenberg-Marquardt(莱文伯格-马夸特算法,它是一种非线性最小二乘优化算法,用于解决参数拟合问题)算法和Huber损失函数(胡伯损失函数,它是一种用于回归问题的损失函数,旨在降低对异常值的敏感性)来获得最终优化的相机姿态。
通过以上步骤,本实施例提供的基于轻量结构化线地图的视觉定位方法可以在较低的内存消耗情况下估计出较好的相机六自由度位姿,在Cambridge公开数据集上与基于点的方法和基于学习的方法进行了比较,结果如下表1。
表1本发明方法与现有方法的对比结果
其中,PoseNet和DSAC++是基于深度学习的方法,AS和HLoc是基于传统点云的方法;P./L.Number表示基于传统点云的方法中构建的点云地图中三维点的数量或者本发明的方法构建的线云地图中三维线段的数量;Errors表示估计的相机六自由度位姿与真实相机的六自由度位姿在位置(以m为单位)和方向(以角度°为单位)上的误差的中值,分别在Cambridge的四个数据集(Kings College、Old Hospital、Shop Facade和St.Mary’sChurch)上进行了比较测试。可以看出本发明的方法在内存消耗较低的情况下,四个场景分别为1.9MB,0.84MB、0.48MB和2.3MB,估计出较准确的相机六自由度位姿,同时在相机的位置三自由度上提供了最好的结果。
进一步地,为了证明本发明方法的有效性,我们根据估计的相机位姿反投影线地图中的三维线段到二维图像上进行可视化,提供定性结果如图9所示。
综上,本实施例提供了一种基于轻量结构化线地图的视觉定位方法,该方法可以解决传统基于点特征的定位方法中内存不足和计算效率慢的问题。本实施例的方法使用图像中的线段来构建线图,并且不需要提供任何的初始姿态估计值,从而导致更低的存储要求和更高的计算效率。而且,本实施例设计了一种更稳健的线匹配方法以解决传统点特征提取和匹配技术对弱纹理和剧烈条件变化的敏感性。即使在弱纹理和显著的环境变化下,本实施例的方法也可以准确地匹配线段特征。通过在公开的室内和室外数据集上进行了广泛的实验,证明了本实施例的方法的有效性。这些结果也证实了仅基于图像中的线段进行视觉定位的可行性,这为研究解决视觉定位问题提供了一种新的途径。
此外,需要说明的是,本发明可提供为方法、装置或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
最后需要说明的是,以上所述是本发明优选实施方式,应当指出,尽管已描述了本发明优选实施例,但对于本技术领域的技术人员来说,一旦得知了本发明的基本创造性概念,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
Claims (5)
1.一种基于轻量结构化线地图的视觉定位方法,用于估计已经校准过的查询图像的六自由度绝对相机姿态,其特征在于,所述方法包括:
通过图像检索,将查询图像与数据库图像进行图像匹配,根据图像匹配结果,找到与查询图像最相似的多个数据库图像,作为候选数据库图像;
构建用于视觉定位的线地图;
基于所述线地图,对所述查询图像和所述候选数据库图像进行线提取和匹配,构建二维到三维的线对应关系;
基于构建的二维到三维的线对应关系,求解初始姿态;
对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿;
对所述查询图像和所述候选数据库图像进行线提取和匹配,包括:
采用预设的线段检测算法,对查询图像和候选数据库图像进行线提取;
采用特征点辅助的线段匹配算法对查询图像和候选数据库图像进行线匹配;
所述采用特征点辅助的线段匹配算法对查询图像和候选数据库图像进行线匹配,包括:
使用每个匹配的线段和线段的局部区域内的匹配特征点来构造仿射不变量;
通过比较仿射不变量来评估线段的相似性,实现线匹配;
线段的局部区域内的匹配特征点的确定过程包括:
通过计算线段上所有像素的平均梯度来定义线段的梯度;
基于线段的梯度方向将线段的局部区域划分为右侧局部区域和左侧局部区域,基于线段的长度来定义线段的局部区域;如果一个点到线段的距离在α×length(l)之内,且到线段的垂直平分线的距离在β×length(l)之内,则认为其在线段的局部区域内;其中,α,β均为预设值,length(l)表示线段l的长度;
所述通过比较仿射不变量来评估线段的相似性,实现线匹配,包括:
针对一对要匹配的线段,通过使用线段的左侧局部区域和右侧局部区域中的对应点来计算线段的相似度;其中,使用线段的右侧局部区域中的对应点来计算线段的相似度的计算过程如下:
假设右侧局部区域内有N对对应点,则选择一对作为锚点对,其余N-1对作为参考点对;
基于由一条线和两对对应点构建的仿射不变量来计算相似度,公式为:
其中,表示利用待匹配线段对的右侧局部区域中的对应点,根据和/>所计算出的相似度;e表示自然对数的底数;/>和/>表示由一幅图像中的第m条线段和另一幅图像中的第n条线段组成的待匹配的线段对;/>和/>表示选取的锚点对;/>和/>表示第i对参考点对;
计算所得到的N-1个的值的中值,作为使用线段的右侧局部区域中的对应点计算出的线段的相似度Sr i g h t,公式为:
使用线段的左侧局部区域中的对应点来计算线段的相似度的方式与使用线段的右侧局部区域中的对应点来计算线段的相似度的方式同理;
最终的线段相似度的计算公式为:
其中,表示使用线段的右侧局部区域中的对应点计算出的线段的相似度,/>表示使用线段的左侧局部区域中的对应点计算出的线段的相似度。
2.如权利要求1所述的基于轻量结构化线地图的视觉定位方法,其特征在于,所述通过图像检索,将查询图像与数据库图像集进行图像匹配,根据图像匹配结果,找到与查询图像最近的多个数据库图像,作为候选数据库图像,包括:
将查询图像和数据库中包含的数据库图像均采用NetVLAD(Net Vector of locallyaggregated descriptors,融合可训练局部聚集描述子向量)描述符表示;
通过计算查询图像和数据库图像各自的全局描述符之间的归一化距离,从数据库中选择多个与查询图像最相似的数据库图像,作为候选数据库图像。
3.如权利要求1所述的基于轻量结构化线地图的视觉定位方法,其特征在于,所述构建用于视觉定位的线地图,包括:
采用Line3D++算法构建用于视觉定位的线地图;其中,Line3D++算法中的对视觉邻居的搜索算法采用NetVLAD检索算法代替。
4.如权利要求1所述的基于轻量结构化线地图的视觉定位方法,其特征在于,所述基于构建的二维到三维的线对应关系,求解初始姿态,包括:
基于构建的二维到三维的线对应关系,使用基于直接线性变换的线性PNL(Perspective-N-Line,透视N线)算法来求解初始姿态;其中,对于匹配误差,通过代数异常值拒绝算法来剔除,所述代数异常值拒绝算法以迭代重加权最小二乘法的方式求解方程组,对高于预定义阈值的残差的线对分配零权重,并从下一次迭代的处理中去除。
5.如权利要求1所述的基于轻量结构化线地图的视觉定位方法,其特征在于,所述对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿,包括:
通过设计的几何误差函数使用迭代方法来最小化初始姿态,以获得最终的相机姿态估计结果;其中,所述几何误差函数的表达式为:
其中,M表示二维到三维线对应的数量,函数h(K,T,Li)表示使用相机内参矩阵K和初始姿态估计T将三维线段Li投影到查询图像上;函数fv表示计算两条线段之间的垂直距离,函数fh表示计算两线段之间的水平距离;ei表示二维线段;Ai,Bi均为对查询图像中的二维线段进行参数化表示的方程中的参数;A′ i,Bi ′均为对三维线段在查询图像中投影的二维线段进行参数化表示的方程中的参数;
所述几何误差函数被视为一个非线性最小二乘问题,使用Levenberg-Marquardt算法和Huber损失函数来获得最终优化的相机姿态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310678818.8A CN116662600B (zh) | 2023-06-08 | 2023-06-08 | 一种基于轻量结构化线地图的视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310678818.8A CN116662600B (zh) | 2023-06-08 | 2023-06-08 | 一种基于轻量结构化线地图的视觉定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116662600A CN116662600A (zh) | 2023-08-29 |
CN116662600B true CN116662600B (zh) | 2024-05-14 |
Family
ID=87720425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310678818.8A Active CN116662600B (zh) | 2023-06-08 | 2023-06-08 | 一种基于轻量结构化线地图的视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116662600B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117292394B (zh) * | 2023-09-27 | 2024-04-30 | 自然资源部地图技术审查中心 | 地图审核方法和装置 |
CN117689899B (zh) * | 2024-02-04 | 2024-05-24 | 南昌虚拟现实研究院股份有限公司 | 一种手势采集装置参数点检方法、系统、设备及存储介质 |
CN117935099B (zh) * | 2024-03-21 | 2024-06-21 | 国网山东省电力公司曲阜市供电公司 | 基于增强现实的gis设备无损检测方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166149A (zh) * | 2018-08-13 | 2019-01-08 | 武汉大学 | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 |
CN109934862A (zh) * | 2019-02-22 | 2019-06-25 | 上海大学 | 一种点线特征结合的双目视觉slam方法 |
CN110782494A (zh) * | 2019-10-16 | 2020-02-11 | 北京工业大学 | 一种基于点线融合的视觉slam方法 |
CN110807809A (zh) * | 2019-10-25 | 2020-02-18 | 中山大学 | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 |
CN111325796A (zh) * | 2020-02-28 | 2020-06-23 | 北京百度网讯科技有限公司 | 用于确定视觉设备的位姿的方法和装置 |
CN115578426A (zh) * | 2022-10-25 | 2023-01-06 | 哈尔滨工业大学 | 一种基于稠密特征匹配的室内服务机器人重定位方法 |
CN115965686A (zh) * | 2022-11-30 | 2023-04-14 | 北京化工大学 | 一种融合点线特征的半直接视觉定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108717710B (zh) * | 2018-05-18 | 2022-04-22 | 京东方科技集团股份有限公司 | 室内环境下的定位方法、装置及系统 |
-
2023
- 2023-06-08 CN CN202310678818.8A patent/CN116662600B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166149A (zh) * | 2018-08-13 | 2019-01-08 | 武汉大学 | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 |
CN109934862A (zh) * | 2019-02-22 | 2019-06-25 | 上海大学 | 一种点线特征结合的双目视觉slam方法 |
CN110782494A (zh) * | 2019-10-16 | 2020-02-11 | 北京工业大学 | 一种基于点线融合的视觉slam方法 |
CN110807809A (zh) * | 2019-10-25 | 2020-02-18 | 中山大学 | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 |
CN111325796A (zh) * | 2020-02-28 | 2020-06-23 | 北京百度网讯科技有限公司 | 用于确定视觉设备的位姿的方法和装置 |
CN115578426A (zh) * | 2022-10-25 | 2023-01-06 | 哈尔滨工业大学 | 一种基于稠密特征匹配的室内服务机器人重定位方法 |
CN115965686A (zh) * | 2022-11-30 | 2023-04-14 | 北京化工大学 | 一种融合点线特征的半直接视觉定位方法 |
Non-Patent Citations (2)
Title |
---|
点线融合双目定位与建图多维提升方法;陈维兴;《计算机应用研究》;20211116;全文 * |
结合扩展卡尔曼滤波与基于点线的最近点迭代扫描匹配算法的机器人位姿自适应估计;岳胜杰;《测绘通报》;20220725;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116662600A (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Structure-slam: Low-drift monocular slam in indoor environments | |
CN116662600B (zh) | 一种基于轻量结构化线地图的视觉定位方法 | |
CN109544677B (zh) | 基于深度图像关键帧的室内场景主结构重建方法及系统 | |
Lim et al. | Real-time image-based 6-dof localization in large-scale environments | |
CN110135455A (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
CN107329962B (zh) | 图像检索数据库生成方法、增强现实的方法及装置 | |
Birdal et al. | Cad priors for accurate and flexible instance reconstruction | |
CN113393524A (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
Cao et al. | Accurate 3-D reconstruction under IoT environments and its applications to augmented reality | |
Bu et al. | Semi-direct tracking and mapping with RGB-D camera for MAV | |
Zheng et al. | Buildingfusion: Semantic-aware structural building-scale 3d reconstruction | |
CN115018999A (zh) | 一种多机器人协作的稠密点云地图构建方法及装置 | |
Zhao et al. | Visual odometry-A review of approaches | |
Wang et al. | Real-time motion removal based on point correlations for RGB-D SLAM in indoor dynamic environments | |
Lane et al. | Tutorial: Overview of stereo matching research | |
Zhang et al. | A stereo SLAM system with dense mapping | |
Lai et al. | 3D semantic map construction system based on visual SLAM and CNNs | |
CN111882613A (zh) | 基于边缘语义的视觉里程计方法、装置、存储介质及设备 | |
Chen et al. | Epipole Estimation under Pure Camera Translation. | |
CN113570713B (zh) | 一种面向动态环境的语义地图构建方法及装置 | |
Pajares et al. | Relaxation labeling in stereo image matching | |
CN107341151B (zh) | 图像检索数据库生成方法、增强现实的方法及装置 | |
Gong et al. | Planefusion: Real-time indoor scene reconstruction with planar prior | |
Chen et al. | End-to-end multi-view structure-from-motion with hypercorrelation volume | |
Abbeloos et al. | 3D object discovery and modeling using single RGB-D images containing multiple object instances |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |