CN117437552B - 视觉定位地图的构建方法及装置、设备及存储介质 - Google Patents
视觉定位地图的构建方法及装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117437552B CN117437552B CN202311764429.3A CN202311764429A CN117437552B CN 117437552 B CN117437552 B CN 117437552B CN 202311764429 A CN202311764429 A CN 202311764429A CN 117437552 B CN117437552 B CN 117437552B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- map
- sub
- sampling point
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000000007 visual effect Effects 0.000 title claims abstract description 53
- 238000006243 chemical reaction Methods 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000005070 sampling Methods 0.000 claims description 107
- 239000011159 matrix material Substances 0.000 claims description 34
- 238000004422 calculation algorithm Methods 0.000 claims description 32
- 238000000354 decomposition reaction Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 9
- 230000004807 localization Effects 0.000 claims 1
- 230000009466 transformation Effects 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012216 screening Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/86—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种视觉定位地图的构建方法及装置、设备及存储介质,方法包括:获取目标采集数据;根据各个特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;利用深度信息、相机位姿以及相机内参信息,确定各个特征点在世界坐标系下的第三坐标;根据第一坐标、第二坐标、各个特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个环境图像对应的子地图,视觉定位地图包括子地图,子地图包括各个特征点与目标坐标的对应关系。通过上述方式,构建了使用绝对坐标来表示的视觉定位地图,相比于相对坐标表示方式,处理子地图时更加高效准确,省时省力。
Description
技术领域
本发明涉及视觉地图构建技术领域,尤其涉及一种视觉定位地图的构建方法及装置、设备及存储介质。
背景技术
视觉地图构建技术是指通过感知和处理视觉信息来创建环境的三维模型或地图。它是计算机视觉和机器人技术的一个重要应用领域,在自主导航、增强现实、虚拟现实等领域被广泛应用,实现更正确更真实的交互体验。
传统的视觉地图利用视觉SLAM方法构建相对视觉地图。某些方法会加入激光SLAM作为高精度约束的带高精度的相对视觉地图。但是,视觉SLAM和激光SLAM采用的都是相对定位模式,得到的视觉地图中的地图点坐标也是一个相对值。因此,不同的数据集得到的地图没有相对位置关系,采用不同数据集的视觉地图子集拼接成整个更大范围的全局地图时,由于子地图之间没有相对位置关系,只能通过特征点匹配的方式确定计算得到各子地图之间的坐标转换参数。当子地图范围较大时,视觉特征点的搜索查询匹配效率较低,且算法会变得更为复杂,并容易出现更多的误匹配。
故对于传统方式得到的相对坐标表示的子地图,处理该子地图时较为费时费力,因此,亟需改进视觉定位地图的构建方式。
发明内容
本发明的主要目的在于提供一种视觉定位地图的构建方法及装置、设备及存储介质,可以解决现有技术中的目前处理子地图较为费时费力的问题。
为实现上述目的,本发明第一方面提供一种视觉定位地图的构建方法,所述方法包括:
获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;
根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;
利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;
根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系。
在一种可行实现方式中,所述方法还包括:
对于任意两个子地图,比较两个所述子地图的覆盖范围,确定两个所述子地图之间是否存在重叠区域;
若存在重叠区域,则将两个所述子地图分别作为第一目标子地图和第二目标子地图;
利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图。
在一种可行实现方式中,所述利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图,包括:
在第一目标子地图的重叠区域随机选择第一采样点、第二采样点以及第三采样点;
基于所述第一采样点在第二目标子地图的重叠区域进行近似最近邻匹配处理,得到与所述第一采样点匹配的第四采样点;
基于第一搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第五采样点,所述第一搜索条件为第四采样点到第五采样点的距离及方向等同于第一采样点到第二采样点的距离及方向;
基于第二搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第六采样点,所述第二搜索条件为搜索条件为第六采样点到第五采样点距离及方向等同于第三采样点到第二采样点的距离及方向,且第六采样点到第四采样点的距离及方向等同于第三采样点到第一采样点的距离及方向;
利用所述第一采样点、第二采样点以及第三采样点、第四采样点、第五采样点、第六采样点以及最小二乘平差法,确定第一目标子地图与所述第二目标子地图之间坐标转换的目标七参数;
根据所述目标七参数、第一目标子地图与所述第二目标子地图进行合并处理,得到合并子地图。
在一种可行实现方式中,所述根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,包括:
利用所述第一坐标、第二坐标、各个所述特征点的第三坐标及预设的第一转换关系进行坐标转换,得到所述第三坐标在地心坐标系下的第四坐标,所述第一转换关系用于反映世界坐标系与地心坐标系之间的转换关系;
根据所述第四坐标及预设的第二转换关系,确定所述第四坐标对应的目标坐标,所述第二转换关系用于反映经纬坐标系与地心坐标系之间的转换关系。
在一种可行实现方式中,所述相机为双目相机,所述环境图像包括左目图像以及右目图像,所述相机内参信息至少包括相机焦距及基线长度,则根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息,包括:
利用所述左目图像以及右目图像的特征点进行近似最近邻匹配处理,确定各个特征点的目标匹配结果,所述目标匹配结果至少包括特征点对,所述特征点对用于反映所述左目图像与右目图像的特征点之间的对应关系;
利用所述特征点对的像素坐标以及预设的视差算法,确定每个特征点的视差;
根据所述视差、相机焦距、基线长度及预设的深度算法,确定各个特征点的深度信息;
根据所述特征点对、预设的随机样本一致算法以及奇异值分解算法,确定相机位姿。
在一种可行实现方式中,所述根据所述特征点对、预设的随机样本一致算法以及奇异值分解算法,确定相机位姿,包括:
利用各个所述特征点对及所述随机样本一致算法,确定本征矩阵和单应性矩阵;
基于所述本征矩阵和单应性矩阵采用奇异值分解算法,计算得到相机的旋转矩阵和平移向量,所述相机位姿包括所述旋转矩阵和平移向量。
在一种可行实现方式中,所述方法还包括:
将同一个地图点在不同的子地图中的多个目标坐标进行去噪,得到去噪的目标坐标集合,所述地图点为所述子地图中重投影误差小于预设的像素阈值,且可被至少两个以上作为关键帧的环境图像观测到的特征点;
利用所述目标坐标集合进行平均值计算,确定所述地图点的最终坐标。
为实现上述目的,本发明第二方面提供一种视觉定位地图的构建装置,所述装置包括:
数据获取模块:用于获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;
特征提取模块:用于根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;
坐标确定模块:用于利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;
坐标转换模块:用于根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系。
为实现上述目的,本发明第三方面提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如第一方面及任一可行实现方式所示步骤。
为实现上述目的,本发明第四方面提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如第一方面及任一可行实现方式所示步骤。
采用本发明实施例,具有如下有益效果:
本发明提供一种视觉定位地图的构建方法,方法包括:获取目标采集数据,目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,环境图像包括若干的特征点及特征点的像素坐标;根据各个特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;利用深度信息、相机位姿以及相机内参信息,确定各个特征点在世界坐标系下的第三坐标;根据第一坐标、第二坐标、各个特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个环境图像对应的子地图,视觉定位地图包括子地图,子地图包括各个特征点与目标坐标的对应关系。
通过上述方式,可以构建利用在经纬坐标系下的目标坐标表示的子地图,这样使得每个子地图的坐标都是使用绝对坐标来表示的,相比于相对坐标表示方式,处理子地图时更加高效准确,省时省力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为本发明实施例中一种视觉定位地图的构建方法的流程图;
图2为本发明实施例中一种视觉定位地图的构建方法的另一流程图;
图3为本发明实施例中一种视觉定位地图的构建装置的结构框图;
图4为本发明实施例中计算机设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例中一种视觉定位地图的构建方法的流程图,如图1所示方法应用于视觉定位地图的构建系统,该确定系统可以为终端,也可以为服务器,本实施例以终端举例说明。终端具体可以是台式终端或移动终端,移动终端具体可以是手机、平板电脑、笔记本电脑等中的至少一种。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。如图1所示方法包括如下步骤:
101、获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;
需要说明的是,为了提高视觉定位地图的构建效率,本申请通过多个采集设备同时拍摄多张环境图像,并且对于每个采集设备也可以拍摄多张环境图像,采用了一种众包模式的数据收集方式,以此构建出高效且质量优良的视觉定位地图,高效真实还原当前环境,其中,目标采集数据还可以看做采集的数据包,目标采集数据是上述采集设备采集得到的数据,可以预先通过采集设备进行数据采集,利用采集的数据构建视觉定位地图。其中,采集设备包括但不限于RTK传感器以及视觉采集装置,视觉采集装置包括但不限于相机等。其中,目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标/>、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标,并且上述环境图像可以看做相机当前帧拍摄得到的图像。其中,第一坐标/>由初始位置RTK(Real - timekinematic)得到,第二坐标/>可以由第一坐标转换到地心坐标系得到,特征点可以通过特征点识别算法得到,特征点识别算法包括但不限于ORB角点检测算法。
示例性的,以双目相机图像数据为例,构建视觉子地图,首先采集RTK和视觉传感器数据;根据初始位置RTK求得相机运动起点的地心地固坐标。获取初始时刻的RTK数据,根据WGS-84坐标系到地心地固坐标系的转换关系得到相机初始运动坐标的地心地固坐标/>,即RTK位置点由WGS-84坐标系下的经度、纬度以及高度表示,根据公式(1)代入/>求得相机运动起点对应的地心地固坐标系为/>:
(1)
其中,为椭球偏心率,/>为基准椭球体的曲率半径:
(2)
式中,a为椭球体的长半轴,b为椭球体的短半轴,L为纬度。
以及从当前时刻左右目图像中提取特征点,并为每个特征点计算特征描述子;将左右目图像中的特征点根据一定的筛选规则进行筛选,去除误匹配或低质量的特征点。
102、根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;
进一步的,得到相机内参信息便可以利用相机内参和各个特征点的像素坐标,来确定相机外参以及各个特征点的深度信息,其中,相机外参包括相机位姿,以知晓当前帧的相机位姿。
103、利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;
需要说明的是,确定了深度信息以及相机位姿后,便可以得到特征点在世界坐标系下的第三坐标,具体的,可以利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标。
示例性的,相机位姿包括外参矩阵以及相机内参信息包括内参矩阵,通过相机的内外参数矩阵和,使用齐次坐标表示的特征点在两个相机坐标系中的投影,利用线性三角化或非线性优化方法求解特征点的三维坐标,也即在世界坐标系下的第三坐标。
104、根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系。
最后,每个特征点的第三坐标转换为经纬坐标系下的目标坐标,用于绝对坐标表示各个特征点的位置。具体的,根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,也即进行世界坐标系向经纬坐标系的转换,确定各个所述环境图像对应的子地图,视觉定位地图包括各个所述环境图像对应的子地图,子地图包括各个特征点与目标坐标的对应关系。
本发明提供一种视觉定位地图的构建方法,方法包括:获取目标采集数据,目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,环境图像包括若干的特征点及特征点的像素坐标;根据各个特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;利用深度信息、相机位姿以及相机内参信息,确定各个特征点在世界坐标系下的第三坐标;根据第一坐标、第二坐标、各个特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个环境图像对应的子地图,视觉定位地图包括子地图,子地图包括各个特征点与目标坐标的对应关系。通过上述方式,可以构建利用在经纬坐标系下的目标坐标表示的子地图,这样使得每个子地图的坐标都是使用绝对坐标来表示的,相比于相对坐标表示方式,处理子地图时更加高效准确,省时省力。
请参阅图2,图2为本发明实施例中一种视觉定位地图的构建方法的另一流程图。如图2所示方法包括如下步骤:
201、获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;
202、根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;
需要说明的是,图2所示步骤201和202的内容与图1所示步骤101和102的内容相似,为避免重复此处不做赘述。
在一种可行实现方式中,获取当前时刻的双目视觉传感器数据,对左右目图像进行预处理,首先进行灰度化处理,将彩色图像转换为灰度图像,并对图像使用高斯滤波器平滑去噪处理;然后使用ORB角点检测算法,快速检测出潜在的特征候选点。然后,选择一组采样点对(通常为256对),对每个采样点对计算其灰度差分值,并将这些差分值转化为二进制串,得到BRIEF描述子。
在一种可行实现方式中,为了提高数据采集质量,数据更准确,故相机为双目相机,环境图像包括左目图像以及右目图像,也即当前帧的左目图像以及右目图像,其中,相机内参信息至少包括相机焦距及基线长度,则步骤202可以包括A01至A04:
A01、利用所述左目图像以及右目图像的特征点进行近似最近邻匹配处理,确定各个特征点的目标匹配结果,所述目标匹配结果至少包括特征点对,所述特征点对用于反映所述左目图像与右目图像的特征点之间的对应关系;
A02、利用所述特征点对的像素坐标以及预设的视差算法,确定每个特征点的视差;
也即对特征点进行匹配,此时的特征点可以是上述筛选后的特征点,对筛选后的特征点进行匹配,建立左右图像特征点之间的对应关系;将得到的图像特征点采用基于近似最近邻匹配方法进行特征点匹配,并利用基于匹配距离比方法对匹配结果进行筛选,当最近邻距离小于次近邻距离的0.6倍时,认为匹配是有效的,去除不符合要求的特征点。最后,建立左右图像特征点之间的对应关系。利用得到的左右目图像特征点的像素坐标,以及相机的内外参水平焦距,基线长度/>。估计特征点的深度信息。其中,相机内外参/>和/>,通过事先采用张正友标定法标定获得。
示例性的,对于每个左图像中的特征点,通过匹配右图像中的特征点,得到各个特征点之间的目标匹配结果,目标匹配结果包括特征点对(xL,xR),反之,如果是右目的特征点匹配左目的也同样适用,故特征点对用于反映所述左目图像与右目图像的特征点之间的对应关系。进而,然后利用下式(3)的视差算法计算各个特征点的视差值:
(3)
其中,视差表示左右目图像对应像素点的水平位移(以像素为单位),/>和/>分别表示左右目图像中对应像素点的水平坐标,对应像素点也即特征点对。
A03、根据所述视差、相机焦距、基线长度及预设的深度算法,确定各个特征点的深度信息;
进一步的,利用视差值和摄像头的内参矩阵、基线长度等参数,估计特征点的深度信息。深度算法如下式(4)所示:
(4)
其中,为相机的焦距,/>为基线长度,/>为视差值,z为深度信息。
A04、根据所述特征点对、预设的随机样本一致算法以及奇异值分解算法,确定相机位姿。
需要说明的是,可以通过通过特征点的匹配得到本征矩阵,进而采用奇异值分解(SVD)得到相机位姿,知晓相机的外参。示例性的,SVD表示为公式(5):
(5)
其中,E为本征矩阵,和/>均为正交阵,/>为奇异值矩阵。通过SVD分解得到相机的旋转矩阵和平移向量,知晓相机位姿。
在一种可行实现方式中,步骤A04还可以包括步骤B01至B02:
B01、利用各个所述特征点对及所述随机样本一致算法,确定本征矩阵和单应性矩阵;
B02、基于所述本征矩阵和单应性矩阵采用奇异值分解算法,计算得到相机的旋转矩阵和平移向量,所述相机位姿包括所述旋转矩阵和平移向量。
也即利用A01得到的左右目图像特征匹配点对(特征点对),通过随机样本一致算法(RANSAC方法)计算本征矩阵和单应性矩阵/>,采用SVD分解计算得到相机的旋转矩阵和平移向量/>。
203、利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;
需要说明的是,步骤203与图1所示步骤103的内容相似,为避免重复此处不作赘述,具体可以参阅前述图1所示步骤103的内容。
示例性的,利用得到的深度信息,相机位姿矩阵为,/>,以及相机内参信息矩阵,采用相机投影模型,根据下式可以计算各特征点的世界坐标系坐标。
式中,第三坐标为(x w,y w,z w)。
204、根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系;
需要说明的是,步骤204与图1所示步骤104的内容相似,为避免重复此处不作赘述,具体可以参阅前述图1所示步骤104的内容。
利用相机初始运动坐标的地心地固坐标和WGS-84坐标系坐标,将得到的特征点世界坐标系下的相对位置坐标/>根据世界坐标系到地心地固坐标系的变换矩阵,转化成地心地固坐标系下的绝对位置坐标/>,再通过一定的公式,转换成WGS-84坐标系下的坐标/>。为了表达的精度足够,需要表达到毫米级,则以度为单位的话,小数点后至少需要保留到8位。
在一种可行实现方式中,步骤204包括步骤C01至C02:
C01、利用所述第一坐标、第二坐标、各个所述特征点的第三坐标及预设的第一转换关系进行坐标转换,得到所述第三坐标在地心坐标系下的第四坐标,所述第一转换关系用于反映世界坐标系与地心坐标系之间的转换关系;
需要说明的是,可以根据三维坐标(也即第三坐标)和相机运动起点的坐标关系,将三维坐标转化为绝对位置坐标。根据世界坐标系到地心地固坐标系的变换矩阵可求得三维坐标的地心地固坐标,示例性的,第一转换关系用于反映世界坐标系与地心坐标系之间的转换关系,第一变换关系包括变换矩阵(6):
(6)
式中,为第二坐标,B为相机初始运动时纬度B P,L为相机初始运动时经度L P。
C02、根据所述第四坐标及预设的第二转换关系,确定所述第四坐标对应的目标坐标,所述第二转换关系用于反映经纬坐标系与地心坐标系之间的转换关系。
进一步,第二转换关系包括下述公式(7),再使用下列公式(7)将三维坐标的地心地固坐标转化为WGS-84坐标系下坐标/>:
(7)
式中,(X,Y,Z)为第四坐标,(B,L,H)为目标坐标,为基准椭球体的曲率半径,/>为椭球偏心率。设/>初始值为0,经过几次迭代后可收敛求得其结果。为了表达的精度足够,需要表达到毫米级,则以度为单位的话,小数点后至少需要保留到8位。
此时便可以根据当前帧的位姿估计和三维点信息,更新地图中的点云和关键帧。运用优化算法对地图进行局部和全局优化。可以理解的是,由于用绝对坐标表示,一帧下的左右目图像共同得到一张当前的子地图。
205、对于任意两个子地图,比较两个所述子地图的覆盖范围,确定两个所述子地图之间是否存在重叠区域;
206、若存在重叠区域,则将两个所述子地图分别作为第一目标子地图和第二目标子地图;
207、利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图。
进一步的,所有子地图采集完成后,根据绝对位置坐标判断各子地图的覆盖范围,若多个子地图之间没有覆盖范围上的交集时,则子地图保持相对独立的保存下来。若多个子地图之间存在覆盖范围上的交际,则将存在交际的子地图取出,依次取出两个子地图进行合并处理,计算两者的转换参数。转换参数可以用七参数的形式进行表达。
需要说明的是,上述子地图是基于绝对坐标表达的,可以直接合并,但是为了更加准确的合并子地图,本申请提出以下步骤提高合并准确度,减少视觉地图直接覆盖导致的阴影重影等现象。
在一种可行实现方式中,步骤207,包括:
D01、在第一目标子地图的重叠区域随机选择第一采样点、第二采样点以及第三采样点;
D02、基于所述第一采样点在第二目标子地图的重叠区域进行近似最近邻匹配处理,得到与所述第一采样点匹配的第四采样点;
D03、基于第一搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第五采样点,所述第一搜索条件为第四采样点到第五采样点的距离及方向等同于第一采样点到第二采样点的距离及方向;
D04、基于第二搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第六采样点,所述第二搜索条件为搜索条件为第六采样点到第五采样点距离及方向等同于第三采样点到第二采样点的距离及方向,且第六采样点到第四采样点的距离及方向等同于第三采样点到第一采样点的距离及方向;
D05、利用所述第一采样点、第二采样点以及第三采样点、第四采样点、第五采样点、第六采样点以及最小二乘平差法,确定第一目标子地图与所述第二目标子地图之间坐标转换的目标七参数;
D06、根据所述目标七参数、第一目标子地图与所述第二目标子地图进行合并处理,得到合并子地图。
需要将选择的两个子地图重叠区域利用RANSAC方法进行点云特征点搜索匹配。在待匹配的源点云(第一目标子地图)中随机选取三个点作为采样点;在目标点云(第二目标子地图)中进行近似最近邻匹配处理选取一个点/>,作为/>的对应点;在目标点云中搜索并获取一个点/>,搜索条件为/>到/>的距离及方向等同于/>到/>的距离及方向;在目标点云中搜索并获取一个点/>,搜索条件为/>到/>、/>到/>的距离及方向等同于/>到/>、/>到/>的距离及方向。根据这三对点对计算旋转矩阵/>和位移向量/>。多次迭代后得到重叠区域点云的粗匹配结果。距离可以通过绝对坐标计算两点之间的距离。
也即在重叠区域内进行两个子地图之间初步的特征点搜索、查询和匹配。采用最小二乘平差的方法,将所有匹配的公共地图点在两个子地图中的绝对坐标建立计算公式,计算七参数。其中,三个坐标平移量为,三个坐标轴的旋转角度为,尺度因子为/>。
示例性的,,/>分别为特征点在两个子地图中的坐标,两者坐标关系满足下式(8):
(8)
此结构符合,可以通过最小二乘估计公式/>求出的估计值。再通过式(9):
(9)
求得七参数中和/>的值。用七参数,将子地图中所有的坐标点的坐标进行转化,将两个子地图拼接在一起。比如,用七参数,将其中一个子地图中的所有地图点坐标进行转换,实现将两个子地图拼接到一起。
在一种可行实现方式中,所述方法还包括:将同一个地图点在不同的子地图中的多个目标坐标进行去噪,得到去噪的目标坐标集合,所述地图点为所述子地图中重投影误差小于预设的像素阈值,且可被至少两个以上作为关键帧的环境图像观测到的特征点;利用所述目标坐标集合进行平均值计算,确定所述地图点的最终坐标。
也即子地图合并结束后,若发现某一区域被多次重复采集,将明显有偏差的地图点删除掉,求取剩余的有效地图点坐标的平均值,作为最终的地图点坐标。采用上述方法,将所有重叠区域的子地图拼接到一起,形成一个基于绝对坐标的整体视觉地图,得到众包采集模式下的视觉定位地图。
综上,在子地图采集时,获得RTK高精度定位定姿信息,融合视觉SLAM方法进行处理,将视觉SLAM坐标采用绝对位置和姿态形式表达。其中,绝对坐标为经纬度坐标,绝对姿态采用将欧拉角中偏航角换算到真北方位上得到的结果。采用众包模式,在采集多个子地图过后,判断各子地图的覆盖范围,若多个子地图之间没有覆盖范围上的交集时,则子地图保持相对独立的保存下来;若多个子地图之间存在覆盖范围上的交际,则依次取出两个存在交际的子地图,判断两个子地图之间的重叠区域,通过特征点匹配计算求得两个子地图间的坐标转换7参数,将两个子地图拼接到一起,可以在众包模式的地图采集下,将所有有重叠区域的子地图高效准确地拼接到一起,形成一个基于绝对坐标的整体视觉地图,为高精度地图的应用提供可靠的基础。
本发明提供一种视觉定位地图的构建方法,方法包括:获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系。对于任意两个子地图,比较两个所述子地图的覆盖范围,确定两个所述子地图之间是否存在重叠区域;若存在重叠区域,则将两个所述子地图分别作为第一目标子地图和第二目标子地图;利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图。通过上述方式,可以构建利用在经纬坐标系下的目标坐标表示的子地图,这样使得每个子地图的坐标都是使用绝对坐标来表示的,相比于相对坐标表示方式,处理子地图时更加高效准确,省时省力。以及利用基于绝对坐标的地图采集模式进行子地图间的匹配合并,提高子地图的匹配算法效率和准确度。
请参阅图3,图3为本发明实施例中一种视觉定位地图的构建装置的结构框图,如图3所示装置包括:
数据获取模块301:用于获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;
特征提取模块302:用于根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;
坐标确定模块303:用于利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;
坐标转换模块304:用于根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系。
需要说明的是,图3所示装置中各个模块的作用与图1所示方法中各个步骤的内容相似,为避免重复此处不做赘述,具体可以参阅图1所示方法中各个步骤的内容。
本发明提供一种视觉定位地图的构建装置,装置包括:数据获取模块:用于获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;特征提取模块:用于根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;坐标确定模块:用于利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;坐标转换模块:用于根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系。通过上述方式,可以构建利用在经纬坐标系下的目标坐标表示的子地图,这样使得每个子地图的坐标都是使用绝对坐标来表示的,相比于相对坐标表示方式,处理子地图时更加高效准确,省时省力。
图4示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是终端,也可以是服务器。如图4所示,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现上述方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行上述方法。本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如图1或图2所示方法的步骤。
在一个实施例中,提出了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如图1或图2所示方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种视觉定位地图的构建方法,其特征在于,所述方法包括:
获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;
根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;
利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;
根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系;
其中,所述根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,包括:
利用所述第一坐标、第二坐标、各个所述特征点的第三坐标及预设的第一转换关系进行坐标转换,得到所述第三坐标在地心坐标系下的第四坐标,所述第一转换关系用于反映世界坐标系与地心坐标系之间的转换关系;
根据所述第四坐标及预设的第二转换关系,确定所述第四坐标对应的目标坐标,所述第二转换关系用于反映经纬坐标系与地心坐标系之间的转换关系;
其中,所述第二转换关系包括如下数学表达式:
;
式中,(X,Y,Z)为第四坐标,(B,L,H)为目标坐标,为基准椭球体的曲率半径,/>为椭球偏心率;
其中,所述方法还包括:
对于任意两个子地图,比较两个所述子地图的覆盖范围,确定两个所述子地图之间是否存在重叠区域;
若存在重叠区域,则将两个所述子地图分别作为第一目标子地图和第二目标子地图;
利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图;
其中,所述利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图,包括:
在第一目标子地图的重叠区域随机选择第一采样点、第二采样点以及第三采样点;
基于所述第一采样点在第二目标子地图的重叠区域进行近似最近邻匹配处理,得到与所述第一采样点匹配的第四采样点;
基于第一搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第五采样点,所述第一搜索条件为第四采样点到第五采样点的距离及方向等同于第一采样点到第二采样点的距离及方向;
基于第二搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第六采样点,所述第二搜索条件为第六采样点到第五采样点距离及方向等同于第三采样点到第二采样点的距离及方向,且第六采样点到第四采样点的距离及方向等同于第三采样点到第一采样点的距离及方向;
利用所述第一采样点、第二采样点以及第三采样点、第四采样点、第五采样点、第六采样点以及最小二乘平差法,确定第一目标子地图与所述第二目标子地图之间坐标转换的目标七参数;
根据所述目标七参数、第一目标子地图与所述第二目标子地图进行合并处理,得到合并子地图。
2.根据权利要求1所述方法,其特征在于,所述相机为双目相机,所述环境图像包括左目图像以及右目图像,所述相机内参信息至少包括相机焦距及基线长度,则根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息,包括:
利用所述左目图像以及右目图像的特征点进行近似最近邻匹配处理,确定各个特征点的目标匹配结果,所述目标匹配结果至少包括特征点对,所述特征点对用于反映所述左目图像与右目图像的特征点之间的对应关系;
利用所述特征点对的像素坐标以及预设的视差算法,确定每个特征点的视差;
根据所述视差、相机焦距、基线长度及预设的深度算法,确定各个特征点的深度信息;
根据所述特征点对、预设的随机样本一致算法以及奇异值分解算法,确定相机位姿。
3.根据权利要求2所述方法,其特征在于,所述根据所述特征点对、预设的随机样本一致算法以及奇异值分解算法,确定相机位姿,包括:
利用各个所述特征点对及所述随机样本一致算法,确定本征矩阵和单应性矩阵;
基于所述本征矩阵和单应性矩阵采用奇异值分解算法,计算得到相机的旋转矩阵和平移向量,所述相机位姿包括所述旋转矩阵和平移向量。
4.根据权利要求1所述方法,其特征在于,所述方法还包括:
将同一个地图点在不同的子地图中的多个目标坐标进行去噪,得到去噪的目标坐标集合,所述地图点为所述子地图中重投影误差小于预设的像素阈值,且可被至少两个以上作为关键帧的环境图像观测到的特征点;
利用所述目标坐标集合进行平均值计算,确定所述地图点的最终坐标。
5.一种视觉定位地图的构建装置,其特征在于,所述装置包括:
数据获取模块:用于获取目标采集数据,所述目标采集数据至少包括相机的运动起点在经纬坐标系下的第一坐标以及在地心坐标系下的第二坐标、相机内参信息以及相机拍摄的至少一张环境图像,所述环境图像包括若干的特征点及特征点的像素坐标;
特征提取模块:用于根据各个所述特征点的像素坐标以及相机内参信息进行特征提取,确定相机位姿以及各个特征点的深度信息;
坐标确定模块:用于利用所述深度信息、相机位姿以及相机内参信息,确定各个所述特征点在世界坐标系下的第三坐标;
坐标转换模块:用于根据所述第一坐标、第二坐标、各个所述特征点的第三坐标进行坐标转换,得到各个特征点在经纬坐标系下的目标坐标,确定各个所述环境图像对应的子地图,所述视觉定位地图包括所述子地图,所述子地图包括各个特征点与目标坐标的对应关系;
其中,所述坐标转换模块,具体用于利用所述第一坐标、第二坐标、各个所述特征点的第三坐标及预设的第一转换关系进行坐标转换,得到所述第三坐标在地心坐标系下的第四坐标,所述第一转换关系用于反映世界坐标系与地心坐标系之间的转换关系;根据所述第四坐标及预设的第二转换关系,确定所述第四坐标对应的目标坐标,所述第二转换关系用于反映经纬坐标系与地心坐标系之间的转换关系;
其中,所述第二转换关系包括如下数学表达式:
;
式中,(X,Y,Z)为第四坐标,(B,L,H)为目标坐标,为基准椭球体的曲率半径,/>为椭球偏心率;
其中,所述装置还用于:对于任意两个子地图,比较两个所述子地图的覆盖范围,确定两个所述子地图之间是否存在重叠区域;若存在重叠区域,则将两个所述子地图分别作为第一目标子地图和第二目标子地图;利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图;
其中,所述利用所述第一目标子地图和第二目标子地图进行重叠区域合并处理,得到合并子地图,包括:在第一目标子地图的重叠区域随机选择第一采样点、第二采样点以及第三采样点;基于所述第一采样点在第二目标子地图的重叠区域进行近似最近邻匹配处理,得到与所述第一采样点匹配的第四采样点;基于第一搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第五采样点,所述第一搜索条件为第四采样点到第五采样点的距离及方向等同于第一采样点到第二采样点的距离及方向;基于第二搜索条件,在所述第二目标子地图的重叠区域中进行搜索,得到第六采样点,所述第二搜索条件为第六采样点到第五采样点距离及方向等同于第三采样点到第二采样点的距离及方向,且第六采样点到第四采样点的距离及方向等同于第三采样点到第一采样点的距离及方向;利用所述第一采样点、第二采样点以及第三采样点、第四采样点、第五采样点、第六采样点以及最小二乘平差法,确定第一目标子地图与所述第二目标子地图之间坐标转换的目标七参数;根据所述目标七参数、第一目标子地图与所述第二目标子地图进行合并处理,得到合并子地图。
6.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述方法的步骤。
7.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311764429.3A CN117437552B (zh) | 2023-12-21 | 2023-12-21 | 视觉定位地图的构建方法及装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311764429.3A CN117437552B (zh) | 2023-12-21 | 2023-12-21 | 视觉定位地图的构建方法及装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117437552A CN117437552A (zh) | 2024-01-23 |
CN117437552B true CN117437552B (zh) | 2024-03-26 |
Family
ID=89548396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311764429.3A Active CN117437552B (zh) | 2023-12-21 | 2023-12-21 | 视觉定位地图的构建方法及装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117437552B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469405A (zh) * | 2015-11-26 | 2016-04-06 | 清华大学 | 基于视觉测程的同时定位与地图构建方法 |
CN107341828A (zh) * | 2017-06-21 | 2017-11-10 | 深圳市置辰海信科技有限公司 | 一种cctv视频目标二维建模与gis投影方法 |
CN113237482A (zh) * | 2021-05-13 | 2021-08-10 | 东南大学 | 一种基于因子图的城市峡谷环境下车辆鲁棒定位方法 |
CN113409400A (zh) * | 2021-06-17 | 2021-09-17 | 西安应用光学研究所 | 一种基于自动跟踪的机载光电系统目标地理定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10430961B2 (en) * | 2015-12-16 | 2019-10-01 | Objectvideo Labs, Llc | Using satellite imagery to enhance a 3D surface model of a real world cityscape |
-
2023
- 2023-12-21 CN CN202311764429.3A patent/CN117437552B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469405A (zh) * | 2015-11-26 | 2016-04-06 | 清华大学 | 基于视觉测程的同时定位与地图构建方法 |
CN107341828A (zh) * | 2017-06-21 | 2017-11-10 | 深圳市置辰海信科技有限公司 | 一种cctv视频目标二维建模与gis投影方法 |
CN113237482A (zh) * | 2021-05-13 | 2021-08-10 | 东南大学 | 一种基于因子图的城市峡谷环境下车辆鲁棒定位方法 |
CN113409400A (zh) * | 2021-06-17 | 2021-09-17 | 西安应用光学研究所 | 一种基于自动跟踪的机载光电系统目标地理定位方法 |
Non-Patent Citations (2)
Title |
---|
Velodyne SLAM;Moosmann F et al;Intelligent Vehicles Symposium;20111231;第1-10页 * |
基于深度学习的语义地图生成;李佳芮;电子制作;20181215(第24期);第32-34页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117437552A (zh) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109389665B (zh) | 三维模型的纹理获取方法、装置、设备和存储介质 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
WO2018127007A1 (zh) | 深度图获取方法及系统 | |
US8953847B2 (en) | Method and apparatus for solving position and orientation from correlated point features in images | |
JP2019149149A (ja) | 点群データを復旧するための方法及び装置 | |
CN110135455A (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
CN112085844A (zh) | 面向野外未知环境的无人机影像快速三维重建方法 | |
CN111127524A (zh) | 一种轨迹跟踪与三维重建方法、系统及装置 | |
CN110033489A (zh) | 一种车辆定位准确性的评估方法、装置及设备 | |
CN112184768B (zh) | 基于激光雷达的sfm重建方法、装置和计算机设备 | |
CN111882655B (zh) | 三维重建的方法、装置、系统、计算机设备和存储介质 | |
KR20080029080A (ko) | 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법 | |
WO2022178293A1 (en) | Computer vision systems and methods for supplying missing point data in point clouds derived from stereoscopic image pairs | |
US8509522B2 (en) | Camera translation using rotation from device | |
CN116295279A (zh) | 一种基于无人机遥感的建筑测绘方法及无人机 | |
WO2020133080A1 (zh) | 物体定位方法、装置、计算机设备及存储介质 | |
CN112270748B (zh) | 基于图像的三维重建方法及装置 | |
CN116630442B (zh) | 一种视觉slam位姿估计精度评估方法及装置 | |
CN117409149A (zh) | 基于立体约束的光束法平差方程的三维建模方法及系统 | |
CN110148086B (zh) | 稀疏深度图的深度补齐方法、装置及三维重建方法、装置 | |
CN117437552B (zh) | 视觉定位地图的构建方法及装置、设备及存储介质 | |
CN114387532A (zh) | 边界的识别方法及其装置、终端、电子设备和无人设备 | |
KR20240027395A (ko) | 모바일 환경에서 단일 이미지 객체 인식 기반의 시각적 측위 방법 및 장치 | |
CN112288817B (zh) | 基于图像的三维重建处理方法及装置 | |
CN112615993A (zh) | 深度信息获取方法、双目摄像模组、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |