CN113920254B - 一种基于单目rgb的室内三维重建方法及其系统 - Google Patents
一种基于单目rgb的室内三维重建方法及其系统 Download PDFInfo
- Publication number
- CN113920254B CN113920254B CN202111527159.5A CN202111527159A CN113920254B CN 113920254 B CN113920254 B CN 113920254B CN 202111527159 A CN202111527159 A CN 202111527159A CN 113920254 B CN113920254 B CN 113920254B
- Authority
- CN
- China
- Prior art keywords
- depth map
- indoor
- points
- dimensional reconstruction
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及三维建模技术领域,特别涉及一种基于单目RGB的室内三维重建方法及其系统;本发明先进行数据采集,采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧,并且得到关键帧实时的位姿信息;再用预先训练好的深度神经网络从获取的关键帧中预测出深度图;然后利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;最后将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型;本发明使用简单的RGB传感器即可快速高效的进行室内三维重建,而且本发明不仅对硬件具有较低要求,也具有更低的计算量,能够被广泛应用到各种移动设备进行三维重建。
Description
技术领域
本发明涉及三维建模技术领域,特别涉及一种基于单目RGB的室内三维重建方法及其系统。
背景技术
随着VR/AR的快速发展,室内三维重建需求越来越大,然而目前主流的室内重建方案都需要使用配合特殊传感器或复杂计算,才能完成室内场景的三维重建。
专利名称为一种基于移动激光测量点云进行室内结构化三维重建方法(专利号ZL201711218661)的中国发明专利,其首先基于激光扫描点云证据栅格地图进行房间分割;然后基于矢量墙面投影线段进行空间划分;最后基于矢量和栅格叠加构建矢量房间平面图和室内三维模型。本发明充分利用室内空间的语义信息和结构化元素,将室内三维重建问题转化为房间分割和基于GIS的叠加分析问题,利用分割的房间作为先验知识解决建模过程中激光测量的遮挡和数据不完整的问题,可以快速高效的构建具有拓扑一致性的室内建筑物三维模型,也就是说,使用激光传感器作为三维数据获取手段,进而基于矢量和栅格叠加构建矢量房间平面图和室内三维模型,需要大量复杂的计算。
专利名称为一种快速鲁棒的RGB-D室内三维场景重建方法(专利号ZL201810213575),其采用RGB-D相机实时扫描室内场景;基于点线融合相机跟踪算法进行相机实时跟踪;通过检测相机状态对相机轨迹进行约减;利用约减后的相机轨迹信息对RGB-D图像进行多尺度体数据融合,生成完整的场景三维模型;简单的说,使用RGBD获取三维数据,利用相机轨迹信息对RGBD图像进行多尺度体数据融合,生成完整的场景三维模型,其计算量也比较大。
发明内容
本发明主要解决的技术问题是提供了一种基于单目RGB的室内三维重建方法,其使用简单的RGB传感器即可快速高效的进行室内三维重建。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种基于单目RGB的室内三维重建方法,其中,包括如下步骤:
步骤S1、进行数据采集,采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧,并且得到关键帧实时的位姿信息;
步骤S2、用预先训练好的深度神经网络从获取的关键帧中预测出深度图;
步骤S3、利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;
步骤S4、将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型。
作为本发明的一种改进,在步骤S1内,从经过高斯平滑的原始影像上提取灰度变化较快的角点作为特征点进行提取。
作为本发明的进一步改进,在步骤S1内,利用光流跟踪进行特征跟踪,进而完成特征的匹配,提取特征匹配点。
作为本发明的更进一步改进,在步骤S1内,基于特征匹配点,利用多视觉立体几何获取影像的影像初始位姿和稀疏点。
作为本发明的更进一步改进,在步骤S3内,利用稀疏点从预测的深度图上进行采样,然后将采样得到的深度值与稀疏点本身的深度值进行比较,得到深度图的尺度矫正参数,再对预测的深度图进行缩放,得到矫正后的深度图。
作为本发明的更进一步改进,以步骤S1内,构建优化方程式对误差进行消除,获取没有误差的位姿和稀疏点。
作为本发明的更进一步改进,在步骤S2内,构建深度神经网络,利用数据集对获取的关键帧进行训练,得到预测值,从而预测出深度图。
作为本发明的更进一步改进,在步骤S4内,根据需求分辨率将待重建区域切分成规定的尺寸的体素,再将每一个体素投影到影像上,采用均值计算,计算出体素到真实表面的距离。
一种基于单目RGB的室内三维重建系统,其中,包括:
采集模块,用于采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧;
训练模块,用于将预先训练好的深度神经网络从获取的关键帧中预测出深度图;
深度图尺度矫正模块,利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;
重建模块,用于将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型。
本发明的有益效果是:本发明先进行数据采集,采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧,并且得到关键帧实时的位姿信息;再用预先训练好的深度神经网络从获取的关键帧中预测出深度图;然后利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;最后将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型。
与现有技术相比,本发明使用简单的RGB传感器即可快速高效的进行室内三维重建,而且本发明不仅对硬件具有较低要求,也具有更低的计算量,能够被广泛应用到各种移动设备进行三维重建。
附图说明
图1为本发明的步骤框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现有技术中一种室内三维布局重建的方法(专利号ZL201910343315),其公开了,其包括:1)采集室内场景的图像序列数据及惯性测量数据,同时对室内场景进行实时三维重建,得到关键帧图像序列及其实时重建的位置与姿态;2)利用所述关键帧图像序列及其对应的实时重建的位置与姿态,进行离线三维重建,得到室内场景的稠密三维点云;3)从所述室内场景的稠密三维点云中抽取平面结构,对平面结构进行筛选和分类,得到房顶平面、地面平面和候选墙面平面,同时得到楼层高度;4)根据所述房顶平面、地面平面、候选墙面平面及楼层高度,构造所述室内场景的三维布局;5)输出三维布局重建结果;其在获取RGB影像位姿后,然后在关键帧之间进行计算量较大的稠密重建,进而完成室内三维重建;该现有技术应用传感器多且有的比较特殊,而且计算比较复杂。
请参照图1所示,本发明提供了一种基于单目RGB的室内三维重建方法,包括如下步骤:
步骤S1、进行数据采集,采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧,并且得到关键帧实时的位姿信息;
步骤S2、用预先训练好的深度神经网络从获取的关键帧中预测出深度图;
步骤S3、利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;
步骤S4、将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型。
本发明使用简单的RGB传感器即可快速高效的进行室内三维重建,而且本发明不仅对硬件具有较低要求,也具有更低的计算量,能够被广泛应用到各种移动设备进行三维重建。
在步骤S1内,从经过高斯平滑的原始影像上提取灰度变化较快的角点作为特征点进行提取;利用光流跟踪进行特征跟踪,进而完成特征的匹配,提取特征匹配点;基于特征匹配点,利用多视觉立体几何获取影像的影像初始位姿和稀疏点。
具体地说,采集连续的影像视频流,并通过提取影像特征点和特征匹配来获取每张影像之间的点对关系,并通过多视立体几何恢复三维位姿信息,作为后续重建的依据;与此同时,还需要从连续的视频流中选取一定的关键帧,作为后续重建的依据。
在进行特征提取时,为保证SLAM的实时性,直接从经过高斯平滑的原始影像上提取灰度变化较快的角点作为特征点,其规则如下,即在窗口大小为m×m的范围里像素亮度差异大于阈值的像素的数量大于n的点为特征点。下式描述了特征提取过程,其中表示在影像上一点的像素坐标,表示该像素点的灰度值。完成特征提取后即可利用光流跟踪进行特征跟踪,进而完成特征的匹配。
基于匹配的特征,可以利用多视觉立体几何获取影像的影像初始位姿P和稀疏点S,但是由于误差累计等原因,还需要构建优化方程对误差进行消除,最终获取全局一致性的位姿和稀疏点。下式描述了上述过程,其中表示某张影像的初始位姿,sj表示某个稀疏点的初始位置,mij表示点在影像上的特征点提取坐标, 表示点sj在影像上的投影坐标。
在步骤S2内,基于关键帧的深度估计,在步骤S1运行的同时,每获取一张关键帧,即利用预先训练好的深度神经网络从该关键帧中预测出无绝对尺度的深度图。
构建深度神经网络,利用数据集对获取的关键帧进行训练,得到预测值,从而预测出深度图;基于深度神经网络进行深度图估计的核心是构建网络F,利用数据集D=(I,D)对其进行训练,使得其满足以下条件,及最小化F预测值F(I)与真实深度图之间的差异,其中d为训练数据集中的真实深度,F(I)表示经过深度神经网络在影像I的预测深度。
为达成此目的,使用Huber-Loss对网络进行训练,当差异较大时使用L2范数,提高收敛速度;当差异较小时使用L1范数,保证收敛到最佳值,其中为真实值与预测值的差异,为差异阈值用于选择合适的损失函数。
在步骤S3内,利用稀疏点从预测的深度图上进行采样,然后将采样得到的深度值与稀疏点本身的深度值进行比较,得到深度图的尺度矫正参数,再对预测的深度图进行缩放,得到矫正后的深度图。
具体地讲,由于深度神经网络计算获取的深度图并不具备真实的尺度信息,因此通过多张关键帧获取的深度图的尺度并不是一致的。因此,需要利用第一步骤中提取的特征匹配点作为依据,对关键帧的深度图进行尺度矫正,保证尺度的一致性。尺度矫正的大致思路是,利用稀疏点从预测深度图上进行采样,然后将采样得到的深度与稀疏点本身的深度值进行比较,构建出优化方程,计算出深度图的尺度矫正参数。
记预测深度图为,从SLAM系统获取的影像位姿为,稀疏点为。由于缺少尺度信息,则显然存在稀疏点投影深度和预测深度图不一致情况;以下公式中第一行表示稀疏点投影到深度图对应影像上,第二行表示稀疏点投影深度与预测深度图的采样值并不相同,其中表示点在影像上的特征点提取坐标,表示点的投影深度,表示点在影像上的投影坐标处的预测深度。
在步骤S4内,根据需求分辨率将待重建区域切分成规定的尺寸的体素,再将每一个体素投影到影像上,采用均值计算,计算出体素到真实表面的距离。
具体地讲,完成数据采集后,即可同时获得关键帧的位姿信息和经过尺度校正后的深度图,此时即可通过t-SDF(阶段符号距离函数)来融合深度图,并重建出室内三维模型。
首先根据需求分辨率将大小为的待重建区域切分成尺寸为的体素V。对于每一个,逐个其投影到影像上,并通过计算体素到真实表面的距离,其中表示体素投影到影像的三维坐标,表示对应的投影深度,表示体素投影坐标处在矫正深度图上的深度值,为对应的值:
本发明还提供了一种基于单目RGB的室内三维重建系统,包括:
采集模块,用于采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧;
训练模块,用于将预先训练好的深度神经网络从获取的关键帧中预测出深度图;
深度图尺度矫正模块,利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;
重建模块,用于将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型。
本发明简化了进行室内重建时对传感器的过高要求,使得仅使用简单的RGB传感器即可快速高效的进行室内三维重建;相比于其他方法,本发明不仅对硬件具有较低要求,也具有更低的计算量,能够被广泛应用到各种移动设备进行三维重建。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (7)
1.一种基于单目RGB的室内三维重建方法,其特征在于,包括如下步骤:
步骤S1、进行数据采集,采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧,并且得到关键帧实时的位姿信息;
步骤S2、用预先训练好的深度神经网络从获取的关键帧中预测出深度图;
步骤S3、利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;
步骤S4、将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型;
在步骤S1内,基于特征匹配点,利用多视觉立体几何获取影像的影像初始位姿和稀疏点;
在步骤S3内,利用稀疏点从预测的深度图上进行采样,然后将采样得到的深度值与稀疏点本身的深度值进行比较,得到深度图的尺度矫正参数,再对预测的深度图进行缩放,得到矫正后的深度图。
2.根据权利要求1所述的一种基于单目RGB的室内三维重建方法,其特征在于,在步骤S1内,从经过高斯平滑的原始影像上提取灰度变化较快的角点作为特征点进行提取。
3.根据权利要求2所述的一种基于单目RGB的室内三维重建方法,其特征在于,在步骤S1内,利用光流跟踪进行特征跟踪,进而完成特征的匹配,提取特征匹配点。
4.根据权利要求3所述的一种基于单目RGB的室内三维重建方法,其特征在于,以步骤S1内,构建优化方程式对误差进行降低,获取全局一致性的位姿和稀疏点。
5.根据权利要求1所述的一种基于单目RGB的室内三维重建方法,其特征在于,在步骤S2内,构建深度神经网络,利用数据集对获取的关键帧进行训练,得到预测值,从而预测出深度图。
6.根据权利要求1所述的一种基于单目RGB的室内三维重建方法,其特征在于,在步骤S4内,根据需求分辨率将待重建区域切分成规定的尺寸的体素,再将每一个体素投影到影像上,采用均值计算,计算出体素到真实表面的距离。
7.一种基于单目RGB的室内三维重建系统,其特征在于,包括:
采集模块,用于采集连续的影像视频流,提取影像的特征点、特征匹配点和关键帧;
训练预测模块,利用具有真实深度图的标注影像训练深度神经网络,并将其用于获取关键帧的深度图;
深度图尺度矫正模块,利用获取的特征匹配点作为依据,对深度图进行尺度矫正,得到矫正后的深度图;
重建模块,用于将关键帧实时的位姿信息与矫正后的深度图进行融合,重建出室内三维模型;
所述采集模块基于特征匹配点,利用多视觉立体几何获取影像的影像初始位姿和稀疏点;
所述深度图尺度矫正模块利用稀疏点从预测的深度图上进行采样,然后将采样得到的深度值与稀疏点本身的深度值进行比较,得到深度图的尺度矫正参数,再对预测的深度图进行缩放,得到矫正后的深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111527159.5A CN113920254B (zh) | 2021-12-15 | 2021-12-15 | 一种基于单目rgb的室内三维重建方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111527159.5A CN113920254B (zh) | 2021-12-15 | 2021-12-15 | 一种基于单目rgb的室内三维重建方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113920254A CN113920254A (zh) | 2022-01-11 |
CN113920254B true CN113920254B (zh) | 2022-03-22 |
Family
ID=80737826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111527159.5A Active CN113920254B (zh) | 2021-12-15 | 2021-12-15 | 一种基于单目rgb的室内三维重建方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113920254B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116452752A (zh) * | 2023-04-28 | 2023-07-18 | 重庆理工大学 | 联合单目稠密slam与残差网络的肠壁重建方法 |
CN116824067B (zh) * | 2023-08-24 | 2023-11-24 | 成都量芯集成科技有限公司 | 一种室内三维重建方法及其装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087394A (zh) * | 2018-08-02 | 2018-12-25 | 福州大学 | 一种基于低成本rgb-d传感器的实时室内三维重建方法 |
CN113362247A (zh) * | 2021-06-11 | 2021-09-07 | 山东大学 | 一种激光融合多目相机的语义实景三维重建方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9542749B2 (en) * | 2014-01-06 | 2017-01-10 | Microsoft Technology Licensing, Llc | Fast general multipath correction in time-of-flight imaging |
CN108416840B (zh) * | 2018-03-14 | 2020-02-18 | 大连理工大学 | 一种基于单目相机的三维场景稠密重建方法 |
CN108564616B (zh) * | 2018-03-15 | 2020-09-01 | 中国科学院自动化研究所 | 快速鲁棒的rgb-d室内三维场景重建方法 |
CN109658449B (zh) * | 2018-12-03 | 2020-07-10 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
CN109961506B (zh) * | 2019-03-13 | 2023-05-02 | 东南大学 | 一种融合改进Census图的局部场景三维重建方法 |
CN110120093A (zh) * | 2019-03-25 | 2019-08-13 | 深圳大学 | 一种多元特征混合优化的rgb-d室内三维测图方法及系统 |
-
2021
- 2021-12-15 CN CN202111527159.5A patent/CN113920254B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087394A (zh) * | 2018-08-02 | 2018-12-25 | 福州大学 | 一种基于低成本rgb-d传感器的实时室内三维重建方法 |
CN113362247A (zh) * | 2021-06-11 | 2021-09-07 | 山东大学 | 一种激光融合多目相机的语义实景三维重建方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113920254A (zh) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | Pothole detection based on disparity transformation and road surface modeling | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN111126304B (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
CN113139453B (zh) | 一种基于深度学习的正射影像高层建筑基底矢量提取方法 | |
CN113450408B (zh) | 一种基于深度相机的非规则物体位姿估计方法及装置 | |
CN111612059B (zh) | 一种基于pointpillars的多平面编码点云特征深度学习模型的构建方法 | |
CN108648194B (zh) | 基于cad模型三维目标识别分割和位姿测量方法及装置 | |
Tsai et al. | Real-time indoor scene understanding using bayesian filtering with motion cues | |
CN112785643A (zh) | 一种基于机器人平台的室内墙角二维语义地图构建方法 | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN114424250A (zh) | 结构建模 | |
CN113744337B (zh) | 一种融合视觉、imu与声纳的同步定位与建图方法 | |
CN107481279A (zh) | 一种单目视频深度图计算方法 | |
CN110570457B (zh) | 一种基于流数据的三维物体检测与跟踪方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN114117614A (zh) | 一种建筑物立面纹理自动生成方法和系统 | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
CN110009675A (zh) | 生成视差图的方法、装置、介质及设备 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
El Ansari et al. | Temporal consistent fast stereo matching for advanced driver assistance systems (ADAS) | |
CN116403275B (zh) | 基于多目视觉检测封闭空间中人员行进姿态的方法及系统 | |
CN110599587A (zh) | 一种基于单张图像的3d场景重构技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Yan Qingsong Inventor after: Zhao Kaiyong Inventor before: Yan Qingsong |