CN115239912A - 一种基于视频图像的三维里面重建的方法 - Google Patents
一种基于视频图像的三维里面重建的方法 Download PDFInfo
- Publication number
- CN115239912A CN115239912A CN202210886971.5A CN202210886971A CN115239912A CN 115239912 A CN115239912 A CN 115239912A CN 202210886971 A CN202210886971 A CN 202210886971A CN 115239912 A CN115239912 A CN 115239912A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- key
- frame
- dimensional point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视频图像的三维里面重建的方法,包括S1、利用ORB算法对视频图像中的关键帧进行自适应提取,并收集至关键帧集;S2、利用ACTS2.0软件求解摄像机参数,并恢复所述关键帧集中的每一帧的深度图像。本发明通过重投影深度误差投机剔除非关键三维点和重复冗余的三维点后,再利用三维点云建立场景几何模型,通过关键帧的提取、剔除非关键三维点和重复冗余的三维点,实现了需要处理的数据量相对于原始视频数据极大缩减,对视频图像中的非关键因素进行多级分筛后,可快速进行高精度三维模型的重建和量测分析,使得三维重建工作做到高精度和高效率。
Description
技术领域
本发明涉及三维重建技术领域,具体为一种基于视频图像的三维里面重建的方法。
背景技术
三维重建是指利用数字图像序列和视频等多媒体信息来方便有效地获取场景物体三维几何模型的智能化技术方法,而三维重建一直是计算机视觉、图形学、医学及信息科学等领域研究的热点,如在视觉方面的人工智能、无人驾驶、虚拟现实。随着技术快速发展,采用基于不同视角的二维图像进行三维重建的方法凭借其设备成本低、条件约束少和建模精度高等优势迅速成为一个热点研究方向
现有技术中,如中国专利号为:CN 108320330 A的“基于深度视频流的实时三维模型重建方法及系统”,包括:搭建拍摄设备;利用拍摄设备采集深度信息和颜色信息,对深度信息和颜色信息进行畸变校正处理;将深度信息和畸变校正处理后的畸变信息进行特征匹配,并进行空间匹配处理,将每个拍摄设备拍摄的深度图像信息融合为一个点云模型,将每个拍摄设备的时间戳同步的图像进行特征匹配和裁剪;对点云信息进行三角面计算处理和优化处理,生成带时间标签的信息组;三维重建计算机获取信息组,对多个拍摄设备发送的模型信息进行时间匹配和融合,实现三维重建并根据标定参数进行调整和显示。此方法采用深度与颜色相统一,重采样减帧和三角面优化的方式来减少三维重建的耗时。
但现有技术在实际应用时,重采样减帧和三角面优化均无法去除多帧深度图之间的重复冗余信息,又因图像深度区分的不确定性和多帧图像之间的深度信息变动,而导致所构建的三维模型具有较多的复杂错面结构,使得重建后的三维模型数据量剧增,不仅无法获取高精度的三维模型,还会严重降低三维重建效率。
所以我们提出了一种基于视频图像的三维里面重建的方法,以便于解决上述中提出的问题。
发明内容
本发明的目的在于提供一种基于视频图像的三维里面重建的方法,以解决上述背景技术提出的重采样减帧和三角面优化均无法去除多帧深度图之间的重复冗余信息,又因图像深度区分的不确定性和多帧图像之间的深度信息变动,而导致所构建的三维模型具有较多的复杂错面结构,使得重建后的三维模型数据量剧增,不仅无法获取高精度的三维模型,还会严重降低三维重建效率的问题。本方法通过关键帧的提取、剔除非关键三维点和重复冗余的三维点,实现了需要处理的数据量相对于原始视频数据极大缩减,对视频图像中的非关键因素进行多级分筛后,可快速进行高精度三维模型的重建和量测分析,使得三维重建工作做到高精度和高效率。
为实现上述目的,本发明提供如下技术方案:一种基于视频图像的三维里面重建的方法,包括以下步骤:
S1、利用ORB算法对视频图像中的关键帧进行自适应提取,并收集至关键帧集;
S2、利用ACTS2.0软件求解摄像机参数,并恢复所述关键帧集中的每一帧的深度图像;
S3、对每个所述关键帧进行采样和反投影,以获得每帧所对应的三维点集,并通过重投影深度误差投机剔除非关键三维点,获得关键三维点集;
S4、将多个所述关键帧所对应的关键三维点集合并成场景整体的三维点云;
S5、剔除所述三维点云中重复冗余的三维点,获得成型三维点云;
S6、利用所述成型三维点云提取完整的场景几何模型。
优选的,在步骤S1中,所述利用ORB算法对视频图像中的关键帧进行自适应提取包括以下步骤:
S10、通过摄像机参数、视频分辨率a、拍摄间距b和位移速度c计算提取关键帧的初始采样视频帧间隔N0,计算公式如下:
其中,j为摄像机焦距,t为视频流帧间固定时间间隔,D为影像重叠度;
S11、从第0帧开始,根据初始采样视频帧间隔N0提取第x帧关键帧影像,并计算两帧影像的重叠度P,计算公式如下:
其中,dqw是第q帧图像与第w帧图像特征点匹配对数,nq和nw分别是帧图像q和w的特征点数目;
S12、进行重叠度P判断,当0.55≤P≤0.75时,则提取关键帧的间隔N为N0;若P无法满足0.55≤P≤0.75时,则将重新计算提取关键帧的间隔N,计算公式如下:
S13、根据所获得的提取关键帧的间隔N,对视频中的关键帧逐一收集至所述关键帧集中。
优选的,在步骤S3中,所述获取关键三维点集包括以下步骤:
S30、从深度图Dt中随机选取某个像素点Vt作为二维采样点,依据其深度值进行反投影,以求解其相应的三维点坐标M(Vt);
S31、根据M(Vt)的深度法向计算其切平面M(Vt),以Vt为中心迭代向外膨胀,每次迭代膨胀1个像素宽度,对于膨胀领域中的每个像素点Vt /,求出其M(Vt /);
S32、判断膨胀像素点M(Vt /)是否为非关键三维点。
优选的,在步骤S4中,所述合并场景整体的三维点云包括以下步骤:
S40、对所述关键三维点集中的三维采样点计算深度置信度,并通过置信度排序来实现多帧三维采样点的无重复融合;
S41、依照置信度由高到低的顺序对每帧的三维点集合进行单独排序,
形成g个有序的三维点云队列;
S42、将多帧的三维点云融合成场景整体的三维点云集合。
优选的,在步骤S5中,所述剔除所述三维点云中重复冗余的三维点,包括以下步骤:
S50、将以点Zt中心半径为r的窗口区域投影至帧t0;
优选的,在步骤S6中,所述利用所述成型三维点云提取完整的场景几何模型包括以下步骤:
S60、利用所述成型三维点云,使用Poisson表面重建法提取封闭结构的三维几何模型;
优选的,步骤S30中,所述三维点坐标M(Vt)的计算公式如下:
其中,Kt为摄像机内参,Lt为平移向量。
优选的,步骤S32中,若M(Vt /)到切平面的距离小于阈值U,则认为点M(Vt /)与M(Vt)处于同一平面上,并将点标记为非关键三维点;反之,则将M(Vt)加入所述关键三维点集。
与现有技术相比,本发明的有益效果是:
本方法首先在获取的视频图像中利用ORB算法对视频图像中的关键帧自动提取,再根据提取的关键帧时间信息对视频进行关键帧图像提取,接着将关键帧图像进行深度图分析,对每个所述关键深度图表进行采样和反投影,以获得每帧所对应的三维点集,并通过重投影深度误差投机剔除非关键三维点和重复冗余的三维点后,再利用三维点云建立场景几何模型,通过关键帧的提取、剔除非关键三维点和重复冗余的三维点,实现了需要处理的数据量相对于原始视频数据极大缩减,对视频图像中的非关键因素进行多级分筛后,可快速进行高精度三维模型的重建和量测分析,使得三维重建工作做到高精度和高效率。
附图说明
图1为本发明一种基于视频图像的三维里面重建的方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施条例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明提供一种技术方案:一种基于视频图像的三维里面重建的方法,包括以下步骤:
步骤一、利用ORB算法对视频图像中的关键帧进行自适应提取,并收集至关键帧集;其中,关键帧是视频流序列影像中能表示场景主要内容的图像帧,既能保证帧间重叠又能体现场景信息,通过其减小图像处理的计算量,同时又可以从中提取可代表视频整体特征的图像特征。包括以下步骤:
10)通过摄像机参数、视频分辨率a、拍摄间距b和位移速度c计算提取关键帧的初始采样视频帧间隔N0,计算公式如下:
其中,j为摄像机焦距,t为视频流帧间固定时间间隔,D为影像重叠度;
11)从第0帧开始,根据初始采样视频帧间隔N0提取第x帧关键帧影像,并计算两帧影像的重叠度P,计算公式如下:
其中,dqw是第q帧图像与第w帧图像特征点匹配对数,nq和nw分别是帧图像q和w的特征点数目;
12)进行重叠度P判断,当0.55≤P≤0.75时,则提取关键帧的间隔N为N0;若P无法满足0.55≤P≤0.75时,则将重新计算提取关键帧的间隔N,计算公式如下:
13)根据所获得的提取关键帧的间隔N,对视频中的关键帧逐一收集至所述关键帧集中。
步骤二、利用ACTS2.0软件求解摄像机参数,并恢复所述关键帧集中的每一帧的深度图像;
步骤三、对每个所述关键帧进行采样和反投影,以获得每帧所对应的三维点集,并通过重投影深度误差投机剔除非关键三维点,获得关键三维点集。包括以下步骤:
30)从深度图Dt中随机选取某个像素点Vt作为二维采样点,依据其深度值进行反投影,以求解其相应的三维点坐标M(Vt),所述三维点坐标M(Vt)的计算公式如下:
其中,Kt为摄像机内参,Lt为平移向量;
31)根据M(Vt)的深度法向计算其切平面M(Vt),以Vt为中心迭代向外膨胀,每次迭代膨胀1个像素宽度,对于膨胀领域中的每个像素点Vt /,求出其M(Vt /);
32)判断膨胀像素点M(Vt /)是否为非关键三维点。若M(Vt /)到切平面的距离小于阈值U,则认为点M(Vt /)与M(Vt)处于同一平面上,并将点标记为非关键三维点;反之,则将M(Vt)加入所述关键三维点集。
步骤四、将多个所述关键帧所对应的关键三维点集合并成场景整体的三维点云;包括以下步骤:
40)对所述关键三维点集中的三维采样点计算深度置信度,并通过置信度排序来实现多帧三维采样点的无重复融合;
41)依照置信度由高到低的顺序对每帧的三维点集合进行单独排序,形成g个有序的三维点云队列,将每个点云队列中的三维点按顺序存储至一个独立的文件中,从而创建g个独立的点云文件;
42)打开这g个点云文件,并从这g个文件中读取第一个三维点来创建最大堆,同时文件指针指向下一个三维点数据的位置,将多帧的三维点云融合成场景整体的三维点云集合。
步骤五、剔除所述三维点云中重复冗余的三维点,获得成型三维点云;包括以下步骤:
50)将以点Zt中心半径为r的窗口区域投影至帧t0;
步骤六、利用所述成型三维点云提取完整的场景几何模型。包括以下步骤:
60)利用所述成型三维点云,使用Poisson表面重建法提取封闭结构的三维几何模型;
本方法首先在获取的视频图像中利用ORB算法对视频图像中的关键帧自动提取,再根据提取的关键帧时间信息对视频进行关键帧图像提取,接着将关键帧图像进行深度图分析,对每个所述关键深度图表进行采样和反投影,以获得每帧所对应的三维点集,并通过重投影深度误差投机剔除非关键三维点和重复冗余的三维点后,再利用三维点云建立场景几何模型。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于视频图像的三维里面重建的方法,其特征在于,包括以下步骤:
S1、利用ORB算法对视频图像中的关键帧进行自适应提取,并收集至关键帧集;
S2、利用ACTS2.0软件求解摄像机参数,并恢复所述关键帧集中的每一帧的深度图像;
S3、对每个所述关键帧进行采样和反投影,以获得每帧所对应的三维点集,并通过重投影深度误差投机剔除非关键三维点,获得关键三维点集;
S4、将多个所述关键帧所对应的关键三维点集合并成场景整体的三维点云;
S5、剔除所述三维点云中重复冗余的三维点,获得成型三维点云;
S6、利用所述成型三维点云提取完整的场景几何模型。
2.根据权利要求1所述的基于视频图像的三维里面重建的方法,其特征在于,在步骤S1中,所述利用ORB算法对视频图像中的关键帧进行自适应提取包括以下步骤:
S10、通过摄像机参数、视频分辨率a、拍摄间距b和位移速度c计算提取关键帧的初始采样视频帧间隔N0,计算公式如下:
其中,j为摄像机焦距,t为视频流帧间固定时间间隔,D为影像重叠度;
S11、从第0帧开始,根据初始采样视频帧间隔N0提取第x帧关键帧影像,并计算两帧影像的重叠度P,计算公式如下:
其中,dqw是第q帧图像与第w帧图像特征点匹配对数,nq和nw分别是帧图像q和w的特征点数目;
S12、进行重叠度P判断,当0.55≤P≤0.75时,则提取关键帧的间隔N为N0;若P无法满足0.55≤P≤0.75时,则将重新计算提取关键帧的间隔N,计算公式如下:
S13、根据所获得的提取关键帧的间隔N,对视频中的关键帧逐一收集至所述关键帧集中。
3.根据权利要求1所述的基于视频图像的三维里面重建的方法,其特征在于,在步骤S3中,所述获取关键三维点集包括以下步骤:
S30、从深度图Dt中随机选取某个像素点Vt作为二维采样点,依据其深度值进行反投影,以求解其相应的三维点坐标M(Vt);
S31、根据M(Vt)的深度法向计算其切平面M(Vt),以Vt为中心迭代向外膨胀,每次迭代膨胀1个像素宽度,对于膨胀领域中的每个像素点Vt /,求出其M(Vt /);
S32、判断膨胀像素点M(Vt /)是否为非关键三维点。
4.根据权利要求1所述的基于视频图像的三维里面重建的方法,其特征在于,在步骤S4中,所述合并场景整体的三维点云包括以下步骤:
S40、对所述关键三维点集中的三维采样点计算深度置信度,并通过置信度排序来实现多帧三维采样点的无重复融合;
S41、依照置信度由高到低的顺序对每帧的三维点集合进行单独排序,形成g个有序的三维点云队列;
S42、将多帧的三维点云融合成场景整体的三维点云集合。
8.根据权利要求3所述的基于视频图像的三维里面重建的方法,其特征在于,步骤S32中,若M(Vt /)到切平面的距离小于阈值U,则认为点M(Vt /)与M(Vt)处于同一平面上,并将点标记为非关键三维点;反之,则将M(Vt)加入所述关键三维点集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210886971.5A CN115239912A (zh) | 2022-07-26 | 2022-07-26 | 一种基于视频图像的三维里面重建的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210886971.5A CN115239912A (zh) | 2022-07-26 | 2022-07-26 | 一种基于视频图像的三维里面重建的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115239912A true CN115239912A (zh) | 2022-10-25 |
Family
ID=83676135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210886971.5A Pending CN115239912A (zh) | 2022-07-26 | 2022-07-26 | 一种基于视频图像的三维里面重建的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115239912A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116437063A (zh) * | 2023-06-15 | 2023-07-14 | 广州科伊斯数字技术有限公司 | 一种三维图像显示系统及方法 |
CN116883627A (zh) * | 2023-06-19 | 2023-10-13 | 中铁第四勘察设计院集团有限公司 | 一种无人机视频增强现实处理方法及系统 |
-
2022
- 2022-07-26 CN CN202210886971.5A patent/CN115239912A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116437063A (zh) * | 2023-06-15 | 2023-07-14 | 广州科伊斯数字技术有限公司 | 一种三维图像显示系统及方法 |
CN116883627A (zh) * | 2023-06-19 | 2023-10-13 | 中铁第四勘察设计院集团有限公司 | 一种无人机视频增强现实处理方法及系统 |
CN116883627B (zh) * | 2023-06-19 | 2024-04-19 | 中铁第四勘察设计院集团有限公司 | 一种无人机视频增强现实处理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110570371B (zh) | 一种基于多尺度残差学习的图像去雾方法 | |
CN111968129B (zh) | 具有语义感知的即时定位与地图构建系统及方法 | |
WO2020001168A1 (zh) | 三维重建方法、装置、设备和存储介质 | |
CN115239912A (zh) | 一种基于视频图像的三维里面重建的方法 | |
CN108010081B (zh) | 一种基于Census变换和局部图优化的RGB-D视觉里程计方法 | |
CN108776989B (zh) | 基于稀疏slam框架的低纹理平面场景重建方法 | |
CN111428575B (zh) | 一种基于孪生网络的针对模糊目标的跟踪方法 | |
CN110910431B (zh) | 一种基于单目相机多视点三维点集恢复方法 | |
CN108010123B (zh) | 一种保留拓扑信息的三维点云获取方法 | |
CN115205489A (zh) | 一种大场景下的三维重建方法、系统及装置 | |
CN110580720B (zh) | 一种基于全景图的相机位姿估计方法 | |
CN109376641B (zh) | 一种基于无人机航拍视频的运动车辆检测方法 | |
CN111798373A (zh) | 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法 | |
WO2018133119A1 (zh) | 基于深度相机进行室内完整场景三维重建的方法及系统 | |
WO2021035627A1 (zh) | 获取深度图的方法、装置及计算机存储介质 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
CN112946679A (zh) | 一种基于人工智能的无人机测绘果冻效应检测方法及系统 | |
CN116977596A (zh) | 一种基于多视角图像的三维建模系统及方法 | |
CN116402976A (zh) | 三维目标检测模型训练方法及装置 | |
CN111127556A (zh) | 基于3d视觉的目标物体识别和位姿估算方法以及装置 | |
CN112509014B (zh) | 金字塔遮挡检测块匹配的鲁棒插值光流计算方法 | |
WO2024051591A1 (zh) | 用于估算视频旋转的方法、装置、电子设备和存储介质 | |
CN112102504A (zh) | 一种基于混合现实的三维场景和二维图像混合方法 | |
CN116843754A (zh) | 一种基于多特征融合的视觉定位方法及系统 | |
CN115115847B (zh) | 三维稀疏重建方法、装置及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |