CN110544294A - 一种基于全景视频的稠密三维重构方法 - Google Patents
一种基于全景视频的稠密三维重构方法 Download PDFInfo
- Publication number
- CN110544294A CN110544294A CN201910642181.0A CN201910642181A CN110544294A CN 110544294 A CN110544294 A CN 110544294A CN 201910642181 A CN201910642181 A CN 201910642181A CN 110544294 A CN110544294 A CN 110544294A
- Authority
- CN
- China
- Prior art keywords
- dense
- panoramic video
- frame
- key frame
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于全景视频的稠密三维重构方法,1、利用全景视频中的第三特征点构建半稠密点云:选取全景视频关键帧中的第一特征点,在[0,1]内进行初始化,获得第二特征点,利用第二特征点在关键帧与目标帧上的投影误差估计相机姿态信息,根据姿态信息重新估计关键帧第二特征点的深度值及其置信度数值,获取第三特征点,将第三特征点映射到世界坐标系;2、对半稠密点云进行过滤处理;3、利用德劳内算法对剩余特征点进行三角重构;实施本发明,通过利用高置信度特征点构建半稠密点云,并根据置信度高低选取自由空间四面体集合,利用德劳内三角化算法进行三角重构,获取了较为平滑的全景视频三维模型。
Description
技术领域
本发明涉及虚拟现实技术领域,特别涉及一种基于全景视频的稠密三维重构方法。
背景技术
三维建模一直是计算机视觉的热点研究领域,是获取物体模型和三维场景的重要手段。人们获取物体三维信息的手段有很多种,比如传统的几何造型技术,此方法需要的专业水平和大工作量。利用三维扫描设备进行三维重建,如使用激光扫描仪、结构光等进行三维重建。利用扫描设备进行三维重建的方法比较方便,而且在精度上比较精确,费时也较短,但是价格昂贵。
通过图像进行三维点云重建,就是利用相机来采集图像,然后利用计算机视觉和计算机图像学的知识,来生成点云的过程。通过对算法的不断优化改进,三维点云的过程趋于简单和自动化,费用相对较低。
随着虚拟现实(Virtual Reality)与增强现实(Augmented Reality)技术的蓬勃发展,业界对于三维内容的需求不断增多,视频自动重构技术的重要性也日益明显。视频重构技术可以被分为相机静止型和相机运动型。相机静止型的视频重构技术大多利用多视角重构技术(Multiview Reconstruction)来进行动态场景的重构,而相机运动型的视频重构则大多利用了运动重构技术(Structure From Motion)来进行静态场景的重构。
现有的相机三维重构技术采集到的是二维图像,通过位姿估计,确定相机的运动路径,构造出来的三维场景信息也是通过提取二维图像的特征点实现的,重建构造出来的是稀疏点云,而且其速度较慢。
发明内容
针对上述问题,提出一种基于全景视频的稠密三维重构方法,视频中每一帧均包含场景的360度信息,通过对全景视频中所有帧中的特征点深度进行重新估计,获取较高置信度的特征点,将这些特征点映射世界坐标系,获取全景视频的半稠密点云,根据半稠密点云按照构建置信度高低选取自由空间四面体集合,利用德劳内三角化算法进行三角重构,获取了较为平滑的全景视频三维模型。
一种基于全景视频的稠密三维重构方法,包括步骤:
利用全景视频帧中的第三特征点构建半稠密点云;
对所述半稠密点云进行过滤处理;
利用德劳内算法对所述半稠密点云中的剩余特征点进行三角重构。
结合本发明所述的三维重构方法,第一种实施方式中,所述步骤:利用全景视频中的第三特征点构建半稠密点云,包括:
选取全景视频关键帧中的第一特征点;
利用第二特征点在关键帧与目标帧上的投影误差估计相机姿态信息;
根据所述姿态信息重新估计所述关键帧第二特征点的深度值及其置信度数值,所述第二特征点更新为第三特征点;
获取所有关键帧的第三特征点,并将所述第三特征点映射到世界坐标系。
结合第一种实施情况,第二种实施方式中,所述步骤:选取全景视频关键帧中的第一特征点与步骤:利用第二特征点在关键帧与目标帧上的投影误差估计相机姿态信息之间还包括步骤:
S11a、对所有特征点深度值进行归一化处理,利用置信度数值描述特征点深度值;
S11b、在[0,1]内以均匀随机分布对第一特征点的深度值及其置信度数值进行初始化,获得第二特征点。
结合第一实施实施情况,第三种实施方式中,所述步骤:选取全景视频关键帧中的第一特征点,包括步骤:
确定全景视频中的关键帧与目标帧,全景视频中第一帧为关键帧,下一帧为目标帧,依此进行迁移处理;
选取所述关键帧的像素中的特定颜色梯度绝对值作为阈值;
根据所述阈值选取所述关键帧的第一特征点。
结合第三种实施情况,第四种实施方式中,步骤:选取所述关键帧的像素中的特定颜色梯度绝对值作为阈值中,所述阈值范围为:大于10,小于50。
结合第三种实施情况,第五种实施方式中,步骤:确定全景视频中的关键帧与目标帧,全景视频中第一帧为关键帧,下一帧为目标帧,依此进行迁移处理中,所述迁移处理的条件满足:关键帧与目标帧的重叠面积大于50%,小于70%。
结合本发明所述的三维重构方法,第六种实施方式中,所述步骤:利用德劳内算法对剩余特征点进行三角重构,包括步骤:
对所述剩余特征点进行四面体划分,划分为自由空间四面体及非自由空间四面体;
选取所述自由空间四面体构建场景物体外部四面体集合,直到所有自由空间四面体被选取完毕;
利用所述外部四面体集合进行三角重构,所述三角重构满足德劳内三角化算法。
结合第六种实施情况,第七种实施方式中,所述步骤:选取所述自由空间四面体构建场景物体外部四面体集合,直到所有自由空间四面体被选取完毕,包括步骤:
按照构成置信度从高到低的顺序选取所述自由空间四面体。
实施本发明所述的一种基于全景视频的稠密三维重构方法,通过对全景视频中所有帧中的特征点深度进行重新估计,获取较高置信度的特征点,将这些特征点映射世界坐标系,获取全景视频的半稠密点云,根据半稠密点云按照构建置信度高低选取自由空间四面体集合,利用德劳内三角化算法进行三角重构,获取了较为平滑的全景视频三维模型。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中的一种基于全景视频的稠密三维重构方法实施步骤流程示意图;
图2为本发明中的一种基于全景视频的稠密三维重构方法中的子步骤S1的流程示意图;
图3为本发明中的一种基于全景视频的稠密三维重构方法中子步骤S1的另一实施例步骤流程示意图;
图4为本发明中的一种基于全景视频的稠密三维重构方法中的子步骤S11的流程示意图;
图5为本发明中的一种基于全景视频的稠密三维重构方法中的子步骤S3的流程示意图;
具体实施方式
下面将结合发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的其他实施例,都属于本发明保护的范围。
现有的相机三维重构技术采集到的是二维图像,通过位姿估计,确定相机的运动路径,构造出来的三维场景信息也是通过提取二维图像的特征点实现的,重建构造出来的是稀疏点云,而且其速度较慢。
针对上述问题,提出一种基于全景视频的稠密三维重构方法,如图1,图1为本发明中的一种基于全景视频的稠密三维重构方法实施步骤流程示意图,包括步骤:
S1、利用全景视频中的第三特征点构建半稠密点云。
优选地,如图2,图2为本发明中的一种基于全景视频的稠密三维重构方法中的子步骤S1的流程示意图,步骤S1包括:
S11、选取全景视频关键帧中的第一特征点。
优选地,如图4,图4为本发明中的一种基于全景视频的稠密三维重构方法中的子步骤S11的流程示意图,步骤S11包括子步骤:
S111、确定全景视频中的关键帧与目标帧,全景视频中第一帧为关键帧,下一帧为目标帧,依此进行迁移处理。
S112、选取关键帧的像素中的特定颜色梯度绝对值作为阈值。
S113、根据阈值选取关键帧的第一特征点。
半稠密特征点的特定颜色梯度绝对值作为阈值选取在10-50之间,(以图片像素值处于0-255区间为例)。过大的阈值会使得特征点过于稀疏,降低稠密重构的效果。过低的阈值则会导致选取的特征点的特征显著性下降,从而降低半稠密特征点的重构精度。
优选地,如图3,图3为本发明中的一种基于全景视频的稠密三维重构方法中子步骤S1的另一实施例步骤流程示意图,步骤S11还包括:
S11a、对所有特征点深度值进行归一化处理,利用置信度数值描述特征点深度值。
S11b、在[0,1]内以均匀随机分布对第一特征点的深度值及其置信度数值进行初始化,获得第二特征点。
采用置信度数值描述特征点深度值,由于单视频重构的尺度未知性,故而在随机初始化特征点深度时,对特征点的深度值均值进行归一化处理。通过引入每个特征点的置信度数值,来评估每个特征点深度估计准确程度的一个表征。
S12、利用第二特征点在关键帧与目标帧上的投影误差估计相机姿态信息。
在估计相机姿态时,采用LM算法(Levenberg-Marquard Algorithm)来迭代地求解关键帧到目标帧之间的姿态转换关系。此时,优化的目标可以是特征点的颜色值(RGB)与其在目标帧之上投影位置的颜色插值之间的L2范数,同时可以利用该特征点深度值的置信度数值,来调整该特征点的损失函数在总体函数中所占有的权重值。
S13、根据姿态信息重新估计关键帧第二特征点的深度值及其置信度数值,其第二特征点更新为第三特征点。
在已知相机姿态时,可以采用传统的窗口化SSD算法重新估计特征点深度值,对每一个关键帧上的特征点的每一个可能深度值,计算该特征点周围的一个3x3窗口与其投影窗口的SSD误差,并选取SSD误差最低的那个数值,作为本次的观测深度值。而后可以利用该数值,对目标点的初始深度值做一次滤波,从而更新该目标特征点的深度数值与其置信度数值。
全景视频中第一帧为关键帧,下一帧为目标帧,依此进行迁移处理中,迁移处理的条件满足:关键帧与目标帧的重叠面积大于50%,小于70%。
一般地,在目标帧与关键帧之间的有效覆盖区域小于50-70%之间时,选择进行关键帧的迁移。在特征点迁移时,新的关键帧会有部分的全新特征点,该部分特征点的深度值,可以使用类似的随机初始化方式来进行。类似的,可以在深度迁移以及随机初始化完成后,再进行一次深度的归一化处理,以改良系统的数值性。
S14、获取所有关键帧的第三特征点,并将第三特征点映射到世界坐标系。
通过对全景视频中所有帧中的特征点深度进行重新估计,获取较高置信度的特征点,将这些特征点映射世界坐标系,获取全景视频的半稠密点云。
S2、对半稠密点云进行过滤处理。
根据遮挡关系进行分析处理,对于每一张关键帧,其相机位置与其所包含的特征点连线之间,均是空白区域(也即自由区域)。如果其余某关键帧所包含的特征点,处在了另一张关键帧所定义的自由区域(Free-Space)内部,那么该特征点就可以被认为是不合理的。以此关系,可以过滤掉大部分的不合理特征点。
S3、利用德劳内算法对半稠密点云中的剩余特征点进行三角重构。
优选地,如图5,图5为本发明中的一种基于全景视频的稠密三维重构方法中的子步骤S3的流程示意图,步骤S3包括步骤:
S31、对剩余特征点进行四面体划分,划分为自由空间四面体及非自由空间四面体。
自由空间四面体,可以被理解为处于场景物体外部的四面体,在构建完自由空间四面体之后,也可以直接通过获取自由空间四面体,并进行三角重构,并以此作为该半稠密点云的重构。但是此类重构往往并不属于流形(manifold),故而在视觉上会拥有很多的凸起与异常点。步骤S32、S33就是为了处理上述凸起和异常点。
S32、选取自由空间四面体构建场景物体外部四面体集合,直到所有自由空间四面体被选取完毕。
优选地,步骤S32包括步骤:
S321、按照构成置信度从高到低的顺序选取自由空间四面体。
S33、利用外部四面体集合进行三角重构,三角重构满足德劳内三角化算法。
特别的,在选取四面体时,可以不随机选取,而是在所有的自由空间四面体集合中,选取其中被最多的关键帧-特征点射线对穿越的自由空间四面体。此类自由空间四面体往往置信度较高,这样的选取顺序,会获得更好的重构效果。
最后获得的稠密三角重构结果,可以进一步地通过顶点上色(Vertex Shading)或者三角片元上色(Triangular Shading)的方式来对重构结果上色,从而获得更好的视觉效果。
实施本发明的一种基于全景视频的稠密三维重构方法,通过对全景视频中所有帧中的特征点深度进行重新估计,获取较高置信度的特征点,将这些特征点映射世界坐标系,获取全景视频的半稠密点云,根据半稠密点云按照构建置信度高低选取自由空间四面体集合,利用德劳内三角化算法进行三角重构,获取了较为平滑的全景视频三维模型。
以上仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于全景视频的稠密三维重构方法,其特征在于,包括步骤:
利用全景视频帧中的第三特征点构建半稠密点云;
对所述半稠密点云进行过滤处理;
利用德劳内算法对所述半稠密点云中的剩余特征点进行三角重构。
2.根据权利要求1所述的稠密三维重构方法,其特征在于,所述步骤:利用全景视频帧中的第三特征点构建半稠密点云,包括:
选取全景视频关键帧中的第一特征点;
利用第二特征点在关键帧与目标帧上的投影误差估计相机姿态信息;
根据所述姿态信息重新估计所述关键帧第二特征点的深度值及其置信度数值,所述第二特征点更新为第三特征点;
获取所有关键帧的第三特征点,将所述第三特征点映射到世界坐标系。
3.根据权利要求2所述的稠密三维重构方法,其特征在于,所述步骤:选取全景视频关键帧中的第一特征点与步骤:利用第二特征点在关键帧与目标帧上的投影误差估计相机姿态信息之间还包括步骤:
S11a、对所有特征点深度值进行归一化处理,利用置信度数值描述特征点深度值;
S11b、在[0,1]内以均匀随机分布对第一特征点的深度值及其置信度数值进行初始化,获得第二特征点。
4.根据权利要求2所述的稠密三维重构方法,其特征在于,所述步骤:选取全景视频关键帧中的第一特征点,包括步骤:
确定全景视频中的关键帧与目标帧,全景视频中第一帧为关键帧,下一帧为目标帧,依此进行迁移处理;
选取所述关键帧的像素中的特定颜色梯度绝对值作为阈值;
根据所述阈值选取所述关键帧的第一特征点。
5.根据权利要求4所述的稠密三维重构方法,其特征在于,所述步骤:选取所述关键帧的像素中的特定颜色梯度绝对值作为阈值中,所述阈值范围为:大于10,小于50。
6.根据权利要求4所述的稠密三维重构方法,其特征在于,所述步骤:确定全景视频帧中的关键帧与目标帧,全景视频中第一帧为关键帧,下一帧为目标帧,依此进行迁移处理中,所述迁移处理的条件满足:关键帧与目标帧的重叠面积大于50%,小于70%。
7.根据权利要求1所述的稠密三维重构方法,其特征在于,所述步骤:利用德劳内算法对所述半稠密点云中的剩余特征点进行三角重构,包括步骤:
对所述剩余特征点进行四面体划分,划分为自由空间四面体及非自由空间四面体;
选取所述自由空间四面体构建场景物体外部四面体集合,直到所有自由空间四面体被选取完毕;
利用所述外部四面体集合进行三角重构,所述三角重构满足德劳内三角化算法。
8.根据权利要求7所述的稠密三维重构方法,其特征在于,所述步骤:选取所述自由空间四面体构建场景物体外部四面体集合,直到所有自由空间四面体被选取完毕,包括步骤:
按照构成置信度从高到低的顺序选取所述自由空间四面体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910642181.0A CN110544294B (zh) | 2019-07-16 | 2019-07-16 | 一种基于全景视频的稠密三维重构方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910642181.0A CN110544294B (zh) | 2019-07-16 | 2019-07-16 | 一种基于全景视频的稠密三维重构方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110544294A true CN110544294A (zh) | 2019-12-06 |
CN110544294B CN110544294B (zh) | 2023-09-01 |
Family
ID=68709712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910642181.0A Active CN110544294B (zh) | 2019-07-16 | 2019-07-16 | 一种基于全景视频的稠密三维重构方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110544294B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111601181A (zh) * | 2020-04-27 | 2020-08-28 | 北京首版科技有限公司 | 生成视频指纹数据的方法及装置 |
CN111861874A (zh) * | 2020-07-22 | 2020-10-30 | 苏州大学 | 一种稠密化单目slam特征点地图的方法 |
CN112766135A (zh) * | 2021-01-14 | 2021-05-07 | 北京航空航天大学杭州创新研究院 | 目标检测方法、装置、电子设备和存储介质 |
CN113345084A (zh) * | 2021-06-29 | 2021-09-03 | 吉林省交通规划设计院 | 三维建模系统及三维建模方法 |
CN113793414A (zh) * | 2021-08-17 | 2021-12-14 | 中科云谷科技有限公司 | 建立工业现场环境三维视图的方法、处理器及装置 |
CN117934728A (zh) * | 2024-03-21 | 2024-04-26 | 海纳云物联科技有限公司 | 三维重建方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251635A (ja) * | 2001-02-26 | 2002-09-06 | Nippon Telegr & Teleph Corp <Ntt> | 3次元cgキャラクタ生成方法、その装置、その方法の実現するためのプログラム、及びそのプログラムを記憶した記憶媒体 |
CN105654492A (zh) * | 2015-12-30 | 2016-06-08 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
US20170019653A1 (en) * | 2014-04-08 | 2017-01-19 | Sun Yat-Sen University | Non-feature extraction-based dense sfm three-dimensional reconstruction method |
CN106570507A (zh) * | 2016-10-26 | 2017-04-19 | 北京航空航天大学 | 单目视频场景三维结构的多视角一致的平面检测解析方法 |
WO2017115149A1 (en) * | 2015-12-31 | 2017-07-06 | Dacuda Ag | A method and system for real-time 3d capture and live feedback with monocular cameras |
CN107247834A (zh) * | 2017-05-31 | 2017-10-13 | 华中科技大学 | 一种基于图像识别的三维环境模型重构方法、设备及系统 |
CN109920007A (zh) * | 2019-01-26 | 2019-06-21 | 中国海洋大学 | 基于多光谱光度立体与激光扫描的三维成像装置及方法 |
-
2019
- 2019-07-16 CN CN201910642181.0A patent/CN110544294B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251635A (ja) * | 2001-02-26 | 2002-09-06 | Nippon Telegr & Teleph Corp <Ntt> | 3次元cgキャラクタ生成方法、その装置、その方法の実現するためのプログラム、及びそのプログラムを記憶した記憶媒体 |
US20170019653A1 (en) * | 2014-04-08 | 2017-01-19 | Sun Yat-Sen University | Non-feature extraction-based dense sfm three-dimensional reconstruction method |
CN105654492A (zh) * | 2015-12-30 | 2016-06-08 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
WO2017115149A1 (en) * | 2015-12-31 | 2017-07-06 | Dacuda Ag | A method and system for real-time 3d capture and live feedback with monocular cameras |
CN106570507A (zh) * | 2016-10-26 | 2017-04-19 | 北京航空航天大学 | 单目视频场景三维结构的多视角一致的平面检测解析方法 |
CN107247834A (zh) * | 2017-05-31 | 2017-10-13 | 华中科技大学 | 一种基于图像识别的三维环境模型重构方法、设备及系统 |
CN109920007A (zh) * | 2019-01-26 | 2019-06-21 | 中国海洋大学 | 基于多光谱光度立体与激光扫描的三维成像装置及方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111601181A (zh) * | 2020-04-27 | 2020-08-28 | 北京首版科技有限公司 | 生成视频指纹数据的方法及装置 |
CN111861874A (zh) * | 2020-07-22 | 2020-10-30 | 苏州大学 | 一种稠密化单目slam特征点地图的方法 |
CN111861874B (zh) * | 2020-07-22 | 2023-07-11 | 苏州大学 | 一种稠密化单目slam特征点地图的方法 |
CN112766135A (zh) * | 2021-01-14 | 2021-05-07 | 北京航空航天大学杭州创新研究院 | 目标检测方法、装置、电子设备和存储介质 |
CN112766135B (zh) * | 2021-01-14 | 2024-03-19 | 北京航空航天大学杭州创新研究院 | 目标检测方法、装置、电子设备和存储介质 |
CN113345084A (zh) * | 2021-06-29 | 2021-09-03 | 吉林省交通规划设计院 | 三维建模系统及三维建模方法 |
CN113793414A (zh) * | 2021-08-17 | 2021-12-14 | 中科云谷科技有限公司 | 建立工业现场环境三维视图的方法、处理器及装置 |
CN117934728A (zh) * | 2024-03-21 | 2024-04-26 | 海纳云物联科技有限公司 | 三维重建方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110544294B (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110544294B (zh) | 一种基于全景视频的稠密三维重构方法 | |
US11410320B2 (en) | Image processing method, apparatus, and storage medium | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
TWI536318B (zh) | 深度測量之品質提升 | |
JP7403528B2 (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
US9082224B2 (en) | Systems and methods 2-D to 3-D conversion using depth access segiments to define an object | |
CN106875437B (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
CN110458932B (zh) | 图像处理方法、装置、系统、存储介质和图像扫描设备 | |
US20080228449A1 (en) | Systems and methods for 2-d to 3-d conversion using depth access segments to define an object | |
WO2008112762A1 (en) | Systems amd methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images | |
WO2008112802A2 (en) | System and method for 2-d to 3-d image conversion using mask to model, or model to mask, conversion | |
WO2008112771A2 (en) | Systems and methods for filling light in frames during 2-d to 3-d image conversion | |
WO2008112766A1 (en) | Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters | |
WO2008112790A2 (en) | System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images | |
CN113689578B (zh) | 一种人体数据集生成方法及装置 | |
CN111915723A (zh) | 一种用于室内的三维全景构建方法和系统 | |
CN205451195U (zh) | 一种基于多摄像机的实时三维点云重建系统 | |
KR102525030B1 (ko) | 포인트 클라우드를 생성하는 방법 및 장치 | |
CN109859249B (zh) | Rgbd序列中基于自动分层的场景流估计方法 | |
EP3756163A1 (en) | Methods, devices, and computer program products for gradient based depth reconstructions with robust statistics | |
CN114359412A (zh) | 一种面向建筑数字孪生的相机外参自动标定方法及系统 | |
CN113989434A (zh) | 一种人体三维重建方法及设备 | |
Koch | Model-based 3-D scene analysis from stereoscopic image sequences | |
Liu et al. | Fog effect for photography using stereo vision | |
Koch | 3–D Scene Modeling from Stereoscopic Image Sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |