CN110728671A - 基于视觉的无纹理场景的稠密重建方法 - Google Patents

基于视觉的无纹理场景的稠密重建方法 Download PDF

Info

Publication number
CN110728671A
CN110728671A CN201910976670.XA CN201910976670A CN110728671A CN 110728671 A CN110728671 A CN 110728671A CN 201910976670 A CN201910976670 A CN 201910976670A CN 110728671 A CN110728671 A CN 110728671A
Authority
CN
China
Prior art keywords
scene
group
pictures
texture
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910976670.XA
Other languages
English (en)
Other versions
CN110728671B (zh
Inventor
姜光
杨旭元
吴家杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Electronic Science and Technology
Original Assignee
Xian University of Electronic Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Electronic Science and Technology filed Critical Xian University of Electronic Science and Technology
Priority to CN201910976670.XA priority Critical patent/CN110728671B/zh
Publication of CN110728671A publication Critical patent/CN110728671A/zh
Application granted granted Critical
Publication of CN110728671B publication Critical patent/CN110728671B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于视觉的无纹理场景的稠密重建方法,主要解决现有用RGB相机采集数据对无纹理场景进行重建使用设备复杂,数据量大的问题,其方案为:在场景中布置光斑投射设备;使用已标定的相机在场景中不同位置拍摄不同光照环境下的多组照片;计算所有照片的特征点和描述子,并分别合并同一组的照片的特征点和描述子,得到该组的特征点和描述子;计算相机外参数和场景稀疏点云;将每一组图片按权叠加并用叠加图片计算场景稠密点云;将稠密点云网格化;通过正常光照下的照片计算网格纹理贴图,完成场景的稠密重建。本发明使用设备简单,使用数据较少,在重建大的无纹理场景时消耗资源相对较少,可对无纹理或少纹理的真实场景进行三维重建。

Description

基于视觉的无纹理场景的稠密重建方法
技术领域
本发明属于三维重建及计算机视觉技术领域,特别涉及一种场景的重建方法,可对无纹理或者少纹理的真实场景进行三维重建,实现真实场景的数字化表示。
背景技术
对真实场景进行稠密三维重建可以利用基于视觉的三维重建方法进行,基于视觉的三维重建是利用数字像机作为图像传感器,使用一些计算机视觉中的算法将真实场景重建为虚拟三维模型的技术。
基于视觉的三维重建按照是否有测距设备分为主动式重建和被动式重建。其中:
主动式重建,是使用深度相机测量被重建物体到深度相机的距离,即深度信息,从而利用深度信息完成三维重建,但深度相机测量出的深度信息仅在距离该深度相机设定的范围内是可靠的,超出该范围测量出的深度值会有较大的误差。
被动式重建,是仅使用RGB相机获得的数据完成对场景的重建。在多种被动式重建算法中,立体视觉匹配算法得到的重建结果较好。通过输入一系列彩色图像,计算每张图像之间的匹配关系,从而计算出相机参数,然后利用相机参数计算出照片中的像素对应到三维空间中的三维坐标完成三维重建。
立体视觉匹配算法会进行图片的特征提取,利用提取到的特征计算每张图片之间的关系,有了图片之间的匹配关系才能进行场景的三维重建。因此立体视觉匹配算法依赖于场景中丰富的纹理信息。纹理是物体表面的颜色信息,纹理越丰富的物体被重建后得到的模型越好。如果被重建场景的表面纹理单一或较少,则在算法中无法提取图片特征信息,从而无法计算图片之间的匹配关系,不能重建出场景的三维模型。
文献AHMADABADIAN,Ali Hosseininaveh;KARAMI,Ali;YAZDAN,Rouhallah.Anautomatic 3D reconstruction system for texture-less objects.Robotics andAutonomous Systems,2019,117:29-39.设计了一种重建无纹理物体的设备和方法,但是其设备较复杂,而且仅可以对小物体做三维重建而不能应用于无纹理场景的重建。
在LEY,Andreas;
Figure BDA0002233868230000011
Ronny;HELLWICH,Olaf.RECONSTRUCTING WHITE WALLS:MULTI-VIEW,MULTI-SHOT 3D RECONSTRUCTION OF TEXTURELESS SURFACES.ISPRSAnnalsof Photogrammetry,Remote Sensing&Spatial Information Sciences,2016,3.3.中提出了一种对无纹理场景三维重建的方法,其先将同一位置拍摄的不同曝光度的图片结合成一张高动态范围图像,再使用文中提出的算法得到无纹理场景中“隐藏”的纹理信息,从而利用RGB相机完成弱纹理场景进行重建,该方法在对场景做三维重建时需要的数据量过大,采集数据较为复杂,对较大场景的重建计算资源消耗较多。
发明内容:
本发明的目的是在于克服上述现有技术的不足,提出一种基于视觉的无纹理场景的稠密重建方法,以利用较简便的设备和相对较少的数据实现对无纹理场景的重建。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)在待重建的无纹理场景中布置好光斑投射设备,使光斑能覆盖到所有的弱纹理和无纹理区域,并固定其位置和朝向;利用室内灯光和这些布置好的设备作为光源,通过打开和关闭室内灯光分别显示该场景的“亮”与“暗”两个环境;
(2)使用已标定的相机在场景中的某一位置和角度对“亮”环境和“暗”环境进行拍摄,获得一组照片;移动并旋转相机继续对场景进行拍摄,获得场景的多组照片,构成场景的照片组集合I;
(3)提取所有照片的特征点,并计算每个特征点对应的特征描述子:
(3a)通过特征点提取算法计算出每张图片中的特征点,获得每张图片特征点集合Xik,其中k∈{L,D},k=L时代表该组的“亮”环境对应图片,k=D时代表该组的“暗”环境对应图片,i=1,2…|I|,|I|表示场景的照片组个数,Xik表示第i组图片的某个环境图片中的所有特征点的集合;
(3b)由特征描述子提取算法计算出第i组的某个环境图片中的第j个特征点
Figure BDA0002233868230000021
对应的特征描述子
Figure BDA0002233868230000022
将所有的
Figure BDA0002233868230000023
合并,得到特征描述子集合:
Figure BDA0002233868230000024
其中
Figure BDA0002233868230000025
|Xik|为第i组的某个环境的照片中特征点的数量;
(4)分别合并每一组图片的特征点与特征描述子,得到所有组的特征点集合和所有组的特征描述子集合:
(4a)将第i组图片的特征点合并,得到第i组的合并特征点集合:Xi=XiL∪XiD,根据Xi得到所有组的特征点集合,记为{Xi};
(4b)将第i组图片的特征描述子合并,在合并时维持特征点和特征描述子的对应关系不变,合并后得到第i组的合并特征描述子集合Ni=NiL∪NiD,根据Ni得到所有组的特征描述子集合,记为{Ni};
(5)将所有组的特征点集合{Xi}和所有组的特征描述子集合{Ni}作为StructureFrom Motion算法的输入,重建出场景的稀疏点云,并得到每组图片对应的相机外参数;
(6)将每组照片中的“亮”环境照片与“暗”环境照片逐像素按权叠加,得到每组的叠加图片;
(7)在每组的叠加图片之间利用光度一致性约束找到组与组的叠加图片之间的像素对应关系,并利用像素对应关系通过点云稠密化算法计算出场景的稠密点云;
(8)使用点云网格化算法将稠密点云网格化,得到场景网格;
(9)利用“亮”环境的照片作为计算网格贴图算法的输入,计算出场景网格的纹理贴图,完成对无纹理场景的稠密三维重建。
本发明与现有技术相比,具有如下优点:
第一,本发明使用一般的RGB相机以及低成本的可见光投射设备对无纹理场景进行三维重建,与现有的投射可见光斑到物体上的重建方法相比设备较简单,还可用于多种无纹理场景的稠密三维重建。
第二,本发明与现有利用RGB相机进行无纹理场景的三维重建方法相比,使用相对较少的数据,能够减少采集数据时的复杂性,在重建大场景时消耗资源相对较少。
附图说明:
图1为本发明的实现流程框图;
图2为使用本发明重建的三维模型结果图。
具体实施方式
本发明利用普通的RGB相机和市场上可购买到的可见光斑投射设备对无纹理场景进行稠密三维重建。可见光斑投射设备可以在无纹理物体上投射出不规则的光斑信息,从而为无纹理场景提供纹理。下面结合附图和实施例,对本发明作进一步详细说明。
参照图1,本实例的实现步骤如下:
步骤1,布置可见光斑投射设备,并构造“亮”与“暗”环境。
在待重建的无纹理场景中首先要布置好光斑投射设备,使光斑能覆盖到所有的弱纹理和无纹理区域,本实例将可见光斑投射设备布置在场景的四周,所有的待重建无纹理区域上都会有光斑;
利用室内灯光和这些布置好的可见光斑投射设备作为光源,通过打开和关闭室内灯光分别作为该场景的“亮”与“暗”两个环境。
步骤2,使用已经标定的相机拍摄场景的多组照片。
使用已标定的相机在场景中的某一位置和角度对“亮”环境和“暗”环境进行拍摄,获得一组照片;
移动并旋转相机继续对场景进行拍摄,获得场景的多组照片,构成场景的照片组集合I。
步骤3,计算所有照片的特征点和特征描述子。
计算所有照片的特征点和特征描述子可采用现有的多种算法进行,现有的特征点和特征描述子提取算法包括尺度不变特征变换SIFT算法、加速稳健特征SURF算法、利用神经网络提取特征点与描述子,本实例使用但不限于SIFT算法对图片进行特征点提取和特征描述子计算,具体实现如下:
3.1)计算第i个场景中某个环境照片的特征点集合Xik,其中i=1,2...|I|,|I|表示场景的照片组个数,k∈{L,D},k=L时代表该组的“亮”环境对应图片,k=D时代表该组的“暗”环境对应图片:
3.1.1)构建该图片的尺度空间,并在所有尺度空间中通过高斯微分函数来识别潜在的对于尺度和旋转不变的兴趣点;
3.1.2)通过对每个潜在的兴趣点进行拟合,得到一个精细的函数模型来确定特征点的位置和尺度;
3.1.3)基于图像局部的梯度方向,给每个特征点的位置分配一个或多个方向;
3.2)计算第i个场景中某个环境照片的特征描述子集合Nik
3.2.1)计算第i组的某个环境图片中的第j个特征点
Figure BDA0002233868230000041
对应的特征描述子
Figure BDA0002233868230000042
其中j=1,2...|Xik|,|Xik|为第i组的某个环境的照片中特征点的数量,其实现为:在特征点
Figure BDA0002233868230000043
所在图片的给定区域内计算出该图片的多方向局部梯度,并将这些梯度用向量
Figure BDA0002233868230000044
表示,该向量即为特征点
Figure BDA0002233868230000046
对应的特征描述子;
3.2.2)对所有特征点都利用3.2.1)计算出特征描述子,并将这些描述子合并为第i个场景中某个环境照片的特征描述子集合:
3.3)对所有图片都使用3.1)和3.2)计算出所有图片的特征点集合与特征描述子。
步骤4,合并同一组照片的特征点和特征描述子。
首先,对同一组照片,将“亮”环境的照片与“暗”环境的照片提取出的特征点进行合并作为该组的特征点;
然后,按照特征点和特征描述子的对应关系,将“亮”环境的照片与“暗”环境的照片提取出的特征描述子进行合并作为该组的特征描述子。
步骤5,计算场景的稀疏三维重建以及相机外参数。
本步骤使用现有的Structure From Motion算法进行,其流程如下:
5.1)利用步骤4中的特征描述子计算每两张图片特征点之间的匹配关系,得到匹配的特征点;
5.2)通过匹配的特征点计算每两张图片之间的本征矩阵,并对每个本征矩阵都进行分解得到两张图片之间的相对旋转矩阵的初值和相对平移向量的初值;
5.3)通过三角化计算特征点对应的3D空间点的初始值;
5.4)利用光束平差法对所有的3D空间点初始值、所有的相对旋转矩阵初始值和所有的相对平移向量初始值进行优化,得到场景的稀疏点云重建以及每组图片对应的相机外参数。
步骤6,按权叠加同一组“亮”和“暗”环境的照片。
6.1)将第i组某个场景图片中位置为(x,y)处的第m个通道的像素值记为
Figure BDA0002233868230000052
其中m∈{1,2,3}为图片通道;
6.2)通过下式将第i组图片的“亮”环境与“暗”环境图片进行按权叠加,得到第i组的叠加图片在位置(x,y)处的第m个通道的像素值
Figure BDA0002233868230000054
其中
Figure BDA0002233868230000055
为第i组“暗”环境图片中位置为(x,y)处的第m个通道的像素值,为第i组“亮”环境图片中位置为(x,y)处的第m个通道的像素值;
6.3)对所有组都利用步骤6.1)和步骤6.2)进行计算,得到每组的叠加图片。
步骤7,利用点云稠密化算法计算场景的稠密点云。
现有的点云稠密化算法有基于迭代派生的点云稠密化算法、基于区域生长的点云稠密化算法等,本实例使用但不限于基于区域生长的点云稠密化算法,实现如下:
7.1)通过光度一致性约束,对一张叠加图片中的某个像素在另一张叠加图片中找到与其光度最接近的像素;
7.2)利用这两个像素以及两张图片对应的相机内外参数,通过三角化计算出这两个像素对应的3D空间点;
7.3)对所有的像素都利用步骤7.1)与步骤7.2)得到所有的3D空间点,并对得到的所有3D空间点进行融合滤波,最后得到场景的稠密点云。
步骤8,使用点云网格化算法将稠密点云网格化。
现有的点云网格化算法包括德劳内三角剖分算法、泊松重建算法,本实例使用但不限于德劳内三角剖分算法将稠密点云网格化,其实现如下:
8.1)同时输入稠密点云、网络的形状因子和约束条件,生成边界节点并在点云内部插入内部节点;
8.2)对边界节点构成的边界多面体进行三角划分,生成仅包含边界节点和内部节点的初始网格;
8.3)采用德劳内优化平分方法在初始网格内部插入新的节点,生成新的密集网格;
8.4)根据网格的形状因子,调整插入的节点,以改变密集网格的形状,得到最终的高质量网格。
步骤9,使用“亮”环境中的图片对网格进行纹理贴图。
利用“亮”环境照片对场景的网格进行纹理贴图的计算,现有计算纹理贴图的算法包括坐标纹理映射、投影纹理映射,本实例使用但不限于投影纹理映射计算网格纹理贴图,其实现如下:
9.1)将场景网格中构成三角面片的三个顶点称为一组顶点,利用相机内外参数将这一组顶点投影到照片中,得到三个投影顶点,再用这三个投影顶点在该照片中围成一个三角形,该三角形在照片中的纹理即为场景网格中对应该组顶点三角面片的纹理;
9.2)重复步骤9.1),对场景网格的每组顶点都计算出对应三角面片的纹理,得到场景的纹理贴图,完成无纹理场景的稠密重建,如图2所示。
从图2可见,本发明对场景的无纹理区域,如墙体,投影幕布进行重建后得到的模型,没有存在大的空洞和明显的缺失。

Claims (8)

1.基于视觉的无纹理场景的稠密重建方法,其特征在于:包括如下:
(1)在待重建的无纹理场景中布置好光斑投射设备,使光斑能覆盖到所有的弱纹理和无纹理区域,并固定其位置和朝向;利用室内灯光和这些布置好的设备作为光源,通过打开和关闭室内灯光分别显示该场景的“亮”与“暗”两个环境;
(2)使用已标定的相机在场景中的某一位置和角度对“亮”环境和“暗”环境进行拍摄,获得一组照片;移动并旋转相机继续对场景进行拍摄,获得场景的多组照片,构成场景的照片组集合I;
(3)提取所有照片的特征点,并计算每个特征点对应的特征描述子:
(3a)通过特征点提取算法计算出每张图片中的特征点,获得每张图片特征点集合Xik,其中k∈{L,D},k=L时代表该组的“亮”环境对应图片,k=D时代表该组的“暗”环境对应图片,i=1,2...|I|,|I|表示场景的照片组个数,Xik表示第i组图片的某个环境图片中的所有特征点的集合;
(3b)由特征描述子提取算法计算出第i组的某个环境图片中的第j个特征点
Figure FDA0002233868220000011
对应的特征描述子
Figure FDA0002233868220000012
将所有的
Figure FDA0002233868220000013
合并,得到特征描述子集合:
Figure FDA0002233868220000014
其中|Xik|为第i组的某个环境的照片中特征点的数量;
(4)分别合并每一组图片的特征点与特征描述子,得到所有组的特征点集合和所有组的特征描述子集合:
(4a)将第i组图片的特征点合并,得到第i组的合并特征点集合:Xi=XiL∪XiD,根据Xi得到所有组的特征点集合,记为{Xi};
(4b)将第i组图片的特征描述子合并,在合并时维持特征点和特征描述子的对应关系不变,合并后得到第i组的合并特征描述子集合Ni=NiL∪NiD,根据Ni得到所有组的特征描述子集合,记为{Ni};
(5)将所有组的特征点集合{Xi}和所有组的特征描述子集合{Ni}作为Structure FromMotion算法的输入,重建出场景的稀疏点云,并得到每组图片对应的相机外参数;
(6)将每组照片中的“亮”环境照片与“暗”环境照片逐像素按权叠加,得到每组的叠加图片;
(7)在每组的叠加图片之间利用光度一致性约束找到组与组的叠加图片之间的像素对应关系,并利用像素对应关系通过点云稠密化算法计算出场景的稠密点云;
(8)使用点云网格化算法将稠密点云网格化,得到场景网格;
(9)利用“亮”环境的照片作为计算网格贴图算法的输入,计算出场景网格的纹理贴图,完成对无纹理场景的稠密三维重建。
2.根据权利要求1所述的方法,其特征在于:(3a)中通过特征点提取算法计算出每张图片中的特征点,实现如下:
(3a1)构建图片的尺度空间,并在所有尺度空间中通过高斯微分函数来识别潜在的对于尺度和旋转不变的兴趣点;
(3a2)通过对每个潜在的兴趣点进行拟合,得到一个精细的函数模型来确定特征点的位置和尺度;
(3a3)基于图像局部的梯度方向,给每个特征点的位置分配一个或多个方向。
3.根据权利要求1所述的方法,其特征在于:(3b)中由特征描述子提取算法计算出第i组的某个环境图片中的第j个特征点对应的特征描述子
Figure FDA0002233868220000022
是在特征点
Figure FDA0002233868220000023
所在图片的给定区域内计算出该图片的多方向局部梯度,并将这些梯度用向量表示,该向量
Figure FDA0002233868220000025
即为特征点
Figure FDA0002233868220000026
对应的特征描述子。
4.根据权利要求1所述的方法,其特征在于:步骤(5)中得到每组图片对应的相机外参数,是拍摄该组照片时相机所在的位置和朝向,该相机拍摄时所在的位置使用一个三维向量c描述,相机拍摄时的朝向使用一个3*3矩阵R描述。
5.根据权利要求1所述的方法,其特征在于:步骤(6)中将每组照片中的“亮”环境照片与“暗”环境照片逐像素按权叠加,实现如下:
(6a)将第i组某个场景图片中位置为(x,y)处的第m个通道的像素值记为
Figure FDA0002233868220000031
其中其中k∈{L,D},m∈{1,2,3}为图片通道;
(6b)通过下式将第i组图片的“亮”环境与“暗”环境图片进行按权叠加,得到第i组的叠加图片在位置(x,y)处的第m个通道的像素值
Figure FDA0002233868220000032
Figure FDA0002233868220000033
其中
Figure FDA0002233868220000034
为第i组“暗”环境图片中位置为(x,y)处的第m个通道的像素值,
Figure FDA0002233868220000035
为第i组“亮”环境图片中位置为(x,y)处的第m个通道的像素值;
(6c)对所有组都利用(6a)和(6b)进行计算,得到每组的叠加图片。
6.根据权利要求1所述的方法,其特征在于:步骤(7)中利用像素对应关系通过点云稠密化算法计算出场景的稠密点云,实现如下:
(7a)通过光度一致性约束,对一张图片中的某个像素在另一张图片中找到与其光度最接近的像素;
(7b)利用这两个像素以及两张图片对应的相机内参数与外参数,通过三角化计算出这两个像素对应的3D空间点;
(7c)对所有的像素都利用(7a)与(7b)得到所有的3D空间点,并对得到的所有3D空间点进行融合滤波,最后得到场景的稠密点云。
7.根据权利要求1所述的方法,其特征在于:步骤(8)中使用点云网格化算法将稠密点云网格化,实现如下:
(8a)同时输入稠密点云、网络的形状因子和约束条件,生成边界节点并在点云内部插入内部节点;
(8b)对边界节点构成的边界多面体进行三角划分,生成仅包含边界节点和内部节点的初始网格;
(8c)采用德劳内优化平分方法在初始网格内部插入新的节点,生成新的密集网格;
(8d)根据网格的形状因子,调整插入的节点,以改变密集网格的形状,得到最终的高质量网格。
8.根据权利要求1所述的方法,其特征在于:步骤(9)中计算出场景网格的纹理贴图,实现如下:
(9a)将场景网格中构成三角面片的三个顶点称为一组顶点,利用相机内外参数将这一组顶点投影到照片中,得到三个投影顶点,用这三个投影顶点在照片中围成一个三角形,该三角形在图片中的纹理即为场景网格中对应该组顶点三角面片的纹理;
(9b)重复(9a),对场景网格的每组顶点都计算出对应三角面片的纹理,得到场景的纹理贴图。
CN201910976670.XA 2019-10-15 2019-10-15 基于视觉的无纹理场景的稠密重建方法 Active CN110728671B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910976670.XA CN110728671B (zh) 2019-10-15 2019-10-15 基于视觉的无纹理场景的稠密重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910976670.XA CN110728671B (zh) 2019-10-15 2019-10-15 基于视觉的无纹理场景的稠密重建方法

Publications (2)

Publication Number Publication Date
CN110728671A true CN110728671A (zh) 2020-01-24
CN110728671B CN110728671B (zh) 2021-07-20

Family

ID=69221235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910976670.XA Active CN110728671B (zh) 2019-10-15 2019-10-15 基于视觉的无纹理场景的稠密重建方法

Country Status (1)

Country Link
CN (1) CN110728671B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111504322A (zh) * 2020-04-21 2020-08-07 南京师范大学 一种基于可视域的景点游览微路线规划方法
CN111652901A (zh) * 2020-06-02 2020-09-11 山东大学 一种基于置信度和特征融合的无纹理三维物体跟踪方法
CN112085845A (zh) * 2020-09-11 2020-12-15 中国人民解放军军事科学院国防科技创新研究院 基于无人机影像的室外场景快速三维重建装置
CN112634456A (zh) * 2020-12-29 2021-04-09 浙江传媒学院 基于深度学习的复杂三维模型的实时高真实感绘制方法
CN112967398A (zh) * 2021-03-01 2021-06-15 北京奇艺世纪科技有限公司 一种三维数据重建方法、装置及电子设备
CN113140010A (zh) * 2021-05-14 2021-07-20 上海交通大学 适用少/无特征环境的三维重建方法及系统、设备、介质
CN113436242A (zh) * 2021-07-22 2021-09-24 西安电子科技大学 基于移动深度相机的获取静态物体高精度深度值方法
CN113674400A (zh) * 2021-08-18 2021-11-19 公安部物证鉴定中心 基于重定位技术的光谱三维重建方法、系统及存储介质
CN113888633A (zh) * 2021-09-24 2022-01-04 北京清杉科技有限公司 基于实时定位与建图算法的三维重建方法以及装置
CN114067061A (zh) * 2021-12-01 2022-02-18 成都睿铂科技有限责任公司 一种三维重建方法及系统
CN117173463A (zh) * 2023-08-30 2023-12-05 北京长木谷医疗科技股份有限公司 一种基于多分类稀疏点云的骨关节模型重建方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104715504A (zh) * 2015-02-12 2015-06-17 四川大学 一种鲁棒的大场景稠密三维重建方法
CN105184863A (zh) * 2015-07-23 2015-12-23 同济大学 一种基于无人机航拍序列影像的边坡三维重建方法
CN106683182A (zh) * 2017-01-12 2017-05-17 南京大学 一种权衡立体匹配和视觉外形的三维重建方法
CN108734728A (zh) * 2018-04-25 2018-11-02 西北工业大学 一种基于高分辨序列图像的空间目标三维重构方法
CN110176060A (zh) * 2019-04-28 2019-08-27 华中科技大学 基于多尺度几何一致性引导的稠密三维重建方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104715504A (zh) * 2015-02-12 2015-06-17 四川大学 一种鲁棒的大场景稠密三维重建方法
CN105184863A (zh) * 2015-07-23 2015-12-23 同济大学 一种基于无人机航拍序列影像的边坡三维重建方法
CN106683182A (zh) * 2017-01-12 2017-05-17 南京大学 一种权衡立体匹配和视觉外形的三维重建方法
CN108734728A (zh) * 2018-04-25 2018-11-02 西北工业大学 一种基于高分辨序列图像的空间目标三维重构方法
CN110176060A (zh) * 2019-04-28 2019-08-27 华中科技大学 基于多尺度几何一致性引导的稠密三维重建方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAFEEZ, JAHANZEB 等: "Image Based 3D Reconstruction of Texture-less Objects for VR Contents", 《INTERNATIONAL JOURNAL OF ADVANCED SMART CONVERGENCE》 *
缪君等: "基于稀疏点云的多平面场景稠密重建", 《自动化学报年》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111504322A (zh) * 2020-04-21 2020-08-07 南京师范大学 一种基于可视域的景点游览微路线规划方法
CN111504322B (zh) * 2020-04-21 2021-09-03 南京师范大学 一种基于可视域的景点游览微路线规划方法
CN111652901B (zh) * 2020-06-02 2021-03-26 山东大学 一种基于置信度和特征融合的无纹理三维物体跟踪方法
CN111652901A (zh) * 2020-06-02 2020-09-11 山东大学 一种基于置信度和特征融合的无纹理三维物体跟踪方法
CN112085845A (zh) * 2020-09-11 2020-12-15 中国人民解放军军事科学院国防科技创新研究院 基于无人机影像的室外场景快速三维重建装置
CN112085845B (zh) * 2020-09-11 2021-03-19 中国人民解放军军事科学院国防科技创新研究院 基于无人机影像的室外场景快速三维重建装置
CN112634456B (zh) * 2020-12-29 2023-10-13 浙江传媒学院 基于深度学习的复杂三维模型的实时高真实感绘制方法
CN112634456A (zh) * 2020-12-29 2021-04-09 浙江传媒学院 基于深度学习的复杂三维模型的实时高真实感绘制方法
CN112967398A (zh) * 2021-03-01 2021-06-15 北京奇艺世纪科技有限公司 一种三维数据重建方法、装置及电子设备
CN113140010A (zh) * 2021-05-14 2021-07-20 上海交通大学 适用少/无特征环境的三维重建方法及系统、设备、介质
CN113436242A (zh) * 2021-07-22 2021-09-24 西安电子科技大学 基于移动深度相机的获取静态物体高精度深度值方法
CN113436242B (zh) * 2021-07-22 2024-03-29 西安电子科技大学 基于移动深度相机的获取静态物体高精度深度值方法
CN113674400A (zh) * 2021-08-18 2021-11-19 公安部物证鉴定中心 基于重定位技术的光谱三维重建方法、系统及存储介质
CN113888633A (zh) * 2021-09-24 2022-01-04 北京清杉科技有限公司 基于实时定位与建图算法的三维重建方法以及装置
CN113888633B (zh) * 2021-09-24 2024-05-31 北京清杉科技有限公司 基于实时定位与建图算法的三维重建方法以及装置
CN114067061A (zh) * 2021-12-01 2022-02-18 成都睿铂科技有限责任公司 一种三维重建方法及系统
CN117173463A (zh) * 2023-08-30 2023-12-05 北京长木谷医疗科技股份有限公司 一种基于多分类稀疏点云的骨关节模型重建方法及装置

Also Published As

Publication number Publication date
CN110728671B (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
Zhang et al. A UAV-based panoramic oblique photogrammetry (POP) approach using spherical projection
Mastin et al. Automatic registration of LIDAR and optical images of urban scenes
US10846844B1 (en) Collaborative disparity decomposition
CN108475327A (zh) 三维采集与渲染
CN108038902A (zh) 一种面向深度相机的高精度三维重建方法和系统
WO2021203883A1 (zh) 三维扫描方法、三维扫描系统和计算机可读存储介质
CN104240289A (zh) 一种基于单个相机的三维数字化重建方法及系统
CN107170037A (zh) 一种基于多摄像机的实时三维点云重建方法和系统
CN205451195U (zh) 一种基于多摄像机的实时三维点云重建系统
CN106023307B (zh) 基于现场环境的快速重建三维模型方法及系统
CN113643436B (zh) 一种深度数据拼接融合方法及装置
Condorelli et al. A comparison between 3D reconstruction using nerf neural networks and mvs algorithms on cultural heritage images
CN110533774A (zh) 一种基于智能手机的三维模型重建方法
JP4354708B2 (ja) 多視点カメラシステム
CN112712566B (zh) 基于结构参数在线校正的双目立体视觉传感器测量方法
CN117830520A (zh) 基于深度残差和神经隐式表面学习的多视图三维重建方法
CN106157321B (zh) 基于平面表面高动态范围图像的真实点光源位置测算方法
Xie Three-dimensional reconstruction based on multi-view photometric stereo fusion technology in movies special-effect
GB2569609A (en) Method and device for digital 3D reconstruction
CN107103620B (zh) 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法
CN116704111A (zh) 图像处理方法和设备
Wong et al. 3D object model reconstruction from image sequence based on photometric consistency in volume space
Neumann et al. A hierarchy of cameras for 3D photography

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant