CN108961151B - 一种将球幕相机得到的三维大场景转成剖面图的方法 - Google Patents

一种将球幕相机得到的三维大场景转成剖面图的方法 Download PDF

Info

Publication number
CN108961151B
CN108961151B CN201810432933.6A CN201810432933A CN108961151B CN 108961151 B CN108961151 B CN 108961151B CN 201810432933 A CN201810432933 A CN 201810432933A CN 108961151 B CN108961151 B CN 108961151B
Authority
CN
China
Prior art keywords
point
view
sectional
dimensional
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810432933.6A
Other languages
English (en)
Other versions
CN108961151A (zh
Inventor
崔岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Siwei Times Network Technology Co Ltd
Sino German (zhuhai) Artificial Intelligence Research Institute Co Ltd
Original Assignee
Zhuhai Siwei Times Network Technology Co Ltd
Sino German (zhuhai) Artificial Intelligence Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Siwei Times Network Technology Co Ltd, Sino German (zhuhai) Artificial Intelligence Research Institute Co Ltd filed Critical Zhuhai Siwei Times Network Technology Co Ltd
Priority to CN201810432933.6A priority Critical patent/CN108961151B/zh
Publication of CN108961151A publication Critical patent/CN108961151A/zh
Application granted granted Critical
Publication of CN108961151B publication Critical patent/CN108961151B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种将球幕相机得到的三维大场景转成剖面图的方法。包括以下步骤:S1持球幕相机对场景进行拍摄得到一组照片或者视频流;S2对照片提取特征点;S3匹配特征点;S4根据特征点与相机位置计算出特征点的三维空间位置;S5生成稀疏点云;S6根据用户需要,自定义切点云;所述切点云是通过对稀疏点云进行截面,而后由截面上形成若干特征点组成;S7在切点云颜色过渡的区域提取更多特征点,进行稠密重建;所述切点云颜色过渡以外的区域则不进行稠密重建。S8生成剖面图。本发明提供了一种减少计算量,缩短计算时间,集中资源建设用户关心的数据的剖面图转换方法。

Description

一种将球幕相机得到的三维大场景转成剖面图的方法
技术领域
本发明涉及三维成像建模技术领域,涉及一种三维场景转换技术,具体涉及一种将球幕相机得到的三维大场景转成剖面图的方法。
背景技术
传统slam相机基于小孔成像原理,比如手机相机,实际上是对普通相机做的,特点是平面化且视角单一,其次,传统相机基于相机焦距的平面坐标系找邻域。另一方面,传统的闭环检测基于时间序列,即每间隔一段时间进行一次检测,缺点在于没办法判断合适的检测时机,有的甚至在不是闭环的情况下进行检测,占用存储空间,加大CPU计算消耗,造成资源浪费。为了解决以上的技术问题,现在市场上出现了通过球幕相机拍摄,再进行三维建模,该球幕相机在同步定位与建图、特征点匹配、闭环检测等都更加准确和稳定。其次,基于结构化的建模速度更快、效率更高。
然而基于上述建模方法,技术人员又遇到了其它难点,由于球幕相机进行三维建模,需要大量的数据计算,目前的计算机性能无法完成如此大量的计算。这成为了该项技术是否能在实际中广泛使用重要条件。
发明内容
为了解决背景技术中所提到的计算数据量过大的问题,本发明旨在于提供一种将球幕相机得到的三维大场景转成剖面图的方法,通过将球幕相机的到的三围场景转换成剖面图从而降低计算机的数据计算量。
为了实现上述目的,本发明采用的技术方案如下:一种将球幕相机得到的三维大场景转成剖面图的方法,其特殊之处在于:包括以下步骤:
S1持球幕相机对场景进行拍摄得到一组照片或者视频流;
S2对照片提取特征点;
S3匹配特征点;
S4根据特征点与相机位置计算出特征点的三维空间位置;
S5生成稀疏点云;
S6根据用户需要,自定义切点云;所述切点云是通过对稀疏点云进行截面,而后由截面上形成特征点组成;
S7在切点云颜色过渡的区域提取更多特征点,进行稠密重建;上述切点云颜色过渡以外的区域则不进行稠密重建;
S8生成剖面图。
在步骤S2中,视频流的关键帧也为照片,关键帧为任意一帧。上述步骤S2特征点的出现区域为颜色跃迁的过渡地带,步骤S3的特征点相互匹配的条件是特征点的运算符相同或相近。
步骤S7中的稠密重建,采用的是三维多视角立体视觉算法(PMVS)。
上述步骤S8先从稀疏点云中,获取截面的数据,将截面上的特征点进行二次运算稠密重建,从而形成剖面结果。
在步骤S8生成剖面图后,可对剖面图进行测距,测距方法包括以下步骤:
S81:在图片1找到目标点,得到其二维坐标值a和该点对应的相机点A;
S82:同时通过图片1的目标点匹配到该目标点在另一张图片2的二维坐标值b及其对应的相机点B;
S83:连接目标点在图片1的二维坐标a与相机点A得到一条射线La,同时连接目标点在图片2的二维坐标b与相机点B得到一条射线Lb;
S84:La与Lb相交于点C,并得到C点的三维坐标值;
S85:重复上述步骤S1-步骤S4得到另外一个目标点的三维坐标值D;
S86:将C、D两点相连,测出其在三维空间中的距离。
基于步骤S8的结构化模型,提取出门、窗、房间结构,并通过稠密重建整理门、窗的尺寸和距离信息,将门、窗、房间结构的尺寸信息跟距离信息与步骤S7所形成的剖面图结合形成俯视图。
上述特征点为图片上的像素点,包含该点的位置信息,尺度信息和方向的信息。
本发明有益效果在于,对球幕相机所拍摄的照片或视频流的整个空间进行稠密重建所需要的工作量巨大,目前的计算机性能无法完成如此大量的计算。本发明避免了这个问题,仅对切面进行稠密重建,从而减少计算量,缩短计算时间,集中资源建设用户关心的数据。尤其是在建筑方面,提取出门窗等建筑结构。扫描后可以直接生成任意角度的剖面图,缩短了设计图纸的时间。
附图说明
图1为本发明的实施示意图;
图2为本发明三维大场景示意图;
图3为本发明步骤S6切点云示意图;
图4为本发明步骤S8所生成的竖切剖面图;
图5为本发明步骤S8所生成的横切剖面图;
图6为本发明的测距示意图。
具体实施方式
以下将结合实施例对本发明作进一步的描述,需要说明的是,以下实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
在用球幕相机进行三维建模后,得到三维大场景,本发明就是在三维大场景转成二维的剖面图,本发明使针对结构化物体更加清晰、真实,关键针对结构化物体的剖面图。
参见图1-5,一种将球幕相机得到的三维大场景转成剖面图的方法,包括以下步骤:
S1持球幕相机对场景进行拍摄得到一组照片或者视频流;
S2对照片提取特征点;
S3匹配特征点;
S4根据特征点与相机位置计算出特征点的三维空间位置;
S5生成稀疏点云;
S6根据用户需要,自定义切点云;所述切点云是通过对场景的三维模型进行截面,而后由截面上形成特征点组成;
S7在切点云颜色过渡的区域提取更多特征点,进行稠密重建;所述切点云颜色跃进以外的区域则不进行稠密重建;
S8生成剖面图。
在步骤S2中,视频流的关键帧也为照片,关键帧为任意一帧。从视频流中获取照片的速度最低为每秒24帧,即可以覆盖视频中的大部分照片,所获取的照片可组成最低帧数的视频,关键帧为视频流每秒获取照片中的任意一帧,可适用任何一个视频,不需要专业人员来拍摄视频。步骤S2特征点的出现区域为颜色跃迁的过渡地带。特征点相互匹配的条件是特征点的运算符相同或相近。
所述步骤S1-S5的具体实现过程如下,球幕相机进行实时定位,得到至少一组照片或者视频流;基于球幕相机所得出的至少一组照片或者视频流的特征点进行识别与匹配,生成稀疏点云;基于球幕相机三维数字化建模的闭环进行自动检测;
上述过程中,在所述一组照片或者视频流中,对单张照片用SIFT描述符进行特征点,即照片上的像素点,提取同时分析每一个所述特征点的邻域,根据邻域控制所述特征点。
所述闭环检测为:用当前算出所述球幕相机位置与过去所述球幕相机位置进行比较,检测有无距离相近;若检测到两者距离在一定阈值范围内,就认为所述球幕相机又回到原来走过的地方,此时启动闭环检测。本发明为基于空间信息而非时间序列的闭环检测。
步骤S7中稠密重建,采用的是三维多视角立体视觉算法(PMVS),该算法的相关步骤具体如下:
基于面片的三维多视角立体视觉算法(PMVS)重建出稠密的点云,面片p是一个近似的正切与重建物体表面的一个小矩形,它的一边平行于球幕相机的x轴,面片具有的几何特征如下:(1)中心点:c(p);(2)单位法向:n(p),该向量指向相机的光心;面片p对应一个参考图像R(p),在R(p)中p是可见的。针对p有扩展矩形,p在R(p)中的投影是μ×μ大小的,μ=5or 7。
基于面片的多视角三维立体视觉算法的目的就是保证在每个图像块Ci(x,y))上至少有一个面片的的投影。主要分为以下三步:
S71.1:初始化特征匹配(initial feature matching);
S71.2:面片生成(patch expansion);
S71.3:面片筛选(patch filtering);
初始化特征匹配的目的就是生成一系列稀疏的面片,面片的生成和筛选都要执行n次使得面片足够稠密,同时去除不好的面片。
在步骤S71.1中,首先用SIFT来提取图像的角点特征,即为每幅图像的特征点。对于图像Ii,以及其对应的光心O(Ii),该图像中的特征点f,通过允许有两个像素误差的极线约束找到它在其它图像中的同种类型的特征点f′,构成匹配点对(f,f′)。然后用这些匹配点对使用三角化的方法生成一系列三维空间点,然后将这些点按照距离O(Ii)从小到大顺序进行排列,然后依次尝试生成面片,直到成功。
尝试生成面片的方法如下所示:首先初始化候选面片的c(p),n(p)和R(p),如下所示:
c(p)←Triangulation from f and f′}
R(p)←Ii.
由于生成的面片可能有很多错误的情况,因此可认为在图像Ii中可见的面片是面片的法向量与面片中心到相机光心的连线夹角小于一定角度αα的图像,即满足:
同样V*(p)的获得与前面所讲的方法相同。这样面片的信息都已经初始化过了,然后根据前面所讲的对c(p)和n(p)进行优化,并将优化过后的c(p)和n(p)带入V*(p)=I|I∈V(p),h(p,I,R(p)≤α)
中对V(p)和V*(p)进行更新。如果|V*(p)|≥r,集认为面片p的可视图像至少为r幅,即接受面片p,重建成功。并将面片p存储到对应的可视图像的图像块中(即更新Qi(x,y)和Q*i(x,y))。
步骤S71.2面片生成的目的就是保证每个图像块至少对应一个面片。通过上面生成的面片,重复的生成新的面片,具体来说就是给定一个面片p,首先获得一个满足一定条件的邻域图像块集合C(p),然后进行面片生成的过程。
下面是面片p的两个相关概念:
(1)图像块邻域C(p):C(p)={Ci(x′,y′)|p∈Qi(x,y),|x-x′|+|y-y′|=1}.(2)面片p和p′的临近关系:
|(c(p)-c(p′))·n(p)|+|(c(p)-c(p′))·n(p′)|<2ρ1
即当面片p和p′满足上式时,即判定两者为临近关系,上式中的ρ1由R(p)在c(p)和c(p′)中的深度决定。
当存在一个面片p′其所属的图像块Ci(x′,y′)满足Ci(x′,y′)∈C(p),同时p和p′属于近邻关系时,此时将Ci(x′,y′)从C(p)中删除,不对它进行面片生成。同时,即使这个条件没有满足,只要Qi(x′,y′)不为空,也不需要再此图像块上执行生成操作。
对于C(p)中其余的图像块,将会执行面片生成的操作流程以生成新的面片p′。首先用p的相应变量初始化p′的n(p′)、R(p′)和V(p′),对于c(p’)的初始值为穿过Ci(x,y)的可视光线与面片p所在平面的交点。使用V*(p)=I|I∈V(p),h(p,I,R(p)≤α)由V(p)得到V*(p′),再由上面提到的方法对c(p′)和n(p′)进行优化。在优化的过程中,将c(p′)约束在一条直线上,使得p′在图像Ii上的位置不会改变,始终对应的是Ci(x,y)。优化完成后,给V(p′)加上一组图像,这些图像块些根据深度测试判断为p′对其应该是可见的,并根据此更新V*(p′)。
最终如果|V*(p′)|≥r|,则判定p′是可接受的,即生成成功,同时更新Qi(x,y)和Q*i(x,y)。
步骤S71.3中的面片过滤,在面片的重建过程中,可能会生成一些误差较大的面片,因此需要过滤来确保面片的准确性。第一个过滤器是通过可视一致性进行过滤,另U(p)表示与当前可视信息不连续的面片集合,所谓的不连续就是p和p′两个面片不属于近邻关系,但是却存在于同一个Qi(x,y)中。对于U(p)中的面片p,如果满足下列条件,则将其过滤掉。
|V*(p)|(1-g*(p))<∑pi∈U(p)1-g*(p)
直观上来讲,如果p是一个异常值,那么1-g*(p)和|V*(p)|都会比较小,这样p一般都会被过滤掉。第二个过滤器同样也是考虑可视一致性,不过会更加严格,对于每个面片p,计算它通过深度测试得到的可视图像的总数,如果数目小于r,那么则认为p是异常值,从而过滤掉。第三个过滤器,对于每个面片p,在V(p)中,收集这样的一组面片,它们的映射到面片p自己所在的图像块以及所有相邻的图像块,如果p的八邻域内的面片数量占收集所得面片数量的比例小于0.25,则任务p是异常值,将其过滤掉。
在步骤S7中,切点云颜色跃进以外的区域则不进行稠密重建,采用稀疏重建,得到结构化模型。即在基于球幕相机三维数字化建模的闭环进行自动检测后,对切点云颜色跃进以外的区域进行稀疏重建,得到剖面图以外的场景的三维模型。具体步骤可细分为:
S72.1初步计算出所述球幕相机位置得到部分有噪音点稀疏点云,用距离和重投影的方式进行滤波滤掉噪音点;
S72.2对稀疏点云做标记即整体点云中,并进行对应的标记;
S72.3以每个稀疏点云为起点,以对应的球幕相机作一条虚拟直线,多个所述虚拟直线经过的空间交织在一起,形成一个可视空间;
S72.4将被射线包围的空间抠出来;
S72.5基于图论最短路径的方式做闭合空间。
需要说明的是,所述稀疏点云为每个所述球幕相机过滤之后所获得的。其中步骤S5.3也可理解为以每个稀疏点云为起点,以对应的球幕相机作一条虚拟直线,多个所述虚拟直线经过的空间交织在一起,形成一个可视空间。
需要进一步说明的是,过滤指的是:在确认了二维图片中某一点对应的三维坐标位置后,将这个三维坐标点重新投影到原来的球幕照片上,再次确认是否仍是那个点。其原因是,二维图片的点与其在三维世界的点的位置是一一对应关系,所以在确认了二维图片中某一点的三维坐标点后,可以将这个三维坐标点重新投射回去验证二维坐标点是否仍在原来的位置,以此来决定该像素点是否为噪点,是否需要过滤。需要说明的是,在照片或视频流中确定一张来自于某个所述球幕相机的最优图片。所述最优图片为某一所述球幕相机能够得到目标的像素最多,则所述球幕相机为最优。
需要进一步说明的是,利用公式计算出对应的相机及其拍到的图形颜色:
V1=normalize(Came raMatrixi*V0)
式中:V0为任何一个需要采样的空间点坐标(x,y,z,1),对于一个模型需要光栅化所有点;V1为V0变换到相机空间的新位置坐标,通过向量归一化变换到单位球面上;Tx和Ty为V0所对应的纹理坐标(x,y),选用坐标系为OPENGL纹理坐标系;aspecti:采样用的第i个全景图片的长宽比;CameraMatrixi:采样用的第i个全景图片的变换矩阵,将相机位置变换到原点,并重置相机面朝方向。
如图6所示,在步骤S8生成剖面图后,可对剖面图进行测距,测距方法包括以下步骤:
S81:在图片1中找到目标点,得到其二维坐标值a和该点对应的相机点A;
S82:同时通过图片1中的目标点匹配到该目标点在另一张图片2上的二维坐标值b及其对应的相机点B;上述每一个特征点的特征都可以被数值描述,这些特征不仅包含自身的位置、方向和颜色信息,还包括该特征点附近的点的信息;所有这些信息在计算机中都由一个数值表示;上述匹配,目的是找到两张照片(在不同角度)中的相同的某一特征点,匹配的方法是比较这个数值,两个数值接近或者一致,就认定这是同一个点,也就是匹配成功;
S83:连接目标点在图片1上的二维坐标a与相机点A得到一条射线La,同时连接目标点在图片2上的二维坐标b与相机点B得到一条射线Lb;
S84:La与Lb相交于点C,并得到C点的三维坐标值;
S85:重复上述步骤S1-步骤S4得到另外一个目标点的三维坐标值D;
S86:将C、D两点相连,测出其在三维空间中的距离。
图6中的C点和D点即为生成的剖面图中的点,是三维空间中的点,C、D两点的距离,即为其在三维空间中的距离,C、D两点可由用户自定义。
基于步骤S8的结构化模型,提取出门、窗、房间结构,并通过稠密重建整理门、窗的尺寸跟距离信息,将门、窗、房间结构的尺寸信息跟距离信息与步骤S7所形成的剖面图结合形成俯视图,再标示出特定图像信息。
剖面图的形成过程中,针对自定义的面,先从结构化模型中拉出剖面的数据,将剖面上的特征点进行精细化的结构重建,即二次运算稠密重建,生成剖面结果。
实施例
通过附图进一步对本发明的三维建模进行描述,本发明主要的实施方法为:
一种将球幕相机得到的三维大场景转成剖面图的方法,包括以下步骤:
S1持球幕相机对场景进行拍摄得到一组照片或者视频流;
S2对照片提取特征点;
S3匹配特征点;
S4根据特征点与相机位置计算出特征点的三维空间位置;
S5生成稀疏点云,也就是对拍摄所得的照片或者视频流进行稀疏重建;
S6根据用户需要,自定义切点云;所述切点云是通过对场景的三维模型进行截面,而后由截面上形成若干特征点组成;
S7在切点云颜色过渡的区域提取更多特征点,进行稠密重建;所述切点云颜色跃进以外的区域则不进行稠密重建;
S8进行结构化建模,生成剖面图。
基于上述,需要指出的是,将球幕相机得到的三维大场景转成剖面图的方法是根据客户需求进行切面的选择。
进一步的,如图1所示,步骤S4所形成的特征点是图像形成过程中自动生成的,特征点生成的主要目的是为了进行匹配;需要说明的是,在实际操作中可对拍摄某一场景的所有照片的特征点进行匹配。图1中为自动选取特征点的示意,图中的灰色麻点为特征点,从中可以看出特征点一般位于有颜色跃迁的地带。
图2为本发明三维大场景示意图,图3为本发明步骤S6切点云示意图,图3中右侧的深色点云即可生成图4和图5的剖面图,图4为本发明步骤S8所生成的竖切剖面图;图5为本发明步骤S8所生成的横切剖面图。
对于本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及变形,而所有的这些改变以及变形都应该属于本发明权利要求的保护范围之内。

Claims (8)

1.一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:包括以下步骤:
S1:持球幕相机对场景进行拍摄得到一组照片或者视频流;
S2:对照片提取特征点;
S3:匹配特征点;
S4:根据特征点与相机位置计算出特征点的三维空间位置;
S5:生成稀疏点云;
S6:根据用户需要,自定义切点云,所述切点云是通过对稀疏点云进行截面,而后由截面上形成特征点组成;
S7:在切点云颜色过渡的区域提取更多特征点,进行稠密重建;所述切点云颜色过渡以外的区域则不进行稠密重建(Dense reconstruction);
S8:生成剖面图。
2.根据权利要求1所述的一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:所述步骤S7中的稠密重建,采用的是三维多视角立体视觉算法(PMVS)。
3.根据权利要求1所述的一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:在步骤S2中,视频流的关键帧也可得到照片,关键帧为任意一帧。
4.根据权利要求1所述的一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:所述步骤S2特征点的出现区域为颜色跃迁的过渡地带。
5.根据权利要求1所述的一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:所述特征点相互匹配的条件是特征点的运算符相同或相近。
6.根据权利要求2所述的一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:在步骤S8生成剖面图后,可对剖面图进行测距,测距包括以下步骤:
S81:在图片1中找到目标点,得到其二维坐标值a和该点对应的相机点A;
S82:同时通过图片1中的目标点匹配到该目标点在另一张图片2上的二维坐标值b及其对应的相机点B;
S83:连接目标点在图片1上的二维坐标a与相机点A得到一条射线La,同时连接目标点在图片2上的二维坐标b与相机点B得到一条射线Lb;
S84:La与Lb相交于点C,并得到C点的三维坐标值;
S85:重复上述步骤S81-步骤S84得到另外一个目标点的三维坐标值D;
S86:将C、D两点相连,测出其在三维空间中的距离。
7.根据权利要求6所述的一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:基于步骤S8的结构化模型,提取出门、窗、房间结构,并通过测距整理门、窗的尺寸和距离信息,将门、窗、房间结构的尺寸信息跟距离信息与步骤S8所形成的剖面图结合形成俯视图。
8.根据权利要求1所述的一种将球幕相机得到的三维大场景转成剖面图的方法,其特征在于:所述特征点为图片上的像素点,包含该点的位置信息,尺度信息和方向的信息。
CN201810432933.6A 2018-05-08 2018-05-08 一种将球幕相机得到的三维大场景转成剖面图的方法 Active CN108961151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810432933.6A CN108961151B (zh) 2018-05-08 2018-05-08 一种将球幕相机得到的三维大场景转成剖面图的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810432933.6A CN108961151B (zh) 2018-05-08 2018-05-08 一种将球幕相机得到的三维大场景转成剖面图的方法

Publications (2)

Publication Number Publication Date
CN108961151A CN108961151A (zh) 2018-12-07
CN108961151B true CN108961151B (zh) 2019-06-11

Family

ID=64499100

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810432933.6A Active CN108961151B (zh) 2018-05-08 2018-05-08 一种将球幕相机得到的三维大场景转成剖面图的方法

Country Status (1)

Country Link
CN (1) CN108961151B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949399B (zh) * 2019-03-15 2023-07-14 西安因诺航空科技有限公司 一种基于无人机航拍图像的场景三维重建方法
CN110415332A (zh) * 2019-06-21 2019-11-05 上海工程技术大学 一种非单一视角下复杂织物表面三维重建系统及其方法
CN110298136A (zh) * 2019-07-05 2019-10-01 广东金雄城工程项目管理有限公司 基于bim技术场景建造方法和系统及于园林景观数字建模中的应用
CN111340695A (zh) * 2020-02-10 2020-06-26 上海智幻软件科技有限公司 一种球幕视频的超分重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385238A (zh) * 2010-09-03 2012-03-21 深圳华强数码电影有限公司 球幕投影放映的实现方法及系统
CN103021017A (zh) * 2012-12-04 2013-04-03 上海交通大学 基于gpu加速的三维场景重建方法
CN106600686A (zh) * 2016-12-06 2017-04-26 西安电子科技大学 一种基于多幅未标定图像的三维点云重建方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100798413B1 (ko) * 2006-10-24 2008-01-28 (주)한국해양과학기술 해양에서 측량되는 자료를 3차원적 형태로 가시화하는시스템 및 이의 방법
CN104240289B (zh) * 2014-07-16 2017-05-03 崔岩 一种基于单个相机的三维数字化重建方法及系统
CN106097436B (zh) * 2016-06-12 2019-06-25 广西大学 一种大场景对象的三维重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385238A (zh) * 2010-09-03 2012-03-21 深圳华强数码电影有限公司 球幕投影放映的实现方法及系统
CN103021017A (zh) * 2012-12-04 2013-04-03 上海交通大学 基于gpu加速的三维场景重建方法
CN106600686A (zh) * 2016-12-06 2017-04-26 西安电子科技大学 一种基于多幅未标定图像的三维点云重建方法

Also Published As

Publication number Publication date
CN108961151A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN108961151B (zh) 一种将球幕相机得到的三维大场景转成剖面图的方法
CN106228507B (zh) 一种基于光场的深度图像处理方法
Furukawa et al. Accurate, dense, and robust multiview stereopsis
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
Chen et al. Robust dense reconstruction by range merging based on confidence estimation
CN108053476B (zh) 一种基于分段三维重建的人体参数测量系统及方法
Starck et al. The multiple-camera 3-d production studio
Liu et al. Online tracking of outdoor lighting variations for augmented reality with moving cameras
CN106997605A (zh) 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法
CN205451195U (zh) 一种基于多摄像机的实时三维点云重建系统
Pound et al. A patch-based approach to 3D plant shoot phenotyping
Pantoja-Rosero et al. Generating LOD3 building models from structure-from-motion and semantic segmentation
Xue et al. Symmetric piecewise planar object reconstruction from a single image
Furukawa High-fidelity image-based modeling
CN108510434B (zh) 通过球幕相机进行三维建模的方法
Wei et al. Simulating shadow interactions for outdoor augmented reality with RGBD data
Owens et al. Shape anchors for data-driven multi-view reconstruction
Ran et al. High-precision human body acquisition via multi-view binocular stereopsis
Kuschk Model-free dense stereo reconstruction for creating realistic 3D city models
Zou et al. Automatic inpainting by removing fence-like structures in RGBD images
CN115131504A (zh) 一种宽视场大场景下的多人三维重建方法
Xue et al. A DAISY descriptor based multi-view stereo method for large-scale scenes
Stereopsis Accurate, dense, and robust multiview stereopsis
Feris et al. Multiflash stereopsis: Depth-edge-preserving stereo with small baseline illumination
Chang et al. Reconstructing three-dimensional specific curve building models from a single perspective view image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant