CN112308972A - 一种大规模电缆隧道环境模型重构方法 - Google Patents
一种大规模电缆隧道环境模型重构方法 Download PDFInfo
- Publication number
- CN112308972A CN112308972A CN202011122364.9A CN202011122364A CN112308972A CN 112308972 A CN112308972 A CN 112308972A CN 202011122364 A CN202011122364 A CN 202011122364A CN 112308972 A CN112308972 A CN 112308972A
- Authority
- CN
- China
- Prior art keywords
- camera
- panoramic
- point
- images
- cable tunnel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013507 mapping Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 28
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000005316 response function Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 4
- 241000287196 Asthenes Species 0.000 claims description 3
- 238000002156 mixing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种大规模电缆隧道环境模型重构方法,包括步骤:将全景相机前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集不同角度的棋盘格图像、不同曝光量的鱼眼图像;使用全景相机匀速前进采集电缆隧道环境的全景视频S,将全景视频S分割成Q段全景图像序列I;针对每段全景图像序列I,获得F相机和R相机的外部参数、稀疏三维点云,基于球面扫描算法密集重建稠密三维点云;对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。本发明有效的解决了针孔相机视野小的问题;而且还解决了传统SFM算法所面临的速度问题和精度问题,该方法在基于图像的三维重建技术上具有实际价值。
Description
技术领域
本发明涉及计算机视觉技术领域,具体来说,涉及一种大规模电缆隧道环境模型重构方法。
背景技术
基于图像的三维重建,通过计算机对预先采集的现实世界对象的二维图像进行识别、分析、仿真后建立相应模型来虚拟景象,运动恢复结构(Structure From Motion,SFM)就是一种利用二维图像信息,恢复相机运动参数与场景结构的三维重建方法,该方法广泛应用在地理信息系统、机车导航系统,虚拟现实场景漫游系统等。为了更加高效地获取环境信息,增加虚拟漫游场景的真实性和沉浸感,解决三维模型重构中大规模、远距离、场景复杂(例如,弱纹理、无纹理、运动物体、光线暗)等问题,同时提高模型重构的精度,使用宽视野的消费级360全景相机(例如,、Samsung Gear 360、LG 360等)采集的影像进行三维模型重构具有广泛的应用价值。
基于无序球形全景图像数据集,Alain Pagani等人采用近似几何来简化标准SFM各个步骤的计算,将生成的稀疏点云输入到多视角立体系统(Multiple View Stereo,MVS)得到稠密地图。由于采用近似计算和MVS主要适用于平面图像,所以该方法虽然提高了运算效率,但地图精度有所欠缺。Sunghoon等人使用球形全景相机(Spherical PanoramicCamera,SPC)相机采集微小运动的有序全景图,KLT算法用于Harris角点追踪,球面扫描算法用于稠密重建大规模场景,相较于标准SFM该方法在运行速度上有所提高,但只适用于短距离场景。本发明提出了一种大规模电缆隧道环境模型重构方法,该方法基于全景相机采集大规模、远距离、场景复杂的电缆隧道环境全景视频,将全景视频列进行分段重建,每一段全景图像序列使用改进的SFM方法获取全景相机轨迹和环境的稀疏三维信息,球面扫描算法用于建立环境的稠密点云。然后使用非线性优化方法将每段密集点云信息进行融合得到完整的电缆隧道模型。传统SFM算法通常是采用针孔相机作为唯一视觉传感器,首先提取图像SIFT特征进行匹配,然后使用极线几何与PnP算法计算每帧图像的转换矩阵(包括旋转矩阵和平移向量),通过三角化重构三维点,最后使用捆绑调整(Bundle Adjustment,BA)整体优化转换矩阵和三维点云。改进SFM方法采用的全景相机包含前后两个鱼眼镜头,每个鱼眼镜头的视野覆盖200°,能够采集到更丰富的环境信息,并使用统一相机模型(UnifiedCamera Model,UCM)为鱼眼镜头成像建立精确的几何投影模型。对于每段全景图像序列,基于Debevec方法还原全景图像的动态范围,使用KLT光流算法在高动态范围全景图像上追踪Harris角点,避免描述子的计算与匹配,节省大量时间,同时提高了Harris角点追踪精度。然后,利用基于统一相机模型的BA优化全景相机中两个鱼眼镜头的外部参数和三维地图点云。相比于标准SFM算法和Sunghoon等人提出的算法,我们的方法大大提高了大规模、远距离、复杂环境三维模型构建的效率与精度。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的上述技术问题,本发明提出一种大规模电缆隧道环境模型重构方法,能够解决上述问题。
为实现上述技术目的,本发明的技术方案是这样实现的:
一种大规模电缆隧道环境模型重构方法,其特征在于,包括步骤:
S1:将全景相机前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集不同角度的棋盘格图像、不同曝光量的鱼眼图像;
S2:使用全景相机匀速前进采集电缆隧道环境的全景视频S,将全景视频S分割成Q段全景图像序列I;
S3:针对每段全景图像序列I,获得F相机和R相机的外部参数、稀疏三维点云,基于球面扫描算法密集重建稠密三维点云;
S4:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
进一步的,所述步骤S1具体包括:
S11:将全景相机的前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集12幅不同角度的棋盘格图像,基于统一相机模型标定全景相机的内部参数,包含F相机的内部参数KF,ξF、R相机的内部参数KR,ξR,以及F相机与R相机之间的内部参数P,其中,KF,KR是3×3矩阵,ξF,ξR是常数,P是3×4矩阵;
S12:使用F相机和R相机分别采集5幅不同曝光量的鱼眼图像,基于Debevec方法标定F相机和R相机的相机响应曲线,非线性相机响应函数分别记为fF()和fR()。
进一步的,所述步骤S2具体包括:
S22:固定F相机和R相机的曝光时间ΔtF和ΔtR,使用全景相机匀速前进采集电缆隧道环境的全景视频S,分辨率为1920×1080;将全景视频S分割成Q段全景图像序列I,每段全景图像序列I包含900帧全景图像,相邻段全景图像序列重叠90帧全景图像。
进一步的,所述步骤S3具体包括:
S31:从全景图像序列I中每隔30帧提取一帧全景图像,构成N=30帧全景图像集I(i),(i=1,2,…,N),全景图像分辨率为1920×1080;全景图像集I(i)中包含F相机采集的N帧鱼眼图像IF(i),(i=1,2,…,N),R相机采集的N帧鱼眼图像IR(i)(i=1,2…,N),鱼眼图像分辨率为960×1080;
S32:利用相机响应函数fF()和fR()分别将鱼眼图像IF(i)、IR(i)转化为高动态范围鱼眼图像IFH(i)、IRH(i);
S33:提取第1帧鱼眼图像IF(1)和IR(1)的Harris角点,并利用KLT算法分别跟踪高动态范围鱼眼图像IFH(i)、IRH(i)上提取的Harris角点;当角点追踪丢失或者角点距离图像中心超过900像素时,则过滤掉该角点;滤波后第i帧第j个Harris角点的图像坐标分别记和角点数量分别记为NF和NR;
S36:构造BA公式最小化球面坐标的距离,表示为
其中,||||H是Huber核函数,用来增强对异常值的鲁棒性;通过3×4矩阵P将F相机和R相机的外部参数Pi F,Pi R在同一个参考系中表示,转换关系为
S38:使用Ceres优化器求解公式(1),得到F相机和R相机的外部参数Pi F,Pi R、稀疏三维点云Point;
S39:将全景图像序列I、全景相机的外部参数Pi F和稀疏三维点云Point作为输入,基于球面扫描算法密集重建稠密三维点云Points。
进一步的,所述步骤S4具体包括:
S41:全景图像序列I中相邻段q的第28、29、30帧全景图像分别与q+1的第1、2、3帧全景图像重叠(q∈Q),提取这6帧全景图像中共有的Harris角点,对应点云Point(q)和Point(q+1)的3D坐标分别记为X(q),X(q+1);将第1个全景图像序列I所在的世界坐标系作为全局坐标系,使用非线性优化方法依次计算3D点X(q)到3D点X(1)的转换矩阵T(q);其中T(q)是一个3×4矩阵,3D点转换时使用齐次坐标;
S42:利用转换矩阵T(q)依次将点云Points(q)融入到Points(1),得到全局一致的稠密三维点云;
S43:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
本发明的有益效果:本发明的积极效果是基于全景相机重建大规模电缆隧道环境模型,有效的解决了针孔相机视野小的问题;而且还解决了传统SFM算法所面临的速度问题和精度问题。该方法在进行基于图像的三维重建技术上具有实际价值,其可以在逆向工程、计算机视觉、虚拟现实/增强现实等领域进行推广使用,其具有算法复杂性低、重建精度高等优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为统一相机模型。
图2为Ricoh Theta S全景相机内外部参数关系。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
如图1-2所示,根据本发明实施例所述的一种大规模电缆隧道环境模型重构方法,其特征在于:将Ricoh Theta S全景相机通过电缆与计算机连接,其具体的方法按以下步骤实现:
步骤1、统一相机模型模模拟鱼眼镜头成像的两个投影过程,如图1所示,首先将空间中的3D点X=(X,Y,Z)投影到球形坐标系的单位球面上,然后将球面上的投影点再次投影到球心沿Z轴移动-ξ的距离形成针孔投影的相机坐标系的图像平面上,其数学表达式为
将Ricoh Theta S全景相机的前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机。使用F相机和R相机分别采集12幅不同角度的棋盘格图像,基于统一相机模型模标定RicohTheta S全景相机的内部参数,包含F相机的内部参数KF,ξF、R相机的内部参数KR,ξR,以及F相机与R相机之间的内部参数P,其中,KF,KR是3×3矩阵,ξF,ξR是常数,P是3×4矩阵。
步骤2、Debevec方法是利用多幅不同曝光量的低动态范围图像计算相机响应曲线。相机响应曲线描述曝光量X与像素值I的非线性函数为
I=f(X)=f(EΔt) (3)
其中,E为环境辐照度,Δt为曝光时间。图像像素值I是随着曝光量X的增加而单调增加,因此相机响应函数f()是可逆的,公式(3)可以修改为
lnf-1(I)=lnE+lnΔt (4)
公式(4)表明,当曝光时间Δt一定,利用相机响应函数f()将像素亮度I转化为高范围的环境辐照度E,使图像具有更高的动态范围。
使用F相机和R相机分别采集5幅不同曝光量的鱼眼图像,基于Debevec方法标定F相机和R相机的相机响应曲线,非线性相机响应函数分别记为fF()和fR()。
步骤3、固定F相机和R相机的曝光时间ΔtF和ΔtR,使用Ricoh Theta S全景相机匀速前进采集电缆隧道环境的全景视频S,分辨率为1920×1080。将全景视频S分割成Q段全景图像序列I,每段全景图像序列I包含900帧全景图像,相邻段全景图像序列重叠90帧全景图像。针对每段全景图像序列I,利用步骤4到步骤12获得F相机和R相机的外部参数Pi F(q),Pi R(q)、稀疏三维点云Point(q)和密集三维点云Points(q)。
步骤4、从全景图像序列I中每隔30帧提取一帧全景图像,构成N=30帧全景图像集I(i),(i=1,2,…,N),全景图像分辨率为1920×1080。全景图像集I(i)中包含F相机采集的N帧鱼眼图像IF(i),(i=1,2,…,N),R相机采集的N帧鱼眼图像IR(i)(i=1,2…,N),鱼眼图像分辨率为960×1080。
步骤5、利用相机响应函数fF()和fR()分别将鱼眼图像IF(i)、IR(i)转化为高动态范围鱼眼图像IFH(i)、IRH(i)。
步骤6、提取第1帧鱼眼图像IF(1)和IR(1)的Harris角点,并利用KLT算法分别跟踪高动态范围鱼眼图像IFH(i)、IRH(i)上提取的Harris角点。当角点追踪丢失或者角点距离图像中心超过900像素时,则过滤掉该角点。滤波后第i帧第j个Harris角点的图像坐标分别记和角点数量分别记为NF和NR。
步骤9、构造BA公式最小化球面坐标的距离,表示为
其中,||||H是Huber核函数,用来增强对异常值的鲁棒性。通过3*4矩阵P将F相机和R相机的外部参数Pi F,Pi R在同一个参考系中表示,转换关系为
步骤11、使用Ceres优化器求解公式(5),得到F相机和R相机的外部参数Pi F,Pi R、稀疏三维点云Point。
步骤12、将全景图像序列I、Ricoh Theta S全景相机的外部参数Pi F和稀疏三维点云Point作为输入,基于球面扫描算法(Sphere Sweeping Algorithm)密集重建稠密三维点云Points。
步骤13、全景图像序列I中相邻段q的第28、29、30帧全景图像分别与q+1的第1、2、3帧全景图像重叠(q∈Q),提取这6帧全景图像中共有的Harris角点,对应点云Point(q)和Point(q+1)的3D坐标分别记为X(q),X(q+1)。将第1个全景图像序列I所在的世界坐标系作为全局坐标系,使用非线性优化方法依次计算3D点X(q)到3D点X(1)的转换矩阵T(q)。其中T(q)是一个3×4矩阵,3D点转换时使用齐次坐标。
步骤14、利用转换矩阵T(q)依次将点云Points(q)融入到Points(1),得到全局一致的稠密三维点云。
步骤15、对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种大规模电缆隧道环境模型重构方法,其特征在于,包括步骤:
S1:将全景相机前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集不同角度的棋盘格图像、不同曝光量的鱼眼图像;
S2:使用全景相机匀速前进采集电缆隧道环境的全景视频S,将全景视频S分割成Q段全景图像序列I;
S3:针对每段全景图像序列I,获得F相机和R相机的外部参数、稀疏三维点云,基于球面扫描算法密集重建稠密三维点云;
S4:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
2.根据权利要求1所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S1具体包括:
S11:将全景相机的前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集12幅不同角度的棋盘格图像,基于统一相机模型标定全景相机的内部参数,包含F相机的内部参数KF,ξF、R相机的内部参数KR,ξR,以及F相机与R相机之间的内部参数P,其中,KF,KR是3×3矩阵,ξF,ξR是常数,P是3×4矩阵;
S12:使用F相机和R相机分别采集5幅不同曝光量的鱼眼图像,基于Debevec方法标定F相机和R相机的相机响应曲线,非线性相机响应函数分别记为fF()和fR()。
3.根据权利要求2所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S2具体包括:
S22:固定F相机和R相机的曝光时间ΔtF和ΔtR,使用全景相机匀速前进采集电缆隧道环境的全景视频S,分辨率为1920×1080;将全景视频S分割成Q段全景图像序列I,每段全景图像序列I包含900帧全景图像,相邻段全景图像序列重叠90帧全景图像。
4.根据权利要求3所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S3具体包括:
S31:从全景图像序列I中每隔30帧提取一帧全景图像,构成N=30帧全景图像集I(i),(i=1,2,…,N),全景图像分辨率为1920×1080;全景图像集I(i)中包含F相机采集的N帧鱼眼图像IF(i),(i=1,2,…,N),R相机采集的N帧鱼眼图像IR(i)(i=1,2…,N),鱼眼图像分辨率为960×1080;
S32:利用相机响应函数fF()和fR()分别将鱼眼图像IF(i)、IR(i)转化为高动态范围鱼眼图像IFH(i)、IRH(i);
S33:提取第1帧鱼眼图像IF(1)和IR(1)的Harris角点,并利用KLT算法分别跟踪高动态范围鱼眼图像IFH(i)、IRH(i)上提取的Harris角点;当角点追踪丢失或者角点距离图像中心超过900像素时,则过滤掉该角点;滤波后第i帧第j个Harris角点的图像坐标分别记和角点数量分别记为NF和NR;
S36:构造BA公式最小化球面坐标的距离,表示为
其中,||||H是Huber核函数,用来增强对异常值的鲁棒性;通过3×4矩阵P将F相机和R相机的外部参数Pi F,Pi R在同一个参考系中表示,转换关系为
S38:使用Ceres优化器求解公式(1),得到F相机和R相机的外部参数Pi F,Pi R、稀疏三维点云Point;
S39:将全景图像序列I、全景相机的外部参数Pi F和稀疏三维点云Point作为输入,基于球面扫描算法密集重建稠密三维点云Points。
5.根据权利要求4所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S4具体包括:
S41:全景图像序列I中相邻段q的第28、29、30帧全景图像分别与q+1的第1、2、3帧全景图像重叠(q∈Q),提取这6帧全景图像中共有的Harris角点,对应点云Point(q)和Point(q+1)的3D坐标分别记为X(q),X(q+1);将第1个全景图像序列I所在的世界坐标系作为全局坐标系,使用非线性优化方法依次计算3D点X(q)到3D点X(1)的转换矩阵T(q);其中T(q)是一个3×4矩阵,3D点转换时使用齐次坐标;
S42:利用转换矩阵T(q)依次将点云Points(q)融入到Points(1),得到全局一致的稠密三维点云;
S43:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011122364.9A CN112308972A (zh) | 2020-10-20 | 2020-10-20 | 一种大规模电缆隧道环境模型重构方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011122364.9A CN112308972A (zh) | 2020-10-20 | 2020-10-20 | 一种大规模电缆隧道环境模型重构方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112308972A true CN112308972A (zh) | 2021-02-02 |
Family
ID=74328571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011122364.9A Pending CN112308972A (zh) | 2020-10-20 | 2020-10-20 | 一种大规模电缆隧道环境模型重构方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112308972A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822936A (zh) * | 2021-09-29 | 2021-12-21 | 北京市商汤科技开发有限公司 | 数据处理方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170019653A1 (en) * | 2014-04-08 | 2017-01-19 | Sun Yat-Sen University | Non-feature extraction-based dense sfm three-dimensional reconstruction method |
CN108566545A (zh) * | 2018-03-05 | 2018-09-21 | 中德(珠海)人工智能研究院有限公司 | 通过移动终端和球幕相机对大场景进行三维建模的方法 |
CN111383333A (zh) * | 2020-04-02 | 2020-07-07 | 西安因诺航空科技有限公司 | 一种分段式sfm三维重建方法 |
CN111462326A (zh) * | 2020-03-31 | 2020-07-28 | 武汉大学 | 低成本360度全景视频相机城市管道三维重建方法及系统 |
-
2020
- 2020-10-20 CN CN202011122364.9A patent/CN112308972A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170019653A1 (en) * | 2014-04-08 | 2017-01-19 | Sun Yat-Sen University | Non-feature extraction-based dense sfm three-dimensional reconstruction method |
CN108566545A (zh) * | 2018-03-05 | 2018-09-21 | 中德(珠海)人工智能研究院有限公司 | 通过移动终端和球幕相机对大场景进行三维建模的方法 |
CN111462326A (zh) * | 2020-03-31 | 2020-07-28 | 武汉大学 | 低成本360度全景视频相机城市管道三维重建方法及系统 |
CN111383333A (zh) * | 2020-04-02 | 2020-07-07 | 西安因诺航空科技有限公司 | 一种分段式sfm三维重建方法 |
Non-Patent Citations (1)
Title |
---|
CHANGHEE WON等: "OmniMVS: End-to-End Learning for Omnidirectional Stereo Matching", 2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION(ICCV)》, 27 February 2020 (2020-02-27), pages 8986 - 8995 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822936A (zh) * | 2021-09-29 | 2021-12-21 | 北京市商汤科技开发有限公司 | 数据处理方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109461180B (zh) | 一种基于深度学习的三维场景重建方法 | |
CN110335343B (zh) | 基于rgbd单视角图像人体三维重建方法及装置 | |
Chen et al. | Surrounding vehicle detection using an FPGA panoramic camera and deep CNNs | |
CN111028155B (zh) | 一种基于多对双目相机的视差图像拼接方法 | |
CN110070598B (zh) | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 | |
CN108288292A (zh) | 一种三维重建方法、装置及设备 | |
Won et al. | End-to-end learning for omnidirectional stereo matching with uncertainty prior | |
KR101891201B1 (ko) | 전방향 카메라의 깊이 지도 획득 방법 및 장치 | |
CN109919911A (zh) | 基于多视角光度立体的移动三维重建方法 | |
CN108958469B (zh) | 一种基于增强现实的在虚拟世界增加超链接的方法 | |
CN110544273B (zh) | 运动捕捉方法、装置以及系统 | |
CN1136738C (zh) | 一种微型实时立体视觉机 | |
CN111325828B (zh) | 一种基于三目相机的三维人脸采集方法及装置 | |
CN112634379B (zh) | 一种基于混合视域光场的三维定位测量方法 | |
CN111899345B (zh) | 一种基于2d视觉图像的三维重建方法 | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN115345942A (zh) | 空间标定方法、装置、计算机设备和存储介质 | |
CN114119889A (zh) | 基于跨模态融合的360度环境深度补全和地图重建方法 | |
CN113345032B (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
CN108564654B (zh) | 三维大场景的画面进入方式 | |
CN112308972A (zh) | 一种大规模电缆隧道环境模型重构方法 | |
Neumann et al. | Eyes from eyes: analysis of camera design using plenoptic video geometry | |
CN108566545A (zh) | 通过移动终端和球幕相机对大场景进行三维建模的方法 | |
CN107240149A (zh) | 基于图像处理的物体三维模型构建方法 | |
CN117315138A (zh) | 基于多目视觉的三维重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |