CN112308972A - 一种大规模电缆隧道环境模型重构方法 - Google Patents

一种大规模电缆隧道环境模型重构方法 Download PDF

Info

Publication number
CN112308972A
CN112308972A CN202011122364.9A CN202011122364A CN112308972A CN 112308972 A CN112308972 A CN 112308972A CN 202011122364 A CN202011122364 A CN 202011122364A CN 112308972 A CN112308972 A CN 112308972A
Authority
CN
China
Prior art keywords
camera
panoramic
point
images
cable tunnel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011122364.9A
Other languages
English (en)
Inventor
李宁
刘青
王盛
熊俊
尚英强
邰宝宇
时晨杰
王魏平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhuoyue Electric Power Construction Co ltd
State Grid Beijing Electric Power Co Ltd
Shanghai Aviation Electric Co Ltd
Original Assignee
Beijing Zhuoyue Electric Power Construction Co ltd
State Grid Beijing Electric Power Co Ltd
Shanghai Aviation Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhuoyue Electric Power Construction Co ltd, State Grid Beijing Electric Power Co Ltd, Shanghai Aviation Electric Co Ltd filed Critical Beijing Zhuoyue Electric Power Construction Co ltd
Priority to CN202011122364.9A priority Critical patent/CN112308972A/zh
Publication of CN112308972A publication Critical patent/CN112308972A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种大规模电缆隧道环境模型重构方法,包括步骤:将全景相机前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集不同角度的棋盘格图像、不同曝光量的鱼眼图像;使用全景相机匀速前进采集电缆隧道环境的全景视频S,将全景视频S分割成Q段全景图像序列I;针对每段全景图像序列I,获得F相机和R相机的外部参数、稀疏三维点云,基于球面扫描算法密集重建稠密三维点云;对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。本发明有效的解决了针孔相机视野小的问题;而且还解决了传统SFM算法所面临的速度问题和精度问题,该方法在基于图像的三维重建技术上具有实际价值。

Description

一种大规模电缆隧道环境模型重构方法
技术领域
本发明涉及计算机视觉技术领域,具体来说,涉及一种大规模电缆隧道环境模型重构方法。
背景技术
基于图像的三维重建,通过计算机对预先采集的现实世界对象的二维图像进行识别、分析、仿真后建立相应模型来虚拟景象,运动恢复结构(Structure From Motion,SFM)就是一种利用二维图像信息,恢复相机运动参数与场景结构的三维重建方法,该方法广泛应用在地理信息系统、机车导航系统,虚拟现实场景漫游系统等。为了更加高效地获取环境信息,增加虚拟漫游场景的真实性和沉浸感,解决三维模型重构中大规模、远距离、场景复杂(例如,弱纹理、无纹理、运动物体、光线暗)等问题,同时提高模型重构的精度,使用宽视野的消费级360全景相机(例如,、Samsung Gear 360、LG 360等)采集的影像进行三维模型重构具有广泛的应用价值。
基于无序球形全景图像数据集,Alain Pagani等人采用近似几何来简化标准SFM各个步骤的计算,将生成的稀疏点云输入到多视角立体系统(Multiple View Stereo,MVS)得到稠密地图。由于采用近似计算和MVS主要适用于平面图像,所以该方法虽然提高了运算效率,但地图精度有所欠缺。Sunghoon等人使用球形全景相机(Spherical PanoramicCamera,SPC)相机采集微小运动的有序全景图,KLT算法用于Harris角点追踪,球面扫描算法用于稠密重建大规模场景,相较于标准SFM该方法在运行速度上有所提高,但只适用于短距离场景。本发明提出了一种大规模电缆隧道环境模型重构方法,该方法基于全景相机采集大规模、远距离、场景复杂的电缆隧道环境全景视频,将全景视频列进行分段重建,每一段全景图像序列使用改进的SFM方法获取全景相机轨迹和环境的稀疏三维信息,球面扫描算法用于建立环境的稠密点云。然后使用非线性优化方法将每段密集点云信息进行融合得到完整的电缆隧道模型。传统SFM算法通常是采用针孔相机作为唯一视觉传感器,首先提取图像SIFT特征进行匹配,然后使用极线几何与PnP算法计算每帧图像的转换矩阵(包括旋转矩阵和平移向量),通过三角化重构三维点,最后使用捆绑调整(Bundle Adjustment,BA)整体优化转换矩阵和三维点云。改进SFM方法采用的全景相机包含前后两个鱼眼镜头,每个鱼眼镜头的视野覆盖200°,能够采集到更丰富的环境信息,并使用统一相机模型(UnifiedCamera Model,UCM)为鱼眼镜头成像建立精确的几何投影模型。对于每段全景图像序列,基于Debevec方法还原全景图像的动态范围,使用KLT光流算法在高动态范围全景图像上追踪Harris角点,避免描述子的计算与匹配,节省大量时间,同时提高了Harris角点追踪精度。然后,利用基于统一相机模型的BA优化全景相机中两个鱼眼镜头的外部参数和三维地图点云。相比于标准SFM算法和Sunghoon等人提出的算法,我们的方法大大提高了大规模、远距离、复杂环境三维模型构建的效率与精度。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的上述技术问题,本发明提出一种大规模电缆隧道环境模型重构方法,能够解决上述问题。
为实现上述技术目的,本发明的技术方案是这样实现的:
一种大规模电缆隧道环境模型重构方法,其特征在于,包括步骤:
S1:将全景相机前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集不同角度的棋盘格图像、不同曝光量的鱼眼图像;
S2:使用全景相机匀速前进采集电缆隧道环境的全景视频S,将全景视频S分割成Q段全景图像序列I;
S3:针对每段全景图像序列I,获得F相机和R相机的外部参数、稀疏三维点云,基于球面扫描算法密集重建稠密三维点云;
S4:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
进一步的,所述步骤S1具体包括:
S11:将全景相机的前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集12幅不同角度的棋盘格图像,基于统一相机模型标定全景相机的内部参数,包含F相机的内部参数KFF、R相机的内部参数KRR,以及F相机与R相机之间的内部参数P,其中,KF,KR是3×3矩阵,ξFR是常数,P是3×4矩阵;
S12:使用F相机和R相机分别采集5幅不同曝光量的鱼眼图像,基于Debevec方法标定F相机和R相机的相机响应曲线,非线性相机响应函数分别记为fF()和fR()。
进一步的,所述步骤S2具体包括:
S22:固定F相机和R相机的曝光时间ΔtF和ΔtR,使用全景相机匀速前进采集电缆隧道环境的全景视频S,分辨率为1920×1080;将全景视频S分割成Q段全景图像序列I,每段全景图像序列I包含900帧全景图像,相邻段全景图像序列重叠90帧全景图像。
进一步的,所述步骤S3具体包括:
S31:从全景图像序列I中每隔30帧提取一帧全景图像,构成N=30帧全景图像集I(i),(i=1,2,…,N),全景图像分辨率为1920×1080;全景图像集I(i)中包含F相机采集的N帧鱼眼图像IF(i),(i=1,2,…,N),R相机采集的N帧鱼眼图像IR(i)(i=1,2…,N),鱼眼图像分辨率为960×1080;
S32:利用相机响应函数fF()和fR()分别将鱼眼图像IF(i)、IR(i)转化为高动态范围鱼眼图像IFH(i)、IRH(i);
S33:提取第1帧鱼眼图像IF(1)和IR(1)的Harris角点,并利用KLT算法分别跟踪高动态范围鱼眼图像IFH(i)、IRH(i)上提取的Harris角点;当角点追踪丢失或者角点距离图像中心超过900像素时,则过滤掉该角点;滤波后第i帧第j个Harris角点的图像坐标分别记
Figure BDA0002732469800000041
Figure BDA0002732469800000042
角点数量分别记为NF和NR;
S34:根据统一相机模型计算图像坐标
Figure BDA0002732469800000043
对应的球面坐标记为
Figure BDA0002732469800000044
那么第j个角点在第1帧的球面坐标为
Figure BDA0002732469800000045
Figure BDA0002732469800000046
其对应的球面坐标系下的3D点坐标可以通过逆深度计算为
Figure BDA0002732469800000047
其中,
Figure BDA0002732469800000048
为第j个角点在F相机第1帧下的逆深度,
Figure BDA0002732469800000049
Figure BDA00027324698000000410
的欧几里德范数,
Figure BDA00027324698000000411
为第j个角点在R相机第1帧下的逆深度,
Figure BDA00027324698000000412
Figure BDA00027324698000000413
的欧几里德范数。
S35:利用旋转向量ri,(ri∈r)和平移向量ti,(ti∈t)将3D点
Figure BDA00027324698000000414
转换到第i帧球面坐标系下的3D坐标为
Figure BDA00027324698000000415
并进行归一化得到球面坐标为
Figure BDA00027324698000000416
S36:构造BA公式最小化球面坐标的距离,表示为
Figure BDA0002732469800000051
其中,||||H是Huber核函数,用来增强对异常值的鲁棒性;通过3×4矩阵P将F相机和R相机的外部参数Pi F,Pi R在同一个参考系中表示,转换关系为
Figure BDA0002732469800000052
其中,
Figure BDA0002732469800000053
表示使用Rodrigues公式将旋转向量转换成旋转矩阵;
S37:初始化转换矩阵Pi F=[I3×303×1],逆深度
Figure BDA0002732469800000054
米;
S38:使用Ceres优化器求解公式(1),得到F相机和R相机的外部参数Pi F,Pi R、稀疏三维点云Point;
S39:将全景图像序列I、全景相机的外部参数Pi F和稀疏三维点云Point作为输入,基于球面扫描算法密集重建稠密三维点云Points。
进一步的,所述步骤S4具体包括:
S41:全景图像序列I中相邻段q的第28、29、30帧全景图像分别与q+1的第1、2、3帧全景图像重叠(q∈Q),提取这6帧全景图像中共有的Harris角点,对应点云Point(q)和Point(q+1)的3D坐标分别记为X(q),X(q+1);将第1个全景图像序列I所在的世界坐标系作为全局坐标系,使用非线性优化方法依次计算3D点X(q)到3D点X(1)的转换矩阵T(q);其中T(q)是一个3×4矩阵,3D点转换时使用齐次坐标;
S42:利用转换矩阵T(q)依次将点云Points(q)融入到Points(1),得到全局一致的稠密三维点云;
S43:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
本发明的有益效果:本发明的积极效果是基于全景相机重建大规模电缆隧道环境模型,有效的解决了针孔相机视野小的问题;而且还解决了传统SFM算法所面临的速度问题和精度问题。该方法在进行基于图像的三维重建技术上具有实际价值,其可以在逆向工程、计算机视觉、虚拟现实/增强现实等领域进行推广使用,其具有算法复杂性低、重建精度高等优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为统一相机模型。
图2为Ricoh Theta S全景相机内外部参数关系。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
如图1-2所示,根据本发明实施例所述的一种大规模电缆隧道环境模型重构方法,其特征在于:将Ricoh Theta S全景相机通过电缆与计算机连接,其具体的方法按以下步骤实现:
步骤1、统一相机模型模模拟鱼眼镜头成像的两个投影过程,如图1所示,首先将空间中的3D点X=(X,Y,Z)投影到球形坐标系的单位球面上,然后将球面上的投影点再次投影到球心沿Z轴移动-ξ的距离形成针孔投影的相机坐标系的图像平面上,其数学表达式为
Figure BDA0002732469800000071
其中,
Figure BDA0002732469800000072
fx,fy为焦距,[cx,cy]T为图像中心坐标。即鱼眼镜头的内部参数使用3×3的矩阵
Figure BDA0002732469800000073
和常数ξ描述。统一相机模型的逆投影函数为
Figure BDA0002732469800000074
其中,u=[u,v]T为图像坐标,
Figure BDA0002732469800000075
为球面坐标,
Figure BDA0002732469800000076
为逆深度。
将Ricoh Theta S全景相机的前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机。使用F相机和R相机分别采集12幅不同角度的棋盘格图像,基于统一相机模型模标定RicohTheta S全景相机的内部参数,包含F相机的内部参数KFF、R相机的内部参数KRR,以及F相机与R相机之间的内部参数P,其中,KF,KR是3×3矩阵,ξFR是常数,P是3×4矩阵。
步骤2、Debevec方法是利用多幅不同曝光量的低动态范围图像计算相机响应曲线。相机响应曲线描述曝光量X与像素值I的非线性函数为
I=f(X)=f(EΔt) (3)
其中,E为环境辐照度,Δt为曝光时间。图像像素值I是随着曝光量X的增加而单调增加,因此相机响应函数f()是可逆的,公式(3)可以修改为
lnf-1(I)=lnE+lnΔt (4)
公式(4)表明,当曝光时间Δt一定,利用相机响应函数f()将像素亮度I转化为高范围的环境辐照度E,使图像具有更高的动态范围。
使用F相机和R相机分别采集5幅不同曝光量的鱼眼图像,基于Debevec方法标定F相机和R相机的相机响应曲线,非线性相机响应函数分别记为fF()和fR()。
步骤3、固定F相机和R相机的曝光时间ΔtF和ΔtR,使用Ricoh Theta S全景相机匀速前进采集电缆隧道环境的全景视频S,分辨率为1920×1080。将全景视频S分割成Q段全景图像序列I,每段全景图像序列I包含900帧全景图像,相邻段全景图像序列重叠90帧全景图像。针对每段全景图像序列I,利用步骤4到步骤12获得F相机和R相机的外部参数Pi F(q),Pi R(q)、稀疏三维点云Point(q)和密集三维点云Points(q)。
步骤4、从全景图像序列I中每隔30帧提取一帧全景图像,构成N=30帧全景图像集I(i),(i=1,2,…,N),全景图像分辨率为1920×1080。全景图像集I(i)中包含F相机采集的N帧鱼眼图像IF(i),(i=1,2,…,N),R相机采集的N帧鱼眼图像IR(i)(i=1,2…,N),鱼眼图像分辨率为960×1080。
步骤5、利用相机响应函数fF()和fR()分别将鱼眼图像IF(i)、IR(i)转化为高动态范围鱼眼图像IFH(i)、IRH(i)。
步骤6、提取第1帧鱼眼图像IF(1)和IR(1)的Harris角点,并利用KLT算法分别跟踪高动态范围鱼眼图像IFH(i)、IRH(i)上提取的Harris角点。当角点追踪丢失或者角点距离图像中心超过900像素时,则过滤掉该角点。滤波后第i帧第j个Harris角点的图像坐标分别记
Figure BDA0002732469800000081
Figure BDA0002732469800000082
角点数量分别记为NF和NR。
步骤7、根据统一相机模型计算图像坐标
Figure BDA0002732469800000083
对应的球面坐标记为
Figure BDA0002732469800000091
那么第j个角点在第1帧的球面坐标为
Figure BDA0002732469800000092
Figure BDA0002732469800000093
其对应的球面坐标系下的3D点坐标可以通过逆深度计算为
Figure BDA0002732469800000094
步骤8、利用旋转向量ri,(ri∈r)和平移向量ti,(ti∈t)将3D点
Figure BDA0002732469800000095
转换到第i帧球面坐标系下的3D坐标为
Figure BDA0002732469800000096
并进行归一化得到球面坐标为
Figure BDA0002732469800000097
步骤9、构造BA公式最小化球面坐标的距离,表示为
Figure BDA0002732469800000098
其中,||||H是Huber核函数,用来增强对异常值的鲁棒性。通过3*4矩阵P将F相机和R相机的外部参数Pi F,Pi R在同一个参考系中表示,转换关系为
Figure BDA0002732469800000099
其中,
Figure BDA00027324698000000910
表示使用Rodrigues公式将旋转向量转换成旋转矩阵。
步骤10、初始化转换矩阵Pi F=[I3×3 03×1],逆深度
Figure BDA00027324698000000911
米。
步骤11、使用Ceres优化器求解公式(5),得到F相机和R相机的外部参数Pi F,Pi R、稀疏三维点云Point。
步骤12、将全景图像序列I、Ricoh Theta S全景相机的外部参数Pi F和稀疏三维点云Point作为输入,基于球面扫描算法(Sphere Sweeping Algorithm)密集重建稠密三维点云Points。
步骤13、全景图像序列I中相邻段q的第28、29、30帧全景图像分别与q+1的第1、2、3帧全景图像重叠(q∈Q),提取这6帧全景图像中共有的Harris角点,对应点云Point(q)和Point(q+1)的3D坐标分别记为X(q),X(q+1)。将第1个全景图像序列I所在的世界坐标系作为全局坐标系,使用非线性优化方法依次计算3D点X(q)到3D点X(1)的转换矩阵T(q)。其中T(q)是一个3×4矩阵,3D点转换时使用齐次坐标。
步骤14、利用转换矩阵T(q)依次将点云Points(q)融入到Points(1),得到全局一致的稠密三维点云。
步骤15、对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种大规模电缆隧道环境模型重构方法,其特征在于,包括步骤:
S1:将全景相机前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集不同角度的棋盘格图像、不同曝光量的鱼眼图像;
S2:使用全景相机匀速前进采集电缆隧道环境的全景视频S,将全景视频S分割成Q段全景图像序列I;
S3:针对每段全景图像序列I,获得F相机和R相机的外部参数、稀疏三维点云,基于球面扫描算法密集重建稠密三维点云;
S4:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
2.根据权利要求1所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S1具体包括:
S11:将全景相机的前向鱼眼镜头记为F相机,后向鱼眼镜头记为R相机,使用F相机和R相机分别采集12幅不同角度的棋盘格图像,基于统一相机模型标定全景相机的内部参数,包含F相机的内部参数KFF、R相机的内部参数KRR,以及F相机与R相机之间的内部参数P,其中,KF,KR是3×3矩阵,ξFR是常数,P是3×4矩阵;
S12:使用F相机和R相机分别采集5幅不同曝光量的鱼眼图像,基于Debevec方法标定F相机和R相机的相机响应曲线,非线性相机响应函数分别记为fF()和fR()。
3.根据权利要求2所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S2具体包括:
S22:固定F相机和R相机的曝光时间ΔtF和ΔtR,使用全景相机匀速前进采集电缆隧道环境的全景视频S,分辨率为1920×1080;将全景视频S分割成Q段全景图像序列I,每段全景图像序列I包含900帧全景图像,相邻段全景图像序列重叠90帧全景图像。
4.根据权利要求3所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S3具体包括:
S31:从全景图像序列I中每隔30帧提取一帧全景图像,构成N=30帧全景图像集I(i),(i=1,2,…,N),全景图像分辨率为1920×1080;全景图像集I(i)中包含F相机采集的N帧鱼眼图像IF(i),(i=1,2,…,N),R相机采集的N帧鱼眼图像IR(i)(i=1,2…,N),鱼眼图像分辨率为960×1080;
S32:利用相机响应函数fF()和fR()分别将鱼眼图像IF(i)、IR(i)转化为高动态范围鱼眼图像IFH(i)、IRH(i);
S33:提取第1帧鱼眼图像IF(1)和IR(1)的Harris角点,并利用KLT算法分别跟踪高动态范围鱼眼图像IFH(i)、IRH(i)上提取的Harris角点;当角点追踪丢失或者角点距离图像中心超过900像素时,则过滤掉该角点;滤波后第i帧第j个Harris角点的图像坐标分别记
Figure FDA0002732469790000021
Figure FDA0002732469790000022
角点数量分别记为NF和NR;
S34:根据统一相机模型计算图像坐标
Figure FDA0002732469790000023
对应的球面坐标记为
Figure FDA0002732469790000024
那么第j个角点在第1帧的球面坐标为
Figure FDA0002732469790000025
Figure FDA0002732469790000026
其对应的球面坐标系下的3D点坐标可以通过逆深度计算为
Figure FDA0002732469790000027
其中,
Figure FDA0002732469790000028
为第j个角点在F相机第1帧下的逆深度,
Figure FDA0002732469790000029
Figure FDA00027324697900000210
的欧几里德范数,
Figure FDA0002732469790000031
为第j个角点在R相机第1帧下的逆深度,
Figure FDA0002732469790000032
Figure FDA0002732469790000033
的欧几里德范数。
S35:利用旋转向量ri,(ri∈r)和平移向量ti,(ti∈t)将3D点
Figure FDA0002732469790000034
转换到第i帧球面坐标系下的3D坐标为
Figure FDA0002732469790000035
并进行归一化得到球面坐标为
Figure FDA0002732469790000036
S36:构造BA公式最小化球面坐标的距离,表示为
Figure FDA0002732469790000037
其中,||||H是Huber核函数,用来增强对异常值的鲁棒性;通过3×4矩阵P将F相机和R相机的外部参数Pi F,Pi R在同一个参考系中表示,转换关系为
Figure FDA0002732469790000038
其中,
Figure FDA0002732469790000039
表示使用Rodrigues公式将旋转向量转换成旋转矩阵;
S37:初始化转换矩阵Pi F=[I3×3 03×1],逆深度
Figure FDA00027324697900000310
米;
S38:使用Ceres优化器求解公式(1),得到F相机和R相机的外部参数Pi F,Pi R、稀疏三维点云Point;
S39:将全景图像序列I、全景相机的外部参数Pi F和稀疏三维点云Point作为输入,基于球面扫描算法密集重建稠密三维点云Points。
5.根据权利要求4所述的大规模电缆隧道环境模型重构方法,其特征在于,所述步骤S4具体包括:
S41:全景图像序列I中相邻段q的第28、29、30帧全景图像分别与q+1的第1、2、3帧全景图像重叠(q∈Q),提取这6帧全景图像中共有的Harris角点,对应点云Point(q)和Point(q+1)的3D坐标分别记为X(q),X(q+1);将第1个全景图像序列I所在的世界坐标系作为全局坐标系,使用非线性优化方法依次计算3D点X(q)到3D点X(1)的转换矩阵T(q);其中T(q)是一个3×4矩阵,3D点转换时使用齐次坐标;
S42:利用转换矩阵T(q)依次将点云Points(q)融入到Points(1),得到全局一致的稠密三维点云;
S43:对三维点云进行三角剖分和纹理贴图得到大规模电缆隧道环境三维模型。
CN202011122364.9A 2020-10-20 2020-10-20 一种大规模电缆隧道环境模型重构方法 Pending CN112308972A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011122364.9A CN112308972A (zh) 2020-10-20 2020-10-20 一种大规模电缆隧道环境模型重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011122364.9A CN112308972A (zh) 2020-10-20 2020-10-20 一种大规模电缆隧道环境模型重构方法

Publications (1)

Publication Number Publication Date
CN112308972A true CN112308972A (zh) 2021-02-02

Family

ID=74328571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011122364.9A Pending CN112308972A (zh) 2020-10-20 2020-10-20 一种大规模电缆隧道环境模型重构方法

Country Status (1)

Country Link
CN (1) CN112308972A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822936A (zh) * 2021-09-29 2021-12-21 北京市商汤科技开发有限公司 数据处理方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170019653A1 (en) * 2014-04-08 2017-01-19 Sun Yat-Sen University Non-feature extraction-based dense sfm three-dimensional reconstruction method
CN108566545A (zh) * 2018-03-05 2018-09-21 中德(珠海)人工智能研究院有限公司 通过移动终端和球幕相机对大场景进行三维建模的方法
CN111383333A (zh) * 2020-04-02 2020-07-07 西安因诺航空科技有限公司 一种分段式sfm三维重建方法
CN111462326A (zh) * 2020-03-31 2020-07-28 武汉大学 低成本360度全景视频相机城市管道三维重建方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170019653A1 (en) * 2014-04-08 2017-01-19 Sun Yat-Sen University Non-feature extraction-based dense sfm three-dimensional reconstruction method
CN108566545A (zh) * 2018-03-05 2018-09-21 中德(珠海)人工智能研究院有限公司 通过移动终端和球幕相机对大场景进行三维建模的方法
CN111462326A (zh) * 2020-03-31 2020-07-28 武汉大学 低成本360度全景视频相机城市管道三维重建方法及系统
CN111383333A (zh) * 2020-04-02 2020-07-07 西安因诺航空科技有限公司 一种分段式sfm三维重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHANGHEE WON等: "OmniMVS: End-to-End Learning for Omnidirectional Stereo Matching", 2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION(ICCV)》, 27 February 2020 (2020-02-27), pages 8986 - 8995 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822936A (zh) * 2021-09-29 2021-12-21 北京市商汤科技开发有限公司 数据处理方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN109461180B (zh) 一种基于深度学习的三维场景重建方法
CN110335343B (zh) 基于rgbd单视角图像人体三维重建方法及装置
Chen et al. Surrounding vehicle detection using an FPGA panoramic camera and deep CNNs
CN111028155B (zh) 一种基于多对双目相机的视差图像拼接方法
CN110070598B (zh) 用于3d扫描重建的移动终端及其进行3d扫描重建方法
CN108288292A (zh) 一种三维重建方法、装置及设备
Won et al. End-to-end learning for omnidirectional stereo matching with uncertainty prior
KR101891201B1 (ko) 전방향 카메라의 깊이 지도 획득 방법 및 장치
CN109919911A (zh) 基于多视角光度立体的移动三维重建方法
CN108958469B (zh) 一种基于增强现实的在虚拟世界增加超链接的方法
CN110544273B (zh) 运动捕捉方法、装置以及系统
CN1136738C (zh) 一种微型实时立体视觉机
CN111325828B (zh) 一种基于三目相机的三维人脸采集方法及装置
CN112634379B (zh) 一种基于混合视域光场的三维定位测量方法
CN111899345B (zh) 一种基于2d视觉图像的三维重建方法
CN115035235A (zh) 三维重建方法及装置
CN115345942A (zh) 空间标定方法、装置、计算机设备和存储介质
CN114119889A (zh) 基于跨模态融合的360度环境深度补全和地图重建方法
CN113345032B (zh) 一种基于广角相机大畸变图的初始化建图方法及系统
CN108564654B (zh) 三维大场景的画面进入方式
CN112308972A (zh) 一种大规模电缆隧道环境模型重构方法
Neumann et al. Eyes from eyes: analysis of camera design using plenoptic video geometry
CN108566545A (zh) 通过移动终端和球幕相机对大场景进行三维建模的方法
CN107240149A (zh) 基于图像处理的物体三维模型构建方法
CN117315138A (zh) 基于多目视觉的三维重建方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination