CN117576334B - 基于数字孪生技术的水下实景三维数据底板获取方法 - Google Patents
基于数字孪生技术的水下实景三维数据底板获取方法 Download PDFInfo
- Publication number
- CN117576334B CN117576334B CN202410056691.0A CN202410056691A CN117576334B CN 117576334 B CN117576334 B CN 117576334B CN 202410056691 A CN202410056691 A CN 202410056691A CN 117576334 B CN117576334 B CN 117576334B
- Authority
- CN
- China
- Prior art keywords
- action
- dimensional
- underwater
- live
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000005516 engineering process Methods 0.000 title claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims description 36
- 238000013507 mapping Methods 0.000 claims description 23
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 19
- 230000004075 alteration Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000013499 data model Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 5
- 238000004040 coloring Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 4
- 238000011158 quantitative evaluation Methods 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 3
- 230000004069 differentiation Effects 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 3
- 238000002310 reflectometry Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000012876 topography Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000003643 water by type Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/05—Underwater scenes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Abstract
本发明公开了基于数字孪生技术的水下实景三维数据底板获取方法,涉及数字孪生技术领域。基于数字孪生技术的水下实景三维数据底板获取方法步骤包括构建水陆一体化定位系统;构建水下三维摄影测量系统;采集水下实景三维多角度影像;提取水下实景三维影像特征点及特征点匹配;定位水下实景三维空间点;生成水下实景三维点云;重建水下实景三维网格;得到水下实景三维模型;对实景三维模型进行定量分析、评价;通过水下实景三维模型输出水下实景三维数据底板。本发明解决了现有技术中分辨率低、效率低下、环境适应性差的技术问题。
Description
技术领域
本发明属于数字孪生技术领域,具体涉及一种基于数字孪生技术的水下实景三维数据底板获取方法。
背景技术
随着陆海实景三维、智慧水利的推进,国内各大城市建设单位、水利管理单位开展了流域数字化场景建设和智慧化模拟,主要通过数字孪生技术进行实现。
目前在国内外科研及应用市场上,采用下面几个技术:
声纳技术,是最传统的水下测绘技术之一,使用声波测量水下地形,声纳系统可以分为侧扫声纳和多波束声纳;侧扫声纳能够产生宽范围的水下地形图像,但在垂直分辨率方面有限;多波束声纳能够提供高分辨率的深度数据,但其数据处理相对复杂,且对水质透明度有一定要求。
激光扫描,水下激光扫描(LIDAR)是另一种常见的水下三维建模技术;激光扫描适用于浅水区域,可以生成高分辨率的地形数据。然而,激光在水中的传播受到限制,适用范围较浅。
遥感技术,卫星和航空摄影是水下地形和地貌研究的重要工具,特别适用于大范围的海洋和沿海环境监测;然而,遥感技术在深水区域的应用受到限制,且空间分辨率相对较低。
然而,上述现有技术存在以下技术困难:
分辨率限制,传统的声纳和激光扫描技术在水下环境中受到光线和水质条件的限制,无法达到很高的分辨率。
数据整合困难,不同技术获取的数据格式和质量差异较大,数据整合和融合过程复杂,导致最终模型的精确度受限。
成本和效率问题,传统方法往往需要昂贵的设备和长时间的数据采集,效率较低,且对操作人员的技能要求较高。
环境适应性,在复杂的水下环境中,如深海或浑浊水域,传统方法的适应性和准确性会受到影响。
发明内容
本发明的目的在于提供基于数字孪生技术的水下实景三维数据底板获取方法,用于解决现有技术中分辨率低、效率低下、环境适应性差的技术问题。
为了实现上述目的,本发明采用了如下技术方案:
基于数字孪生技术的水下实景三维数据底板获取方法,具体步骤包括:
步骤S1:构建水陆一体化定位系统;
步骤S2:构建水下三维摄影测量系统;
步骤S3:采集水下实景三维多角度影像;
步骤S4:提取水下实景三维影像特征点及特征点匹配;
步骤S5:定位水下实景三维空间点;
步骤S6:生成水下实景三维点云;
步骤S7:重建水下实景三维网格;
步骤S8:得到水下实景三维模型;
步骤S9:对实景三维模型进行定量分析、评价;
步骤S10:通过水下实景三维模型输出水下实景三维数据底板。
优选地,水陆一体化定位系统包括母船水上平台和有缆ROV(遥控水下机器人);其中,母船水上平台携带有GNSS、罗经、运动传感器和USBL收发器;有缆ROV上搭载USBL水下信标。
优选地,水下三维摄影测量系统包括水下摄影测量仪器和强光灯,与水陆一体化定位系统协同工作,用于通过USBL水下信标得到水下实景三维的绝对坐标,并采集水下实景三维的多角度影像。
优选地,采集水下实景三维多角度影像方法包括:采用水下摄影测量仪器,通过多个角度对待采集的水下实景三维进行拍摄,至少五个不同角度,得到水下实景三维影像;水下实景三维影像中包含清晰的表面纹理信息。
优选地,提取特征点及特征点匹配方法具体步骤包括:
将水下实景三维影像划分成M行N列的特征区域矩阵;
选取固定大小L×L的像素块作为候选特征点大小;
取特征区域的最短边长D,以D-L为直径,在水下实景三维影像内作内接圆,将候选特征点邻接分布于内接圆上;
计算内接圆圆心处特征点像素值,将中心处像素值记作Q,计算在内接圆正上方、正下方、正左方和正右方四处的候选特征点的像素值;
将四处候选特征点像素值与Q进行比较,若四个候选特征点中,至多有一个像素值小于Q,则将候选特征点列入选中特征点,然后按顺时针顺序,依次计算剩余候选特征点的像素值,将像素值较高的四个同样列入选中特征点;若四个候选特征点中,至少有两个像素值小于Q,则从正上方开始,按顺时针顺序,依次计算候选特征点的像素值,将像素值较高的八个列入选中特征点;
在每个特征区域中选取特征点。
优选地,水下实景三维空间点定位方法具体步骤包括:
建立实平面与虚平面构建的几何模型;
将几何模型转化为代数形式的几何模型矩阵;
求解几何模型矩阵;
通过投影成像方法计算特征点所对应的实景三维空间点坐标。
进一步地,几何模型包括虚平面和实平面,实平面为不同角度的影像,将两个实平面用M1,M2表示;虚平面为三点确定的一个平面,将虚平面用A表示;三点分别为实景三维空间点、实景三维空间点在实平面M1上的投影点、实景三维空间点在实平面M2上的投影点,将三点分别用P、N1、N2表示;
虚平面与实平面M1,M2分别存在交线,使用m1,m2表示;几何模型矩阵F为几何模型的代数形式,由于投影点N1的相对点在交线m2上,投影点N1与对应交线m2的关系使用几何模型矩阵表示为:;投影点N2点在交线m2上,因此/>。
进一步地,几何模型矩阵F是具有9个参数的齐次映射矩阵,选取8个特征点进行求解,其中:
;
将几何模型矩阵F代入到公式中,推出:
;
其中,将特征点N1、N2的坐标记为和/>;/>为几何模型矩阵F的未知参数;通过选取8组特征点即可求解出几何模型矩阵F。
进一步地,投影成像方法包括:
对于空间中的点P,设点P的相对坐标为;对于影像上的像素点N,设点N的坐标为/>,通过几何模型矩阵F将空间坐标与影像坐标建立映射,参阅下面的映射公式:
,
其中,代表影像坐标系中的原点位置,/>代表微分;
将上述映射公式转换为矩阵形式,得到下面的公式:
,
将CMOS芯片与像平面的距离设为,水下实景三维空间点相对于CMOS的/>坐标通过下面的公式得到:
;
其中,表示光线在水中的畸变率,用于矫正光线折射空气中摄影与在水中摄影的不同,通过镜头畸变特性得到;/>通过水下摄影测量仪器根据镜头焦距计算得到。
优选地,网格重建的具体步骤包括:
数据预处理;
法线估计;
表面重建;
纹理映射和着色。
进一步地,数据预处理具体步骤包括:
清理点云,通过统计滤波算法移除点云中的噪声和离群点;
通过体素网格滤波对点云数据进行下采样;
法线估计包括:计算局部邻域中点的协方差;
表面重建步骤包括:
通过球面波重建算法,根据点云和法线信息生成网格;
通过网格简化技术减少顶点和三角面的数量;
修补网格中的空洞,确保获得闭合的网格;
纹理映射和着色包括:通过水下实景三维影像中保存的表面纹理信息,将纹理映射到重建的网格上;通过定义表面的反射率、透明度和粗糙度进行着色。
优选地,水下三维实景模型通过对水下实景三维网格进行后处理得到;后处理包括材质渲染、调整色彩平衡和光照配置;
优选地,定量评价具体步骤包括:
对水下实景三维各处的绝对坐标进行标定,记为;
在水下实景三维模型中提取相同位置的坐标数据,记为,其中i表示标定的点数;
通过点位误差来定量分析模型的偏差程度,公式为:
;
;
;
;
其中,表示整体误差,/>表示各处点位坐标的x轴上误差,/>表示各处点位坐标的y轴上误差,/>表示各处点位坐标的z轴上误差。
优选地,水下实景三维数据底板指包括水下实景三维模型在内的数据集合,其中包括数据模型和数据资源;数据模型指水下实景三维模型;数据资源指通过获取水下实景三维模型衍生出的成果,包括水下实景三维模型的二维图、地理空间数据和监测数据。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明基于数字孪生技术的水下实景三维数据底板获取方法,通过利用先进的水下摄影测量技术和定位系统,精确地采集和重建水下的地形、地貌特征,对于科学研究、水下工程和考古调查等领域具有重要价值;同时,通过结合GNSS定位、USBL系统等技术手段,综合生成一个高质量的数据底板,从而更全面地理解和分析水下环境。
2、本发明基于数字孪生技术的水下实景三维数据底板获取方法通过采用从多个角度获取影像的方式,提高了影像的覆盖范围和质量,确保三维重建的完整性和详细程度;此外,通过先进的特征点提取和匹配算法,能够有效地处理水下影像光线折射、浑浊度等问题,提升模型的准确性和可靠性。
3、本发明基于数字孪生技术的水下实景三维数据底板获取方法通过数据预处理和复杂的表面重建步骤,有助于提高模型质量,减少噪声和不规则性,从而获得更真实和精确的三维模型;通过定量的评估,系统地检查和改进模型的质量,确保满足特定的科学和实际应用需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明基于数字孪生技术的水下实景三维数据底板获取方法流程图;
图2示出了本发明基于数字孪生技术的水下实景三维数据底板获取方法步骤S4特征区域特征点分布图;
图3示出了本发明基于数字孪生技术的水下实景三维数据底板获取方法步骤S5几何模型结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1
本实施例提供一种基于数字孪生技术的水下实景三维数据底板获取方法,水下实景三维数据底板指包括水下实景三维模型在内的数据集合,其中包括数据模型和数据资源;数据模型指水下实景三维模型;数据资源指通过获取水下实景三维模型衍生出的一系列成果,包括水下实景三维模型的二维图、地理空间数据和监测数据等。
参阅图1所示,基于数字孪生技术的水下实景三维数据底板获取方法的具体步骤包括:
步骤S1:构建水陆一体化定位系统;
在一些实施例中,水陆一体化定位系统包括母船水上平台和有缆ROV(遥控水下机器人);其中,母船水上平台携带有GNSS、罗经、运动传感器和USBL收发器;有缆ROV上搭载USBL水下信标;
步骤S2:构建水下三维摄影测量系统;
水下三维摄影测量系统包括水下摄影测量仪器和强光灯,与水陆一体化定位系统协同工作,用于通过USBL水下信标得到水下实景三维的绝对坐标,并采集水下实景三维的多角度影像;
步骤S3:采集水下实景三维多角度影像;
在一些实施例中,采用水下摄影测量仪器,通过多个角度对待采集的水下实景三维进行拍摄,包括至少五个不同角度,得到水下实景三维影像;
水下实景三维影像中包含清晰的表面纹理信息;
步骤S4:提取水下实景三维影像特征点及特征点匹配;
步骤S5:定位水下实景三维空间点;
求解水下实景三维空间点定位是由不同角度的二维影像得到三维定位点;
在实施例3中结合具体实施例对水下实景三维空间点定位方法进一步举例说明;
步骤S6:生成水下实景三维点云;
水下实景三维点云是在求解出水下实景三维空间点的坐标后,通过软件将坐标数据放置在三维空间中,形成能够捕获水下实景三维精确三维几何形状的点云状态,用于描述水下实景三维的表面特征;
步骤S7:重建水下实景三维网格;
得到点云数据后,对水下实景三维进行网格重建,用于将散乱的点云数据转换为连续的、有组织的表面表示,网格重建的具体步骤包括:
步骤S101:数据预处理;
首先,进行清理点云,通过统计滤波算法移除点云中的噪声和离群点;
之后,在点云数据密集的情况下,为减小处理压力,避免过拟合,通过体素网格滤波对点云数据进行下采样;
步骤S102:法线估计;
通过局部邻域中点的协方差对每个点估计其表面的法线,用于确定表面的方向和曲率;
步骤S103:表面重建;
首先通过球面波重建算法,根据点云和法线信息生成网格;之后,如果生成的网格过于复杂,使用网格简化技术减少顶点和三角面的数量;之后,自动或手动修补网格中的空洞,确保获得闭合的网格;
步骤S104:纹理映射和着色;
通过水下实景三维影像中保存的表面纹理信息,将纹理映射到重建的网格上,用于提高重建模型的视觉真实感;通过定义表面的反射率、透明度和粗糙度进行着色;
步骤S8:得到水下实景三维模型;
经过重建水下实景三维网格,并对网格进行纹理映射和着色后,对水下实景三维网格进行后处理,得到水下实景三维模型;后处理包括材质渲染、调整色彩平衡和光照配置;
步骤S9:对实景三维模型进行定量分析、评价;
对实景三维模型的分析评价是判断模型的可用性的重要步骤;
为保证水下实景三维模型的模型精度,对水下实景三维模型的定量评价具体步骤包括:
首先,通过USBL水下信标对水下实景三维各处的绝对坐标进行标定,记为;同样地,在水下实景三维模型中提取相同位置的坐标数据,记为/>,其中i表示标定的点数;
之后,通过点位误差来定量分析模型的偏差程度,公式为:
;
;
;
;
其中,表示整体误差,/>表示各处点位坐标的x轴上误差,/>表示各处点位坐标的y轴上误差,/>表示各处点位坐标的z轴上误差;
步骤S10:通过水下实景三维模型输出水下实景三维数据底板。
本实施例的有益效果有:本实施例提供的基于数字孪生技术的水下实景三维数据底板获取方法,通过综合利用水陆一体化定位系统(包括母船水上平台和有缆ROV)、水下三维摄影测量系统(结合水下摄影测量仪器和强光灯)、多角度影像采集、特征点提取及匹配、三维空间点定位、点云生成、网格重建、纹理映射和着色等多个步骤,能够精确地重建水下实景三维;通过定量分析及评价,保证了模型的高质量和实用性。
实施例2
作为水下实景三维模型构建的关键步骤,后续步骤空间点定位、点云生成和纹理贴图中均需要依赖从不同角度采集的水下实景三维影像,特征点提取用于确定水下实景三维的空间位置关系,生成三维点云,并提高纹理贴图的粒度。
本发明实施例在实施例1的基础上,提供了步骤S4特征点匹配方法,具体步骤包括:
首先,要取特征点,将水下实景三维影像划分成M行N列的矩阵,其中矩阵的每个元素代表一块特征区域;
参阅图2所示,在每个特征区域中选取主要特征点,选取固定大小的像素块作为候选特征点,取特征区域的最短边长D,以D-L为直径,在水下实景三维影像内作内接圆,将候选特征点邻接分布于内接圆上;
为节约计算资源,提高算法效率,计算内接圆圆心处特征点像素值,将中心处像素值记作Q,计算在内接圆正上方、正下方、正左方和正右方四处的候选特征点的像素值,与Q进行比较,若四个候选特征点中,至多有一个像素值小于Q,则将候选特征点列入选中特征点,然后按顺时针顺序,依次计算剩余候选特征点的像素值,将像素值较高的四个同样列入选中特征点;若四个候选特征点中,至少有两个像素值小于Q,则从正上方开始,按顺时针顺序,依次计算候选特征点的像素值,将像素值较高的八个列入选中特征点。
本实施例的有益效果有:本发明实施例的特征点匹配方法是水下实景三维模型构建的关键步骤,能够有效地确定水下实景三维的空间位置关系;提高了算法的效率和计算资源的利用率,还确保了高精度的特征点提取,从而为生成准确的三维点云和提高纹理贴图的粒度奠定了基础;提升了水下实景三维模型的质量和实用性。
实施例3
本发明实施例在实施例1的基础上,提供了步骤S5水下实景三维空间点定位方法,具体步骤包括:
几何模型指水下实景三维空间点在二维影像中的投影关系,在一些实施例中,上述投影关系指两幅不同角度拍摄的二维影像之间的关系;
参阅图3所示,几何模型包括虚平面和实平面,实平面为不同角度的影像,将两个实平面用M1,M2表示;虚平面为三点确定的一个平面,将虚平面用A表示;三点分别为实景三维空间点、实景三维空间点在实平面M1上的投影点、实景三维空间点在实平面M2上的投影点,将三点分别用P、N1、N2表示;
参阅图3所示,虚平面与实平面M1,M2分别存在交线,使用m1,m2表示;几何模型矩阵F为几何模型的代数形式,由于投影点N1的相对点在交线m2上,投影点N1与对应交线m2的关系使用几何模型矩阵表示为:;投影点N2点在交线m2上,因此;
在一些实施例中,上述几何模型矩阵F是具有9个参数的齐次映射矩阵,选取8个特征点进行求解,其中:
;
将几何模型矩阵F代入到公式中,推出:
;
其中,将特征点N1、N2的坐标记为和/>;/>为几何模型矩阵F的未知参数;通过选取8组特征点即可求解出几何模型矩阵F;
将几何模型矩阵F确定后,通过投影成像方法计算特征点所对应的实景三维空间点坐标;
作为一种可行的实施方式,精确的空间位置信息通过投影成像方法得到,投影成像方法包括:
对于空间中的点P,设点P的相对坐标为;对于影像上的像素点N,设点N的坐标为/>,通过几何模型矩阵F将空间坐标与影像坐标建立映射,参阅下面的映射公式:
,
其中,代表影像坐标系中的原点位置,/>代表微分;
将上述映射公式转换为矩阵形式,得到下面的公式:
,
在空间中的点P上,还存在坐标,由于水下摄影测量仪器均为CMOS摄影机,将CMOS芯片与水下实景三维的距离设为/>,CMOS接收光信号后,根据焦距大小呈现出虚拟的像平面,用于缩放CMOS感光影像,将CMOS芯片与像平面的距离设为/>,水下实景三维空间点相对于CMOS的/>坐标通过下面的公式得到:
;
其中,表示光线在水中的畸变率,用于矫正光线折射空气中摄影与在水中摄影的不同,通过镜头畸变特性得到;/>通过水下摄影测量仪器根据镜头焦距计算得到。
本实施例的有益效果有:本发明实施例提供的水下实景三维空间点定位方法,通过引入几何模型和几何模型矩阵F的概念,有效地将水下实景三维的二维影像映射到三维空间中;建立了虚平面和实平面的几何关系,利用两个不同角度拍摄的二维影像(M1和M2)来确定实景三维空间点的位置;通过计算特征点在这些影像上的投影点,结合几何模型矩阵F,能够精确地解算出水下实景三维空间点的三维坐标;通过利用CMOS摄影机和其焦距特性,对影像进行虚拟的像平面缩放,从而精确获取水下实景三维空间点相对于CMOS的Z坐标;这一过程中考虑了光线在水中的畸变率δ,增强了定位的准确性和可靠性。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为的具体实施方式。显然,根据本说明书的内容,可做很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (6)
1.基于数字孪生技术的水下实景三维数据底板获取方法,其特征在于,具体步骤包括:
步骤S1:构建水陆一体化定位系统;
步骤S2:构建水下三维摄影测量系统;
步骤S3:采集水下实景三维多角度影像;
步骤S4:提取水下实景三维影像特征点及特征点匹配;
步骤S5:定位水下实景三维空间点;
步骤S6:生成水下实景三维点云;
步骤S7:重建水下实景三维网格;
步骤S8:得到水下实景三维模型;
步骤S9:对实景三维模型进行定量分析、评价;
步骤S10:通过水下实景三维模型输出水下实景三维数据底板;
所述的水下三维摄影测量系统包括水下摄影测量仪器和强光灯,与水陆一体化定位系统协同工作,用于通过USBL水下信标得到水下实景三维的绝对坐标,并采集水下实景三维的多角度影像;
所述的采集水下实景三维多角度影像方法包括:采用水下摄影测量仪器,通过多个角度对待采集的水下实景三维进行拍摄,得到水下实景三维影像;水下实景三维影像中包含清晰的表面纹理信息;
所述的水下实景三维空间点定位方法具体步骤包括:建立实平面与虚平面构建的几何模型;将几何模型转化为代数形式的几何模型矩阵;求解几何模型矩阵;通过投影成像方法计算特征点所对应的实景三维空间点坐标;
所述的提取特征点及特征点匹配方法具体步骤包括:
将水下实景三维影像划分成m行n列的特征区域矩阵;
选取固定大小L×L的像素块作为候选特征点大小;
取特征区域的最短边长D,以为直径,在水下实景三维影像内作内接圆,将候选特征点邻接分布于内接圆上;
计算内接圆圆心处特征点像素值,将中心处像素值记作Q,计算在内接圆正上方、正下方、正左方和正右方四处的候选特征点的像素值;
将四处候选特征点像素值与Q进行比较,若四个候选特征点中,至多有一个像素值小于Q,则将候选特征点列入选中特征点,然后按顺时针顺序,依次计算剩余候选特征点的像素值,将像素值较高的四个同样列入选中特征点;若四个候选特征点中,至少有两个像素值小于Q,则从正上方开始,按顺时针顺序,依次计算候选特征点的像素值,将像素值较高的八个列入选中特征点;
在每个特征区域中选取特征点;
所述的几何模型包括虚平面和实平面,实平面为不同角度的影像,将两个实平面用M1,M2表示;虚平面为三点确定的一个平面,将虚平面用A表示;三点分别为实景三维空间点、实景三维空间点在实平面M1上的投影点、实景三维空间点在实平面M2上的投影点,将三点分别用P、N1、N2表示;
虚平面与实平面M1,M2分别存在交线,使用m1,m2表示;几何模型矩阵F为几何模型的代数形式,由于投影点N1的相对点在交线m2上,投影点N1与对应交线m2的关系使用几何模型矩阵表示为:;投影点N2点在交线m2上,因此/>。
2.根据权利要求1所述的基于数字孪生技术的水下实景三维数据底板获取方法,其特征在于,几何模型矩阵F是具有9个参数的齐次映射矩阵,选取8个特征点进行求解,其中:
;
将几何模型矩阵F代入到公式中,推出:
;
其中,将投影点N1、投影点N2的坐标记为和/>;/>为几何模型矩阵F的未知参数;m 2表示虚平面与实平面M2的交线;通过选取8组特征点即可求解出几何模型矩阵F。
3.根据权利要求1所述的基于数字孪生技术的水下实景三维数据底板获取方法,其特征在于,投影成像方法包括:
对于空间中的点P,设点P的相对坐标为;对于影像上的像素点N,设点N的坐标为/>,通过几何模型矩阵F将空间坐标与影像坐标建立映射,参阅下面的映射公式:
,
其中,代表影像坐标系中的原点位置,/>代表微分;
将上述映射公式转换为矩阵形式,得到下面的公式:
,
水下实景三维空间点相对于水下摄影测量仪器的坐标通过下面的公式得到:
;
其中,表示光线在水中的畸变率,用于矫正光线折射空气中摄影与在水中摄影的不同,通过镜头畸变特性得到;/>通过水下摄影测量仪器根据镜头焦距计算得到。
4.根据权利要求1所述的基于数字孪生技术的水下实景三维数据底板获取方法,其特征在于,网格重建的具体步骤包括:
数据预处理;
法线估计;
表面重建;
纹理映射和着色;
所述的数据预处理具体步骤包括:
清理点云,通过统计滤波算法移除点云中的噪声和离群点;
通过体素网格滤波对点云数据进行下采样;
法线估计包括:计算局部邻域中点的协方差;
表面重建步骤包括:
通过球面波重建算法,根据点云和法线信息生成网格;
通过网格简化技术减少顶点和三角面的数量;
修补网格中的空洞,确保获得闭合的网格;
纹理映射和着色包括:通过水下实景三维影像中保存的表面纹理信息,将纹理映射到重建的网格上;通过定义表面的反射率、透明度和粗糙度进行着色;
通过对水下实景三维网格进行后处理得到水下实景三维模型;所述后处理包括材质渲染、调整色彩平衡和光照配置。
5.根据权利要求1所述的基于数字孪生技术的水下实景三维数据底板获取方法,其特征在于,通过点位误差进行定量评价包括:
所述的定量评价具体步骤包括:
对水下实景三维各处的绝对坐标进行标定,记为;
在水下实景三维模型中提取相同位置的坐标数据,记为,其中i表示标定的点数;
通过点位误差来定量分析模型的偏差程度,公式为:
;
;
;
;
其中,表示整体误差,/>表示各处点位坐标的x轴上误差,/>表示各处点位坐标的y轴上误差,/>表示各处点位坐标的z轴上误差。
6.根据权利要求1所述的基于数字孪生技术的水下实景三维数据底板获取方法,其特征在于,水下实景三维数据底板指包括水下实景三维模型在内的数据集合,其中包括数据模型和数据资源;数据模型指水下实景三维模型;数据资源指通过获取水下实景三维模型衍生出的成果,包括水下实景三维模型的二维图、地理空间数据和监测数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410056691.0A CN117576334B (zh) | 2024-01-16 | 2024-01-16 | 基于数字孪生技术的水下实景三维数据底板获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410056691.0A CN117576334B (zh) | 2024-01-16 | 2024-01-16 | 基于数字孪生技术的水下实景三维数据底板获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117576334A CN117576334A (zh) | 2024-02-20 |
CN117576334B true CN117576334B (zh) | 2024-04-16 |
Family
ID=89886595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410056691.0A Active CN117576334B (zh) | 2024-01-16 | 2024-01-16 | 基于数字孪生技术的水下实景三维数据底板获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117576334B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927725A (zh) * | 2014-05-07 | 2014-07-16 | 哈尔滨工业大学 | 基于分数阶微分的电影核磁共振图像序列运动场估计方法 |
WO2019157924A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 三维物体的实时检测方法及系统 |
CN115018971A (zh) * | 2022-01-30 | 2022-09-06 | 青岛市勘察测绘研究院 | 一种空间网格模型构建方法 |
CN116129020A (zh) * | 2023-02-09 | 2023-05-16 | 甘肃四维测绘工程有限公司 | 一种新型实景三维建模方法 |
CN116229019A (zh) * | 2023-02-28 | 2023-06-06 | 山东浪潮科学研究院有限公司 | 面向数字孪生的大场景融合三维重建方法及系统 |
-
2024
- 2024-01-16 CN CN202410056691.0A patent/CN117576334B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927725A (zh) * | 2014-05-07 | 2014-07-16 | 哈尔滨工业大学 | 基于分数阶微分的电影核磁共振图像序列运动场估计方法 |
WO2019157924A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 三维物体的实时检测方法及系统 |
CN115018971A (zh) * | 2022-01-30 | 2022-09-06 | 青岛市勘察测绘研究院 | 一种空间网格模型构建方法 |
CN116129020A (zh) * | 2023-02-09 | 2023-05-16 | 甘肃四维测绘工程有限公司 | 一种新型实景三维建模方法 |
CN116229019A (zh) * | 2023-02-28 | 2023-06-06 | 山东浪潮科学研究院有限公司 | 面向数字孪生的大场景融合三维重建方法及系统 |
Non-Patent Citations (4)
Title |
---|
An Operational Image-Based Digital Twin for Large-Scale Structures;Benzon, HH等;《Applied Sciences-basel》;20220430;第12卷(第7期);全文 * |
基于无人机影像的建筑物实景三维建模方法;姚永祥等;《全球定位系统》;20191031;第44卷(第5期);正文第3节 * |
数字孪生水下三维实景数据底板获取技术研究;赵薛强等;《水利信息化》;20230430(第2期);正文第1节-第3节 * |
赵薛强等.数字孪生水下三维实景数据底板获取技术研究.《水利信息化》.2023,(第2期),正文第1节-第3节. * |
Also Published As
Publication number | Publication date |
---|---|
CN117576334A (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102003938B (zh) | 大型高温锻件热态在位检测方法 | |
CN111899328B (zh) | 一种基于rgb数据与生成对抗网络的点云三维重建方法 | |
CN110866973B (zh) | 空天库岸一体化应急勘测数据融合及集成显示系统及方法 | |
Inglis et al. | A pipeline for structured light bathymetric mapping | |
CN107358632B (zh) | 应用于水下双目立体视觉的水下摄像机标定方法 | |
Abbas et al. | Improvements to the accuracy of prototype ship models measurement method using terrestrial laser scanner | |
CN110782498B (zh) | 一种视觉传感网络的快速通用标定方法 | |
Wang et al. | Acoustic camera-based pose graph slam for dense 3-d mapping in underwater environments | |
CN112050793A (zh) | 一种WorldView-2立体双介质水深探测方法 | |
Ji et al. | A coarse-to-fine strip mosaicing model for airborne bathymetric LiDAR data | |
CN116051659A (zh) | 一种线阵相机与2d激光扫描仪联合标定方法 | |
Barrile et al. | 3D modeling with photogrammetry by UAVs and model quality verification | |
CN114998448A (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
CN117115272A (zh) | 用于降水粒子多角度成像的远心相机标定和三维重构方法 | |
CN117576334B (zh) | 基于数字孪生技术的水下实景三维数据底板获取方法 | |
CN116840258A (zh) | 基于多功能水下机器人和立体视觉的桥墩病害检测方法 | |
Drap et al. | ROV-3D, 3D Underwater Survey Combining Optical and Acoustic Sensor. | |
Shan et al. | Feasibility of Accurate Point Cloud Model Reconstruction for Earthquake-Damaged Structures Using UAV-Based Photogrammetry | |
Cahyono et al. | Underwater photogrammetry application for coral reef mapping and monitoring | |
CN116486015A (zh) | 一种格子柜的三维尺寸自动检测和cad数模重建方法 | |
CN111369610B (zh) | 基于可信度信息的点云数据粗差定位和剔除方法 | |
Drap et al. | Underwater multimodal survey: Merging optical and acoustic data | |
Wang et al. | Full Period Three-dimensional (3-D) Reconstruction Method for a Low Cost Singlelayer Lidar. | |
Knyaz et al. | Approach to Accurate Photorealistic Model Generation for Complex 3D Objects | |
Chen et al. | Displacement measurement of box girder based on photogrammetry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |