CN117109537A - 一种基于多源数据的水上水下一体化三维场景构建方法 - Google Patents
一种基于多源数据的水上水下一体化三维场景构建方法 Download PDFInfo
- Publication number
- CN117109537A CN117109537A CN202311085900.6A CN202311085900A CN117109537A CN 117109537 A CN117109537 A CN 117109537A CN 202311085900 A CN202311085900 A CN 202311085900A CN 117109537 A CN117109537 A CN 117109537A
- Authority
- CN
- China
- Prior art keywords
- data
- underwater
- aerial vehicle
- unmanned aerial
- dimensional scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 19
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 28
- 230000033001 locomotion Effects 0.000 claims abstract description 26
- 230000003287 optical effect Effects 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000004458 analytical method Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 21
- 238000007726 management method Methods 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000012800 visualization Methods 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 abstract description 4
- 238000013507 mapping Methods 0.000 abstract description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V11/00—Prospecting or detecting by methods combining techniques covered by two or more of main groups G01V1/00 - G01V9/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多源数据的水上水下一体化三维场景构建方法,属于地理信息测绘技术领域,包括以下步骤:S1:确定方案;S2:确定运动轨迹;S3:获取水面、驳岸和河湖周边环境数据;S4:获取水下河床数据;S5:水面、驳岸和河湖周边环境数据预处理并生成点云数据和三维模型;S6:水下河床数据预处理并生成水下河床三维模型;S7:融合输出水上水下一体化三维场景模型;本发明通过融合无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机获取的水面、驳岸和河湖周边环境数据和无人船搭载多波束测深仪和GNSS‑RTK接收机获取的水下河床数据等多源数据构建出水上水下一体化三维场景模型,能够为自然资源立体空间的全面、精细化管理提供基础。
Description
技术领域
本发明属于地理信息测绘技术领域,具体涉及一种基于多源数据的水上水下一体化三维场景构建方法。
背景技术
随着城市发展以及自然资源确权工作职责的日益明晰,自然资源将进入精细化、信息化管理的时代,但现阶段的自然资源确权工作的主体成果依然是依托已有的地理国情普查成果、正射影像等成果制作出的二维图件成果,以及依托RTK及现场调绘等手段的传统测绘作业方式,该种方式由于无法以空间参考为基础形成自然资源立体“一张图”,因此难以满足自然资源精细化管理要求。
鉴于此,设计一种基于多源数据的水上水下一体化三维场景构建方法,以解决上述问题。
发明内容
为解决上述背景技术中提出的问题。本发明提供了一种基于多源数据的水上水下一体化三维场景构建方法,具有能够为自然资源立体空间的全面、精细化管理提供基础的特点。
为实现上述目的,本发明提供如下技术方案:一种基于多源数据的水上水下一体化三维场景构建方法,包括以下步骤:
S1:根据三维场景构建区域确定无人机摄影方案和无人船航行方案;
S2:通过无人机摄影方案和无人船航行方案确定无人机运动轨迹和无人船航行轨迹;
S3:无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机通过确定的运动轨迹移动获取水面、驳岸和河湖周边环境数据;
S4:无人船搭载多波束测深仪和GNSS-RTK接收机通过确定的航行轨迹移动获取水下河床数据;
S5:对无人机倾斜摄影和近景摄影获取的影像先进行预处理再进行空中三角测量,得到分析报告,判断其精度,再判断重投影误差是否满足精度要求,若满足要求,则通过倾斜摄影和近景摄影影像同时生成水面、驳岸和河湖周边环境的点云数据和三维模型,若不满足要求,无人机重测;
S6:对无人船搭载多波束测深仪和GNSS-RTK接收机获取的水下河床数据先进行预处理再进行多剖面分析,得到分析报告,判断其精度,若满足要求,则基于手动粗配准和ICP点云匹配算法自动精配准结合的方法进行点云配准,同时通过获取的水下河床数据生成水下河床三维模型,若不满足要求,则无人船重测;
S7:将无人机倾斜摄影和近景摄影数据和配准后的多波束测深仪三维点云数据同时导入ContextCapture三维建模软件中,利用该软件生成水上水下一体化三维场景模型;
S8:比较生成的水面、驳岸和河湖周边环境三维模型和水下河床三维模型与生成的水上水下一体化三维场景模型的精度,若精度相同,则输出水上水下一体化三维场景模型至显示终端进行显示实现可视化,若精度不同,调整并重复步骤S5-S7,直至精度相同输出水上水下一体化三维场景模型停止。
优选的,所述步骤S3中,无人机摄影包括以下步骤:无人机按照确定的运动轨迹进行倾斜摄影,拍摄过程中,若倾斜拍摄区域出现物体遮挡,确定物体遮挡区域位置及面积并传输至控制终端,等待控制终端确定无人机近景摄影运动轨迹传输回无人机,无人机按照确定的运动轨迹进行近景摄影,直至遮挡物体近景摄影完成回到倾斜摄影运动轨迹。
优选的,所述步骤S3中,物体遮挡检测基于高度进行,具体包括以下步骤:判断某一物方点在影像上是否可见,在其搜索路径上,从物方点向地底点方向依次比较该搜索路径上的物方点的高程和该物方点对应位置投影光束的高程大小,如果该搜索路径上任何一点高程高于投影光束高度,则该物点在成像过程中被遮挡,没有成像,反之则没有遮挡,其中,投影光束高程值计算公式为:
式中:i为搜索路径上第i点,d为搜索路径上搜索步长,(xs,ys,zs)和(xo,yo,zo)为投影中心和待匹配点。
优选的,所述步骤S5中,生成水面、驳岸和河湖周边环境的点云数据前,获取国土资源管理局对于该三维场景构建区域的规划,若该三维场景构建区域内没有国土规划变动计划,则将倾斜摄影和近景摄影影像数据分配为统一标识符,若该三维场景构建区域内短期具有国土规划变动计划,则将倾斜摄影和近景摄像影像数据具有变动计划的影像数据分配第一标识符,没有变动计划的影像数据分配第二标识符,再通过分配有第一标识符和第二标识符的倾斜摄影和近景摄影影像数据生成点云数据。
优选的,所述步骤S6中,ICP点云匹配算法的具体包括以下步骤:先获取2个点集的特征点,根据特征点进行数据匹配,并设这些匹配点为假想的对应点,再根据这种对应关系求解运动参数,后利用这些参数进行数据转换,其是通过对应点使目标函数S2最小化,计算公式如下:
式中:N为迭代次数,Qi为参考点云中的点,Pi是目标点云中对应的点,R和t是需要计算出的旋转平移矩阵。
优选的,所述步骤S8中,水上水下一体化三维场景模型显示过程中,局部区域由于国土规划变动需要更改时,通过无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机获取影像数据生成分配有第三标识符的点云数据,将分配有第一标识符的点云数据更新为对应关联的分配有第三标识符的点云数据进行模型重建再显示。
与现有技术相比,本发明的有益效果是:
1、本发明通过融合无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机获取的水面、驳岸和河湖周边环境数据和无人船搭载多波束测深仪和GNSS-RTK接收机获取的水下河床数据等多源数据构建出水上水下一体化三维场景模型,能够为自然资源立体空间的全面、精细化管理提供基础。
2、本发明无人机水面、驳岸和河湖周边环境数据的获取是通过倾斜摄影和近景摄影结合的方式实现的,能够实现水面、驳岸和河湖周边环境数据全方位的获取,避免死角对于三维场景模型的构建产生影响,同时近景摄影是基于高度进行遮挡物检测的方式进行切换的,能够实现水面、驳岸和河湖周边环境数据的精准全面获取,提高三维场景模型构建的精准度。
3、本发明三维场景模型构建前获取国土资源管理局对于区域的国土规划信息,并在短期内具有国土变动计划时通过分配不同标识符实现后期变动时的局部快速更新替换,减少后续三维场景模型更新时的数据处理量。
附图说明
图1为本发明基于多源数据的水上水下一体化三维场景构建方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明提供以下技术方案:一种基于多源数据的水上水下一体化三维场景构建方法,包括以下步骤:
S1:根据三维场景构建区域确定无人机摄影方案和无人船航行方案;
S2:通过无人机摄影方案和无人船航行方案确定无人机运动轨迹和无人船航行轨迹;
S3:无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机按照确定的运动轨迹进行倾斜摄影,拍摄过程中,若倾斜拍摄区域出现物体遮挡,确定物体遮挡区域位置及面积并传输至控制终端,等待控制终端确定无人机近景摄影运动轨迹传输回无人机,无人机按照确定的运动轨迹进行近景摄影,直至遮挡物体近景摄影完成回到倾斜摄影运动轨迹继续拍摄,以获取水面、驳岸和河湖周边环境数据;
其中,物体遮挡检测基于高度进行,具体包括以下步骤:判断某一物方点在影像上是否可见,在其搜索路径上,从物方点向地底点方向依次比较该搜索路径上的物方点的高程和该物方点对应位置投影光束的高程大小,如果该搜索路径上任何一点高程高于投影光束高度,则该物点在成像过程中被遮挡,没有成像,反之则没有遮挡,其中,投影光束高程值计算公式为:
式中:i为搜索路径上第i点,d为搜索路径上搜索步长,(xs,ys,zs)和(xo,yo,zo)为投影中心和待匹配点;
S4:无人船搭载多波束测深仪和GNSS-RTK接收机通过确定的航行轨迹移动获取水下河床数据;
S5:对无人机倾斜摄影和近景摄影获取的影像先进行预处理再进行空中三角测量,得到分析报告,判断其精度,再判断重投影误差是否满足精度要求,若满足要求,则获取国土资源管理局对于该三维场景构建区域的规划,若该三维场景构建区域内没有国土规划变动计划,则将倾斜摄影和近景摄影影像数据分配为统一标识符,若该三维场景构建区域内短期具有国土规划变动计划,则将倾斜摄影和近景摄像影像数据具有变动计划的影像数据分配第一标识符,没有变动计划的影像数据分配第二标识符,再通过分配有第一标识符和第二标识符的倾斜摄影和近景摄影影像数据同时生成水面、驳岸和河湖周边环境的点云数据和三维模型,若不满足要求,无人机重测;
S6:对无人船搭载多波束测深仪和GNSS-RTK接收机获取的水下河床数据先进行预处理再进行多剖面分析,得到分析报告,判断其精度,若满足要求,则基于手动粗配准和ICP点云匹配算法自动精配准结合的方法进行点云配准,同时通过获取的水下河床数据生成水下河床三维模型,若不满足要求,则无人船重测;
其中,ICP点云匹配算法的具体包括以下步骤:先获取2个点集的特征点,根据特征点进行数据匹配,并设这些匹配点为假想的对应点,再根据这种对应关系求解运动参数,后利用这些参数进行数据转换,其是通过对应点使目标函数S2最小化,计算公式如下:
式中:N为迭代次数,Qi为参考点云中的点,Pi是目标点云中对应的点,R和t是需要计算出的旋转平移矩阵;
S7:将无人机倾斜摄影和近景摄影数据和配准后的多波束测深仪三维点云数据同时导入ContextCapture三维建模软件中,利用该软件生成水上水下一体化三维场景模型;
S8:比较生成的水面、驳岸和河湖周边环境三维模型和水下河床三维模型与生成的水上水下一体化三维场景模型的精度,若精度相同,则输出水上水下一体化三维场景模型至显示终端进行显示实现可视化,若精度不同,调整并重复步骤S5-S7,直至精度相同输出水上水下一体化三维场景模型停止,水上水下一体化三维场景模型显示过程中,局部区域由于国土规划变动需要更改时,通过无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机获取影像数据生成分配有第三标识符的点云数据,将分配有第一标识符的点云数据更新为对应关联的分配有第三标识符的点云数据进行模型重建再显示。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (6)
1.一种基于多源数据的水上水下一体化三维场景构建方法,其特征在于,包括以下步骤:
S1:根据三维场景构建区域确定无人机摄影方案和无人船航行方案;
S2:通过无人机摄影方案和无人船航行方案确定无人机运动轨迹和无人船航行轨迹;
S3:无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机通过确定的运动轨迹移动获取水面、驳岸和河湖周边环境数据;
S4:无人船搭载多波束测深仪和GNSS-RTK接收机通过确定的航行轨迹移动获取水下河床数据;
S5:对无人机倾斜摄影和近景摄影获取的影像先进行预处理再进行空中三角测量,得到分析报告,判断其精度,再判断重投影误差是否满足精度要求,若满足要求,则通过倾斜摄影和近景摄影影像同时生成水面、驳岸和河湖周边环境的点云数据和三维模型,若不满足要求,无人机重测;
S6:对无人船搭载多波束测深仪和GNSS-RTK接收机获取的水下河床数据先进行预处理再进行多剖面分析,得到分析报告,判断其精度,若满足要求,则基于手动粗配准和ICP点云匹配算法自动精配准结合的方法进行点云配准,同时通过获取的水下河床数据生成水下河床三维模型,若不满足要求,则无人船重测;
S7:将无人机倾斜摄影和近景摄影数据和配准后的多波束测深仪三维点云数据同时导入ContextCapture三维建模软件中,利用该软件生成水上水下一体化三维场景模型;
S8:比较生成的水面、驳岸和河湖周边环境三维模型和水下河床三维模型与生成的水上水下一体化三维场景模型的精度,若精度相同,则输出水上水下一体化三维场景模型至显示终端进行显示实现可视化,若精度不同,调整并重复步骤S5-S7,直至精度相同输出水上水下一体化三维场景模型停止。
2.根据权利要求1所述的一种基于多源数据的水上水下一体化三维场景构建方法,其特征在于:所述步骤S3中,无人机摄影包括以下步骤:无人机按照确定的运动轨迹进行倾斜摄影,拍摄过程中,若倾斜拍摄区域出现物体遮挡,确定物体遮挡区域位置及面积并传输至控制终端,等待控制终端确定无人机近景摄影运动轨迹传输回无人机,无人机按照确定的运动轨迹进行近景摄影,直至遮挡物体近景摄影完成回到倾斜摄影运动轨迹。
3.根据权利要求2所述的一种基于多源数据的水上水下一体化三维场景构建方法,其特征在于:所述步骤S3中,物体遮挡检测基于高度进行,具体包括以下步骤:判断某一物方点在影像上是否可见,在其搜索路径上,从物方点向地底点方向依次比较该搜索路径上的物方点的高程和该物方点对应位置投影光束的高程大小,如果该搜索路径上任何一点高程高于投影光束高度,则该物点在成像过程中被遮挡,没有成像,反之则没有遮挡,其中,投影光束高程值计算公式为:
式中:i为搜索路径上第i点,d为搜索路径上搜索步长,(xs,ys,zs)和(xo,yo,zo)为投影中心和待匹配点。
4.根据权利要求1所述的一种基于多源数据的水上水下一体化三维场景构建方法,其特征在于:所述步骤S5中,生成水面、驳岸和河湖周边环境的点云数据前,获取国土资源管理局对于该三维场景构建区域的规划,若该三维场景构建区域内没有国土规划变动计划,则将倾斜摄影和近景摄影影像数据分配为统一标识符,若该三维场景构建区域内短期具有国土规划变动计划,则将倾斜摄影和近景摄像影像数据具有变动计划的影像数据分配第一标识符,没有变动计划的影像数据分配第二标识符,再通过分配有第一标识符和第二标识符的倾斜摄影和近景摄影影像数据生成点云数据。
5.根据权利要求1所述的一种基于多源数据的水上水下一体化三维场景构建方法,其特征在于:所述步骤S6中,ICP点云匹配算法的具体包括以下步骤:先获取2个点集的特征点,根据特征点进行数据匹配,并设这些匹配点为假想的对应点,再根据这种对应关系求解运动参数,后利用这些参数进行数据转换,其是通过对应点使目标函数S2最小化,计算公式如下:
式中:N为迭代次数,Qi为参考点云中的点,Pi是目标点云中对应的点,R和t是需要计算出的旋转平移矩阵。
6.根据权利要求1所述的一种基于多源数据的水上水下一体化三维场景构建方法,其特征在于:所述步骤S8中,水上水下一体化三维场景模型显示过程中,局部区域由于国土规划变动需要更改时,通过无人机搭载中心正射角度相机和四个方向光轴与水平面成45°角相机获取影像数据生成分配有第三标识符的点云数据,将分配有第一标识符的点云数据更新为对应关联的分配有第三标识符的点云数据进行模型重建再显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311085900.6A CN117109537A (zh) | 2023-08-28 | 2023-08-28 | 一种基于多源数据的水上水下一体化三维场景构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311085900.6A CN117109537A (zh) | 2023-08-28 | 2023-08-28 | 一种基于多源数据的水上水下一体化三维场景构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117109537A true CN117109537A (zh) | 2023-11-24 |
Family
ID=88799635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311085900.6A Pending CN117109537A (zh) | 2023-08-28 | 2023-08-28 | 一种基于多源数据的水上水下一体化三维场景构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117109537A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541740A (zh) * | 2024-01-09 | 2024-02-09 | 广东广宇科技发展有限公司 | 一种基于无人机数据采集的河湖区域三维建模方法及系统 |
-
2023
- 2023-08-28 CN CN202311085900.6A patent/CN117109537A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541740A (zh) * | 2024-01-09 | 2024-02-09 | 广东广宇科技发展有限公司 | 一种基于无人机数据采集的河湖区域三维建模方法及系统 |
CN117541740B (zh) * | 2024-01-09 | 2024-04-26 | 广东广宇科技发展有限公司 | 一种基于无人机数据采集的河湖区域三维建模方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110779498B (zh) | 基于无人机多视点摄影的浅水河流水深测绘方法及系统 | |
CN106327573B (zh) | 一种针对城市建筑的实景三维建模方法 | |
CN111275750B (zh) | 基于多传感器融合的室内空间全景图像生成方法 | |
CN108168521A (zh) | 一种基于无人机实现景观三维可视化的方法 | |
CN105931234A (zh) | 一种地面三维激光扫描点云与影像融合及配准的方法 | |
CN110220502A (zh) | 一种基于立体监测技术的涉水建筑动态监测方法 | |
DE112011102132T5 (de) | Verfahren und Vorrichtung für eine imagebasierte Positionierung | |
CN1149916A (zh) | 地理数据的收集,分析,测量和存储方法 | |
CN109443321B (zh) | 一种监测大型结构形变的串并联像机网络测量方法 | |
CN109813335A (zh) | 数据采集系统的标定方法、装置、系统及存储介质 | |
CN117109537A (zh) | 一种基于多源数据的水上水下一体化三维场景构建方法 | |
CN110866973A (zh) | 空天库岸一体化应急勘测数据融合及集成显示系统及方法 | |
CN109472865A (zh) | 一种基于图像模型绘制的自由可量测全景再现方法 | |
CN112862966B (zh) | 地表三维模型构建方法、装置、设备及存储介质 | |
CN110986888A (zh) | 一种航空摄影一体化方法 | |
CN115982806A (zh) | 基于倾斜摄影的矮塔斜拉转体桥bim建模方法、设备及介质 | |
JPH11514434A (ja) | イメージデータを用いてカメラの位置及び配向を決定する方法と装置 | |
CN113538668A (zh) | 地质模型构建方法、系统、存储介质以及电子设备 | |
CN114817439B (zh) | 一种基于地理信息系统的全息地图建设方法 | |
CN114140397A (zh) | 全数字地面成像法重力近区地形改正方法及系统 | |
CN114187409A (zh) | 基于视频图像与激光雷达点云融合建立船舶模型的方法 | |
Gu et al. | Surveying and mapping of large-scale 3D digital topographic map based on oblique photography technology | |
CN205209489U (zh) | Gnss立体摄像全功能测绘仪 | |
Chen et al. | 3D model construction and accuracy analysis based on UAV tilt photogrammetry | |
CN111031259A (zh) | 一种内向型三维场景采集虚拟复眼照相机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |