CN116934980A - 单体建筑模型的构建方法、设备及计算机可读存储介质 - Google Patents
单体建筑模型的构建方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN116934980A CN116934980A CN202310978743.5A CN202310978743A CN116934980A CN 116934980 A CN116934980 A CN 116934980A CN 202310978743 A CN202310978743 A CN 202310978743A CN 116934980 A CN116934980 A CN 116934980A
- Authority
- CN
- China
- Prior art keywords
- single building
- image data
- model
- image
- building
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000000178 monomer Substances 0.000 title claims abstract description 37
- 238000010276 construction Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 40
- 230000009467 reduction Effects 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims description 38
- 238000013507 mapping Methods 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 12
- 230000005855 radiation Effects 0.000 claims description 10
- 210000005036 nerve Anatomy 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000000717 retained effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000009435 building construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种单体建筑模型的构建方法、设备及计算机可读存储介质,所述单体建筑模型的构建方法包括以下步骤:获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据;对所述图像数据进行降噪处理并得到锚框中的目标图像数据;基于所述目标图像数据和相机位姿,确定所述单体建筑对应的图像数据集;基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型。通过上述方法,能够基于无人机拍摄的有限的图像数据,构建出精度更高的单体建筑模型。
Description
技术领域
本发明涉及建筑测绘领域,尤其涉及单体建筑模型的构建方法、设备及计算机可读存储介质。
背景技术
城市单体建筑工程的高精度模型是城市管理、工程监测、安全评估等作出决策的重要参考对象。然而,城市单体建筑的建筑面复杂、形状不一,且城市场景环境复杂、建筑物密度大,部分相邻建筑物之间距离较近,无人机只能采集有限数据量的图像数据。而以往的单体建筑模型的构建方法,也因此难以在有限数据量图像数据的情况下,构建出高精度的单体建筑的三维模型。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种单体建筑模型的构建方法,旨在解决以往的单体建筑模型的构建方法,难以在有限数据量图像数据的情况下,构建出高精度的单体建筑的三维模型的技术问题。
为实现上述目的,本发明提供一种单体建筑模型的构建方法,所述单体建筑模型的构建方法包括以下步骤:
获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据;
对所述图像数据进行降噪处理并得到锚框中的目标图像数据;
基于所述目标图像数据和相机位姿,确定所述单体建筑对应的图像数据集;
基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型。
可选地,所述获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据的步骤之前,还包括:
获取重叠度参数、相机参数和所述无人机与所述单体建筑的表面的距离;
基于所述重叠度参数、所述相机参数和所述距离,计算所述拍摄视点之间的距离参数;
选取初始拍摄视点;
基于所述距离参数和所述初始拍摄视点,设置剩余的所述拍摄视点。
可选地,所述对所述图像数据进行降噪处理并得到锚框中的目标图像数据的步骤包括:
获取降噪提示;
基于所述降噪提示和分割模型的编码器,对所述图像数据进行图像嵌入;
基于所述图像嵌入后的所述图像和所述分割模型的编码预测器,确定对应的掩码图像;
基于所述掩码图像,确定所述锚框的像素位置信息;
基于所述锚框的像素位置,确定并保留所述锚框内的所述目标图像数据。
可选地,所述获取降噪提示的步骤之前,还包括:
搭建初始分割模型;
获取权重文件,并基于所述权重文件设置所述初始分割模型的权重路径和文件路径;
对设置好的所述初始分割模型进行训练,得到所述分割模型。
可选地,所述基于所述目标图像数据和相机位姿,确定所述单体建筑对应的图像数据集的步骤包括:
基于所述目标图像数据,确定所述单体建筑多个视角对应的相机位姿;
将所述目标图像数据和所述相机位姿作为输入参数,输入神经辐射场;
基于所述神经辐射场,渲染所述相机位姿下的目标图像数据,以得到所述单体建筑的图像数据集。
可选地,所述基于所述目标图像数据,确定所述单体建筑多个视角对应的相机位姿的步骤包括:
基于所述目标图像数据,获取所述单体建筑不同视角的图像并提取对应的特征点;
基于所述特征点,进行特征点匹配;
设置参考图像;
基于已匹配的特征点,计算所述已匹配的特征点在所述参考图像的坐标系下对应的三维坐标;
基于所述三维坐标,确定对应的所述相机位姿。
可选地,所述基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型的步骤包括:
基于所述图像数据集,进行运动结构恢复并生成稀疏点云;
基于所述稀疏点云和所述单体建筑多视角图像中的特征点,生成稠密点云;
基于所述稠密点云,生成对应的三角网格;
基于所述三角网格,确定所述单体建筑对应的网格模型;
基于所述单体建筑的纹理图像集,对所述网格模型进行贴图操作,确定所述单体建筑的三维模型。
可选地,所述基于所述单体建筑的纹理图像集,对所述网格模型进行贴图操作,确定所述单体建筑的三维模型的步骤包括:
建立所述纹理图像集中的纹理像素与所述网格模型顶点之间的映射关系;
基于所述映射关系,将所述纹理图像映射至所述网格模型上,以得到所述单体建筑的三维模型。
此外,为实现上述目的,本发明还提供一种单体建筑模型的构建设备,所述单体建筑模型的构建设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的单体建筑模型的构建程序,所述单体建筑模型的构建程序配置为实现如上所述的单体建筑模型的构建方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有单体建筑模型的构建程序,所述单体建筑模型的构建程序被处理器执行时实现如上所述的单体建筑模型的构建方法的步骤。
本发明实施例通过提供一种单体建筑模型的构建方法、设备及计算机可读存储介质,通过获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据,对拍摄的图像数据进行降噪处理并保留锚框中的目标图像数据,将述目标图像数据和相机位姿作为神经辐射场的输入参数,进行映射以得到单体建筑对应的图像数据集,最后,基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型。通过上述方法,能够基于无人机拍摄的有限的图像数据,构建出精度更高的单体建筑模型。
附图说明
图1为本发明单体建筑模型的构建方法第一实施例的流程示意图;
图2为第一实施例中步骤S40的细化流程示意图;
图3为本发明单体建筑模型的构建方法第二实施例的流程示意图;
图4为本发明单体建筑模型的构建方法第三实施例的流程示意图;
图5为本发明单体建筑模型的构建方法第四实施例的流程示意图;
图6是本发明实施例方案涉及的硬件运行环境的终端结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供了一种单体建筑的构建方法,参照图2,图2为本发明一种单体建筑的构建方法第一实施例的流程示意图。
本实施例中,所述单体建筑的构建方法包括:
步骤S10、获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据。
由于城市场景环境复杂且建筑物密度大,针对单体建筑的三维重建需要无人机环绕建筑若干圈进行图像采集。但有些建筑之间距离过近,无法保证无人机完整且安全地环绕建筑进行拍摄,因此,在使用无人机采集图像数据前应确定拍摄视点,在确保无人机飞行安全的前提下在各拍摄视点处采集单体建筑的图像数据,并快速获取单体建筑信息。在本实施例中,首先获取计算得到的拍摄视点参数,并控制无人机基于拍摄视点参数采集单体建筑的图像数据。
需要说明的是,在此之前,需要先计算拍摄视点参数,首先获取重叠度参数、相机参数和无人机与单体建筑的表面的距离,通过重叠度参数、相机参数以及无人机和单体建筑表面的距离,计算拍摄视点之间相隔的距离参数,进一步地,选取一个初始拍摄视点,通过拍摄视点之间的距离参数,以及初始拍摄视点,设置好剩余的拍摄视点。其中,重叠度参数包括最小航向重叠度和最小旁向重叠度。其中航向重叠度是指同一航带内前后相邻像片构成的像片重叠度,通常设置在60%至80%之间,最少不低于53%。旁向重叠度是指相邻航线之间两相邻像片的重叠称旁向重叠,通常设置在30%至15%之间,最低不低于13%。相机参数主要为相机的焦距、图片分辨率。
需要说明的是,较高的重叠度可以提供更多的重叠区域,增加图像匹配的可靠性,并减少地物特征的缺失。然而,重叠度过高也会导致图像数据冗余增加、处理时间延长等问题。因此,根据具体的任务需求和预算限制,需要综合考虑航向重叠度和旁向重叠度的设置。最小重叠度的具体数值要根据实际应用场景、航拍设备性能和数据处理软件的要求来确定,不同的项目可能会有不同的最小重叠度要求。
进一步地,根据最小航向重叠度、最小旁向重叠度及相机焦距、图像分辨率、无人机与建筑表面距离计算视点水平、垂直间隔距离,在确定拍摄视点之间的距离后,随机选取某一点作为初始拍摄视点,其余拍摄视点应尽量环绕目标建筑。最后使用无人机采集各拍摄视点处单体建筑的图像数据。
其中,在计算视点水平时,根据相机焦距和图像分辨率,可以确定相机的视场角(FOV)。计算公式为FOV=2*arctan(传感器尺寸/(2*焦距)),其中传感器尺寸是指相机传感器的对角线长度。然后,利用航向重叠度和旁向重叠度,可以确定相邻图像之间的水平方向上的重叠范围。重叠范围可以通过FOV乘以重叠度得到,即overlap=FOV*overlap_ratio,Overlap为重叠范围,overlap_ratio为重叠度。最后,根据无人机与建筑表面之间的距离和重叠范围,视点水平可以通过公式view_width=2*distance_to_building*tan(overlap/2)计算得到,view_width为视点水平、distance_to_building表示无人机与建筑表面之间的距离,overlap为重叠范围。进而,视点之间的垂直间隔距离为高度间隔距离可以通过公式height_interval=distance_to_building*tan(overlap/2)计算得到。
在选取初始拍摄视点时,可以基于已经确定的视点水平、单体建筑的地理位置和特征,或单体建筑的区域大小,选取一个初始拍摄视点,使得无人机可以最大限度地覆盖目标区域,并且能够获取到所需的信息。在选取了初始拍摄视点之后,根据此前确定的视点之间的垂直距离,设置剩余的拍摄视点,其余拍摄视点应尽量环绕单体建筑。无人机在拍摄单体建筑时,可以根据已经确定的视点参数,拍摄各个视点下单体建筑的图像数据。
在本实施例中,通过计算无人机的拍摄视点,可以保证无人机在采集单体建筑的图像数据时,能够高效地飞行拍摄,尽可能地获得单体建筑的图像数据。
步骤S20、对所述图像数据进行降噪处理并得到锚框中的目标图像数据。
在本实施例中,无人机基于视点参数拍摄的单体建筑的图像数据,一般情况下,除了单体建筑本身以外,还可能存在其他建筑的噪声,为了提高图像数据质量,与后续扩充数据的精度。可选地,作为一种可行的实施方式,这里可以借助SAM模型(Segment AnythingModel,分割模型)对图像数据进行分割,增加掩码。通过对单体建筑区域增加的掩码,获取单体建筑在锚框中的像素位置信息,同时保留该锚框内单体建筑的目标图像数据。
在进行降噪时,获取降噪提示,这里的降噪提示可以理解为分割提示,可以是前景/背景点、粗框、自由格式文本等,这里的降噪提示用来表示图像中要分割的内容的任何信息,分割模型的编码器会根据降噪提示,对图像数据进行图像嵌入,即将降噪提示嵌入到图像数据之中,进而,分割模型的编码预测器会根据图像嵌入后的图像,进行掩码预测,得到图像数据中单体建筑的掩码图像。进一步地,将锚框图像和对应的掩码图像加载到程序中。对于每个锚框,通过查找对应的掩码图像中非零像素的位置信息来确定锚框的像素位置。遍历掩码图像的像素,找到所有非零像素,也可以使用像素阈值来筛选非零像素,对每个非零像素,根据其在掩码图像中的位置信息,计算在锚框图像中的像素位置。锚框的位置信息包括锚框的左上角坐标和宽度、高度。对于每个非零像素,计算其在锚框图像中的像素位置。可以将掩码图像中的位置信息与锚框的位置信息相结合,通过简单的平移和缩放操作来将掩码图像中的位置映射到锚框图像中的位置。保留锚框中掩码图像的单体建筑的图像数据,作为单体建筑的目标图像数据。
可选地,作为一种可行的实施方式,可以使用图像处理库(如OpenCV)或者数值计算库(如NumPy)来进行像素位置的计算和图像操作,以便高效地处理图像数据。
需要说明的是,在设置锚框时,需要根据目标的大小范围选择不同的尺度。可以根据目标在图像中所占的像素数或区域面积来确定尺度大小,此外,还需根据目标的宽高比例选择不同的宽高比。使用选择的尺度和宽高比,在图像的每个候选位置上创建对应的锚框。可以将锚框中心设置在图像网格的每个像素位置,并根据尺度和宽高比进行调整,以获得不同大小和宽高比的锚框。
在本实施例中,通过使用分割模型,对无人机采集的图像数据进行降噪处理,保留锚框中单体建筑的目标图像数据,提升了扩充数据的精度,更有利于后续构建出高精度的单体建筑模型。
步骤S30、基于所述目标图像数据和相机位姿,确定所述单体建筑对应的图像数据集。
在本实施例中,由于图像重叠率一定程度上决定了三维重建质量,在数据采集时为保证无人机高效、安全地获取图像数据,设置的方向重叠度与旁向重叠度均设置为最小值,因此,降噪后的目标图像数据还需要进行扩充,得到各个相机位姿下扩充的图像数据集。相机位姿是指相机在世界坐标系中的位置和姿态,它描述了相机在场景中的位置和方向,用于确定相机观察场景的视角。
进一步地,通过降噪后得到的目标图像数据和相机位姿作为神经辐射场(NeuralRadiance Field,NeRF)的输入参数,NeRF为用一个多层感知器神经网络隐式学习的一个静态3D场景,能够实现复杂场景下的任意新视角渲染。其能够将场景表示为一个连续的、可微分的函数,通过在训练过程中学习这个函数的参数,使其能够根据输入的3D点位置和视线方向预测辐射度和视界方向。在渲染图像时,将场景空间离散化为一个体素格网,通过对体素格网中的每个点应用训练好的神经网络,可以得到图像的每个像素的颜色值,具体的,从相机位姿发射多条射线,与场景中的3D点相交,获取每个交点处的辐射度和视界方向,并通过插值和积分计算出最终的像素颜色,通过对多条射线的采样和融合,获得更全面和高质量的图像渲染结果。需要注意的是,为了在不同视角下渲染图像,可能需要采样多个不同的相机位姿,并对它们进行融合,以获得更全面的场景表示和更好的图像质量。通过多个相机位姿下单体图像的渲染,得到单体建筑的一组图像数据集。
此外,在投入使用前,NeRF在训练阶段,还需使用已知的3D视点样本和相应的颜色值(从真实图像中获取)作为输入和输出,通过最小化渲染图像与真实图像之间的差异来优化网络的参数。训练完毕后,NeRF可以通过输入新的3D点位置和视线方向,使用学习到的函数来预测对应的辐射度和视界方向。
在本实施例中,通过使用神经辐射场进行渲染,能够得到多个相机位姿下的单体建筑的扩充图像数据,能够使得后续构造出的单体建筑的模型更加精确。
步骤S40、基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型。
在本实施例中,将扩充后的单体建筑图像数据集用于三维重建,即首先通过运动恢复结构生成稀疏点云,再由多视角立体生成稠密点云,生成三角化网格模型,最后对模型进行贴图完成单体建筑的三维重建。
进一步地,参照图2,基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型包括以下步骤:
步骤S41、基于所述图像数据集,进行运动结构恢复并生成稀疏点云;
步骤S42、基于所述稀疏点云和所述单体建筑多视角图像中的特征点,生成稠密点云;
步骤S43、基于所述稠密点云,生成对应的三角网格;
步骤S44、基于所述三角网格,确定所述单体建筑对应的网格模型;
步骤S45、基于所述单体建筑的纹理图像集,对所述网格模型进行贴图操作,确定所述单体建筑的三维模型。
在运动恢复结构(Structure From Motion,SFM)的过程中,能够通过分析图像序列得到相机参数并进行三维重建,通过此前渲染得到的单体建筑的图像数据集,即通过一系列的2D图像,来获取图像中单体建筑的3D坐标,进而可以进行三维模型的重建。通过分析图像中的特征点和它们之间的运动关系,可以计算出摄像机的运动轨迹,并生成表示场景中单体建筑的3D点位置集合的稀疏点云,此时的稀疏点云并不包含过多的信息,在生成稀疏点云的过程中,通过提取各个视角下图像中的特征点,并将各个图像中的特征点进行特征匹配,然后获取相机的初始参数求解相机姿态,然后通过已匹配的特征点和相机位姿,通过三角测量法得到稀疏点云,在经过滤噪之后,剔除一些不合理的点云数据,最终得到精确的稀疏点云坐标。进一步地,利用稀疏点云和图像数据集中多个视图的图像,通过匹配图像上的像素点,来生成更加密集和具体的点云数据,通过对图像中的像素进行分析,识别同时出现在多个视角中的特征点,进而将它们的深度计算出来,生成更丰富的稠密点云。利用稠密点云的数据,通过三角化的方法将点云中的点连接起来,生成一个网格模型。其中,网格模型由许多小的三角形组成,每个三角形的顶点就是一个点云中的点,通过连接这些点,就可以生成一个有形状和拓扑结构的单体建筑的三维模型。最后,基于单体建筑的纹理图像集,将纹理信息投影到生成的三维模型上,以增加模型的真实感。纹理图像集由单体建筑众多的纹理像素构成,集可通过一种图像处理算法实现,算法的输入是单体建筑的网格模型和此前无人机采集的单体建筑的图像数据对应的RGB图像集,经过可见性计算、面片生成、纹理块打包、颜色匹配和连续性优化,生成最终的纹理图像集。在进行纹理贴图时,需要将图像中的像素点映射到相应的三角形面片上,将图像贴在模型上,使得模型具有真实的外观。
在本实施例中,通过扩充后的更加精确的图像数据集,经过运动结构恢复生成稀疏点云,基于稀疏点云和单体建筑多视角图像的特征点,生成稠密点云,并通过三角化构建单体建筑对应的三维模型,能够最大程度上通过无人机采集的有限的图像数据得到更是精确的三维模型。
进一步的,参照图3,本发明单体建筑模型的构建方法第二实施例,步骤S20之前,还包括以下步骤:
步骤S50、搭建初始分割模型。
步骤S60、获取权重文件,并基于所述权重文件设置所述初始分割模型的权重路径和文件路径。
步骤S70、对设置好的所述初始分割模型进行训练,得到所述分割模型。
在本实施例中,分割模型在投入使用之前,需要进行训练以及权重参数配置,经过训练以及参数配置后的分割模型,才能够更加精确地从图像数据中对单体建筑进行降噪处理,分割出其他干扰因素。
进一步地,首先需要选择一种深度学习框架,并根据框架的官方文档或指南进行安装,这些框架通常提供了包含分割模型在内的许多预训练模型。在选择好框架后,需要下载分割模型的权重文件,使用所选框架,创建分割模型的网络结构,根据具体情况,配置分割模块或使用框架提供的相应功能。在代码中设置权重路径和文件路径,以便加载模型权重和输入图像文件。可以使用框架提供的函数或类来加载权重文件,确保权重路径和文件路径正确,并且与实际存储位置相对应。在设置好网络结构、权重路径和文件路径后,可以使用加载的权重对分割模型进行推理。将训练图像数据输入模型,并获取输出结果,如掩码预测结果。通过掩码预测结果,观察分割模型的训练结果,并基于训练结果对分割模型的参数进行调整。
在本实施例中,通过搭建并训练分割模型,能够使用分割模型对无人机采集的图像数据进行降噪处理,消除图像数据中的噪声,得到更纯粹的单体建筑的图像数据。
参照图4,本发明单体建筑模型的构建方法第三实施例,步骤S30之前还包括以下步骤:
步骤S80、基于所述目标图像数据,获取所述单体建筑不同视角的图像并提取对应的特征点。
步骤S90、基于所述特征点,进行特征点匹配。
步骤S100、设置参考图像。
步骤S110、基于已匹配的特征点,计算所述已匹配的特征点在所述参考图像的坐标系下对应的三维坐标。
步骤S120、基于所述三维坐标,确定对应的所述相机位姿。
在一实施例中,在将单体建筑的目标图像数据和相机位姿输入神经辐射场之前,还需要计算确定相机位姿。进一步地,通过已经降噪处理后的目标图像数据包括单体建筑的不同视角下的多张图像,使用特征提取算法对图像进行特征提取,即提取每张图像的特征点,特征点至少包括角点、边缘点以及斑点等。对于每个特征点,提取其周围区域的特征描述子,特征描述子表示了该特征点周围区域的特征信息,对于两个或多个图像,通过比较特征点的特征描述子来匹配特征点。需要注意的是,在进行特征匹配后,会存在一些错误匹配的特征点对,需要通过外点剔除的方式将它们去除。在剔除了外点以及确定了特征点之间的匹配关系后,从目标图像数据中选择一个图像作为参考图像,并将其视角作为初始相机位姿。通过已匹配的特征点对,使用三角测量方法计算在参考图像下每个点的三维位置,可选的,这里可以使用RANSAC算法或其他姿态估计算法,基于三角测量的三维位置对目标图像数据中的其他图像的相机位姿进行估计。
在本实施例中,通过计算相机位姿,能够方便后续基于神经辐射场渲染出相机位姿下的图像,扩充图像数据的内容,使得最终搭建的单体建筑物的模型更加精确。
进一步地,参照图5,本发明单体建筑模型的构建方法第四实施例,步骤S45基于所述单体建筑的纹理图像集,对所述网格模型进行贴图操作,确定所述单体建筑的三维模型具体包括以下步骤:
步骤S130、建立所述纹理图像集中的纹理像素与所述网格模型顶点之间的映射关系。
步骤S140、基于所述映射关系,将所述纹理图像映射至所述网格模型上,以得到所述单体建筑的三维模型。
在本实施例中,纹理图像集中包含众多的纹理像素,通过建立网格模型定点与纹理像素之间的映射关系,可以将纹理像素映射到网格模型上,并最终得到单体建筑的三维模型。建立纹理像素与网格模型顶点之间的映射关系通常使用纹理坐标来实现。纹理坐标是一个二维坐标,表示纹理图像中的位置。通过将每个顶点与对应的纹理坐标进行映射,可以确定每个顶点对应的纹理像素。为网格模型的每个顶点分配一个纹理坐标。纹理坐标通常是定义在0到1之间的值,表示纹理图像中的相对位置。可以手动创建纹理坐标,也可以使用自动UV映射算法生成。将纹理图像加载到图形渲染器中,并将其应用到网格模型上,这通常需要在模型的材质属性中设置纹理贴图,并指定纹理坐标的使用方式。对于每个三角形面片,根据其顶点的纹理坐标,在三角形内部进行插值得到每个像素的纹理坐标。这个过程称为纹理坐标插值。最后,根据插值后的纹理坐标,在纹理图像中找到对应的像素值。这通常涉及对纹理图像进行采样,获取相应纹理坐标位置处的颜色值。将获取到的纹理颜色值与模型的顶点颜色进行混合,以获得最终渲染的颜色。通过上述步骤,就可以建立纹理像素与网格模型顶点之间的映射关系,从而在渲染过程中正确显示纹理贴图。
可选地,纹理坐标的生成和纹理映射的具体实现可能因不同的图形渲染器和文件格式而有所差异,具体的实现方法可以根据所使用的工具和平台进行调整。
在本实施例中,通过对网格模型进行纹理映射,得到单体建筑的三维模型,该目标建筑模型中能够显示出建筑的外观基本信息,在日后将单体建筑的三维模型应用到其他场景时,能够为其提供准确的参考价值。
参照图6,图6为本发明实施例方案涉及的硬件运行环境的单体建筑的构建设备结构示意图。
如图6所示,该单体建筑的构建设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图6中示出的结构并不构成对单体建筑的构建设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图6所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及单体建筑的构建程序。
在图6所示的单体建筑的构建设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明单体建筑的构建设备中的处理器1001、存储器1005可以设置在单体建筑的构建设备中,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,并执行以下步骤:
获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据;
对所述图像数据进行降噪处理并得到锚框中的目标图像数据;
基于所述目标图像数据和相机位姿,确定所述单体建筑对应的图像数据集;
基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型。
进一步地,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,还执行以下步骤:
获取重叠度参数、相机参数和所述无人机与所述单体建筑的表面的距离;
基于所述重叠度参数、所述相机参数和所述距离,计算所述拍摄视点之间的距离参数;
选取初始拍摄视点;
基于所述距离参数和所述初始拍摄视点,设置剩余的所述拍摄视点。
进一步地,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,还执行以下步骤:
获取降噪提示;
基于所述降噪提示和分割模型的编码器,对所述图像数据进行图像嵌入;
基于所述图像嵌入后的所述图像和所述分割模型的编码预测器,确定对应的掩码图像;
基于所述掩码图像,确定所述锚框的像素位置信息;
基于所述锚框的像素位置,确定并保留所述锚框内的所述目标图像数据。
进一步地,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,还执行以下步骤:
搭建初始分割模型;
获取权重文件,并基于所述权重文件设置所述初始分割模型的权重路径和文件路径;
对设置好的所述初始分割模型进行训练,得到所述分割模型。
进一步地,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,还执行以下步骤:
基于所述目标图像数据,确定所述单体建筑多个视角对应的相机位姿;
将所述目标图像数据和所述相机位姿作为输入参数,输入神经辐射场;
基于所述神经辐射场,渲染所述相机位姿下的目标图像数据,以得到所述单体建筑的图像数据集。
进一步地,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,还执行以下步骤:
基于所述目标图像数据,获取所述单体建筑不同视角的图像并提取对应的特征点;
基于所述目标图像数据,获取所述单体建筑不同视角的图像并提取对应的特征点;
基于所述特征点,进行特征点匹配;
设置参考图像;
基于已匹配的特征点,计算所述已匹配的特征点在所述参考图像的坐标系下对应的三维坐标;
基于所述三维坐标,确定对应的所述相机位姿。
进一步地,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,还执行以下步骤:
基于所述图像数据集,进行运动结构恢复并生成稀疏点云;
基于所述稀疏点云和所述单体建筑多视角图像中的特征点,生成稠密点云;
基于所述稠密点云,生成对应的三角网格;
基于所述三角网格,确定所述单体建筑对应的网格模型;
基于所述单体建筑的纹理图像集,对所述网格模型进行贴图操作,确定所述单体建筑的三维模型。
进一步地,所述单体建筑的构建设备通过处理器1001调用存储器1005中存储的单体建筑的构建程序,还执行以下步骤:
建立所述纹理图像集中的纹理像素与所述网格模型顶点之间的映射关系;
基于所述映射关系,将所述纹理图像映射至所述网格模型上,以得到所述单体建筑的三维模型。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种单体建筑模型的构建方法,其特征在于,所述单体建筑模型的构建方法包括以下步骤:
获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据;
对所述图像数据进行降噪处理并得到锚框中的目标图像数据;
基于所述目标图像数据和相机位姿,确定所述单体建筑对应的图像数据集;
基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型。
2.如权利要求1所述的单体建筑模型的构建方法,其特征在于,所述获取拍摄视点参数,并控制无人机基于所述拍摄视点参数采集单体建筑的图像数据的步骤之前,还包括:
获取重叠度参数、相机参数和所述无人机与所述单体建筑的表面的距离;
基于所述重叠度参数、所述相机参数和所述距离,计算所述拍摄视点之间的距离参数;
选取初始拍摄视点;
基于所述距离参数和所述初始拍摄视点,设置剩余的所述拍摄视点。
3.如权利要求1所述的单体建筑模型的构建方法,其特征在于,所述对所述图像数据进行降噪处理并得到锚框中的目标图像数据的步骤包括:
获取降噪提示;
基于所述降噪提示和分割模型的编码器,对所述图像数据进行图像嵌入;
基于所述图像嵌入后的所述图像和所述分割模型的编码预测器,确定对应的掩码图像;
基于所述掩码图像,确定所述锚框的像素位置信息;
基于所述锚框的像素位置,确定并保留所述锚框内的所述目标图像数据。
4.如权利要求3所述的单体建筑模型的构建方法,其特征在于,所述获取降噪提示的步骤之前,还包括:
搭建初始分割模型;
获取权重文件,并基于所述权重文件设置所述初始分割模型的权重路径和文件路径;
对设置好的所述初始分割模型进行训练,得到所述分割模型。
5.如权利要求1所述的单体建筑模型的构建方法,其特征在于,所述基于所述目标图像数据和相机位姿,确定所述单体建筑对应的图像数据集的步骤包括:
基于所述目标图像数据,确定所述单体建筑多个视角对应的相机位姿;
将所述目标图像数据和所述相机位姿作为输入参数,输入神经辐射场;
基于所述神经辐射场,渲染所述相机位姿下的目标图像数据,以得到所述单体建筑的图像数据集。
6.如权利要求5所述的单体建筑模型的构建方法,其特征在于,所述基于所述目标图像数据,确定所述单体建筑多个视角对应的相机位姿的步骤包括:
基于所述目标图像数据,获取所述单体建筑不同视角的图像并提取对应的特征点;
基于所述特征点,进行特征点匹配;
设置参考图像;
基于已匹配的特征点,计算所述已匹配的特征点在所述参考图像的坐标系下对应的三维坐标;
基于所述三维坐标,确定对应的所述相机位姿。
7.如权利要求1所述的单体建筑模型的构建方法,其特征在于,所述基于所述单体建筑对应的图像数据集,构建所述单体建筑的三维模型的步骤包括:
基于所述图像数据集,进行运动结构恢复并生成稀疏点云;
基于所述稀疏点云和所述单体建筑多视角图像中的特征点,生成稠密点云;
基于所述稠密点云,生成对应的三角网格;
基于所述三角网格,确定所述单体建筑对应的网格模型;
基于所述单体建筑的纹理图像集,对所述网格模型进行贴图操作,确定所述单体建筑的三维模型。
8.如权利要求7所述的单体建筑模型的构建方法,其特征在于,所述基于所述单体建筑的纹理图像集,对所述网格模型进行贴图操作,确定所述单体建筑的三维模型的步骤包括:
建立所述纹理图像集中的纹理像素与所述网格模型顶点之间的映射关系;
基于所述映射关系,将所述纹理图像映射至所述网格模型上,以得到所述单体建筑的三维模型。
9.一种单体建筑模型的构建设备,其特征在于,所述单体建筑模型的构建设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的单体建筑模型的构建程序,所述单体建筑模型的构建程序配置为实现如权利要求1至8中任一项所述的单体建筑模型的构建方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有单体建筑模型的构建程序,所述单体建筑模型的构建程序被处理器执行时实现如权利要求1至8任一项所述的单体建筑模型的构建方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310978743.5A CN116934980A (zh) | 2023-08-04 | 2023-08-04 | 单体建筑模型的构建方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310978743.5A CN116934980A (zh) | 2023-08-04 | 2023-08-04 | 单体建筑模型的构建方法、设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116934980A true CN116934980A (zh) | 2023-10-24 |
Family
ID=88392413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310978743.5A Pending CN116934980A (zh) | 2023-08-04 | 2023-08-04 | 单体建筑模型的构建方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116934980A (zh) |
-
2023
- 2023-08-04 CN CN202310978743.5A patent/CN116934980A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11721067B2 (en) | System and method for virtual modeling of indoor scenes from imagery | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
CN113506370B (zh) | 基于立体遥感影像的三维地理场景模型构建方法和装置 | |
KR101195942B1 (ko) | 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법 | |
CN106548516B (zh) | 三维漫游方法和装置 | |
EP3242275B1 (en) | Using photo collections for three dimensional modeling | |
US7983474B2 (en) | Geospatial modeling system and related method using multiple sources of geographic information | |
US10477178B2 (en) | High-speed and tunable scene reconstruction systems and methods using stereo imagery | |
CN113516769B (zh) | 虚拟现实三维场景加载与渲染方法、装置和终端设备 | |
US11790610B2 (en) | Systems and methods for selective image compositing | |
CN114902289A (zh) | 使用源自立体图像对的点云对结构建模的系统和方法 | |
CN106940704A (zh) | 一种基于栅格地图的定位方法及装置 | |
EP3413266B1 (en) | Image processing device, image processing method, and image processing program | |
CN116805356A (zh) | 建筑模型的构建方法、设备及计算机可读存储介质 | |
CN115082699B (zh) | 一种轮廓形状提取方法、装置、电子设备及存储介质 | |
WO2022048468A1 (zh) | 平面轮廓识别方法、装置、计算机设备和存储介质 | |
US20210201522A1 (en) | System and method of selecting a complementary image from a plurality of images for 3d geometry extraction | |
CN112132466A (zh) | 基于三维建模的路线规划方法、装置、设备和存储介质 | |
Saxena et al. | 3-d reconstruction from sparse views using monocular vision | |
CN114943711A (zh) | 基于LiDAR点云和影像的建筑物提取方法和系统 | |
CN116934980A (zh) | 单体建筑模型的构建方法、设备及计算机可读存储介质 | |
CN114119891A (zh) | 一种机器人单目半稠密地图三维重建方法和重建系统 | |
Eggert et al. | Multi-layer visualization of mobile mapping data | |
CN114937123B (zh) | 基于多源影像融合的建筑建模方法、装置 | |
US20240282050A1 (en) | Image-based environment reconstruction with view-dependent colour |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |