CN117274499B - 一种基于无人机倾斜摄影的钢结构加工及安装方法 - Google Patents
一种基于无人机倾斜摄影的钢结构加工及安装方法 Download PDFInfo
- Publication number
- CN117274499B CN117274499B CN202311343637.6A CN202311343637A CN117274499B CN 117274499 B CN117274499 B CN 117274499B CN 202311343637 A CN202311343637 A CN 202311343637A CN 117274499 B CN117274499 B CN 117274499B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- steel structure
- point cloud
- points
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 229910000831 Steel Inorganic materials 0.000 title claims abstract description 255
- 239000010959 steel Substances 0.000 title claims abstract description 255
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012545 processing Methods 0.000 title claims abstract description 64
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 114
- 238000003754 machining Methods 0.000 claims abstract description 29
- 238000009434 installation Methods 0.000 claims description 52
- 239000013598 vector Substances 0.000 claims description 52
- 238000010276 construction Methods 0.000 claims description 40
- 239000011159 matrix material Substances 0.000 claims description 40
- 238000005259 measurement Methods 0.000 claims description 31
- 238000013519 translation Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000003287 optical effect Effects 0.000 claims description 22
- 230000000007 visual effect Effects 0.000 claims description 18
- 238000013461 design Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 claims description 11
- 238000003672 processing method Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 9
- 239000007787 solid Substances 0.000 claims description 6
- 238000004806 packaging method and process Methods 0.000 claims description 4
- 238000010079 rubber tapping Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 17
- 238000005457 optimization Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 230000009286 beneficial effect Effects 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 8
- 238000012795 verification Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 238000007689 inspection Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000003872 anastomosis Effects 0.000 description 2
- 238000009435 building construction Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000011900 installation process Methods 0.000 description 2
- 238000003032 molecular docking Methods 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 201000004569 Blindness Diseases 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 239000011810 insulating material Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 208000014451 palmoplantar keratoderma and congenital alopecia 2 Diseases 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000004062 sedimentation Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Computer Graphics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Structural Engineering (AREA)
- Civil Engineering (AREA)
- Remote Sensing (AREA)
- Mathematical Analysis (AREA)
- Architecture (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种基于无人机倾斜摄影的钢结构加工及安装方法,涉及钢结构加工安装领域,包括:设置钢结构的航控点;使用无人机对混凝土结构进行倾斜摄影,获取包含航控点的多视角倾斜照片;利用三维建模软件,构建混凝土结构的三维场景点云;利用像空间前方交会算法,生成混凝土结构的三维点云;根据混凝土结构的三维点云,构建混凝土结构的三维实景模型;提取钢结构预埋件的三维坐标,并根据钢结构预埋件的三维坐标通过三维建模软件生成钢结构的虚拟模型和钢结构的加工图纸;根据虚拟模型和加工图纸,进行钢结构的安装。针对现有技术中钢结构的加工安装精度低的问题,本申请通过三维重建与建模算法等提高了钢结构的加工精度。
Description
技术领域
本申请涉及钢结构加工安装领域,特别涉及一种基于无人机倾斜摄影的钢结构加工及安装方法。
背景技术
随着建筑行业的发展,对钢结构安装质量的要求越来越高,传统的钢结构施工存在定位困难、信息数据缺失、加工误差大等问题,导致钢结构安装质量难以保证。如何提高钢结构的安装质量和精度,成为建筑行业急需解决的问题。
无人机倾斜摄影测量技术能够快速获取建筑物或工程的三维数据,已在建筑测量领域得到广泛应用。但直接应用于钢结构存在测量精度难以保证、数据处理复杂等问题。
在相关技术中,比如中国专利文献CN111091613A中提供了一种该基于无人机航测的三维实景建模方法。该基于无人机航测的三维实景建模方法包括以下步骤:利用无人机航测获取航测数据,通过空中三角解析法进行图像解析将系列二维航拍图像转换为所述待测建筑工程的三维密集点云,接着进行数据后处理,获得所述待测建筑工程的数字线划地图和数字表面模型,得到实景三维模型;基于所述实景三维模型及真实地表点云进行所述待测建筑工程实景巡查,得到所述待测建筑工程的施工执行数据;基于所述待测建筑工程的三维规划设计和施工执行数据的比对,研究并下达施工调度指令,对调度指令执行效果进行检查和纠偏。但是该方案至少存在:直接采用无人机航拍的三维重建点云,点云密度和精度不高,无法满足钢结构高精度装配的需求。
发明内容
1.要解决的技术问题
针对现有技术中存在的钢结构的加工和加工精度低的问题,本申请提供了一种基于无人机倾斜摄影的钢结构加工及安装方法,通过三维重建与建模算法提取混凝土结构和钢结构信息并生成高精度钢结构虚拟模型,再以虚拟模型指导钢结构加工与装配等,提高了钢结构的加工和加工精度。
2.技术方案
本申请的目的通过以下技术方案实现。
本说明书实施例的一个方面提供一种基于无人机倾斜摄影的钢结构加工方法,包括:设置钢结构的航控点,航控点包含三维坐标;使用无人机对混凝土结构进行倾斜摄影,获取包含航控点的多视角倾斜照片;利用三维建模软件,通过匹配倾斜照片中的航控点的三维坐标,构建混凝土结构的三维场景点云;在三维场景点云中,利用像空间前方交会算法,生成混凝土结构的三维点云;根据混凝土结构的三维点云,构建混凝土结构的三维实景模型;在三维点云中提取钢结构预埋件的三维坐标,并根据钢结构预埋件的三维坐标通过三维建模软件生成钢结构的虚拟模型和钢结构的加工图纸,根据虚拟模型和加工图纸,进行钢结构的加工。
进一步地,设置钢结构的航控点,航控点包含三维坐标的步骤还包括:根据三维实景模型的预设分辨率F,计算航控点的设置密度D;在钢结构的施工区域和航拍区域按计算的设置密度D布设航控点;利用全站仪对每个航控点进行测量,获取航控点的空间坐标;对每个航控点进行编码标识,记录航控点的编码标识与空间坐标的对应关系;在钢结构的表面布设含有编码标识的航控点。
进一步地,预设分辨率F通过如下公式计算:
F=H*α/f
其中,H表示无人机的飞行高度;α表示计算获得的航控点的图片像素尺寸;f表示相机的焦距。
进一步地,计算获得的航控点的图片像素尺寸α的步骤还包括:预设点云密度P;根据航拍照片重叠率设置照片拍摄间隔L1;计算单张照片对应的地面覆盖面积S1,其中S1=L1*L1;计算单张照片对应的理论点云数量N,其中N=P*S1;根据照片分辨率,计算单个像素对应的实地距离L2;计算单个点云点对应的像素大小S2,其中S2=L2*L2;计算每个航控点的图片像素尺寸α,其中α=S1/(N*S2)。
进一步地,设置密度D通过如下公式计算:
D=k*F
其中,k为航控点成等边三角形排布的系数。
进一步地,利用三维建模软件,通过匹配倾斜照片中的航控点的三维坐标,构建混凝土结构的三维场景点云的步骤还包括:在倾斜照片中检测航控点;对检测出的航控点应用图像处理算法进行定位和识别;应用稠密图像匹配算法,获取不同倾斜照片中的航控点的匹配点;利用结构从动算法,通过匹配点构建三维场景点云。
进一步地,应用稠密图像匹配算法,获取不同倾斜照片中的航控点的匹配点的步骤还包括:在倾斜照片中检测SIFT特征点;使用KNN算法匹配不同照片中的SIFT特征点,获得第一匹配点;对第一匹配点进行单应性校验,剔除误匹配,获得第二匹配点;计算第二匹配点对应的密集光流字段;根据光流字段计算不同照片间的密集像素匹配关系;根据密集像素匹配关系,获取不同倾斜照片中的航控点的匹配点。
进一步地,利用结构从动算法,通过匹配点构建三维场景点云的步骤还包括:计算无人机相机的内参和外参,作为结构从动的输入参数;构建打包投影模型,设置投影函数参数;输入不同倾斜照片中的航控点的匹配点,设置匹配点间特征描述子距离;通过Poisson表面重建,生成三维点云;利用ICP算法的距离度量,迭代旋转矩阵R和平移向量T,以配准三维点云和场景点云,生成三维场景点云。
进一步地,利用ICP算法的距离度量,迭代旋转矩阵R和平移向量T,以配准三维点云和场景点云,生成三维场景点云的步骤还包括:通过无人机姿态估计,获取初始化的旋转矩阵R1和平移向量T1;将旋转矩阵R1和平移向量T1,进行坐标变换,将源点云投影到相应的场景点云中;对场景点云中的每个点d1,利用最近邻搜索算法搜索与d1最近的点d2;计算d1和d2之间的曼哈顿距离误差;通过BFGS算法,最小化距离误差,得到旋转矩阵R2和平移向量T2;根据旋转矩阵R2和平移向量T2,更新旋转矩阵R和平移向量T,直到达到迭代次数M或距离误差小于阈值;其中,源点云为通过Poisson表面重建生成的三维点云。
进一步地,在三维场景点云中,利用像空间前方交会算法,生成混凝土结构的三维点云的步骤还包括:从三维场景点云中提取线段特征,获取混凝土结构的线段信息;在多视角的倾斜照片上检测线段对应的线特征,获得倾斜照片上的线段投影;匹配不同视角的倾斜照片中的线段投影;计算匹配的线段投影在不同视角的倾斜照片上的交点;对所有交点运用三角测量算法构建射线;基于不同视角下的射线,用前方交会算法计算三维交点坐标;将计算得到的三维交点坐标进行融合,生成混凝土结构的三维点云。
进一步地,在三维点云中提取钢结构预埋件的三维坐标,并根据钢结构预埋件的三维坐标通过三维建模软件生成钢结构的虚拟模型和钢结构的加工图纸的步骤还包括:将三维实景模型的三维点云导入三维点云处理软件,提取出钢结构预埋件的三维坐标数据;利用三维建模软件,根据钢结构预埋件的三维坐标数据,建立第一钢结构模型,并将第一钢结构模型的节点位置与钢结构的三维坐标数据进行匹配,生成第二钢结构模型;利用三维建模软件,根据第二钢结构模型生成钢结构的加工设计图;根据加工设计图进行钢结构加工,获取实体钢结构;利用三维激光扫描仪扫描实体钢结构,获得实体钢结构的三维数字模型;利用三维协同仿真软件,结合三维实景模型和三维数字模型,调整第二钢结构模型作为钢结构的虚拟模型。
本说明书实施例的另一个方面提供一种基于无人机倾斜摄影的钢结构安装方法,其特征在于:利用无人机对钢结构的安装现场环境进行倾斜摄影,获取现场环境的三维点云;在获取的现场环境的三维点云中,提取待安装钢结构对象;获取本申请提供的一种基于无人机倾斜摄影的钢结构加工方法获得的混凝土结构的三维实景模型;通过三维数字匹配技术,结合提取的待安装钢结构对象与三维实景模型,在获取的现场环境的三维点云中标定钢结构的安装位置;使用吊装设备将钢结构吊装至标定的安装位置。
3.有益效果
相比于现有技术,本申请的优点在于:
(1)通过设置编码标识的航控点,利用无人机倾斜摄影获取含航控点的多视角图像,运用图像匹配算法提取航控点信息进行三维重建,生成混凝土结构的高精度三维点云数据,有效提高了三维场景获取与建模的精度,提高了钢结构的加工精度,指导钢结构安装奠定基础,从而提高了钢结构安装精度;
(2)通过三维点云处理算法,精确提取出钢结构预埋件的三维坐标信息,导入三维建模软件中,与钢结构三维模型进行约束吻合,生成高精度的钢结构虚拟模型,从而提高了钢结构的加工精度,同时为提高钢结构的加工精度奠定基础;
(3)借助三维扫描与虚拟仿真技术,实现了从数据获取到模型建立再到实际装配的闭环控制,全过程进行信息反馈与模型优化调整,确保了虚拟模型与实体之间的高度一致,可靠指导钢结构装配,提高了钢结构的加工精度和安装精度。
附图说明
本说明书将以示例性实施例的方式进一步描述,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本说明书一些实施例所示的一种基于无人机倾斜摄影的钢结构加工方法的示例性流程图;
图2是根据本说明书一些实施例所示的布置航控点的流程示意图;
图3是根据本说明书一些实施例所示的构建三维场景点云的流程示意图;
图4是根据本说明书一些实施例所示的构建混凝土结构的三维点云的流程示意图;
图5是根据本说明书一些实施例所示的一种基于无人机倾斜摄影的钢结构加工方法的技术路线图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其他类似情景。除非从语言环境中显而易见或另作说明,图中相同标号代表相同结构或操作。
下面结合附图对本说明书实施例提供的方法和系统进行详细说明。
引黄入泰工程(王家院净水厂),规模较大,其中平流沉淀池的东西长144米,南北宽52.6米,屋面为钢结构屋面,安装高度在15.8米,工程对于钢屋面的加工和安装精度要高于规范要求。钢结构安装当前的常规做法是在主体结构完工后,进行人工测量,并将测得的数据与钢结构零件加工图和架构构件的尺寸进行比对。这个过程用于检查预埋件或螺栓的偏差程度。如果发现有较大的偏差,需要对这些构件进行二次加工,然后再进行吊装。然而,本申请受到了工期和吊装精度的制约。
为了提高三维场景建模精度并解决这些制约,本申请通过应用无人机倾斜摄影技术,本申请实现了建筑物的倾斜摄影三维模型的获取。随后,这些模型被导入到三维采集软件中,用于采集坐标和高程点数据,从而生成精确的数字模型。在数字模型的基础上,本申请允许对建筑物的尺寸和高程进行测量,进而与原始施工图纸进行比对。通过对比校准,可以检测并纠正图纸与实际施工实体之间的任何误差。结合专用的钢结构深化软件,此流程使得可以生成详细的钢结构零件加工图。这些图纸在加工厂中得以实际生产。一旦构件制造完成,通过三维点云扫描等技术,可以获取钢结构构件的数字模型。这些模型可以经过预拼装,以及与钢结构数字模型的模拟吊装。这种综合模拟有助于指导现场施工,提高钢结构安装的一次成功率。不仅可以减少高空作业所带来的潜在危险,还可以增加安装效率,避免额外的返工,并显著提升钢结构的加工精度。
从这个角度来看,本申请不仅有助于改善三维场景建模的精度,还在实际建筑施工中发挥了关键作用,提高了整个钢结构建设过程的效率和质量。通过这些改进方法,可以提高三维场景建模的精度,减少二次加工的需求,提高工程进度,降低施工风险,以满足引黄入泰工程的创新和高标准要求。
图1是根据本说明书一些实施例所示的一种基于无人机倾斜摄影的钢结构加工方法的示例性流程图,如图1所示,一种基于无人机倾斜摄影的钢结构加工方法包括如下技术步骤:S100设置钢结构的航控点,航控点包含三维坐标;S200利用无人机对混凝土结构进行倾斜摄影,无人机通过多视角拍摄倾斜照片,确保能够包含航控点在不同角度下的照片;S300利用三维建模软件,通过匹配倾斜照片中航控点的三维坐标,构建混凝土结构的三维场景点云;S400在三维场景点云中,利用像空间前方交会算法,生成混凝土结构的精确三维点云;S500根据混凝土结构的三维点云,构建混凝土结构的三维实景模型,以展示其形状、尺寸和几何特征。
S600在三维点云中提取钢结构预埋件的三维坐标,通过三维建模软件生成钢结构的虚拟模型和钢结构的加工图纸;在所构建的三维虚拟数字化模型的基础上,提取每个钢结构构件的尺寸数据和安装位置数据,生成钢结构构件的加工图纸;根据所生成的钢结构构件加工图纸,对各钢结构构件进行加工制作;将加工完成的各钢结构构件与三维虚拟数字化模型进行对比,检查尺寸误差是否在允许范围内;对于不符合要求的钢结构构件进行返修或弃用;对符合要求的钢结构构件,按照三维虚拟数字化模型中所包含的构件安装位置数据和构件编号,进行钢结构的搭接和安装;使用激光扫描或图像技术手段获取已经安装的钢结构的三维数据,并与虚拟数字化模型进行比较,检查钢结构的加工精度是否达标。
其中,在钢结构施工场地设置编码标识的航控点,以提供后续摄影定位的依据。采用无人机对混凝土结构进行多角度倾斜摄影,获取包含清晰航控点的图像。然后,通过图像处理算法提取图像中的航控点信息,并以航控点的三维坐标数据为依据,运用稠密图像匹配与三维重建算法,构建出混凝土结构精细的三维点云场景,为后续建模分析提供基础。基于三维点云,精确提取出钢结构预埋件的三维坐标信息,导入三维建模软件中,使预埋件数据与钢结构虚拟模型实现高精度吻合,从而建立精准的钢结构虚拟模型。依托虚拟模型,可生成钢结构的详尽加工图,指导构件制作。进一步采用三维扫描获取实体构件数据,进行虚拟装配检验。通过该流程,本申请实现了从数据采集到虚拟建模到实际装配的全面过程控制,确保钢结构的装配精度符合设计要求。
在本申请方案中,采用的三维建模软件优选为TEKLA(Tekla Structures),是一款专业的建筑信息模型(BIM)软件。能够进行复杂建筑结构的三维建模,包括钢结构、钢结构、预制构件等;包含了丰富的建筑结构部件库,可以快速生成各类构件模型;可以对结构模型进行遮挡剔除,全方位检查模型的完整性;可以自动生成结构构件的详细工程图纸,如加工图、装配图等;支持结构力学分析,可以计算结构内力,进行构件优化设计;可对结构进行时间表规划,进行四维建模,模拟施工过程;支持开放的API接口,可以进行二次开发,扩展功能;采用参数化建模,方便修改模型,自动更新相关文档;支持多种结构交换格式,如IFC,便于数据共享。
具体地,航控点的设置为后续三维建模提供了精确的参考基准,有利于摄影图像的高精度匹配与定位,以达到提高三维重建精度的目的。无人机多角度倾斜摄影获取了丰富的图像数据,为匹配不同视角航控点信息奠定基础。运用航控点的数据,可实现对图像到三维场景的高精度映射,利于生成高质量的三维点云。结合多视角图像,采用像空间前方交会算法可有效消除视角误差,重建出混凝土结构的高精度三维点云。综合整合所生成的多源三维点云,在三维建模软件中可精确重建混凝土结构的三维实景模型。该高精度实景模型保留了建筑细节,可靠指导后续的钢结构设计与装配工作,从而提升钢结构的整体加工精度。
综上所述,S100中的航控点设置为钢结构建模提供了精确的参考基准,利于后续摄影的定位与配准。S200通过多角度无人机倾斜摄影获取丰富的图像数据,为后续匹配航控点信息提供基础。S300利用航控点数据实现图像到三维场景的高精度映射转换,有助于构建高质量三维点云。S400运用多视角图像有效消除视角误差,提高三维点云的精度。S500综合多源三维点云,重建出保留细节的高精度三维实景模型。S600基于三维点云提取出预埋件信息,与虚拟模型实现高精度吻合,建立精准虚拟模型。基于无人机倾斜摄影的钢结构加工方法能够准确获取钢结构的三维信息,并在三维建模软件中生成真实的三维模型和加工图纸,从而提高钢结构的加工精度。本申请结合了无人机技术和三维建模软件的优势,为钢结构的加工过程带来了更高的精确性和效率。
图2是根据本说明书一些实施例所示的布置航控点的流程示意图,如图2所示,进行现场踏勘和无人机巡检,查看建筑物周边环境和规划航飞区域。这有助于了解潜在的障碍物和飞行安全情况。在航测区域内布设像控点,并采集像控点的数据。像控点是用于照片校准的参考点,有助于提高航测数据的精度。采用无人机对航测区域内的建筑物进行航测,获取航测照片。这些照片将用于后续的建模过程。其中,布置航控点的流程包括如下技术步骤:
S110根据三维实景模型的预设分辨率F,计算航控点的设置密度D;这个密度将确保足够的航控点分布在施工区域和航拍区域。根据预设的三维模型分辨率计算航控点的布设密度,这样可以保证航控点的分布符合精度需求。然后在施工现场按计算密度布设含编码的航控点,这是精确建模的基础。
根据三维实景模型的预设分辨率F,计算航控点的设置密度D。该密度将确保足够的航控点分布在施工区域和航拍区域,为后续重建提供充足的控制信息,以达到所需的重建精度。预设分辨率F的计算公式为:F=H*α/f。其中,H为无人机的飞行高度,α为计算获得的每个航控点在图像上的像素尺寸,f为相机的焦距。根据该公式,精确设置F值,可以使每个航控点在图像上呈现理想大小,便于检测和匹配。具体地,根据航控点在图像上的适当大小α,无人机飞行高度H和相机参数f,可以精确计算出满足重建需求的三维模型分辨率F。将计算所得的F作为预设分辨率,在飞行过程中控制无人机飞行高度,使拍摄图像中航控点大小基本满足α的值。这样有利于航控点的检测和匹配,从而提高重建精度。通过改变无人机飞行高度H,可以调整获取图像数据的视角范围,满足对不同部位或不同细节程度的重建需求。
其中,计算航控点的图片像素尺寸α的技术步骤包括:预设点云密度P,这是指在地面区域上预期的点云密度,通常以点数/单位面积来表示,例如点/m2。该密度将直接影响生成的点云数据的细节和精度。根据航拍照片重叠率设置照片拍摄间隔L1,根据航拍照片的重叠率,设置照片拍摄间隔,以确保足够的图像重叠用于后续的三维重建。重叠率决定了每张照片中共有多少重复的区域,从而提供了更多的视角信息。计算单张照片的地面覆盖面积S1,单张照片所能够覆盖的地面面积,这可以通过照片拍摄间隔的平方来计算,S1=L1*L1;计算单张照片的理论点云数量N,由于点云密度和单张照片的地面覆盖面积,可以计算出每张照片预计的点云数量,N=P*S1;计算单像素对应的实地距离L2,这是图像中一个像素对应于实际地面上的距离,通常以米/像素来表示。它可以通过测量实际场景中已知尺寸的对象来估算。计算单点云点的像素大小S2,基于单像素对应的实地距离,可以计算出一个点云中单个点在图像上的大小,S2=L2*L2;最终的图像像素尺寸可以通过将地面覆盖面积除以预期点云数量乘以单点云点的像素大小来计算,最终计算α=S1/(N*S2)。
在本实施例中,根据三维模型的目标应用和精度要求,确定期望的点云密度参数P。通常精细建模需要更高密度,快速建模可以使用较低密度。测量待建模场景区域的总面积S0。可以通过现场测绘或参考地图平面图获取。根据重建的点云数量需求,预估单个模型需要的总点云数量N0。考虑点云冗余系数k0=1.2至1.5。点云总数量N0与场景面积S0的比值即为期望点云密度:将计算所得点云密度P作为当前密度参数,在飞行航拍过程中,调整无人机飞行高度和照片拍摄密度,确保实际采集点云满足预设的密度要求。也可以根据部分样方实际采集点云数量,确定平均点云密度,设定合理的全局密度参数P。根据三维重建的需求,预先确定倾斜图像的重叠率,一般侧重叠率在60%至80%之间,俯仰重叠率在80%至90%之间。重叠率越高,可获得的视角信息越丰富,有利于提高重建精度。测量待飞行拍摄区域的长度方向(L)和宽度方向(W)的距离。
根据相机视场角、拍照高度和重叠率,计算直线航线上的拍照间隔:间隔 cosθ为相机视场角宽度的拍照宽度的摆角。同理,计算顺航航线间的间隔:间隔/> 为相机视场角长度的拍照高度的仰角;将计算所得的L1和L2间隔分别作为直线航线和顺航航线的拍照间隔,供无人机自动飞行执行拍照。
通过该计算流程,精确得到航控点的图像像素尺寸。通过控制点云密度和图像像素尺寸,可以生成更高分辨率的点云数据。这有助于捕捉建筑物细微的结构和特征,提供更真实的三维表示。通过合理设置照片拍摄间隔和点云密度,可以在建模过程中获得更准确的空间定位信息。这对于在三维模型中精确放置构件和元素非常重要。适当的点云密度和像素尺寸设置有助于减少噪声和误差。这可以通过更好的数据采集和处理来提高建模质量。精确的图像像素尺寸可以提供更准确的表面细节,使得对模型质量进行评估和验证更加可靠。总之,通过精确计算航控点图像像素尺寸并将其与其他参数结合使用,可以在钢结构的三维建模中获得更高的精度、更多的细节和更准确的空间定位,从而提升整体建模质量和效率,为提高钢结构加工精度奠定基础。
设置密度D的计算公式为:D=k*F,其中,k为航控点成三角形排布的系数,k通过如下公式计算,L0为三角形的边长;当采用等边三角形排布时,最优化的k值为/>D表示在单位面积上设置的航控点数量。例如,如果计算结果是D=10点/m2,则意味着每平方米区域内需要布设10个航控点。根据计算出的密度D,在实际施工场景中进行航控点的布设。可以采用三角形等边形状排布航控点。控制好航控点的分布密度,有利于提高后续安装过程中的精度。
S120在钢结构的施工区域和航拍区域按计算的设置密度D布设航控点;在钢结构的施工区域和计划的无人机航拍区域范围内,采用三角形排布的方式,按照计算所得的密度D布设航控点。S130利用全站仪对每个航控点进行测量,获取航控点的空间坐标;利用全站仪精确测量每个航控点的空间坐标,并记录航控点的编码与坐标对应关系,为后续通过编码识别航控点及确定其三维坐标提供了准确参数。测量精度高达毫米级,为重建提供了准确的位置控制参数。具体地,在布设好编码航控点后,使用全站仪等高精度测量设备,对每个航控点进行精确定位。全站仪设置于待测区域,进行站位点选择,确定仪器站点坐标及高程。对每个航控点进行瞄准及测距,全站仪通过角度和距离测量,利用三角法计算每个点的三维空间坐标(X,Y,Z)。观测过程中需要控制全站仪的水平控制精度,保证各点观测角度精度达到1”以内。采用多次重复观测的方式,对每个点坐标进行平均处理,可以使测量精度达到毫米级。将测量获得的各个航控点的空间三维坐标记录下来,与对应的航控点编码关联。
S140对每个航控点进行编码标识,记录航控点的编码标识与空间坐标的对应关系;对每个航控点进行唯一编码标识,并记录其编码与测量获得的空间坐标的对应关系。这种编码标识有助于在图像上准确识别每个航控点,并通过编码索引得到其三维空间位置,从而提高后续重建过程中的定位精度。具体地,为每个航控点分配一个唯一的编码。这可以是一个数字、字母组合或其他标识符。确保每个编码在整个数据集中都是唯一的,以避免混淆。可以利用条形码、二维码等编码方式,按一定规则生成每个航控点的唯一编码,如1,2,3等数字编号或字母编号。使用全球定位系统(GPS)等测量工具,采集每个航控点的准确三维坐标。这些坐标包括经度、纬度和海拔高度等信息。将每个航控点的编码与其测量空间坐标建立索引对应关系。这可以通过创建一个数据表、数据库或类似的数据结构来实现。在这个结构中,每个航控点的编码作为唯一的键,与其测量空间坐标信息相对应。将索引对应关系储存在可查询的数据结构中,使其能够在需要时快速检索。这样,在图像识别时,本申请根据图像中检测到的航控点编码,从索引中查找相应的测量空间坐标。当进行图像识别时,检测到的航控点编码可以用于查找索引中对应的测量空间坐标。这使得识别的航控点能够与实际位置关联起来。
通过建立编码与空间坐标的对应关系,图像识别可以精确地确定每个航控点在三维空间中的位置。建立索引对应关系可以确保图像识别和测量空间坐标之间的一致性,避免了数据错位或不匹配的情况。关联图像识别结果与实际位置,可以在后续的空间分析和建模中提供准确的基础数据。在数据采集和图像识别中,能够准确找到对应关系可以帮助识别和排查错误,提高数据的可靠性。
S150在钢结构的表面布设含有编码标识的航控点。在钢结构表面布设含编码的航控点,可以在后续拍摄的倾斜图片中准确识别。进行现场踏勘和无人机巡检,优化飞行路线。这可以保证获得对建筑表面覆盖面积充分的图像数据,有利于重建精度。具体地,在完成航控点的坐标测量和编码编号后,按照测量的三维坐标,将实体航控点布设安装在钢结构的表面。航控点的材质选择对比度高的材料,如白色塑料板,并用黑色标注编码,确保拍摄图像中清晰可见。航控点材质选择对比度高、成本低的材料,如白色绝缘材料,有利于在图像上识别。航控点尺寸根据飞行高度和相机参数设定,使其在图像上占有适当的像素面积,既便于识别又不影响重建效果。这些点将用于后续倾斜图像的校准和定位,其分布密度确保了提供足够的控制信息以达到所需的三维重建精度,为提高钢结构加工精度奠定基础。
这些图2中各个步骤的配合,确保了航控点的精确设置和高质量的数据采集,为后续实现高精度三维建模奠定了基础。航控点的设置密度、编码标识以及精确布设,都利于提升三维重建的精确度。同时,无人机巡检可进一步验证飞行与采集的可靠性,发现可能影响重建质量的问题。综上,该技术方案充分考虑了各环节的协同配合,从航控点布设、数据采集等各个方面保证了三维场景重建的精度,为后续的钢结构高精度虚拟建模与装配奠定了基础,有效提升了钢结构的整体加工质量。
图3是根据本说明书一些实施例所示的构建三维场景点云的流程示意图,如图3所示,S300构建三维场景点云包括如下技术步骤:S310导入拍摄的多视角倾斜照片,这些照片包含预先布设的编码航控点信息;S320对检测出的航控点应用图像处理算法进行定位和识别;使用图像处理算法在倾斜照片中检测航控点。这可能涉及特征提取、边缘检测等技术,以识别航控点在图像中的位置。对检测出的航控点进行定位和识别,将其与之前获取的编码-坐标对应关系匹配,以获取每个航控点的空间坐标。
S330应用稠密图像匹配算法,获取不同倾斜照片中的航控点的匹配点;确定它们在不同视角下的投影位置。这有助于建立多视角下的点云数据。利用匹配后的图像数据,将每个航控点在三维空间中的位置投影到各个图像中,形成多个投影点。应用稀疏点云生成算法,基于航控点的多个视角投影,构建初步的稀疏点云模型。通过刺点的方式,将实际测量得到的航控点坐标与稀疏点云模型中的点坐标对齐,从而校正点云的坐标高程信息。这可以提高模型的绝对精度。利用稠密点云生成算法,基于稀疏点云和刺点信息,生成高密度的三维点云模型。这些点云点将更精确地描述建筑物的几何形状和细节。
S340利用结构从动算法,通过匹配点构建三维场景点云。利用结构从动算法,对多视角的点云数据进行处理,进一步优化点云的空间位置,填充细节,并生成最终的三维场景点云模型。
具体地,稠密图像匹配技术能够在不同视角的倾斜照片之间建立像素级别的对应关系,从而提供更准确的点云数据。应用稠密图像匹配算法,获取不同倾斜照片中的航控点的匹配点的步骤还包括:在每张倾斜照片中,使用尺度不变特征变换(SIFT)算法检测特征点。SIFT特征点具有较好的尺度、旋转和光照不变性,适合用于不同视角的图像匹配。其中,选择合适的尺度空间来检测不同大小的特征点。常见的选择是使用多个尺度,可通过设置octave参数来实现,选择合适的阈值来检测极值点。这个阈值通常与图像的对比度有关,可以根据具体情况进行调整。通过设置最大特征参数,限制每张图像检测的特征点数目,以控制计算复杂度。启用旋转不变性,以确保在不同视角下检测到的特征点具有一致的描述子。
使用K最近邻(KNN)算法,对不同照片中的SIFT特征点进行匹配。对于每个特征点,选择与之距离最近的几个特征点作为候选匹配点;其中,在不同照片中的SIFT特征点匹配中,使用K最近邻(KNN)算法。设置K的值,通常选择3或4,以获得更稳定的匹配结果。对KNN匹配得到的第一组匹配点进行单应性校验。通过计算单应矩阵,验证这些匹配点是否在几何上具有一致性。去除掉未通过单应性校验的误匹配点,获得第二组更可靠的匹配点;其中,当对KNN匹配得到的第一组匹配点进行单应性校验时,可以采用RANSAC算法来估计单应矩阵,从而验证这些匹配点是否在几何上具有一致性。在本实施例中,使用KNN算法对特征点进行匹配。选择K值为3或4,得到初始的匹配点对。对于RANSAC算法,设置以下参数,采样次数(iterations),这是RANSAC算法进行随机采样和验证的迭代次数。通常,增加迭代次数有助于更好地估计单应矩阵,但也会增加计算成本。阈值(threshold),这是用于判断一个点是否与估计的单应矩阵一致的阈值。在投影误差小于该阈值的情况下,认为点通过了单应性校验。随机采样,在每次迭代中,随机选择最小所需数量的匹配点对(通常为4个),用于估计单应矩阵。单应矩阵估计,使用随机选择的匹配点对来估计单应矩阵。可以使用线性最小二乘法等方法来解决单应矩阵估计问题。投影误差计算,对于每个其他匹配点,计算其投影到估计的单应矩阵下的位置,并计算实际位置与投影位置之间的距离作为投影误差。一致性验证,根据设定的阈值,判断每个匹配点是否通过了一致性验证,即投影误差是否小于阈值。筛选匹配点,将通过单应性校验的匹配点保留下来,去除未通过校验的误匹配点。通过RANSAC算法进行单应性校验,可以去除掉KNN匹配中的误匹配点,提高匹配的准确性和可靠性。RANSAC算法能够处理一定数量的噪声和误匹配,从而提供更稳健的建模结果,为提高钢结构加工精度奠定基础。
对第二组匹配点,计算其对应的密集光流场。密集光流是指每个像素点在不同视角下的位移向量,可以通过光流算法计算得到。这个步骤产生了一个光流场,用于描述像素点的运动模式;其中,选择适合场景的光流算法。一种常用的方法是基于金字塔的Lucas-Kanade光流算法,或者更复杂的方法如Farneback光流算法或基于深度学习的光流方法(如FlowNet系列)。针对所选算法,根据图像特点和计算资源,设置相关参数,如金字塔层数、窗口大小等。使用计算得到的第二组匹配点,对图像序列进行光流计算。这将为每个像素点提供一个位移向量,描述其在不同视角下的运动。利用计算得到的光流场,可以对图像序列中的每一帧进行深度估计。基于光流的深度估计,根据光流场中的位移信息反推物体的相对深度。利用深度信息,可以将每帧图像转换为点云数据。这些点云可以表示物体的表面结构,从而用于建立更精确的三维模型。光流场提供了像素级别的运动信息,可以用于分析物体的运动模式。在钢结构的情况下,可以检测梁、柱等部件的振动或变形情况,为提高钢结构加工精度奠定基础。
基于计算得到的密集光流场,可以在图像间建立更为精确的像素级别对应关系。每个像素点都有其在不同照片中的匹配位置,从而形成了密集的像素匹配关系;使用合适的光流算法,计算得到两张图像之间的密集光流场,即每个像素点的位移向量。利用光流场中的位移向量,将第一张图像上的每个像素映射到第二张图像上的对应位置,从而建立了像素级别的对应关系。
利用密集像素匹配关系,可以准确地确定航控点在不同倾斜照片中的匹配点。通过查找每个航控点的对应像素,从每张照片中提取匹配点的空间坐标。基于之前计算得到的密集光流场,确定航控点在不同照片中的像素级别对应关系。从每张照片中提取航控点的像素坐标。航控点是预先选定的特定点,通常位于建筑物的关键位置,以用于定位和校正。具体地,利用结构从动算法,通过匹配点构建三维场景点云的步骤还包括:计算无人机相机的内参和外参,作为结构从动的输入参数;根据无人机相机的规格和校准,获得相机的内参数矩阵,包括焦距、主点坐标等。根据无人机的飞行姿态、位置信息,计算相机在世界坐标系中的外部参数,包括旋转矩阵和平移向量。
构建打包投影模型,设置投影函数参数;根据相机内参和外参,构建打包投影模型,将三维场景点映射到二维照片上的像素坐标。设置投影函数所需的参数,如相机内参、外参以及畸变矫正参数。其中,投影函数使用透视投影模型(Perspective Projection)或者鱼眼等畸变模型,具体选择取决于相机的类型和特性。输入不同倾斜照片中的航控点的匹配点,设置匹配点间特征描述子距离;对于航控点的匹配点,在每张照片中提取特征描述子,如SIFT、SURF等。设置特征描述子之间的距离阈值,用于筛选出在多张照片中具有一致性的匹配点。
通过Poisson表面重建,生成三维点云;根据匹配点的三维坐标,使用Poisson表面重建算法生成稠密的三维点云。对于稠密的三维点云重建,首先需要对匹配点进行预处理。可以使用滤波器、去噪算法或其他技术来去除离群点、平滑数据或填充缺失的区域。将预处理后的匹配点云进行体素化,将连续的三维空间划分为离散的体素。这将有助于后续的表面重建过程。对每个体素内的点云计算法线估计。法线是表面重建过程中的关键要素,它表示了点云中点的方向信息。可以使用基于最近邻点的方法(例如最小二乘法)来估计每个点的法线向量。使用体素化的点云和法线信息,生成一个初始的三角网格(称为网格化重建)。这可以通过将体素内的点连接起来形成三角形来完成。这个初始网格将作为Poisson表面重建算法的输入。使用网格化重建作为输入,应用Poisson表面重建算法来生成稠密的三维点云。Poisson表面重建方法基于采样点的法线信息,通过梯度场的积分来计算曲面。这个过程可以产生一个平滑的三维表面,从而生成稠密的三维点云。
利用ICP算法的距离度量,迭代旋转矩阵R和平移向量T,以配准三维点云和场景点云,生成三维场景点云。使用迭代最近点(ICP)算法,利用距离度量来优化旋转矩阵R和平移向量T,以最大程度上配准生成的三维点云和场景点云。
综上,利用结构从动算法,可以高效地构建钢结构的三维点云模型,捕捉细节和准确性。在生成点云过程中,考虑了无人机相机的内外参数以及投影模型,从而提高了三维模型的几何精度。通过ICP配准,可以对生成的点云进行更准确的配准,进一步提高了整体模型的精度。
更具体地,利用ICP算法的距离度量,迭代旋转矩阵R和平移向量T,以配准三维点云和场景点云,生成三维场景点云的步骤还包括:通过无人机姿态估计,获取初始化的旋转矩阵R1和平移向量T1;这些参数将用于将源点云投影到场景点云坐标系中。源点云为通过Poisson表面重建生成的三维点云。使用准确的姿态估计算法,如惯性测量单元(IMU)和GPS数据的融合。具体地,无人机上装备了高质量的惯性测量单元(IMU)和GPS系统。IMU可以测量无人机的加速度和角速度,而GPS提供了位置信息。这两个传感器的融合可以提供更准确的姿态估计。姿态估计算法选择:卡尔曼滤波器:适用于融合IMU和GPS数据,能够提供稳定的姿态估计。扩展卡尔曼滤波器(EKF):用于非线性系统的姿态估计,可以应对一些飞行中的不确定性。四元数滤波器:适用于旋转参数的估计,对于精确的旋转估计很有用。
将旋转矩阵R1和平移向量T1,进行坐标变换,将源点云投影到相应的场景点云中;这样,源点云就被对齐到了场景点云的位置。具体地,对源点云进行坐标变换,把源点云中的每个点变换到场景点云的坐标系中。对场景点云中的每个点d1,利用最近邻搜索算法搜索与d1最近的点d2;然后,将钢结构三维数字模型中相应位置的数据与实际场景中的柱顶预埋件坐标高程进行比较分析。如果存在高程差异,可以根据差异调整钢结构三维模型的数据,从而更好地匹配实际场景。
计算d1和d2之间的曼哈顿距离误差;曼哈顿距离(也称为城市街区距离)是两点在每个坐标轴上的绝对差值的总和。在钢结构三维建模的上下文中,这可以用于衡量实际场景点与建模点之间的差异。对于每对匹配点d1和d2,计算它们在X、Y和Z坐标上的绝对差值,然后将这些绝对差值相加,即可得到曼哈顿距离。在计算曼哈顿距离误差时,可以设置一个距离阈值。只有当两个点的曼哈顿距离小于该阈值时,才将它们视为一致的匹配点。阈值的选择应根据点云数据的尺度和精度要求进行调整。对于不同类型的点,可以为每个坐标轴上的绝对差值分配不同的权重。例如,在钢结构中,Z轴(高度)可能更重要,因此可以为Z轴上的差值分配更高的权重,以更准确地捕捉建筑的垂直关系。计算曼哈顿距离误差后,可以根据误差的大小进行进一步的分析。如果误差较大,说明匹配点的对齐可能存在问题。可以使用之前提到的迭代优化方法,如ICP算法,来进一步优化匹配点的对齐,从而减小曼哈顿距离误差。综上所述,计算曼哈顿距离误差可以提供有关匹配点对齐质量的重要信息。合理选择距离阈值和加权参数,结合优化和验证,将有助于提高钢结构三维建模的精度,为提高钢结构加工精度奠定基础。
在本实施例中,计算d1和d2的曼哈顿距离,按照以下步骤进行计算:确定最近邻点d2。将d1和d2的三维空间的点坐标分别表示为(x1,y1,z1)和(x2,y2,z2)。计算曼哈顿距离:Manhattan_distance=|x1-x2|+|y1-y2|+|z1-z2|,竖线表示绝对值的运算符,曼哈顿距离计算的结果是三个坐标轴上的绝对值差之和。通过BFGS(拟牛顿法的一种)算法,最小化距离误差。该算法将迭代调整旋转矩阵和平移向量,以最大程度地减少点对之间的距离误差。优化后得到新的旋转矩阵R2和平移向量T2。
BFGS(Broyden Fletcher Gold farb Shanno)算法是一种拟牛顿法,用于非线性优化问题。在三维建模中,可以使用BFGS算法来最小化点云匹配的距离误差,以提高钢结构三维建模的精度,为提高钢结构加工精度奠定基础。首先,需要定义一个优化目标函数,该函数将计算点对之间的距离误差。这个函数的输入是当前的旋转矩阵R和平移向量T,输出是距离误差。可以使用之前计算的曼哈顿距离误差作为目标函数。在BFGS算法中,需要初始化旋转矩阵R和平移向量T。你可以使用之前的初始化值(如无人机姿态估计获得的初始值)作为初始参数。为了使用BFGS算法,需要计算目标函数关于旋转矩阵R和平移向量T的梯度。这个梯度可以用于指导优化过程。设置迭代次数M和距离误差阈值,这些参数将用于终止迭代的条件。根据点云数量和密度进行估计:根据场景中的点云数量和密度,可以估计需要更多迭代次数来使配准达到较好的结果。例如,较大的场景可能需要更多的迭代次数才能对齐点云。根据优化目标的变化情况进行设置:观察优化目标函数的变化情况,如果目标函数值在前几次迭代后变化较大,后续变化较小,则可以设置较小的迭代次数M。如果目标函数值持续在迭代过程中有较大的变化,则可以增加迭代次数M以获取更好的匹配结果。根据实时性要求进行设定:根据实际应用的实时性要求,设置迭代次数M。如果实时性要求较高,可以限制较小的迭代次数。距离误差阈值:根据应用需求设定:根据具体的应用需求和精度要求,设定适当的距离误差阈值。例如,如果需要高精度的配准结果,可以设置较小的距离误差阈值。根据数据集特性进行估计:根据点云数据集的特性和预期精度,估计合理的距离误差阈值。例如,如果数据集噪点较多或特征较稀疏,可能需要设置较大的距离误差阈值来容忍噪声和特征不完整性。根据先验知识进行调整:根据已有的先验知识或以往实验结果,进行初步设定,并根据实际情况进行调整。通过多次实验和分析,收集距离误差的统计信息,以帮助确定合理的阈值。
在本实施例中,初始化旋转矩阵R和平移向量T:以初始估计值为起点,初始化旋转矩阵R1和平移向量T1。
设置迭代次数M和距离误差阈值,这些参数将用于终止迭代的条件。在本实施例中N取10,根据点云噪声水平和场景的复杂性,设置距离误差阈值为0.1米。迭代更新R1和T1:在每次迭代中,计算当前参数下的目标函数值和梯度;使用BFGS公式计算参数的变化量;更新参数估计值:将当前的旋转矩阵R1和平移向量T1根据计算得到的变化量进行更新,得到R2和T2;计算新参数估计下的目标函数值和梯度;判断终止条件:如果达到迭代次数M或距离误差小于阈值,则停止迭代;否则,返回到第一步继续迭代。返回优化后的旋转矩阵R2和平移向量T2。
综上所述,使用BFGS算法可以优化旋转矩阵和平移向量,从而最小化点云匹配的距离误差。该算法需要合适的初始化、目标函数、梯度计算、步长调整等步骤,以及合适的参数设置,以实现钢结构三维建模的精度提升。
图4是根据本说明书一些实施例所示的构建混凝土结构的三维点云的流程示意图,如图4所示,在三维场景点云中,利用像空间前方交会算法,生成混凝土结构的三维点云的步骤还包括:
S410从三维场景点云中使用适当的线段提取算法(如霍夫变换或RANSAC)提取混凝土结构的线段特征。
调整算法参数以确保提取到足够准确的线段,并处理可能存在的线段重叠或局部分离情况。将生成的三维模型导入三维采集软件中,以便获取每个柱顶预埋件位置的高程和坐标。
使用线段信息计算每个柱顶预埋件位置的高程和坐标,通过计算线段的两个端点的平均值来实现。使用RANSAC算法或霍夫变换等线段提取算法,根据具体场景调整算法参数以获得更准确的线段特征。
RANSAC算法通过随机采样和拟合直线模型,迭代计算与拟合模型距离在一定阈值内的点数,找到最佳拟合的直线模型。RANSAC(Random Sample Consensus)随机抽样一致性算法,是一种特征匹配和模型拟合的鲁棒算法,可以在包含异常值的样本数据中估计数学模型参数,常用于计算机视觉领域的特征匹配。在特征匹配时,可以有效过滤离群点,提高匹配结果的可靠性。钢结构安装依赖于不同部件之间精确的匹配,RANSAC可以排除误匹配,防止错误累积;在计算机视觉三维重建中,RANSAC可以优化多视角图像的匹配,剔除外点,提高三维模型的精度。这为钢结构的数字化建模奠定基础;在点云数据处理中,RANSAC可用于提高线段、平面等几何要素提取的鲁棒性,过滤噪声点的影响,使结果更准确可靠;RANSAC还可以用来校验和修正不同传感器的数据,检测并删除明显异常的结果,防止错误的累积;通过迭代计算,RANSAC可以快速逼近全局最优解,有利于获得高精度的作业结果;RANSAC算法的参数可以通过反复试验获得最优配置,提高钢结构加工精度。
霍夫变换将点云数据转换为Hough空间,并根据投票原则找到在Hough空间中累积最高的直线参数,然后将其转换回三维空间。对于提取出的线段,可以考虑使用线段合并算法将相邻的线段合并成更长的线段,以提高线段信息的连续性和准确性。霍夫变换(HoughTransform)是一种特征提取技术,常用于从图像或点云中检测各种形状,如线段、圆等。可以有效提取点云数据中的线段特征,获取钢结构中的直线元素,如桁架、柱子、屋面等;通过在参数空间中进行投票累加,实现了提取直线的鲁棒性,可以容忍一定噪声;可通过调整距离和角度精度参数来控制线段提取的灵敏度,获得不同粒度的线段信息;能够按照设定的最小线段长度参数过滤提取结果,删除过短线段;结合段合并技术,可以将断裂线段补全,得到结构中连续和完整的线特征;可作为其他线段提取算法的预处理或后处理步骤,提升效果;算法思路简单直观,计算高效,容易实现和优化;可以检测不同角度的线段,综合获得结构的多方向特征。
对每个合并后的线段,计算其两个端点的平均高程和坐标,通过对线段端点的点云数据在三维空间中计算平均值来实现。S410能够从三维场景点云中提取混凝土结构的线段特征,并计算柱顶预埋件的准确位置,从而提高钢结构安装的精度。重要的是对算法参数进行适当调整,根据具体场景进行验证和优化,以确保线段提取的准确性和精度符合要求。
S420在多视角的倾斜照片上使用适当的线段检测算法,从照片中提取线段特征。获得倾斜照片上线段的投影,将线段的三维端点投影到图像平面上,得到线段在倾斜照片中的投影位置。在每张倾斜照片上使用特征点检测算法(如SIFT、SURF、ORB等)提取特征点。对不同视角下的照片进行特征点匹配,建立对应点对的关系。根据特征点的位置和方向,在原始三维场景点云中搜索最匹配的线段。找到与特征点对应的线段,确保其与倾斜照片上提取的线段特征相对应。通过照片的视角和相机参数,计算线段在倾斜照片上的投影。将线段的三维端点投影到照片的二维平面上,得到线段在不同视角下的投影位置。在多视角下,同一线段在不同照片中的投影可能存在一定的差异。通过线段的投影在不同视角下的重叠区域,进行线段匹配和融合,以提高精度和一致性。本申请中S420能够在多视角的倾斜照片上检测混凝土结构的线段特征,并计算线段在不同视角上的投影。特征点的提取和匹配帮助建立不同视角下的对应点对,进而在点云中找到对应的线段。通过计算线段在倾斜照片上的投影,可以更精确地了解混凝土结构的位置和几何关系,从而提高安装的精度。重要的是在特征提取、匹配和线段投影计算过程中,对相机参数和算法参数进行适当调整和优化,以确保计算结果的准确性和可靠性。
S430本申请多个相机在不同位置和视角捕获倾斜照片,确保覆盖整个混凝土结构。每张照片都需标注相机参数,如焦距、畸变参数等。对于每张倾斜照片,使用线段检测算法(如Hough Transform、Canny等)来检测图像中的线段特征。对每条检测到的线段,提取其端点坐标,并生成线段的特征描述符。使用特征匹配算法(如SIFT、SURF、ORB等)来比较不同视角照片中线段的特征描述符。对于每个线段,选择在其他视角中最相似的线段作为匹配候选。通过设定阈值,筛选掉匹配度较低的线段匹配,确保高质量的匹配结果。对于每对匹配的线段,使用相机参数和线段的三维位置进行投影计算,确定其在不同视角的照片中的对应投影点。将所有视角下的投影线段匹配点结合起来,利用三角化等方法来重建钢结构的三维模型。结合相机的位置和姿态信息,将线段的三维位置融合到全局坐标系中,以建立整个建筑的准确三维模型。进行误差校正,包括相机标定和畸变校正,以提高线段投影和三维重建的精度。可以使用BundleAdjustment等技术来优化三维模型,进一步提高建筑的准确性。将三维建筑模型可视化,以便进行质量控制和安装规划。提供用户友好的界面,使用户能够查看建筑的不同部分,并进行必要的调整。通过S430系统,本申请获得高精度的三维建筑模型,这将有助于提高钢结构的加工精度,减少误差,确保各个部分的贴合度,从而提高整体结构的稳定性和安全性。
S440输入数据,接收线段的几何信息,例如线段的起点和终点坐标,以及与每个视角相关的相机参数(包括内外参数)。这些相机参数用于描述视角的位置、姿态和成像特性。线段投影计算:对于每一对匹配的线段,从其中一个视角出发,使用线段的起点和终点坐标以及该视角的相机参数,在该视角下计算线段的投影。这可以通过将线段与相机成像平面进行相交计算来实现。寻找交点投影:将计算得到的线段投影绘制在另一个视角的照片上。在这个过程中,需要使用适当的相机参数和坐标变换,以确保线段在正确的位置上。寻找投影交点:在投影后的照片上,找到与另一条线段投影相交的点。这个相交点将是两条线段在另一个视角下的交点的投影。三维交点计算:对于每对交点投影,结合两个视角的相机参数和交点在两个视角的投影,进行三角测量以计算三维交点的坐标。通过将两个视角之间的几何关系和相机参数纳入计算,可以得到更精确的三维交点坐标。通过本申请,可以实现在倾斜照片或不同视角下计算线段投影和交点的需求。这对于钢结构安装的精度提高非常重要,因为可以基于不同视角的信息来计算出准确的交点位置。这有助于优化钢结构的布置和对接,并确保精确的安装和连接。
在本实施例中,对于每一对匹配的线段,选择一个视角(如视角A)为基准视角。从基准视角A出发,使用线段的两个端点和相机参数(内外参数)计算线段在视角A下的投影。可以使用透视投影来将线段的端点转换到图片上的像素坐标。将线段A的投影绘制在另一个视角的照片上(如视角B)。使用该视角的相机参数(内外参数)和坐标变换,将线段A的投影从视角A变换到视角B上。在投影后的视角B的照片上,找到与线段A投影相交的线段B的投影上的点。这些点将成为待计算的交点的投影。对于每对交点投影,根据两个视角的相机参数(内外参数)和交点在两个视角下的投影,进行三角测量以计算三维交点的坐标。
S450接收所有之前计算得到的交点的三维坐标、两个视角的相机参数,以及交点在两个视角下的投影信息。对于每个交点,从该交点出发,朝向两个视角的相机位置分别构建两条射线。每条射线的起点为交点的三维坐标,终点为对应视角的相机位置。对于每条射线,确定其方向向量。方向向量是从交点指向相机位置的单位矢量。使用三角测量算法,结合交点在两个视角下的投影和方向向量,计算出射线的三维方向向量。常用的三角测量算法包括最小二乘法、最大似然估计、加权最小二乘法等。选择适当的算法取决于数据的性质和精度要求。计算得到的三维方向向量可以用于多种用途,例如:在三维模型中标记交点的位置,以帮助钢结构的精确安装。进行碰撞检测,以确保不同部分的钢结构在安装时不会相互干扰。帮助规划和优化施工过程,以提高安装效率和质量。在三角测量算法中,要考虑误差来源,如相机参数的精度、交点坐标的测量误差等。可以使用精度评估方法来估计三维方向向量的可信度,并在需要时进行误差校正。本申请S450,可以构建射线并计算出它们的三维方向向量,这对于提高钢结构的加工精度至关重要。这些方向向量可以用于各种应用,从而帮助确保钢结构的准确对接和位置。同时,精确的方向向量也有助于管理和校正误差,从而提高测量和建模的可信度。
S460接收来自不同视角下的倾斜照片的信息,包括相机参数(内外参数)和匹配的线段在图像中的投影。前方交会(Forward Intersection)是一种Photo grammetry中的算法,用于从两张或多张图片中测量目标点的三维坐标。迭代法:根据图像点在两张图像中的坐标,以及相机内外方位元素,计算射线方程;初始化目标点的坐标;求解从摄影中心到目标点的向量与对应的射线方向向量之间的角度差;不断迭代优化目标点坐标,使角度差最小化;当角度差收敛时,得到最终目标点坐标。解析法:同样基于图像点坐标和相机参数求解射线方程;将两个射线方程进行列向量表示;构建并求解两个射线方程的系数矩阵,获得目标点的三维坐标的解析解;相比迭代法需要多次逼近,解析法可以直接求解,计算更高效。但迭代法运算简单,也较为常用;通过前方交会算法,可以将图像多视角下的特征点精确映射到三维空间,这对于构建精确的三维点云模型,提高钢结构数字化建模和安装质量具有重要作用。获取两个视角的高精度相机参数,包括内参数(如焦距、主点等)和外参数(相机位置和方向)。这些参数对于计算精确的三维坐标至关重要。对于每个线段,在两个视角的照片上,构建射线。射线的起点是相机的位置,方向向量是线段的方向。射线的构建可以通过使用相机参数和线段的投影信息来实现。迭代法:使用迭代方法计算射线与相机成像平面的交点。初始估计值可以根据相机的位置和射线的方向向量计算得出。对每个估计的交点,将其投影回每个视角的图像平面上,并与实际线段的投影进行对比。通过迭代更新估计的交点坐标,直到满足收敛条件,例如精度要求或迭代次数限制。或者解析法:根据相机内参数、外参数和射线的方向向量,使用解析方法来求解射线与成像平面的交点方程,得到交点的三维坐标。S460输出计算得到的三维交点坐标。这些坐标可以用于钢结构的建模、分析、碰撞检测等应用,以提高钢结构安装的精度和可靠性。通过使用高精度的相机参数和前方交会算法,S460可以准确地计算不同视角下线段的三维交点坐标,这对于提高钢结构安装的精度和质量至关重要。本申请可以应用于建筑、工程和制造等领域,以确保构建的精度和可靠性。
在本实施例中,用前方交会算法计算三维交点坐标,具体使用迭代方法计算射线与相机成像平面交点的步骤还包括:获取两个视角的相机参数,包括内参数(如焦距、主点等)和外参数(相机位置和方向)。这些相机参数可以通过相机标定或其他姿态估计技术获得。射线初始化:根据相机的位置和射线的方向向量,计算射线与成像平面的交点的初始估计值。迭代计算,对于每次迭代:将交点估计值投影到每个视角的图像平面上,得到在每个视角下的投影点;计算每个视角下实际线段的投影,与估计的投影进行对比;根据对比结果,更新估计的交点坐标;重复上述步骤,直到满足收敛条件(如精度要求或迭代次数限制)为止;收敛判定:可以根据多种条件进行收敛判定,如交点坐标的变化量小于阈值、误差函数的收敛等。具体判定条件需根据实际需求和精度要求确定;返回交点坐标:最终收敛后的估计交点坐标即为所求的三维交点。
S470将计算得到的三维交点坐标进行融合,生成混凝土结构的三维点云。使用点云融合算法,如迭代最近点(ICP)算法或其他适当的点云融合方法,将不同视角下的三维交点坐标进行融合;这个步骤有助于消除不同视角之间的误差,生成混凝土结构的一致且准确的三维点云。使用适当的三维建模软件,如AutoCAD、Revit、Tekla等,根据施工图纸和融合后的三维点云数据,建立钢结构屋面的三维数字模型;在建模过程中,可以将点云数据用作参考,以确保模型与实际情况一致。进一步精细化数字模型,添加细节、连接部件、标记构件等,以满足建筑和施工的具体需求;可以将模型分为不同的构建阶段,以便在施工过程中进行监测和计划。S470输出生成的三维点云和数字模型。这些数据可以用于混凝土结构的可视化、模拟、分析和施工规划;通过使用S470,可以生成准确的混凝土结构的三维点云和数字模型。这有助于提高钢结构安装的精度,因为施工人员可以使用数字模型来预览和分析建筑的结构,识别潜在的问题,并进行优化。此外,数字模型还可以用于碰撞检测、施工进度跟踪和质量控制,从而提高建筑项目的效率和可靠性。
具体地,收集不同视角下计算得到的三维交点坐标数据:使用激光扫描仪、摄影测量或其他三维扫描技术,从不同角度获取钢结构的三维交点坐标数据。点云融合:利用点云融合算法,如Iterative Closest Point(ICP)算法,将来自不同视角的三维交点坐标进行融合。ICP算法通过迭代寻找最佳变换矩阵,将点云之间的距离最小化,从而使融合后的点云更加准确和一致。点云数据整理:将融合后的三维交点坐标数据整理成点云格式,确保每个点都具有三维坐标信息。可以使用点云处理库,如Point Cloud Library(PCL),进行点云数据的处理和操作。选择三维建模软件:根据需要,选择适合的三维建模软件,如AutoCAD、Revit、Tekla等。这些软件提供了强大的建模和设计功能,适用于创建钢结构的三维模型。导入点云数据:将生成的三维点云数据导入所选的三维建模软件中。这样可以将点云作为参考,在软件中重现钢结构屋面的形状。创建几何体:使用点云数据为钢结构的屋面创建几何体,例如线条、多边形等。根据点云的位置和形状,通过绘制几何体来重建建筑物的结构。数据后处理:对生成的三维模型进行数据后处理,如平滑表面、填补空洞等。这些操作有助于获得更加精确和完整的模型。验证和评估:使用现有的建筑模型、测量数据或其他高精度数据对所生成的三维模型进行验证和评估。比较模型与现实场景的差异,评估模型的准确性,并做出必要的调整和优化。通过上述步骤,可以利用从不同视角计算得到的三维交点坐标数据生成准确的钢结构三维模型。这将有助于提高钢结构安装的精度。
图5是根据本说明书一些实施例所示的一种基于无人机倾斜摄影的钢结构加工方法的技术路线图,如图5所示,一种基于无人机倾斜摄影的钢结构加工方法的技术路线图如下:
在建筑物周边进行现场踏勘和无人机巡检,全面了解建筑物的环境情况,并规划航飞区域,布设像控点,以提供精确的地面控制点,并采集像控点的数据,为后续建模提供基准。使用无人机进行航测,获得倾斜摄影照片,捕捉建筑物的多个视角,将航测数据导入三维实景建模软件(如大疆智图),开始三维建模过程;使用刺点方式对模型的坐标高程进行校正,确保模型的坐标与实际场地相符,生成坐标高程与实际相符的三维实景模型。利用三维采集软件(如CASS3D),获取每个柱顶预埋件位置的高程和坐标,细化模型的数据;使用钢结构三维建模软件,根据施工图纸建立钢结构屋面的三维数字模型;将钢结构三维模型的数据与实景三维模型中的柱顶预埋件坐标高程进行比较分析,调整模型数据以确保钢结构加工精度与实际数据匹配。根据调整后的钢结构三维模型生成钢结构的加工图纸,并进行钢结构的制造加工;对加工完成的钢结构进行三维扫描,生成钢结构的数字三维模型,以准确捕捉其几何形状。将主体结构的实景模型和钢结构的三维数字模型导入三维施工模拟软件;进行预拼装和施工模拟,仔细检查加工精度,并对存在偏差的构件进行场内二次加工;检查吊装方案的合理性,根据模拟结果对钢结构编号,确保钢结构加工精度。将经过场内二次加工后的钢结构运抵施工现场;在施工现场进行钢结构的现场吊装,按照预定的安装方案完成钢结构的组装,确保加工精度的要求得以满足。
本申请的核心在于通过土建实景三维模型提供预埋件精确位置,以预埋件数据为基础建立高精度钢结构数字模型,再依托模型指导钢结构加工和装配,实现钢结构建模、加工和装配的有机结合,全过程实现高精度闭环控制。
具体而言,通过无人机航拍获得混凝土结构多视角倾斜图像,并构建高精度三维实景模型。基于实景模型,精确提取预埋件的三维坐标,在钢结构三维建模软件中,以预埋件数据为约束建立高精度钢结构数字模型。依托数字模型生成钢结构详细加工图纸,进行制作。使用三维扫描获得构件的数字模型,在虚拟仿真软件中进行装配检验,调整加工不符合要求的构件,并优化整体方案。最后,运输构件到现场进行精准装配,完成高精度安装。本申请有效实现了虚拟模型与实体构件的精确对应,通过数字化指导加工装配的闭环控制,全面提升了钢结构的安装质量。
其中,大疆智图是一种无人机倾斜摄影系统,它采用倾斜摄影技术来捕捉建筑物的多个视角,提供更全面、准确的数据源,高分辨率的倾斜摄影照片可以捕捉细节,包括构件连接、表面质量等,有助于建立精细的模型。CASS3D是一种三维采集软件,结合了建筑物的实地测量数据和无人机航测数据,提供了更准确的点云数据,用于模型校正和精度提升,它可以进行高精度测量和校正,确保模型的坐标与实际场地相符,从而提供准确的钢结构模型。Geomagic Design X是一种三维逆向软件,可将三维扫描的钢结构数据转化为数字模型;这个软件能够提取出精确的钢结构几何形状和尺寸信息,帮助创建准确的钢结构模型。综合以上三个软件的使用,本申请可以实现钢结构加工后的三维扫描,并将扫描得到的数据转化为准确的数字模型。这些软件的综合应用,能够提高钢结构预拼装的准确性和效率。通过倾斜摄影、精确的点云数据采集和钢结构逆向等步骤,本申请能够获得高精度的钢结构模型,从而确保预拼装过程的准确性和质量。
本申请还提供一种基于无人机倾斜摄影的钢结构安装方法:利用无人机对钢结构的安装现场环境进行倾斜摄影,获取现场环境的三维点云数据。在三维点云数据中提取出待安装钢结构的关键部位。根据本申请的钢结构加工方法获得的混凝土结构的三维实景模型;通过三维数字匹配技术,匹配提取的钢结构关键部位与三维数字模型的对应部位,计算出钢结构的精确位置和姿态。具体地是:在三维数字模型中预先标识钢结构的多个关键部位;使用特征匹配算法,在现场环境三维点云中检测和提取出对应的关键部位;计算关键部位之间的距离关系;将其与三维数字模型中的距离关系进行匹配比较;计算出钢结构的位置坐标和三维旋转角度;根据计算出的位置和姿态,实现钢结构空间状态的精确标定。通过匹配多处关键部位实现对钢结构整体位置和姿态的高精度计算,从而指导钢结构的精确安装。根据匹配计算的位置和姿态,在现场环境三维点云中标定出钢结构的安装位置。使用吊装设备将钢结构吊装至计算标定的安装位置。人工微调钢结构的位置和姿态,使其与三维数字模型完全吻合,使用连接件固定钢结构。
具体地,根据钢结构的虚拟模型和加工图纸指导实际的安装操作。将S600生成的钢结构构件虚拟模型导入加工车间,指导构件的详细加工制作;加工过程中,严格按照虚拟模型的尺寸、形状要求进行切割、弯折等工序;加工完成后,进行三维扫描,获得构件实际信息,与虚拟模型进行比对,确保尺寸精度符合要求;在施工现场布设定位控制网络,进行精密测量,获取主要定位基点的实际坐标;将测量获得的实际基点坐标输入虚拟模型,使模型和实际场地基准一致;起重吊装时,工作人员带VR设备,实时观察模型信息,确保吊装位置符合虚拟要求;连接构件时,严格按照加工图纸要求进行,避免出现偏差;吊装完成后,进行水准测量,将实际坐标与虚拟模型进行比对;如果误差超标,则进行返工调整,直至各构件实际位置与虚拟模型一致;使用激光扫描仪等设备对实际结构进行整体三维扫描;将扫描获得的实际三维模型导入虚拟环境,与数字化虚拟模型进行比对;生成差异报告,分析钢结构各部分的具体安装误差;根据检测结果,针对问题提出改进方案,以指导后续施工,确保安装质量。
综上所述,利用无人机倾斜摄影获取的三维点云数据能够全面反映钢结构的实际安装环境,为精确标定钢结构的安装位置提供了数据支持;通过匹配三维数字模型和实际环境中的混凝土结构,可以计算出钢结构的精确空间位置关系,消除安装位置的盲目性,实现精确定位;吊装设备在借助精确的三维信息指导下进行操作,可以将钢结构准确吊装到计算后的安装位置,防止出现安装偏差;三维数字技术实现了从钢结构设计、制作到安装全过程的可视化控制,确保了钢结构安装的高精度;高精度的安装定位确保了钢结构连接的准确度,提高了结构整体刚度和稳定性,改善了结构质量;
以上示意性地对本申请创造及其实施方式进行了描述,该描述没有限制性,在不背离本申请的精神或者基本特征的情况下,能够以其他的具体形式实现本申请。
Claims (5)
1.一种基于无人机倾斜摄影的钢结构加工方法,包括:
设置钢结构的航控点,航控点包含三维坐标;
使用无人机对混凝土结构进行倾斜摄影,获取包含航控点的多视角倾斜照片;
利用三维建模软件,通过匹配倾斜照片中的航控点的三维坐标,构建混凝土结构的三维场景点云;
在三维场景点云中,利用像空间前方交会算法,生成混凝土结构的三维点云;
根据混凝土结构的三维点云,构建混凝土结构的三维实景模型;
在三维点云中提取钢结构预埋件的三维坐标,并根据钢结构预埋件的三维坐标通过三维建模软件生成钢结构的虚拟模型和钢结构的加工图纸,根据虚拟模型和加工图纸,进行钢结构的加工;
设置钢结构的航控点,航控点包含三维坐标的步骤还包括:
根据三维实景模型的预设分辨率F,计算航控点的设置密度D;
在钢结构的施工区域和航拍区域按计算的设置密度D布设航控点;
利用全站仪对每个航控点进行测量,获取航控点的空间坐标;
对每个航控点进行编码标识,记录航控点的编码标识与空间坐标的对应关系;
在钢结构的表面布设含有编码标识的航控点;
预设分辨率F通过如下公式计算:
F=H*α/f
其中,H表示无人机的飞行高度;α表示计算获得的航控点的图片像素尺寸;f表示相机的焦距;
计算获得的航控点的图片像素尺寸α的步骤还包括:
预设点云密度P;
根据航拍照片重叠率设置照片拍摄间隔L1;
计算单张照片对应的地面覆盖面积S1,其中S1=L1*L1;
计算单张照片对应的理论点云数量N,其中N=P*S1;
根据照片分辨率,计算单个像素对应的实地距离L2;
计算单个点云点对应的像素大小S2,其中S2=L2*L2;
计算每个航控点的图片像素尺寸α,其中α=S1/(N*S2);
设置密度D通过如下公式计算:
D=k*F
其中,k为航控点成等边三角形排布的系数;
利用三维建模软件,通过匹配倾斜照片中的航控点的三维坐标,构建混凝土结构的三维场景点云的步骤还包括:
在倾斜照片中检测航控点;
对检测出的航控点应用图像处理算法进行定位和识别;
应用稠密图像匹配算法,获取不同倾斜照片中的航控点的匹配点;
利用结构从动算法,通过匹配点构建三维场景点云;
应用稠密图像匹配算法,获取不同倾斜照片中的航控点的匹配点的步骤还包括:
在倾斜照片中检测SIFT特征点;
使用KNN算法匹配不同照片中的SIFT特征点,获得第一匹配点;
对第一匹配点进行单应性校验,剔除误匹配,获得第二匹配点;
计算第二匹配点对应的密集光流字段;
根据密集光流字段计算不同照片间的密集像素匹配关系;
根据密集像素匹配关系,获取不同倾斜照片中的航控点的匹配点;
利用结构从动算法,通过匹配点构建三维场景点云的步骤还包括:
计算无人机相机的内参和外参,作为结构从动的输入参数;
构建打包投影模型,设置投影函数参数;
输入不同倾斜照片中的航控点的匹配点,设置匹配点间特征描述子距离;
通过Poisson表面重建,生成三维点云;
利用ICP算法的距离度量,迭代旋转矩阵R和平移向量T,以配准三维点云和场景点云,生成三维场景点云。
2.根据权利要求1所述的基于无人机倾斜摄影的钢结构加工方法,其特征在于:
利用ICP算法的距离度量,迭代旋转矩阵R和平移向量T,以配准三维点云和场景点云,生成三维场景点云的步骤还包括:
通过无人机姿态估计,获取初始化的旋转矩阵R1和平移向量T1;
将旋转矩阵R1和平移向量T1,进行坐标变换,将源点云投影到相应的场景点云中;
对场景点云中的每个点d1,利用最近邻搜索算法搜索与d1最近的点d2;
计算d1和d2之间的曼哈顿距离误差;
通过BFGS算法,最小化距离误差,得到旋转矩阵R2和平移向量T2;
根据旋转矩阵R2和平移向量T2,更新旋转矩阵R和平移向量T,直到达到迭代次数M或距离误差小于阈值;
其中,源点云为通过Poisson表面重建生成的三维点云。
3.根据权利要求1所述的基于无人机倾斜摄影的钢结构加工方法,其特征在于:
在三维场景点云中,利用像空间前方交会算法,生成混凝土结构的三维点云的步骤还包括:
从三维场景点云中提取线段特征,获取混凝土结构的线段信息;
在多视角的倾斜照片上检测线段对应的线特征,获得倾斜照片上的线段投影;
匹配不同视角的倾斜照片中的线段投影;
计算匹配的线段投影在不同视角的倾斜照片上的交点;
对所有交点运用三角测量算法构建射线;
基于不同视角下的射线,用前方交会算法计算三维交点坐标;
将计算得到的三维交点坐标进行融合,生成混凝土结构的三维点云。
4.根据权利要求1所述的基于无人机倾斜摄影的钢结构加工方法,其特征在于:
在三维点云中提取钢结构预埋件的三维坐标,并根据钢结构预埋件的三维坐标通过三维建模软件生成钢结构的虚拟模型和钢结构的加工图纸的步骤还包括:
将三维实景模型的三维点云导入三维点云处理软件,提取出钢结构预埋件的三维坐标数据;
利用三维建模软件,根据钢结构预埋件的三维坐标数据,建立第一钢结构模型,并将第一钢结构模型的节点位置与钢结构的三维坐标数据进行匹配,生成第二钢结构模型;
利用三维建模软件,根据第二钢结构模型生成钢结构的加工设计图;
根据加工设计图进行钢结构加工,获取实体钢结构;
利用三维激光扫描仪扫描实体钢结构,获得实体钢结构的三维数字模型;
利用三维协同仿真软件,结合三维实景模型和三维数字模型,调整第二钢结构模型作为钢结构的虚拟模型。
5.一种基于无人机倾斜摄影的钢结构安装方法,其特征在于:
利用无人机对钢结构的安装现场环境进行倾斜摄影,获取现场环境的三维点云;
在获取的现场环境的三维点云中,提取待安装钢结构对象;
获取权利要求1至4任一项所述方法获得的混凝土结构的三维实景模型;
通过三维数字匹配技术,结合提取的待安装钢结构对象与三维实景模型,在获取的现场环境的三维点云中标定钢结构的安装位置;
使用吊装设备将钢结构吊装至标定的安装位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311343637.6A CN117274499B (zh) | 2023-10-17 | 2023-10-17 | 一种基于无人机倾斜摄影的钢结构加工及安装方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311343637.6A CN117274499B (zh) | 2023-10-17 | 2023-10-17 | 一种基于无人机倾斜摄影的钢结构加工及安装方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117274499A CN117274499A (zh) | 2023-12-22 |
CN117274499B true CN117274499B (zh) | 2024-05-07 |
Family
ID=89212255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311343637.6A Active CN117274499B (zh) | 2023-10-17 | 2023-10-17 | 一种基于无人机倾斜摄影的钢结构加工及安装方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117274499B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118196154B (zh) * | 2024-04-02 | 2024-10-18 | 西南交通大学 | 一种规则回转体器皿绝对位姿配准方法、装置、设备及介质 |
CN118331474B (zh) * | 2024-06-12 | 2024-08-30 | 中大智能科技股份有限公司 | 基于三维模型解算相机外方位元素的可交互式方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110849324A (zh) * | 2019-10-29 | 2020-02-28 | 中铁十二局集团有限公司 | 一种长曝光倾斜摄影隧道全息测量方法 |
CN113607135A (zh) * | 2021-08-13 | 2021-11-05 | 中交第一航务工程局有限公司 | 一种用于路桥施工领域的无人机倾斜摄影测量方法 |
CN113920262A (zh) * | 2021-10-15 | 2022-01-11 | 中国矿业大学(北京) | 一种增强边缘取样与改进Unet模型的矿区FVC计算方法及系统 |
CN115376030A (zh) * | 2022-09-20 | 2022-11-22 | 中国建筑第七工程局有限公司 | 一种基于bim和无人机技术的钢结构监测方法 |
-
2023
- 2023-10-17 CN CN202311343637.6A patent/CN117274499B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110849324A (zh) * | 2019-10-29 | 2020-02-28 | 中铁十二局集团有限公司 | 一种长曝光倾斜摄影隧道全息测量方法 |
CN113607135A (zh) * | 2021-08-13 | 2021-11-05 | 中交第一航务工程局有限公司 | 一种用于路桥施工领域的无人机倾斜摄影测量方法 |
CN113920262A (zh) * | 2021-10-15 | 2022-01-11 | 中国矿业大学(北京) | 一种增强边缘取样与改进Unet模型的矿区FVC计算方法及系统 |
CN115376030A (zh) * | 2022-09-20 | 2022-11-22 | 中国建筑第七工程局有限公司 | 一种基于bim和无人机技术的钢结构监测方法 |
Non-Patent Citations (2)
Title |
---|
倾斜摄影与地面激光点云融合精细化建模研究;李策 等;《现代矿业》;20190531(第05期);第53-55+59页 * |
无人机倾斜摄影测量技术在不动产更新测绘中的应用;杨亚彬;谢思梅;谢荣安;;测绘通报;20200725(07);第111-114页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117274499A (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11443444B2 (en) | Interior photographic documentation of architectural and industrial environments using 360 panoramic videos | |
Tuttas et al. | Acquisition and consecutive registration of photogrammetric point clouds for construction progress monitoring using a 4D BIM | |
KR100912715B1 (ko) | 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치 | |
CN117274499B (zh) | 一种基于无人机倾斜摄影的钢结构加工及安装方法 | |
US8315425B2 (en) | Method for comparison of 3D computer model and as-built situation of an industrial plant | |
CN105046251B (zh) | 一种基于环境一号卫星遥感影像的自动正射校正方法 | |
CN102506824B (zh) | 一种城市低空无人机系统生成数字正射影像图的方法 | |
CN109238239B (zh) | 基于航空摄影的数字测量三维建模方法 | |
US20090110267A1 (en) | Automated texture mapping system for 3D models | |
Rumpler et al. | Evaluations on multi-scale camera networks for precise and geo-accurate reconstructions from aerial and terrestrial images with user guidance | |
CN112288848B (zh) | 无人机航拍三维建模计算工程量的方法 | |
Rumpler et al. | Automated end-to-end workflow for precise and geo-accurate reconstructions using fiducial markers | |
CN109900274B (zh) | 一种图像匹配方法及系统 | |
Lee et al. | A study on scan data matching for reverse engineering of pipes in plant construction | |
CN116758234A (zh) | 一种基于多点云数据融合的山地地形建模方法 | |
CN116563377A (zh) | 一种基于半球投影模型的火星岩石测量方法 | |
Dold | Extended Gaussian images for the registration of terrestrial scan data | |
Jiang et al. | Determination of construction site elevations using drone technology | |
Sgrenzaroli et al. | Indoor Mobile Mapping Systems and (BIM) digital models for construction progress monitoring | |
CN117782007A (zh) | 地面沉降高精度无人机近景摄影测量装置及测量方法 | |
Wu | Photogrammetry: 3-D from imagery | |
KR101189167B1 (ko) | 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법 | |
Huang et al. | An Innovative Approach of Evaluating the Accuracy of Point Cloud Generated by Photogrammetry-Based 3D Reconstruction | |
KR102538157B1 (ko) | 무인비행체를 이용한 3차원 실사모델 제작 방법 | |
Hadi et al. | Accuracy Assessment of Establishing 3D Real Scale Model in Close-Range Photogrammetry with Digital Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |