CN117314869A - 基于人工智能的智能建筑测量系统及方法 - Google Patents
基于人工智能的智能建筑测量系统及方法 Download PDFInfo
- Publication number
- CN117314869A CN117314869A CN202311304528.3A CN202311304528A CN117314869A CN 117314869 A CN117314869 A CN 117314869A CN 202311304528 A CN202311304528 A CN 202311304528A CN 117314869 A CN117314869 A CN 117314869A
- Authority
- CN
- China
- Prior art keywords
- point
- point cloud
- depth image
- data
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 103
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000005457 optimization Methods 0.000 claims abstract description 67
- 238000000605 extraction Methods 0.000 claims abstract description 32
- 238000003062 neural network model Methods 0.000 claims abstract description 30
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 230000007246 mechanism Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 claims description 16
- 238000000691 measurement method Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000005096 rolling process Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
Abstract
本发明涉及建筑测量领域,尤其涉及基于人工智能的智能建筑测量系统及方法。首先,采集待测量建筑全部测量点的多角度点云数据,将多角度点云数据映射到深度图像上,提取深度图像中节点的隐含表示;然后,对深度图像进行自适应视差优化,使用图卷积网络处理点云数据,得到每个点的新特征表示,并使用自注意力机制进一步提高特征的质量;最后,构建测量点识别神经网络模型,识别出点云图像特征信息对应的待测量点,得到实际建筑待测量点的测量数据。解决了现有技术没有高效处理和优化测量数据,导致数据中存在噪声、遮挡、伪影等问题,以及对点云数据的特征提取不够精确和在自动识别测量点方面存在困难,需要人工干预的问题。
Description
技术领域
本发明涉及建筑测量领域,尤其涉及基于人工智能的智能建筑测量系统及方法。
背景技术
随着城市化进程的加速和建筑行业的迅速发展,对建筑物的精确测量需求日益增加。传统的建筑测量方法往往依赖于人工操作,不仅效率低下,而且容易出现误差,难以满足现代建筑工程的高精度、高效率要求。此外,随着大数据、云计算和人工智能技术的飞速发展,如何将这些先进技术应用于建筑测量,提高测量的准确性和效率,成为业界关注的焦点。
近年来,点云数据和深度图像技术在建筑测量中得到了广泛应用,它们可以提供丰富的三维信息,帮助工程师更好地理解和分析建筑结构。然而,如何从大量的点云数据中提取有用的特征,如何将这些特征有效地应用于建筑测量,仍然是一个挑战。
我国专利申请号:CN202210500351.3,公开日:2022.06.10,公开了一种基于智能机器人的建筑测量方法,通过在具有自主导航能力的智能机器人平台上搭载便携式的3D激光扫描实景测量设备,以建筑CAD平面图为基础,自动划分区域及测量任务点,生成导航及扫描路径,机器人自主移动至目标点后,开启自主测量工作,自动化完成建筑各房间三维数据采集及建筑质量报表输出,实现房屋建筑室内空间的自主移动和实测实量工作,提升建筑测量效率。
但上述技术至少存在如下技术问题:现有技术没有高效处理和优化测量数据,导致数据中存在噪声、遮挡、运动、伪影等问题,影响测量结果的准确性;对于点云数据的特征提取不够精确,导致测量结果的不稳定性和不准确性;在自动识别测量点方面存在困难,需要人工干预。
发明内容
本申请实施例通过提供基于人工智能的智能建筑测量系统及方法,解决了现有技术没有高效处理和优化测量数据,导致数据中存在噪声、遮挡、运动、伪影等问题,影响测量结果的准确性;对于点云数据的特征提取不够精确,导致测量结果的不稳定性和不准确性;在自动识别测量点方面存在困难,需要人工干预。实现基于人工智能的智能建筑测量系统,通过先进的数据处理、特征提取和深度学习技术,提高了建筑测量的精度、效率和自适应性。
本申请提供了基于人工智能的智能建筑测量系统及方法,具体包括以下技术方案:
基于人工智能的智能建筑测量系统,包括以下部分:
数据获取模块、转换模块、第一特征提取模块、视差优化模块、第二特征提取模块、测量点识别模块和测量输出模块;
所述转换模块,用于将多角度点云数据映射到深度图像上,将一张以上深度图像进行叠加形成深度图像的密度,每个点云数据上的点映射为深度图像的一个有效像素,所述转换模块通过数据传输的方式与所述视差优化模块相连;
所述第一特征提取模块,用于使用变分图自编码器对点云数据进行编码,提取每个点的隐变量表示作为特征,所述第一特征提取模块通过数据传输的方式与所述视差优化模块相连;
所述视差优化模块,用于对深度图像进行视差优化,去除噪声点,包括遮挡、运动、伪影,并进行自适应视差优化,所述视差优化模块通过数据传输的方式与所述第二特征提取模块相连;
所述第二特征提取模块,用于使用图卷积网络进一步处理点云数据,得到每个点的新特征表示,并使用自注意力机制进一步提高特征的质量,所述第二特征提取模块通过数据传输的方式与所述测量点识别模块相连;
所述测量点识别模块,用于构建测量点识别神经网络模型,将激光雷达拍摄的待测量点的点云图像中提取的特征信息作为训练样本,将训练样本输入到测量点识别神经网络模型中,经过智能学习,输出训练样本对应的测量点ID,通过对测量点识别神经网络模型的深度训练和优化,使测量点识别神经网络能够在预设精度范围内识别出点云图像特征信息对应的待测量点,所述测量点识别模块通过数据传输的方式与所述测量输出模块相连。
基于人工智能的智能建筑测量方法,包括以下步骤:
S100:采集待测量建筑全部测量点的多角度点云数据,将多角度点云数据映射到深度图像上,通过变分图自编码器提取深度图像中节点的隐含表示;
S200:对深度图像进行自适应视差优化;
S300:使用图卷积网络进一步处理点云数据,得到每个点的新特征表示,并使用自注意力机制进一步提高特征的质量;
S400:构建测量点识别神经网络模型,识别出点云图像特征信息对应的待测量点,得到实际建筑待测量点的测量数据。
优选的,所述S100,具体包括:
将多角度点云数据映射到深度图像上,将一张以上深度图像进行叠加形成深度图像的密度,所述深度图像的密度与多角度点云图像数相同,每个点云数据上的点映射为深度图像的一个有效像素;引入变分图自编码器来提取和匹配特征,对点云数据进行编码,得到每个点的隐变量表示,然后使用所述隐变量表示进行特征匹配。
优选的,所述S100,还包括:
基于图的结构和节点特征来为每个节点生成一个隐含表示,基于所述隐含表示来重建图的邻接矩阵,所述变分图自编码器的目标是最大化证据下界,最大化重建的邻接矩阵与真实的邻接矩阵之间的相似性。
优选的,所述S200,具体包括:
采用自适应视差优化算法,所述自适应视差优化算法首先计算每个像素点的深度值,然后计算局部和全局视差梯度,动态地调整视差优化参数,并使用调整后的视差优化参数进行视差优化。
优选的,所述S200,还包括:
为每个像素点计算一个深度值,所述深度值是基于该像素点到雷达中心的距离;量化每个像素点的深度变化率,计算每个像素点的视差梯度,识别深度变化的边缘,计算视差梯度;进一步计算全局视差梯度。
优选的,所述S200,还包括:
根据所述全局视差梯度,动态地调整视差优化参数,使用调整后的参数进行视差优化;所述视差优化对初步提取的特征进行了优化和清洗。
优选的,所述S300,具体包括:
使用图卷积网络来处理点云数据,得到每个点的新特征表示,并使用所述新特征表示为每个点生成权重。
优选的,所述S300,还包括:
使用自注意力机制来处理点云深度图像数据,得到每个点的权重。
优选的,所述S400,具体包括:
构建测量点识别神经网络模型,将提取的高质量的深度图像特征作为训练样本,将训练样本输入到测量点识别神经网络模型中,输出训练样本对应的测量点ID,通过对所述测量点识别神经网络模型的深度训练和优化,使所述测量点识别神经网络在预设精度范围内识别出点云图像特征信息对应的待测量点。
有益效果:
本申请实施例中提供的多个技术方案,至少具有如下技术效果或优点:
1、通过采用激光雷达采集待测量建筑的多角度点云数据,结合深度图像技术,实现对建筑的高精度测量;获取待测量建筑全部测量点的多角度点云数据,将多角度点云数据映射到深度图像上,多张深度图像进行叠加形成深度图像的密度,提高了采集数据的准确度,丰富了对建筑数据的全面获取,为后续测量的准确性提供了数据基础;
2、通过变分图自编码器和自适应视差优化算法,有效地提高数据的质量和准确性,从而确保测量结果的可靠性;结合图卷积网络和自注意力机制,从点云数据中高效地提取出有意义的特征,为后续的测量点识别提供了强大的支持;通过构建测量点识别神经网络模型,能够自动地识别出点云图像特征信息对应的待测量点,大大提高了测量的效率;通过动态地调整视差优化参数,能够自适应不同的测量环境和条件,确保在各种情况下都能获得最佳的测量结果。
3、本申请的技术方案能够有效解决现有技术没有高效处理和优化测量数据,导致数据中存在噪声、遮挡、运动、伪影等问题,影响测量结果的准确性;对于点云数据的特征提取不够精确,导致测量结果的不稳定性和不准确性;在自动识别测量点方面存在困难,需要人工干预。能够实现基于人工智能的智能建筑测量系统,通过先进的数据处理、特征提取和深度学习技术,提高了建筑测量的精度、效率和自适应性。
附图说明
图1为本申请所述的基于人工智能的智能建筑测量系统结构图;
图2为本申请所述的基于人工智能的智能建筑测量方法流程图;
具体实施方式
本申请实施例通过提供基于人工智能的智能建筑测量系统及方法,解决了现有技术没有高效处理和优化测量数据,导致数据中存在噪声、遮挡、运动、伪影等问题,影响测量结果的准确性;对于点云数据的特征提取不够精确,导致测量结果的不稳定性和不准确性;在自动识别测量点方面存在困难,需要人工干预。
本申请实施例中的技术方案为解决上述问题,总体思路如下:
通过采用激光雷达采集待测量建筑的多角度点云数据,结合深度图像技术,实现对建筑的高精度测量;获取待测量建筑全部测量点的多角度点云数据,将多角度点云数据映射到深度图像上,多张深度图像进行叠加形成深度图像的密度,提高了采集数据的准确度,丰富了对建筑数据的全面获取,为后续测量的准确性提供了数据基础;通过变分图自编码器和自适应视差优化算法,有效地提高数据的质量和准确性,从而确保测量结果的可靠性;结合图卷积网络和自注意力机制,从点云数据中高效地提取出有意义的特征,为后续的测量点识别提供了强大的支持;通过构建测量点识别神经网络模型,能够自动地识别出点云图像特征信息对应的待测量点,大大提高了测量的效率;通过动态地调整视差优化参数,能够自适应不同的测量环境和条件,确保在各种情况下都能获得最佳的测量结果。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
参照附图1,本申请所述的基于人工智能的智能建筑测量系统,包括以下部分:
数据获取模块10、转换模块20、第一特征提取模块30、视差优化模块40、第二特征提取模块50、测量点识别模块60和测量输出模块70;
所述数据获取模块10,用于采用激光雷达采集待测量建筑全部测量点的多角度点云数据,数据获取模块10通过数据传输的方式与转换模块20相连;
所述转换模块20,用于将多角度点云数据映射到深度图像上,多张深度图像进行叠加形成深度图像的密度,每个点云数据上的点映射为深度图像的一个有效像素,转换模块20通过数据传输的方式与视差优化模块40相连;
所述第一特征提取模块30,用于使用变分图自编码器对点云数据进行编码,提取每个点的隐变量表示作为特征,第一特征提取模块30通过数据传输的方式与视差优化模块40相连;
所述视差优化模块40,用于对深度图像进行视差优化,去除噪声点,如遮挡、运动、伪影等,并进行自适应视差优化,视差优化模块40通过数据传输的方式与第二特征提取模块50相连;
所述第二特征提取模块50,用于使用图卷积网络进一步处理点云数据,得到每个点的新特征表示,并使用自注意力机制进一步提高特征的质量,第二特征提取模块50通过数据传输的方式与测量点识别模块60相连;
所述测量点识别模块60,用于构建测量点识别神经网络模型,将激光雷达拍摄的待测量点的点云图像中提取的特征信息作为训练样本,将训练样本输入到测量点识别神经网络模型中,经过智能学习,输出训练样本对应的测量点ID,通过对测量点识别神经网络模型的深度训练和优化,使测量点识别神经网络能够在预设精度范围内识别出点云图像特征信息对应的待测量点,测量点识别模块60通过数据传输的方式与测量输出模块70相连;
所述测量输出模块70,用于输出建筑测量数据。
参照附图2,本申请所述的基于人工智能的智能建筑测量方法,包括以下步骤:
S100:采集待测量建筑全部测量点的多角度点云数据,将多角度点云数据映射到深度图像上,通过变分图自编码器提取深度图像中节点的隐含表示;
数据获取模块10采用激光雷达采集待测量建筑全部测量点的多角度点云数据,所述测量点即建筑中待测量的目标点。根据点云数据创建建筑模拟空间,选取当前帧点云数据,将所述当前帧点云数据表示为,t表示第t时刻,/>表示第t时刻点云数据中的第n个点。
转换模块20将多角度的点云数据映射到深度图像上,多张深度图像进行叠加形成深度图像的密度,所述深度图像的密度与多角度点云图像数相同,每个点云数据上的点映射为深度图像的一个有效像素。
为了进一步提高数据的质量和准确性,第一特征提取模块30引入了变分图自编码器来提取和匹配特征。所述变分图自编码器对点云数据进行编码,得到每个点的隐变量表示,然后使用这些表示进行特征匹配。
具体的,变分图自编码器是一种用于图数据的生成模型,它可以提取图中节点的隐含表示。使用变分图自编码器来提取点云数据中每个点的隐含表示,并使用这些表示进行特征匹配。变分图自编码器的编码过程是基于图的结构和节点特征来为每个节点生成一个隐含表示。具体公式为:
,
其中,表示编码器的输出分布,通常是一个高斯分布,Z是隐变量,X是输入特征,A是邻接矩阵,/>是第i个输入特征,/>是基于输入特征X和邻接矩阵A为第i个节点生成的隐含表示。
变分图自编码器的解码过程是基于隐含表示来重建图的邻接矩阵。具体公式为:
,
其中,是条件概率分布,/>是sigmoid函数,用于将值映射到(0,1)之间。
变分图自编码器的目标是最大化以下证据下界:
,
其中,表示证据下届,KL是KL散度,/>是重建误差的期望值,/>是先验分布,通常选择为标准正态分布。最大化重建的邻接矩阵A与真实的邻接矩阵A之间的相似性,确保隐含表示Z的分布接近先验分布。使用变分图自编码器对点云数据进行编码是为了获取每个点的隐变量表示,这样可以有效地提取点云数据中每个点的隐含特征,这是一个初步的特征提取步骤。
S200:对深度图像进行自适应视差优化;
在进行初步的特征提取后,为了进一步提高数据的质量,对深度图像进行视差优化。视差优化模块40对叠加的深度图像进行预处理,去除遮挡、运动、伪影等形成的噪声点。为了实现视差优化,采用了自适应视差优化算法。该算法首先计算每个像素点的深度值,然后计算局部和全局视差梯度,动态地调整视差优化参数,并使用调整后的参数进行视差优化。具体的视差优化过程如下:
为每个像素点计算一个深度值,所述深度值是基于该像素点到雷达中心的距离。具体公式为:
,
其中,,/>,/>分别表示点云数据中的第i个点到雷达中心在x,y,z方向上的距离。量化每个像素点的深度变化率,计算每个像素点的视差梯度,识别深度变化的边缘,计算视差梯度/>:
,
为了得到一个整体的视差变化指标,进一步计算全局视差梯度。全局视差梯度是所有像素点的局部视差梯度的平均值,对于整个图像,计算全局视差梯度G:
,
其中,是整个深度图像中的像素点的总数,p是一个大于1的常数,用于增强大的梯度值的影响,从而更加关注那些深度变化较大的区域。根据全局视差梯度,动态地调整视差优化参数/>和/>,具体公式为:
,
,
其中,、/>是原始的视差优化参数,q是一个大于1的常数,用于调整参数的敏感性。根据当前的视差梯度动态地调整视差优化参数,从而使得优化更加适应当前的数据。使用调整后的参数进行视差优化。
,
其中,是优化后的像素点的深度值,/>是一个权重,表示像素点j对像素点i的影响。它可以定义为:
,
其中,是一个常数,表示权重的空间尺度。这个权重的定义基于高斯函数,它确保了距离像素点i较近的像素点对其有更大的影响。
视差优化对初步提取的特征进行了一次优化和清洗,为后续的高级特征提取打下更好的基础。
S300:使用图卷积网络进一步处理点云数据,得到每个点的新特征表示,并使用自注意力机制进一步提高特征的质量;
基于视差优化步骤得到的高质量数据,第二特征提取模块50使用图卷积网络来处理点云数据,得到每个点的新特征表示,并使用这些新特征表示为每个点生成权重。图卷积网络的更新规则是:
,
其中,H是节点特征,D是度矩阵,W是权重矩阵,是层数。基于当前层的节点特征和邻接矩阵A来计算下一层的节点特征/>。新特征表示不仅包含了每个点的信息,还包含了其邻居的信息,为后续的视差优化和异常检测提供了更为丰富的数据。
图卷积网络的目标是最小化以下损失函数,通常选择为交叉熵损失:
,
其中,表示损失函数,/>是邻接矩阵/>中的一个元素,/>表示转置。通过上述公式最小化重建的邻接矩阵A与真实的邻接矩阵A之间的差异。
自注意力机制是一种计算输入序列中每个元素的加权和的方法,其中权重是通过查询、键和值计算得到的。第二特征提取模块50使用自注意力机制来处理点云数据,得到每个点的权重,进一步提高特征的质量,提高了测量系统的准确性。
自注意力的权重计算是:
,
其中,Q和K是查询矩阵和键矩阵。基于查询Q和键K为第i个元素计算一个权重。
自注意力的输出计算是:
,
其中,是第i个元素的输出,/>表示第i个元素对第j个元素的注意力权重,V是值矩阵。使用自注意力机制处理点云数据,得到每个点的权重,最终得到高质量的深度图像特征。结合了最新的图神经网络和自注意力机制技术,能够更为准确地进行建筑测量。
S400:构建测量点识别神经网络模型,识别出点云图像特征信息对应的待测量点,得到实际建筑待测量点的测量数据。
测量点识别模块60构建测量点识别神经网络模型,将提取的高质量的深度图像特征作为训练样本,将训练样本输入到测量点识别神经网络模型中,经过智能学习,输出训练样本对应的测量点ID,通过对测量点识别神经网络模型的深度训练和优化,使测量点识别神经网络能够在预设精度范围内识别出点云图像特征信息对应的待测量点。
测量点识别神经网络模型包括输入层、映射层、第一隐含层、第二隐含层和输出层,将深度图像特征信息表示为,/>表示特征信息总数,对于任意一个特征信息用/>表示。
训练样本由输入层输入到测量点识别神经网络模型中,输入层将数据传递给映射层,映射层将图像特征信息映射到神经网络计算空间,提高数据在神经网络模型中的计算精度,降低计算复杂度。首先计算特征信息的信息熵,然后将所有特征信息进行分类,具体公式为:
,
其中,表示特征信息的信息熵。根据信息熵对特征信息进行分类,划分的依据为:
,
其中,表示划分的依据,/>和/>为调整参数,/>表示转置。根据/>对特征信息进行划分,从大于/>的特征信息中提取整体信息熵最低对应的特征信息,从小于/>的特征信息中提取整体信息熵最高对应的特征信息,具体公式为:
,
,
其中,和/>为提取出的代表特征,/>和/>分别表示信息熵最高和最低。将代表特征均值作为特征参考值,计算映射特征信息:
,
其中,表示映射特征信息,是图像特征映射到神经网络计算空间中的特征信息。
经过映射后的特征信息输入到第一隐含层,第一隐含层的处理过程为:
,
其中,表示第一隐含层,/>表示激活函数,所述激活函数采用常用激活函数即可,/>表示神经元的权重,/>表示偏置。第一隐含层经过变换进入第二隐含层,第二隐含层的处理过程为:
,
其中,表示第二隐含层,/>表示第一隐含层中任意两个神经元的均值,每个神经元对应一个第一隐含层的输入,/>表示第/>个特征信息,/>,。第二隐含层经过变换获得模型输出,输出层的计算为:
,
其中,表示输出层的输出,/>表示输出层的权重,/>表示输出层的偏置。将测量点识别神经网络模型的输出与实际测量点ID进行误差计算,根据梯度下降法优化模型参数,直至最终输出误差达到预期为止,从而完成测量点识别神经网络模型的训练。
将待测量点的点云深度图像特征输入到训练好的测量点识别神经网络模型中,得到测量点的轮廓和位置,根据图像与实际的大小比例,得到实际建筑待测量点的测量数据,由测量输出模块70输出建筑测量数据。
综上所述,便完成了本申请所述的基于人工智能的智能建筑测量系统及方法。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
1、通过采用激光雷达采集待测量建筑的多角度点云数据,结合深度图像技术,实现对建筑的高精度测量;获取待测量建筑全部测量点的多角度点云数据,将多角度点云数据映射到深度图像上,多张深度图像进行叠加形成深度图像的密度,提高了采集数据的准确度,丰富了对建筑数据的全面获取,为后续测量的准确性提供了数据基础;
2、通过变分图自编码器和自适应视差优化算法,有效地提高数据的质量和准确性,从而确保测量结果的可靠性;结合图卷积网络和自注意力机制,从点云数据中高效地提取出有意义的特征,为后续的测量点识别提供了强大的支持;通过构建测量点识别神经网络模型,能够自动地识别出点云图像特征信息对应的待测量点,大大提高了测量的效率;通过动态地调整视差优化参数,能够自适应不同的测量环境和条件,确保在各种情况下都能获得最佳的测量结果。
效果调研:
本申请的技术方案能够有效解决现有技术没有高效处理和优化测量数据,导致数据中存在噪声、遮挡、运动、伪影等问题,影响测量结果的准确性;对于点云数据的特征提取不够精确,导致测量结果的不稳定性和不准确性;在自动识别测量点方面存在困难,需要人工干预。并且,上述系统或方法经过了一系列的效果调研,通过验证,最终能够实现基于人工智能的智能建筑测量系统,通过先进的数据处理、特征提取和深度学习技术,提高了建筑测量的精度、效率和自适应性。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.基于人工智能的智能建筑测量系统,其特征在于,包括以下部分:
数据获取模块、转换模块、第一特征提取模块、视差优化模块、第二特征提取模块、测量点识别模块和测量输出模块;
所述转换模块,用于将多角度点云数据映射到深度图像上,将一张以上深度图像进行叠加形成深度图像的密度,每个点云数据上的点映射为深度图像的一个有效像素,所述转换模块通过数据传输的方式与所述视差优化模块相连;
所述第一特征提取模块,用于使用变分图自编码器对点云数据进行编码,提取每个点的隐变量表示作为特征,所述第一特征提取模块通过数据传输的方式与所述视差优化模块相连;
所述视差优化模块,用于对深度图像进行视差优化,去除噪声点,包括遮挡、运动、伪影,并进行自适应视差优化,所述视差优化模块通过数据传输的方式与所述第二特征提取模块相连;
所述第二特征提取模块,用于使用图卷积网络进一步处理点云数据,得到每个点的新特征表示,并使用自注意力机制进一步提高特征的质量,所述第二特征提取模块通过数据传输的方式与所述测量点识别模块相连;
所述测量点识别模块,用于构建测量点识别神经网络模型,将激光雷达拍摄的待测量点的点云图像中提取的特征信息作为训练样本,将训练样本输入到测量点识别神经网络模型中,经过智能学习,输出训练样本对应的测量点ID,通过对测量点识别神经网络模型的深度训练和优化,使测量点识别神经网络能够在预设精度范围内识别出点云图像特征信息对应的待测量点,所述测量点识别模块通过数据传输的方式与所述测量输出模块相连。
2.基于人工智能的智能建筑测量方法,其特征在于,包括以下步骤:
S100:采集待测量建筑全部测量点的多角度点云数据,将多角度点云数据映射到深度图像上,通过变分图自编码器提取深度图像中节点的隐含表示;
S200:对深度图像进行自适应视差优化;
S300:使用图卷积网络进一步处理点云数据,得到每个点的新特征表示,并使用自注意力机制进一步提高特征的质量;
S400:构建测量点识别神经网络模型,识别出点云图像特征信息对应的待测量点,得到实际建筑待测量点的测量数据。
3.根据权利要求2所述的基于人工智能的智能建筑测量方法,其特征在于,所述S100,具体包括:
将多角度点云数据映射到深度图像上,将一张以上深度图像进行叠加形成深度图像的密度,所述深度图像的密度与多角度点云图像数相同,每个点云数据上的点映射为深度图像的一个有效像素;引入变分图自编码器来提取和匹配特征,对点云数据进行编码,得到每个点的隐变量表示,然后使用所述隐变量表示进行特征匹配。
4.根据权利要求3所述的基于人工智能的智能建筑测量方法,其特征在于,所述S100,还包括:
基于图的结构和节点特征来为每个节点生成一个隐含表示,基于所述隐含表示来重建图的邻接矩阵,所述变分图自编码器的目标是最大化证据下界,最大化重建的邻接矩阵与真实的邻接矩阵之间的相似性。
5.根据权利要求2所述的基于人工智能的智能建筑测量方法,其特征在于,所述S200,具体包括:
采用自适应视差优化算法,所述自适应视差优化算法首先计算每个像素点的深度值,然后计算局部和全局视差梯度,动态地调整视差优化参数,并使用调整后的视差优化参数进行视差优化。
6.根据权利要求5所述的基于人工智能的智能建筑测量方法,其特征在于,所述S200,还包括:
为每个像素点计算一个深度值,所述深度值是基于该像素点到雷达中心的距离;量化每个像素点的深度变化率,计算每个像素点的视差梯度,识别深度变化的边缘,计算视差梯度;进一步计算全局视差梯度。
7.根据权利要求6所述的基于人工智能的智能建筑测量方法,其特征在于,所述S200,还包括:
根据所述全局视差梯度,动态地调整视差优化参数,使用调整后的参数进行视差优化;所述视差优化对初步提取的特征进行了优化和清洗。
8.根据权利要求2所述的基于人工智能的智能建筑测量方法,其特征在于,所述S300,具体包括:
使用图卷积网络来处理点云数据,得到每个点的新特征表示,并使用所述新特征表示为每个点生成权重。
9.根据权利要求2所述的基于人工智能的智能建筑测量方法,其特征在于,所述S300,还包括:
使用自注意力机制来处理点云深度图像数据,得到每个点的权重。
10.根据权利要求2所述的基于人工智能的智能建筑测量方法,其特征在于,所述S400,具体包括:
构建测量点识别神经网络模型,将提取的高质量的深度图像特征作为训练样本,将训练样本输入到测量点识别神经网络模型中,输出训练样本对应的测量点ID,通过对所述测量点识别神经网络模型的深度训练和优化,使所述测量点识别神经网络在预设精度范围内识别出点云图像特征信息对应的待测量点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311304528.3A CN117314869A (zh) | 2023-10-10 | 2023-10-10 | 基于人工智能的智能建筑测量系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311304528.3A CN117314869A (zh) | 2023-10-10 | 2023-10-10 | 基于人工智能的智能建筑测量系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117314869A true CN117314869A (zh) | 2023-12-29 |
Family
ID=89249652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311304528.3A Pending CN117314869A (zh) | 2023-10-10 | 2023-10-10 | 基于人工智能的智能建筑测量系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117314869A (zh) |
-
2023
- 2023-10-10 CN CN202311304528.3A patent/CN117314869A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110009674B (zh) | 基于无监督深度学习的单目图像景深实时计算方法 | |
CN108564606B (zh) | 基于图像转换的异源图像块匹配方法 | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN113205466A (zh) | 一种基于隐空间拓扑结构约束的残缺点云补全方法 | |
CN111178206A (zh) | 一种基于改进yolo的建筑预埋件检测方法及系统 | |
CN110866934A (zh) | 基于规范性编码的复杂点云分割方法及系统 | |
CN113536925A (zh) | 一种基于引导注意力机制的人群计数方法 | |
CN113344956A (zh) | 基于无人机航摄三维建模的地物轮廓提取分类方法 | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
CN115311502A (zh) | 基于多尺度双流架构的遥感图像小样本场景分类方法 | |
CN114548253A (zh) | 一种基于图像识别及动态匹配的数字孪生模型构建系统 | |
CN116229519A (zh) | 一种基于知识蒸馏的二维人体姿态估计方法 | |
CN113920255B (zh) | 基于点云数据的高效测绘系统 | |
CN117788810A (zh) | 一种无监督语义分割的学习系统 | |
CN117593243A (zh) | 可靠伪标签引导的压缩机外观自适应检测方法 | |
CN112396167A (zh) | 一种外观相似度与空间位置信息融合的回环检测方法 | |
CN111553954A (zh) | 一种基于直接法单目slam的在线光度标定方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
CN117314869A (zh) | 基于人工智能的智能建筑测量系统及方法 | |
CN115496859A (zh) | 基于散乱点云交叉注意学习的三维场景运动趋势估计方法 | |
CN111914751B (zh) | 一种图像人群密度识别检测方法及系统 | |
CN115035193A (zh) | 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 | |
CN113763539A (zh) | 一种基于图像和三维输入的隐式函数三维重建方法 | |
CN112784785A (zh) | 一种多样本拟合图像清晰化处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |