CN116109522A - 一种基于图神经网络的轮廓矫正方法、装置、介质及设备 - Google Patents
一种基于图神经网络的轮廓矫正方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN116109522A CN116109522A CN202310371996.6A CN202310371996A CN116109522A CN 116109522 A CN116109522 A CN 116109522A CN 202310371996 A CN202310371996 A CN 202310371996A CN 116109522 A CN116109522 A CN 116109522A
- Authority
- CN
- China
- Prior art keywords
- contour
- neural network
- building model
- graph neural
- depth map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 106
- 238000012937 correction Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000000605 extraction Methods 0.000 claims abstract description 54
- 238000012549 training Methods 0.000 claims abstract description 27
- 239000000178 monomer Substances 0.000 claims abstract description 20
- 238000004590 computer program Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000001537 neural effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000001228 spectrum Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图神经网络的轮廓矫正方法、装置、介质及设备,涉及建筑技术领域,在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。方案要点为:获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓。本发明用于建筑轮廓矫正中。
Description
技术领域
本发明涉及建筑技术领域,尤其涉及一种基于图神经网络的轮廓矫正方法、装置、介质及设备。
背景技术
传统的建模方式中,对建筑轮廓的获取有两种方式:一种是通过人工测量,得到建筑轮廓每个点的相对位置并建模得到。另一种是先以图像的方式俯拍建筑,得到建筑外轮廓,再通过传统算法强行将每两条直线间的夹角都变为九十度。
上述第一种方式比较耗费时间,一个娴熟的建模师大约每栋楼需要十分钟;第二种方式虽然自动,但是传统方法在数据上有局限性,对于夹角不为直角的建筑和弧形建筑并不适用。
发明内容
本发明提供一种基于图神经网络的轮廓矫正方法、装置、介质及设备,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
为达到上述目的,本发明采用如下技术方案:
本发明第一方面提供一种基于图神经网络的轮廓矫正方法,包括:
获取倾斜摄影数据,建立三维建筑模型。
对所述三维建筑模型进行单体化,得到单栋建筑模型。
获取所述单栋建筑模型的俯视深度图。
对所述深度图进行特征提取,得到提取结果。
训练图神经网络。
将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置。
连接所述轮廓点,得到粗糙轮廓。
计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
进一步的,所述的基于图神经网络的轮廓矫正方法,所述训练图神经网络,包括:
获取正确轮廓点,并将所述提取结果和所述正确轮廓点作为所述图神经网络的成对数据。
以所述深度图中心为圆心,初始化N个点的位置,各所述点的坐标作为所述图神经网络的顶点。
连接每两个所述顶点之间的线段作为所述图神经网络的边。
进行参差图神经卷积。
计算匹配的所有轮廓点和真实点距离之和,并将其作为损失。
进一步的,所述的基于图神经网络的轮廓矫正方法,对所述深度图进行特征提取,得到提取结果,包括:
使用CNN编码器对所述深度图进行特征提取,得到提取结果。
进一步的,所述的基于图神经网络的轮廓矫正方法,对所述三维建筑模型进行单体化,得到单栋建筑模型,包括:
使用PiontRend网络对所述三维建筑模型进行单体化,得到单栋建筑模型。
本发明第二方面提供一种基于图神经网络的轮廓矫正装置,包括:
建立单元,用于获取倾斜摄影数据,建立三维建筑模型。
单体化单元,用于对所述三维建筑模型进行单体化,得到单栋建筑模型。
获取单元,用于获取所述单栋建筑模型的俯视深度图。
提取单元,用于对所述深度图进行特征提取,得到提取结果。
训练单元,用于训练图神经网络。
卷积单元,用于将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置。
连接单元,用于连接所述轮廓点,得到粗糙轮廓。
计算单元,用于计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
进一步的,所述的基于图神经网络的轮廓矫正方法,所述训练单元,包括:
获取模块,用于获取正确轮廓点,并将所述提取结果和所述正确轮廓点作为所述图神经网络的成对数据。
初始化模块,用于以所述深度图中心为圆心,初始化N个点的位置,各所述点的坐标作为所述图神经网络的顶点。
连接模块,用于连接每两个所述顶点之间的线段作为所述图神经网络的边;
卷积模块,用于进行参差图神经卷积。
计算模块,用于计算匹配的所有轮廓点和真实点距离之和,并将其作为损失。
本发明第三方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被一个或多个处理器执行时,实现上述的基于图神经网络的轮廓矫正方法。
本发明第四方面提供一种电子设备,包括:存储器和一个或多个处理器,所述存储器上存储有计算机程序,所述计算机程序被所述一个或多个处理器执行时实现上述的基于图神经网络的轮廓矫正方法。
本发明提供一种基于图神经网络的轮廓矫正方法、装置、介质及设备,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
附图说明
为了更清楚地说明本发明实施例的技术方案,以下将对实施例描述中所需要使用的附图作简单地介绍,附图仅用于示出实施方式的目的,而并不认为是对本发明的限制。
图1为本发明实施例中一种基于图神经网络的轮廓矫正方法流程示意图;
图2为本发明实施例中另一种基于图神经网络的轮廓矫正方法流程示意图;
图3为本发明实施例中一种单栋建筑模型的俯视深度图;
图4为本发明实施例中一种单栋建筑模型的轮廓;
图5为本发明实施例中一种基于图神经网络的轮廓矫正装置组成结构示意图;
图6为本发明实施例中另一种基于图神经网络的轮廓矫正装置组成结构示意图;
图7为本发明实施例中一种基于图神经网络的轮廓矫正设备组成结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本发明所使用的所有的技术和科学术语与属于本发明术领域的技术人员通常理解的含义相同;本发明中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。
在本发明实施例的描述中,技术术语“第一”“第二”等仅用于区别不同对象,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量、特定顺序或主次关系。在本发明实施例的描述中,“多个”的含义是两个以上,除非另有明确具体的限定。
在本发明实施例的描述中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
在本发明实施例的描述中,术语“多个”指的是两个以上(包括两个),同理,“多组”指的是两组以上(包括两组),“多片”指的是两片以上(包括两片)。
在本发明实施例的描述中,技术术语“中心”“纵向”“横向”“长度”“宽度”“厚度”“上”“下”“前”“后”“左”“右”“竖直”“水平”“顶”“底”“内”“外”“顺时针”“逆时针”“轴向”“径向”“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明实施例的限制。
在本发明实施例的描述中,除非另有明确的规定和限定,技术术语“安装”“相连”“连接”“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;也可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明例中的具体含义。
实施例1
本发明实施例提供一种基于图神经网络的轮廓矫正方法,如图1所示,包括:
101、获取倾斜摄影数据,建立三维建筑模型。
倾斜摄影:该技术是国际测绘领域近些年发展起来的一项高新技术,它颠覆了以往正射影像只能从垂直角度拍摄的局限,通过在同一飞行平台上搭载多台传感器,同时从一个垂直、四个倾斜等五个不同的角度采集影像,将用户引入了符合人眼视觉的真实直观世界。
倾斜摄影建模:即采用倾斜摄影数据建立三维建筑模型,相比于其他传统的建模方式具有很多优点。倾斜摄影技术以大范围、高精度、高清晰的方式全面感知复杂场景,通过高效的数据采集设备及专业的数据处理流程生成的数据成果直观反映地物的外观、位置、高度等属性,为真实效果和测绘级精度提供保证。同时有效提升模型的生产效率,采用人工建模方式一两年才能完成的一个中小城市建模工作,通过倾斜摄影建模方式只需要三至五个月时间即可完成,大大降低了三维模型数据采集的经济代价和时间代价。
102、对所述三维建筑模型进行单体化,得到单栋建筑模型。
单体化,即从建筑群中分离出单栋建筑,本实施例中三维建筑模型为建筑群的三维模型,即包含多栋建筑模型,对其进行单体化,得到单栋建筑模型。
103、获取所述单栋建筑模型的俯视深度图。
深度图:也被称为距离影像(range image),是指将从图像采集器到场景中各点的距离(深度)作为像素值的图像,它直接反映了景物可见表面的几何形状。
104、对所述深度图进行特征提取,得到提取结果。
特征提取:是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征。特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域。
105、训练图神经网络。
图神经网络:是一种基于图结构的深度学习方法,从其定义中可以看出图神经网络主要由两部分组成,即“图”和“神经网络”。这里的“图”是图论中的图数据结构,“神经网络”是我们熟悉的深度学习NN结构,如MLP,CNN,RNN等。
106、将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置。
卷积:在泛函分析中,卷积是通过两个函数f 和g 生成第三个函数的一种数学算子,表征函数f 与g经过翻转和平移的重叠部分的面积。是分析数学中一种重要的运算
107、连接所述轮廓点,得到粗糙轮廓。
粗糙轮廓:顾名思义即为轮廓点连接而成的未经后处理的轮廓。
108、计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
此处需要说明的是:在计算粗糙轮廓中每条线段的角度时,可以水平线或垂直线为参考。
本发明提供一种基于图神经网络的轮廓矫正方法,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
实施例2
本发明实施例提供一种基于图神经网络的轮廓矫正方法,如图2所示,包括:
201、获取倾斜摄影数据,建立三维建筑模型。
具体的,首先使用倾斜摄影相机获取建筑物的摄影数据,再根据该摄影数据建立三维建筑模型。
202、对所述三维建筑模型进行单体化,得到单栋建筑模型。
具体的,对三维建筑模型进行单体化,可以使用预训练好的点云实例化网络来完成单体化任务,如PiontRend网络。
203、获取所述单栋建筑模型的俯视深度图。
如图3所示,为单栋建筑模型的俯视深度图,该图为从上往下俯视得到的深度图。该图为灰度图,建筑模型的高度映射至0-255区间内,该深度图为png格式。
此处需要说明的是:本实施例对深度图的灰度、格式等不作限制,实施者可根据自身需求而定,本实施例此处仅以灰度图、png格式为例进行简单说明。
204、对所述深度图进行特征提取,得到提取结果。
具体的,使用CNN编码器对所述深度图进行特征提取,得到提取结果,其中,CNN编码器需要预训练,其过程如下所示:
(1)数据集准备:准备大量成对训练集,分别为建筑的俯视深度图和建筑轮廓线。
(2)训练网络:将建筑轮廓映射至3×28×28大小,将建筑轮廓图与CNN编码器提取的特征做交叉熵损失计算,以此来训练编码器。
205、训练图神经网络。
2051、获取正确轮廓点,并将所述提取结果和所述正确轮廓点作为所述图神经网络的成对数据。
2052、以所述深度图中心为圆心,初始化N个点的位置,各所述点的坐标作为所述图神经网络的顶点。
2053、连接每两个所述顶点之间的线段作为所述图神经网络的边。
2054、进行参差图神经卷积。
2055、计算匹配的所有轮廓点和真实点距离之和,并将其作为损失。
206、将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置。
207、连接所述轮廓点,得到粗糙轮廓。
208、计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
具体的,计算每条线段与水平线的角度,将角度相同或角度差在预设范围内的线段进行合并,使其成为一条线段,即可得到单栋建筑模型的轮廓,如图4所示。
此处需要说明的是:上述预设范围在具体实施时,可根据需要进行调节,例如:角度差在0度到45度之间。此外,也可计算每条线段与垂直线的角度,本实施例对此不作限制。
此处需要说明的是:本实施例各部分详细说明可参照其它实施例对应部分,此处不再赘述。
本发明提供一种基于图神经网络的轮廓矫正方法,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
实施例3
本发明实施例提供一种基于图神经网络的轮廓矫正装置,如图5所示,包括:
建立单元31,用于获取倾斜摄影数据,建立三维建筑模型。
单体化单元32,用于对所述三维建筑模型进行单体化,得到单栋建筑模型。
获取单元33,用于获取所述单栋建筑模型的俯视深度图。
提取单元34,用于对所述深度图进行特征提取,得到提取结果。
训练单元35,用于训练图神经网络。
卷积单元36,用于将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置。
连接单元37,用于连接所述轮廓点,得到粗糙轮廓。
计算单元38,用于计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
此处需要说明的是:本实施例各部分详细说明可参照其它实施例对应部分,此处不再赘述。
本发明提供一种基于图神经网络的轮廓矫正装置,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
实施例4
本发明实施例提供一种基于图神经网络的轮廓矫正装置,如图6所示,包括:
建立单元41,用于获取倾斜摄影数据,建立三维建筑模型。
单体化单元42,用于对所述三维建筑模型进行单体化,得到单栋建筑模型。
获取单元43,用于获取所述单栋建筑模型的俯视深度图。
提取单元44,用于对所述深度图进行特征提取,得到提取结果。
训练单元45,用于训练图神经网络。
获取模块451,用于获取正确轮廓点,并将所述提取结果和所述正确轮廓点作为所述图神经网络的成对数据。
初始化模块452,用于以所述深度图中心为圆心,初始化N个点的位置,各所述点的坐标作为所述图神经网络的顶点。
连接模块453,用于连接每两个所述顶点之间的线段作为所述图神经网络的边。
卷积模块454,用于进行参差图神经卷积。
计算模块455,用于计算匹配的所有轮廓点和真实点距离之和,并将其作为损失。
卷积单元46,用于将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置。
连接单元47,用于连接所述轮廓点,得到粗糙轮廓。
计算单元48,用于计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
此处需要说明的是:本实施例各部分详细说明可参照其它实施例对应部分,此处不再赘述。
本发明提供一种基于图神经网络的轮廓矫正装置,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
实施例5
本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被一个或多个处理器执行时,实现上述基于图神经网络的轮廓矫正方法。
其中,计算机可读存储介质可以为非瞬态的可读存储介质,当计算机可读存储介质中的程序指令被电子设备运行时,该电子设备实现本发明提供的AI应用任务的管理方法中管理装置的功能。该计算机可读存储介质包括但不限于易失性存储器,例如:随机访问存储器、非易失性存储器,例如:快闪存储器、硬盘(hard disk drive,HDD)、固态硬盘(solidstate drive,SSD)。
本发明提供一种基于图神经网络的轮廓矫正介质,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
实施例6
本发明实施例提供一种电子设备110,如图7所示,包括:存储器1101和一个或多个处理器1102,所述存储器1101上存储有计算机程序,所述计算机程序被所述一个或多个处理器1102执行时实现上述基于图神经网络的轮廓矫正方法。
电子设备110旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,本实施例对此并不限制。
本发明提供一种基于图神经网络的轮廓矫正设备,获取倾斜摄影数据,建立三维建筑模型;对三维建筑模型进行单体化,得到单栋建筑模型;获取单栋建筑模型的俯视深度图;对深度图进行特征提取,得到提取结果;训练图神经网络;将提取结果输入至图神经网络,进行卷积,获得轮廓点位置;连接轮廓点,得到粗糙轮廓;计算粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到单栋建筑模型的轮廓;相比于现有技术,本发明在获得单栋建筑模型轮廓的同时,自动化程度高、精度高、速度快;本发明采用图神经网络进行卷积,获得轮廓点位置,进一步提高了自动化程度和精度。
最后应说明的是:以上各实施例仅用以说明本发明技术方案,非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。尤其是,只要不存在结构冲突,各个实施例中所提到的各项技术特征均可以任意方式组合起来。本发明并不局限于文中公开的特定实施例,而是包括落入权利要求的范围内的所有技术方案。
Claims (8)
1.一种基于图神经网络的轮廓矫正方法,其特征在于,包括:
获取倾斜摄影数据,建立三维建筑模型;
对所述三维建筑模型进行单体化,得到单栋建筑模型;
获取所述单栋建筑模型的俯视深度图;
对所述深度图进行特征提取,得到提取结果;
训练图神经网络;
将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置;
连接所述轮廓点,得到粗糙轮廓;
计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
2.根据权利要求1所述的基于图神经网络的轮廓矫正方法,其特征在于,所述训练图神经网络,包括:
获取正确轮廓点,并将所述提取结果和所述正确轮廓点作为所述图神经网络的成对数据;
以所述深度图中心为圆心,初始化N个点的位置,各所述点的坐标作为所述图神经网络的顶点;
连接每两个所述顶点之间的线段作为所述图神经网络的边;
进行参差图神经卷积;
计算匹配的所有轮廓点和真实点距离之和,并将其作为损失。
3.根据权利要求1所述的基于图神经网络的轮廓矫正方法,其特征在于,对所述深度图进行特征提取,得到提取结果,包括:
使用CNN编码器对所述深度图进行特征提取,得到提取结果。
4.根据权利要求3所述的基于图神经网络的轮廓矫正方法,其特征在于,对所述三维建筑模型进行单体化,得到单栋建筑模型,包括:
使用PiontRend网络对所述三维建筑模型进行单体化,得到单栋建筑模型。
5.一种基于图神经网络的轮廓矫正装置,其特征在于,包括:
建立单元,用于获取倾斜摄影数据,建立三维建筑模型;
单体化单元,用于对所述三维建筑模型进行单体化,得到单栋建筑模型;
获取单元,用于获取所述单栋建筑模型的俯视深度图;
提取单元,用于对所述深度图进行特征提取,得到提取结果;
训练单元,用于训练图神经网络;
卷积单元,用于将所述提取结果输入至所述图神经网络,进行卷积,获得轮廓点位置;
连接单元,用于连接所述轮廓点,得到粗糙轮廓;
计算单元,用于计算所述粗糙轮廓中每条线段的角度,将角度相似的两条线段合并为一条线段,得到所述单栋建筑模型的轮廓。
6.根据权利要求5所述的基于图神经网络的轮廓矫正方法,其特征在于,所述训练单元,包括:
获取模块,用于获取正确轮廓点,并将所述提取结果和所述正确轮廓点作为所述图神经网络的成对数据;
初始化模块,用于以所述深度图中心为圆心,初始化N个点的位置,各所述点的坐标作为所述图神经网络的顶点;
连接模块,用于连接每两个所述顶点之间的线段作为所述图神经网络的边;
卷积模块,用于进行参差图神经卷积;
计算模块,用于计算匹配的所有轮廓点和真实点距离之和,并将其作为损失。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被一个或多个处理器执行时,实现如权利要求1至4任一项所述的基于图神经网络的轮廓矫正方法。
8.一种电子设备,其特征在于,包括:存储器和一个或多个处理器,所述存储器上存储有计算机程序,所述计算机程序被所述一个或多个处理器执行时实现如权利要求1至4任一项所述的基于图神经网络的轮廓矫正方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310371996.6A CN116109522B (zh) | 2023-04-10 | 2023-04-10 | 一种基于图神经网络的轮廓矫正方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310371996.6A CN116109522B (zh) | 2023-04-10 | 2023-04-10 | 一种基于图神经网络的轮廓矫正方法、装置、介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116109522A true CN116109522A (zh) | 2023-05-12 |
CN116109522B CN116109522B (zh) | 2023-07-14 |
Family
ID=86265802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310371996.6A Active CN116109522B (zh) | 2023-04-10 | 2023-04-10 | 一种基于图神经网络的轮廓矫正方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116109522B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064482A (zh) * | 2018-08-16 | 2018-12-21 | 武大吉奥信息技术有限公司 | 一种在三维倾斜摄影数据场景中自动获取房屋轮廓的方法及装置 |
CN111695636A (zh) * | 2020-06-15 | 2020-09-22 | 北京师范大学 | 一种基于图神经网络的高光谱图像分类方法 |
KR102186733B1 (ko) * | 2019-09-27 | 2020-12-04 | 포항공과대학교 산학협력단 | 3차원 해저 지형 생성 방법 |
CN112906604A (zh) * | 2021-03-03 | 2021-06-04 | 安徽省科亿信息科技有限公司 | 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统 |
CN113077554A (zh) * | 2021-04-08 | 2021-07-06 | 华南理工大学 | 一种基于任意视角图片的三维结构化模型重建的方法 |
CN113284249A (zh) * | 2021-06-11 | 2021-08-20 | 清华大学深圳国际研究生院 | 一种基于图神经网络的多视角三维人体重建方法及系统 |
CN113902802A (zh) * | 2021-09-29 | 2022-01-07 | 浙江商汤科技开发有限公司 | 视觉定位方法及相关装置、电子设备和存储介质 |
CN114036829A (zh) * | 2021-11-02 | 2022-02-11 | 中国地质大学(武汉) | 地质剖面图生成方法、系统、设备及存储介质 |
CN115631112A (zh) * | 2022-11-18 | 2023-01-20 | 北京飞渡科技有限公司 | 一种基于深度学习的建筑轮廓矫正方法及装置 |
CN115661398A (zh) * | 2022-10-08 | 2023-01-31 | 武汉大学 | 一种用于实景三维模型的建筑物提取方法、装置及设备 |
CN115861828A (zh) * | 2023-02-28 | 2023-03-28 | 北京飞渡科技股份有限公司 | 一种建筑横切面轮廓提取方法、装置、介质及设备 |
-
2023
- 2023-04-10 CN CN202310371996.6A patent/CN116109522B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064482A (zh) * | 2018-08-16 | 2018-12-21 | 武大吉奥信息技术有限公司 | 一种在三维倾斜摄影数据场景中自动获取房屋轮廓的方法及装置 |
KR102186733B1 (ko) * | 2019-09-27 | 2020-12-04 | 포항공과대학교 산학협력단 | 3차원 해저 지형 생성 방법 |
CN111695636A (zh) * | 2020-06-15 | 2020-09-22 | 北京师范大学 | 一种基于图神经网络的高光谱图像分类方法 |
CN112906604A (zh) * | 2021-03-03 | 2021-06-04 | 安徽省科亿信息科技有限公司 | 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统 |
CN113077554A (zh) * | 2021-04-08 | 2021-07-06 | 华南理工大学 | 一种基于任意视角图片的三维结构化模型重建的方法 |
CN113284249A (zh) * | 2021-06-11 | 2021-08-20 | 清华大学深圳国际研究生院 | 一种基于图神经网络的多视角三维人体重建方法及系统 |
CN113902802A (zh) * | 2021-09-29 | 2022-01-07 | 浙江商汤科技开发有限公司 | 视觉定位方法及相关装置、电子设备和存储介质 |
CN114036829A (zh) * | 2021-11-02 | 2022-02-11 | 中国地质大学(武汉) | 地质剖面图生成方法、系统、设备及存储介质 |
CN115661398A (zh) * | 2022-10-08 | 2023-01-31 | 武汉大学 | 一种用于实景三维模型的建筑物提取方法、装置及设备 |
CN115631112A (zh) * | 2022-11-18 | 2023-01-20 | 北京飞渡科技有限公司 | 一种基于深度学习的建筑轮廓矫正方法及装置 |
CN115861828A (zh) * | 2023-02-28 | 2023-03-28 | 北京飞渡科技股份有限公司 | 一种建筑横切面轮廓提取方法、装置、介质及设备 |
Non-Patent Citations (5)
Title |
---|
MICHIHIRO MIKAMO ET AL.: "Active Stereo Method for 3D Endoscopes using Deep-layer GCN and Graph Representation with Proximity Information", 《2021 43RD ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE & BIOLOGY SOCIETY (EMBC)》 * |
姜如波;: "基于倾斜摄影和近景摄影技术的实景三维模型制作", 城市勘测, no. 03 * |
李占利;孙志浩;李洪安;刘童鑫;: "图卷积网络下牙齿种子点自动选取", 中国图象图形学报, no. 07 * |
耿中元;王凤;刘飞;王涛;唐婷婷;胡晨希;: "倾斜航空摄影实景三维模型技术研究及应用", 北京测绘, no. 06 * |
邓睿哲: "基于边缘感知GCN-FCN的高分遥感影像建筑物提取方法", 《中国优秀硕士学位论文全文数据库 基础科学辑》, no. 02 * |
Also Published As
Publication number | Publication date |
---|---|
CN116109522B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135455B (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
CN106940704B (zh) | 一种基于栅格地图的定位方法及装置 | |
WO2018119889A1 (zh) | 三维场景定位方法和装置 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN109255808B (zh) | 基于倾斜影像的建筑物纹理提取方法和装置 | |
CN111274943A (zh) | 一种检测方法、装置、电子设备及存储介质 | |
CN109325995B (zh) | 基于人手参数模型的低分辨率多视角手部重建方法 | |
CN114119864A (zh) | 一种基于三维重建与点云匹配的定位方法和装置 | |
CN104463969B (zh) | 一种对航空倾斜拍摄的地理照片的模型的建立方法 | |
CN111739167B (zh) | 3d人头重建方法、装置、设备和介质 | |
CN113192200B (zh) | 一种基于空三并行计算算法的城市实景三维模型的构建方法 | |
JP2011085971A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び画像処理システム | |
AU2022223991A1 (en) | Computer vision systems and methods for supplying missing point data in point clouds derived from stereoscopic image pairs | |
CN111144349A (zh) | 一种室内视觉重定位方法及系统 | |
CN116129037B (zh) | 视触觉传感器及其三维重建方法、系统、设备及存储介质 | |
CN115439607A (zh) | 一种三维重建方法、装置、电子设备及存储介质 | |
CN113920275B (zh) | 三角网格构建方法、装置、电子设备及可读存储介质 | |
CN111126418A (zh) | 一种基于平面透视投影的倾斜影像匹配方法 | |
CN117876608B (zh) | 三维图像重建方法、装置、计算机设备及存储介质 | |
CN118247429A (zh) | 一种空地协同快速三维建模方法及系统 | |
CN113284249B (zh) | 一种基于图神经网络的多视角三维人体重建方法及系统 | |
CN117132737B (zh) | 一种三维建筑模型构建方法、系统及设备 | |
CN112446926B (zh) | 一种激光雷达与多目鱼眼相机的相对位置标定方法及装置 | |
CN110363801A (zh) | 工件实物与工件三维cad模型的对应点匹配方法 | |
CN117333548A (zh) | 一种基于类环面的相机位姿估计方法、系统和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |