CN115393583B - 对墙体进行人工智能语义分割的方法 - Google Patents

对墙体进行人工智能语义分割的方法 Download PDF

Info

Publication number
CN115393583B
CN115393583B CN202210868125.0A CN202210868125A CN115393583B CN 115393583 B CN115393583 B CN 115393583B CN 202210868125 A CN202210868125 A CN 202210868125A CN 115393583 B CN115393583 B CN 115393583B
Authority
CN
China
Prior art keywords
wall
building
window
semantic
semantics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210868125.0A
Other languages
English (en)
Other versions
CN115393583A (zh
Inventor
刘俊伟
李同高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terry Digital Technology Beijing Co ltd
Original Assignee
Terry Digital Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terry Digital Technology Beijing Co ltd filed Critical Terry Digital Technology Beijing Co ltd
Priority to CN202210868125.0A priority Critical patent/CN115393583B/zh
Publication of CN115393583A publication Critical patent/CN115393583A/zh
Application granted granted Critical
Publication of CN115393583B publication Critical patent/CN115393583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种对墙体进行人工智能语义分割的方法,包括S1获取一个小区的每一栋楼的多图层建筑图纸,几何类型为Polygon;其中多图层包括顶图层数据、基底图层数据、墙图层数据、窗图层数据、门图层数据;S2对步骤S1的数据文件进行楼栋字段、户字段进行赋值,形成楼栋语义和户语义;S3对于墙图层数据和窗图层数据进行语义分割,并且形成生成的最终模型包围盒数据,用于后继的要素构造实体算法,以及其后的对抗生成网络的语义分割建模。实现事毕同步完成语义分割结果,与事后进行语义分割相比,获得了相当于几何数据处理的语义分割算法实现的精确语义分割结果,还大大提高了语义分割效率。

Description

对墙体进行人工智能语义分割的方法
技术领域
本发明涉及一种对建筑体构件进行高效的语义分割方法,尤其涉及一种对墙体进行人工智能语义分割的方法,属于图形人工智能处理领域。
背景技术
在分层分户建模过程中,需要根据“户”这个语义对需要建模的实体进行分割,以弄清每一种墙体的分布以及窗体的位置大小,为后期施工带来施工参考图样。因为对于现代家庭装潢,一些墙体并非是业主一开始就理想的存在,敲墙和重新砌墙大多数情况下是需要的。因此如何在原始建筑图纸中进行高效地不同墙体材料构成的墙体进行标注,例如非承重墙和承重墙,空心砖墙体、二次结构等。由于建筑平面图在绘制时,是不考虑分户的,它是一个整层的平面图,而且一个小区甚至一个建造单位所建造的各类房屋的结构中墙体的分布多样,这对于大量时空部分不同的需要完成上述待标注墙体的建筑来说,人工是不可能低成本地完成的。因此如何考虑高效地完成所有小区或者某一个建造单位所建造的所有建筑的墙体标注,成为了当下建筑图纸绘制亟待解决的技术问题。
而现有技术针对该问题,一方面,往往是注意力集中在每一栋大楼中的每一楼层的墙体标注,而当换一栋楼标注时,又要设计师重新在图纸上进行标绘,实际上是在绘制建筑图纸时进行了人工的额外标注操作。这样总体上降低了建筑图纸的标绘。
另一方面,现有技术都是考虑在设计房屋图纸之后进行语义分割,属于事后处理,整体语义分割效率低。现有技术没有注意到在设计之时就积累语义分割所需要的数据,从而在设计完成时即可通过人工智能算法,尤其是图像识别算法而获得相当于利用语义分割算法而获得的相对精确的分割结果。
发明内容
针对上述问题,本发明考虑如下三个方面,第一对于每一个小区进行楼栋分区,每个楼栋进行分层,并且每一层中进行分户,形成多维度的墙体标绘图像,为整体高效地标绘大小图形结构基础;第二,对于每一种墙体进行定位和在多维度标绘图像进行排布,作为人工智能识别的特征形成的基础,第三,对于多维度标绘图像中的被定位和排布的墙体进行语义赋予以及包围盒处理以形成。本发明的墙体包括墙和窗,但不包括门。本发明所指的材料包括非承重墙和承重墙,空心砖墙体、二次结构等分类下的材料,以表示该材料是属于非承重墙和承重墙,空心砖墙体、二次结构等结构类型。
鉴于此,本发明提供了一种对墙体进行人工智能语义分割的方法,其特征包括如下步骤,
S1获取一个小区的每一栋楼的多图层建筑图纸,几何类型为Polygon;其中多图层包括顶图层数据、基底图层数据、墙图层数据、窗图层数据、门图层数据;
S2对步骤S1的数据进行楼栋字段、户字段进行赋值,形成楼栋语义和户语义;
S3对于墙图层数据和窗图层数据进行语义分割,并且形成生成的最终模型包围盒数据。用于后继的要素构造实体算法。
优选地,在步骤S3对于墙图层数据和窗图层数据进行语义分割之后,形成生成的最终模型包围盒数据之前还包括如下步骤:
S4对于多个不同小区的每一栋建筑进行步骤S1-S3,形成小区语义,同时基于已经分割的墙语义以及窗语义生成多维度标绘图像,划分成训练集、验证集、测试集,比例为5-1:1:1-3,并且以多维度标绘图像的训练集为输入端进行生成对抗网络的训练,形成墙体语义分割模型;
S5根据待语义标注的建筑图纸中根据设计需要而设置墙体的位置或寻找到已设计完成的图纸中需要标注的墙体的位置,以及墙体材料,而将墙、窗、坐标对应的彩色值填入具有步骤S4中划分样式的空白多维度标绘图像像素中,并且将填满颜色值的多维度标绘图像输入墙体语义分割模型中以完成墙体语义分割。
其中,步骤S3中墙图层数据和窗图层数据进行语义分割具体包括:
S3-1:整个流程的预备输入一个参数对象;
S3-2:根据S3-1,分析出输入图层,后继将会对此图层进行语义分割处理。此图层可以是持久化图层、内存图层、上下文图层、数据库图层;
S3-3:根据S3-1,分析出被延长长度参数;应当理解的是,不同的输入参数对象可能不能准确匹配图纸上墙体真实尺寸,因此需要延长长度使得尺寸配准。
S3-4:对S3-2的输入图层进行几何融合处理,使之成为一个多边形的单独的要素;
S3-5:对S3-4的单独要素剔除其多边形中间的洞;
S3-6:对S3-5、S3-2的输入图层的面数据,进行线抽稀,形成一个线数据,线数据中的每段和其相邻段的角度差小于预设的角度Δangle,Δangle<0.1°;
S3-7:对S3-6的线数据,进行延长,长度为步骤S3-3的参数;
S3-8:对S3-7延长后的线数据,进行多边形化处理,形成新的多边形数据;
S3-9:对S3-8的多边形数据进行墙体提取,此时所有墙体均基于户语义进行了几何切割;也即户语义下不同户中进行的几何切割操作与该被几何切割的户相对应。
其中切割的方法如下:
对于所述小区中的每一栋中的每一非公共户的墙体,在图纸俯视视角,先从左往右或从右往左,再从上往下或从下往上进行切割,所述切割的原则是设定一条直线切割线,在切割线竖直状态下,从左往右或从右往左进行移动过程中,只要遇到所述视角下水平的墙体或窗体的一末端即进行竖直分割;而在切割线水平状态下,从上往下或从下往上移动过程中,只要遇到所述水平的墙体的墙面即进行水平分割,以最终生成对于所有非公共户套内墙体的矩形切割几何图形;
S3-10:对S3-9切割后的数据进行语义赋值,形成墙语义和窗语义;所述语义赋值包括,每一个矩形切割几何图形按照材料种类进行彩色值(即墙彩色值和窗彩色值)赋予,以及矩形对角线的两个端点在小区中的地理坐标;
S3-11:对S3-10的所有要素数据,根据相关文件标准,进行持久化,以备后继处理。
可以理解的是,根据多维度标绘图像的输入语义分割模型,在步骤S5中用户可以任意设计或者在设计完成的图纸上任意标注所需要语义分格的墙体位置,只需要点击墙体的对角线端点就能确定一个矩形切割几何图形,从而根据需要选择任意多个需要语义标注的墙体,从而输入模型中获得相当于经过步骤S3的算法对应的语义分割结果,比人工手绘标注更加精确,尽管仍然需要人工手动选择端点,但是比每个墙体的包围线段绘制要省力高效,精确得多。并且根据需要而设计墙体时,将设计时随时记录的墙体位置和材质而在设计完成时获得了多维度标绘图像,输入模型之后即在设计完成时完成了语义分割步骤S4中基于已经分割的墙语义以及窗语义生成多维度标绘图像,具体包括如下步骤:
S4-1根据小区语义、楼栋语义、户语义将一个空白图像区域划分为多维度的空白格点方阵;
S4-2对于每一个户语义格点中按照所述墙语义和窗语义中的所述地理坐标和墙和窗的水平和竖直位置情况而赋予户语义格点以墙彩色值、窗彩色值,以及根据预设映射规则由坐标而转换成的坐标彩色值,形成多像素图像,以生成多维度标绘图像。
其中S4-1具体包括:
S4-1-1按照小区语义将空白图像划分成多个小区格点,并且每个小区格点都有对应的小区语义值,所述小区语义值为小区的编号、预设代表小区的地理坐标、代表小区的小区色彩值中任一项或其组合;
S4-1-2对于每一个划分形成的小区格点中进一步划分多个楼栋格点,并且每个楼栋格点都有对应的楼栋语义值,所述楼栋语义值为楼栋的编号、预设代表楼栋的地理坐标、代表楼栋的楼栋色彩值中任一项或其组合;
S4-1-3对于每一个划分形成的楼栋格点中进一步划分多个户格点,并且每个户格点都有对应的户语义值,所述户语义值为户的编号、预设代表户的地理坐标、代表户的户色彩值中任一项或其组合;并且按照楼层排布而从楼栋格点中继续划分多个楼层格点,每个楼层格点中进行划分多个所述户格点;
其中S4-2具体包括:
S4-2-1在每个户格点中,先从左往右或者从右往左,再从上至下或从下至上,依次排布每一个墙彩色值及墙对应的两个对角线端点坐标彩色值、每一个窗彩色值及窗对应的两个对角线端点坐标彩色值,所述对角线端点坐标彩色值按照在所述视角下的左上右下,或者右上左下的顺序排布,而墙彩色值及墙对应的两个对角线端点坐标彩色值之间,以及窗彩色值及窗对应的两个对角线端点坐标彩色值之间则可以是先是排布前者再后者或者反之排布,每一个墙、窗、端点坐标,这三者对应的彩色值排布具体是对应形成一个赋予对应的彩色值的像素点而被排布在所述的每个户格点中;具体的每个墙和每个窗各自的对应的所述像素点排布是在所述视角下,同样是所述先从左往右或者从右往左,再从上至下或从下至上找到每个墙或每个窗的顺序进行排序;
S4-2-2将每一个楼栋格点作为多维度标绘图像,将被填充上彩色值的所述空白图像划分成多个多维度标绘图像。
可以理解的是,所有排布可能中总是墙及其对角线端点坐标彩色值先排布,再排布窗及其对角线端点坐标彩色值。因为墙数量大于窗数量,因此在后期模型训练中考虑优先提取墙的特征,以体现算法针对的对象特征提取的主次分明,以防意外而停止计算时能够优先保存到尽可能多的提取到的墙相关的特征数据。由此,例如可能的一种排布是,在一个户格点中从左往右,从上至下一次排布每一个墙彩色值、墙左上端点坐标彩色值、墙右上端点坐标彩色值,然后是每一个窗彩色值、窗左上端点坐标彩色值、窗右上端点坐标彩色值。也即排布完成所有墙彩色值及墙对应的两个对角线端点坐标彩色值之后,在进行排布所有窗彩色值及窗对应的两个对角线端点坐标彩色值,以完成一个户格点的像素点排布。
其中坐标彩色值选择右上端点坐标彩色值左下端点坐标彩色值,或左上端点坐标彩色值右下端点坐标彩色值的顺序排布,每一个端点坐标彩色值的排序包括,在所述视角下端点的横坐标彩色值和端点的纵坐标彩色值,或反之。
可选地,其中所述户格点形成h×h的矩阵,自然数1≤h≤3,楼层格点形成j×j的矩阵,自然数2≤j≤6,楼栋格点为n×n,自然数2≤n≤10,小区格点为m×m,自然数m≥1,每一个户格点为5k×5k个像素,自然数k≥7;对于空白的户格点、楼层格点、楼栋格点、小区格点都采用白色值赋值。也即按照最多一层八户,一栋最高32层,一个小区4-100幢计算。5k是指两个端点的坐标点横坐标,纵坐标一个占4个像素,材料对应像素值占一个像素点。
步骤S4中以多维度标绘图像的训练集为输入端进行生成对抗网络(GAN)的训练,形成墙体语义分割模型具体包括:
S4-3将选一组训练集中的多维度标绘图像连同给定的噪声输入生成器G中,形成一组第一赝图;
优选地,所述给定的噪声为均匀分布函数或正态分布函数。
S4-4:将一组第一赝图与多组真实的语义分割后的建筑图纸一起输入判别器D中进行识别分类,重复步骤
S4-3和S4-4,每次选的一组训练集中多维度标绘图像都不同,每一次计算损失函数值,反向传播依次精细调整D网络参数,直到在多组真实的语义分割后的建筑图纸中以一定正确率识别出对应的最初输入一组第一赝图为止,完成判别器D的训练形成判别器D’,其中判别器D的判别真假的依据是将赝图与真实的语义分割后的建筑图纸进行差分而输入FC中输出给softmax函数进行二分类;
S4-5:将选一组训练集中多维度标绘图像连同给定的噪声输入生成器G中,形成一组第二赝图;
S4-6:将一组第二赝图与多组真实的语义分割后的建筑图纸一起输入判别器D’中进行识别分类,重复步骤S4-5和S4-6,每次选的组训练集中多维度标绘图像都不同,每一次计算损失函数值,反向传播依次精细调整G网络参数,直到在多组真实的语义分割后的建筑图纸中以一定正确率识别出对应的最初输入一组第二赝图为止,完成生成器G的训练形成生成器G’,作为墙体语义分割模型。
其中,生成器G和判别器D都为卷积神经网络模型,步骤S4-4判别器D具体训练过程是,多组真实的语义分割后的建筑图纸与多组第一赝图输入CNN模型得到的特征提取结果形成各自多组特征图,作差分后形成差分图,将其输入全连接FC中经过softmax函数分类,采用验证集验证准确率,并计算损失函数值进行反向传播调整CNN网络,直到准确率达到阈值和损失函数值趋稳为止。
其中S5中的所述墙体的位置的所述设置(对于根据设计需要而言,即墙体设计中)和所述标注(对于已设计完成的图纸而言)是同样按照步骤S3-9中的几何切割方法分别进行绘制而设置和切割而标注,而按照S4-2-1中的排序填入具有步骤S4中划分样式的空白多维度标绘图像像素中
优选地,将每一个矩形切割几何图形进行编号,并以按照S4-2-1中的墙和窗的彩色值排序进行编号,以方便矩形切割几何图的搜寻并实现各所述彩色值按照S4-2-1中的排布顺序进行排布,以快速生成多维度标绘图像。
有益效果
1)通过基于几何数据处理的语义分割算法得到了矩形分割图形,作为墙体语义分割建模的数据,形成了精确语义分割结果;
2)采用涉及墙体的过程中收集墙体位置,材质的信息而获得人工智能图像识别获得了相当于几何数据处理的语义分割算法实现的精确语义分割结果,提高了语义标注的效率和精确性。
附图说明
图1a本发明语义分割方法的总流程图,
图1b本发明步骤S3中具体基于输入图层的墙体几何进行语义赋值的流程图,
图2本发明实施例1中某小区一栋建筑一楼层的一户中的墙体语义分割前,
图3本发明实施例1中某小区一栋建筑一楼层的一户中的墙体语义分割后的局部放大CAD图,
图4本发明实施例2的多维度标绘图像结构示意图,
图5本发明实施例3GAN语义分割模型的建立流程示意图,
图6按照本发明实施例3的方法将一个楼层生成的多维度标绘图像输入G’后完成的墙体语义分割前后的比对图,其中6a为语义分割前,6b语义分割后,
图7本发明实施例3中其他小区中某一户模型G’进行墙体语义分割之后在三维重建的白模。
具体实施方式
实施例1
本实施例将描述S1-S3的语义分割方法。如图1a所示,
S1获取一个小区的每一栋楼的多图层建筑图纸,几何类型为Polygon;其中多图层包括顶图层数据、基底图层数据、墙图层数据、窗图层数据、门图层数据;
S2对步骤S1的数据文件进行楼栋字段、户字段进行赋值,形成楼栋语义和户语义;
S3对于墙图层数据和窗图层数据进行语义分割,并且形成生成的最终模型包围盒数据。用于后继的要素构造实体算法。
其中,如图1b所示,步骤S3中墙图层数据和窗图层数据进行语义分割具体包括:
S3-1:整个流程的预备输入是一个参数对象;
S3-2:根据S3-1,分析出输入墙图层,此图层可以是持久化图层、内存图层、上下文图层、数据库图层;
S3-3:根据S3-1,分析出被延长长度参数;
S3-4:对S3-2的输入图层进行几何融合处理,使之成为一个单独的要素;
S3-5:对S3-4的单独要素,剔除其多边形中间的洞;
S3-6:对S3-5、S3-2的输入图层的面数据,进行线抽稀,形成一个线数据,线数据中的每段和其相邻段的角度差小于预设的角度Δangle=0.05°;
S3-7:对S3-6的线数据,进行延长,长度为步骤S3-3的参数;
S3-8:对S3-7延长后的线数据,进行多边形化处理,形成新的多边形数据;
S3-9:对S3-8的多边形数据进行墙和窗的提取,此时所有墙和窗均基于户语义进行了几何切割;
其中切割的方法如下:
对于所述小区中的每一栋中的每一非公共户的墙体,在图纸俯视视角,从左往右或从右往左,再从上往下或从下往上进行切割,所述切割的原则是设定一条直线切割线,先在切割线竖直状态下从左往右或从右往左进行移动过程中,只要遇到所述视角下水平的墙体(即分别是与竖直墙体连接的部分)或窗体的一末端即进行竖直分割;再在切割线水平状态下从上往下或从下往上移动过程中,只要遇到所述水平的墙体的墙面即进行水平分割,以最终生成对于所有非公共户套内墙体的矩形切割几何图形;
S3-10:对S3-9切割后的数据进行语义赋值,形成墙语义和窗语义;所述语义赋值包括,每一个矩形切割几何图形按照材料种类进行彩色值赋予,以及矩形对角线的两个端点在小区中的地理坐标;
如图2和3所示为某小区一栋建筑一楼层的一户中的墙体语义分割前后的局部放大CAD图,其中切割后多了线条分别是在水平和竖直方向切割线留下的切割结果。其中待×的部分为无混凝土的非承重墙,可以拆除掉。
S3-11:对S3-10的所有要素数据,根据相关文件标准,进行持久化,以备后继处理。
实施例2
本实施例是多维度标绘图像生成的过程。
在实施例1的S3步骤之后还包括S4对于多个不同小区的每一栋建筑进行步骤S1-S3,形成小区语义,同时基于已经分割的墙语义以及窗语义生成多维度标绘图像,划分成训练集、验证集、测试集,比例为4:1:1,并且以多维度标绘图像的训练集为输入端进行生成对抗网络的训练,形成墙体语义分割模型;
S5将待语义标注的建筑图纸中根据设计需要而设置墙体的位置或寻找到已设计完成的图纸中需要标注的墙体的位置,以及墙体材料,而将墙、窗、坐标对应的彩色值填入具有步骤S4中划分样式的空白多维度标绘图像像素中,并且将填满颜色值的多维度标绘图像输入墙体语义分割模型中以完成墙体语义分割。
其中,步骤S4中基于已经分割的墙语义以及窗语义生成多维度标绘图像,具体包括如下步骤:
S4-1根据小区语义、楼栋语义、户语义将一个空白图像区域划分为多维度的空白格点方阵;
S4-2对于每一个户语义格点中按照所述墙语义和窗语义中的所述地理坐标和墙和窗的水平和竖直位置情况而赋予户语义格点以墙彩色值、窗彩色值,以及根据预设映射规则由坐标而转换成的坐标彩色值,形成多像素图像,以生成多维度标绘图像。
其中S4-1具体包括:
如图4所示,S4-1-1按照小区语义将空白图像划分成4×4个小区格点,并且每个小区格点都有对应的小区语义值,例如采用第一预定的RGB颜色值;
S4-1-2对于每一个划分形成的小区格点中进一步划分4×4个楼栋格点,并且每个楼栋格点都有对应的楼栋语义值,例如采用第二预定的RGB颜色值;
S4-1-3对于每一个划分形成的楼栋格点中进一步划分8×8个户格点,并且每个户格点都有对应的户语义值,,例如采用第三预定的RGB颜色值;并且按照楼层排布而从楼栋格点中继续划分4×4个楼层格点,例如图4右上角小框框处的表示一个楼层的格点,其中每个楼层格点中进行划分2×2个所述户格点,一共划分8×8个户格点;
其中S4-2具体包括:
如图4所示,右边部为左半部最右上角的一户的户格点放大示意图,步骤S4-2-1在每个户格点中按照箭头方向先从右往左,再从上至下,依次排布每一个墙彩色值及墙对应的两个对角线端点坐标彩色值、每一个窗彩色值及窗对应的两个对角线端点坐标彩色值,所述对角线端点坐标彩色值按照在所述视角下的左上右下的顺序排布。
图4右边部分从右上角开始在设计墙体过程中或已设计完毕的CAD图纸中对应这一户的矩形分割几何图形墙体,进行同样是先从右往左,再从上至下搜寻而获得语义值。即从右往左第一个搜寻到的墙的材料色彩值、左上横坐标色彩值、左上纵坐标色彩值、右下横坐标色彩值、右下横坐标色彩值的顺序排布。一共5个像素点表示一个矩形分割几何图形,然后接下来是第二个墙的排布,直到排布完比所有该户的墙体。
S4-2-2将每一个楼栋格点作为多维度标绘图像,将被填充上彩色值的所述空白图像划分成多个多维度标绘图像。
实施例3
描述GAN语义分割模型的建立和利用该模型进行语义分割的结果。
如图5所示,步骤S4中以多维度标绘图像的训练集为输入端进行生成对抗网络(GAN)的训练,形成墙体语义分割模型具体包括:
S4-3:根据实施例2的步骤S1-S4-1-S4-2及各自子步骤,获得多组多维度标绘图像以及对应的根据步骤S1-S3及其子步骤获得的真实的语义分割后的建筑图纸,将两者分别分成训练集和验证集,两者比例为4:1;
S4-4:将选一组训练集中多维度标绘图像连同正态分布函数输入生成器G中,形成一组第一赝图;
S4-5:将一组第一赝图与多组真实的语义分割后的建筑图纸一起输入判别器D中进行识别分类,重复步骤S4-4和S4-5,每次选的一组训练集中多维度标绘图像都不同,每一次计算损失函数值a,反向传播依次精细调整D网络参数,直到在多组真实的语义分割后的建筑图纸中以一定正确率acc1(>90%)识别出对应的最初输入一组第一赝图为止,完成判别器D的训练形成判别器D’。
具体训练过程是,多组真实的语义分割后的建筑图纸与多组第一赝图输入CNN模型得到的特征提取结果形成各自多组特征图,作差分后形成差分图,将其输入全连接FC中经过softmax函数分类,采用验证集验证准确率,并计算损失函数值a进行反向传播调整CNN网络,直到准确率达到阈值(>90%)和损失函数值趋稳为止。
S4-6:将选一组训练集中多维度标绘图像连同正态分布函数输入生成器G中,形成一组第二赝图;
S4-7:将一组第二赝图与多组真实的语义分割后的建筑图纸一起输入判别器D’中进行识别分类,重复步骤S4-6和S4-7,每次选的组训练集中多维度标绘图像都不同,每一次计算损失函数值b,反向传播依次精细调整G网络参数,直到在多组真实的语义分割后的建筑图纸中以一定正确率acc2(>95%)识别出对应的最初输入一组第二赝图为止,完成生成器G的训练形成生成器G’,墙体语义分割模型。
S5将待语义标注的建筑图纸中根据设计需要而设置墙体的位置,以及墙体材料,而将墙、窗、坐标对应的彩色值填入具有步骤S4中划分样式的空白多维度标绘图像像素中,并且将填满颜色值的多维度标绘图像输入墙体语义分割模型中以完成墙体语义分割。
其中,所述墙体的位置同样按照实施例2中步骤S3-9中的几何切割方法进行绘制而设置,而按照S4-2-1中的排序填入图4右半部划分样式的空白多维度标绘图像像素中。
并且,对几何切割方法形成的每一个矩形切割几何图形进行编号,按照图4右半部中描述的每一个墙体排序顺序进行编号,即5个像素点对应一个编号,代表一个墙体(即一个墙或窗对应的矩形切割几何图形)。在设计墙体时,同样从右往左,再从上至下对墙体所切割形成的矩形切割几何图进行编号,以方便矩形切割几何图的搜寻并实现各所述彩色值按照S4-2-1中的排布顺序进行排布,以快速生成多维度标绘图像。
图6a和6b分别是按照本实施例的方法将其中一个楼层生成的多维度标绘图像输入G’后完成的墙体语义分割前后的比对图。图7为其他小区中某一户按照本实施例的模型进行墙体语义分割之后三维重建的白模。其中的数字为户的编号。
可见通过该模型识别,能够精确地完成墙体语义的识别,从而当所有小区的每一栋的每一户设计墙体完毕时,只要将每一楼栋生成的多维度标绘图像批量输入G’就能得到每一个小区语义、楼栋语义、以及户语义下所有建筑图纸中的墙体语义分割结果。实现事毕同步完成语义分割结果,与事后进行语义分割相比大大提高了语义分割效率。

Claims (10)

1.一种对墙体进行人工智能语义分割的方法,其特征包括如下步骤,
S1获取一个小区的每一栋楼的多图层建筑图纸,几何类型为Polygon;其中多图层包括顶图层数据、基底图层数据、墙图层数据、窗图层数据、门图层数据;
S2对步骤S1的数据进行楼栋字段、户字段进行赋值,形成楼栋语义和户语义;
S3 对于墙图层数据和窗图层数据进行语义分割,并且形成最终模型包围盒数据,用于后继的要素构造实体算法;
步骤S3中墙图层数据和窗图层数据进行语义分割具体包括:
S3-1:整个流程的预备输入一个参数对象;
S3-2:根据S3-1,分析出输入图层,此输入图层是持久化图层、内存图层、上下文图层、数据库图层中任一者;
S3-3:根据S3-1,分析出被延长长度参数;
S3-4:对S3-2的输入图层进行几何融合处理,使之成为一个多边形的单独的要素;
S3-5:对S3-4的单独要素剔除其多边形中间的洞;
S3-6:对S3-5、S3-2的输入图层的面数据,进行线抽稀,形成一个线数据,线数据中的每段和其相邻段的角度差小于预设的角度
S3-7:对S3-6的线数据,进行延长,长度为步骤S3-3的参数;
S3-8:对S3-7延长后的线数据,进行多边形化处理,形成新的多边形数据;
S3-9:对S3-8的多边形数据进行墙体提取,此时所有墙体均基于户语义进行了几何切割;
S3-10:对S3-9切割后的数据进行语义赋值,形成墙语义和窗语义;
S3-11:对S3-10的所有要素数据,根据相关文件标准,进行持久化,以备后继处理;
在步骤S3对于墙图层数据和窗图层数据进行语义分割之后,形成生成的最终模型包围盒数据之前还包括如下步骤:
S4对于多个不同小区的每一栋建筑进行步骤S1-S3,形成小区语义,同时基于已经分割的墙语义以及窗语义生成多维度标绘图像,划分成训练集、验证集、测试集,并且以多维度标绘图像的训练集为输入端进行生成对抗网络的训练,形成墙体语义分割模型;
S5根据待语义标注的建筑图纸中根据设计需要而设置墙体的位置或寻找到已设计完成的图纸中需要标注的墙体的位置,以及墙体材料,而将墙、窗、坐标对应的彩色值填入具有步骤S4中划分样式的空白多维度标绘图像像素中,并且将填满颜色值的多维度标绘图像输入墙体语义分割模型中以完成墙体语义分割。
2.根据权利要求1所述的方法,其特征在于,S3-9中切割的方法如下:
对于所述小区中的每一栋中的每一非公共户的墙体,在图纸俯视视角,从先左往右或从右往左,再从上往下或从下往上进行切割,所述切割的原则是设定一条直线切割线,在切割线竖直状态下,从左往右或从右往左进行移动过程中,只要遇到所述视角下水平的墙体或窗体的一末端即进行竖直分割;而在切割线水平状态下,从上往下或从下往上移动过程中,只要遇到所述水平的墙体的墙面即进行水平分割,以最终生成对于所有非公共户套内墙体的矩形切割几何图形;
S3-10中所述语义赋值包括,每一个矩形切割几何图形按照材料种类进行彩色值赋予,以及矩形对角线的两个端点在小区中的地理坐标。
3.根据权利要求1所述的方法,其特征在于,训练集、验证集、测试集,比例为4:1:1。
4.根据权利要求2所述的方法,其特征在于,步骤S4中基于已经分割的墙语义以及窗语义生成多维度标绘图像,具体包括如下步骤:
S4-1根据小区语义、楼栋语义、户语义将一个空白图像区域划分为多维度的空白格点方阵;
S4-2对于每一个户格点中按照所述墙语义和窗语义中的所述地理坐标和墙和窗的水平和竖直位置情况而赋予户格点以墙彩色值、窗彩色值,以及根据预设映射规则而由坐标转换成的坐标彩色值,形成多像素图像,以生成多维度标绘图像。
5.根据权利要求4所述的方法,其特征在于,其中S4-1具体包括:
S4-1-1按照小区语义将空白图像划分成多个小区格点,并且每个小区格点都有对应的小区语义值,所述小区语义值为小区的编号、预设代表小区的地理坐标、代表小区的小区色彩值中任一项或其组合;
S4-1b对于每一个划分形成的小区格点中进一步划分多个楼栋格点,并且每个楼栋格点都有对应的楼栋语义值,所述楼栋语义值为楼栋的编号、预设代表楼栋的地理坐标、代表楼栋的楼栋色彩值中任一项或其组合;
S4-1-3对于每一个划分形成的楼栋格点中进一步划分多个户格点,并且每个户格点都有对应的户语义值,所述户语义值为户的编号、预设代表户的地理坐标、代表户的户色彩值中任一项或其组合;并且按照楼层排布而从楼栋格点中继续划分多个楼层格点,每个楼层格点中进行划分多个所述户格点;
其中S4-2具体包括:
S4-2-1在每个户格点中,先从左往右或者从右往左,再从上至下或从下至上,依次排布每一个墙彩色值及墙对应的两个对角线端点坐标彩色值、每一个窗彩色值及窗对应的两个对角线端点坐标彩色值,所述对角线端点坐标彩色值按照在所述视角下的左上右下,或者右上左下的顺序排布,而墙彩色值及墙对应的两个对角线端点坐标彩色值之间,以及窗彩色值及窗对应的两个对角线端点坐标彩色值之间则是先排布前者再后者或者反之排布,每一个墙、窗、端点坐标,这三者对应的彩色值排布具体是对应形成一个赋予对应的彩色值的像素点而被排布在所述的每个户格点中;具体的每个墙和每个窗各自的对应的所述像素点排布是在所述视角下,同样是所述先从左往右或者从右往左,再从上至下或从下至上找到每个墙或每个窗的顺序进行排序;
S4-2-2将每一个楼栋格点作为多维度标绘图像,将被填充上彩色值的所述空白图像划分成多个多维度标绘图像。
6.根据权利要求5所述的方法,其特征在于,其中坐标彩色值选择右上端点坐标彩色值左下端点坐标彩色值,或左上端点坐标彩色值右下端点坐标彩色值的顺序排布,每一个端点坐标彩色值的排序包括,在所述视角下端点的横坐标彩色值和端点的纵坐标彩色值,或反之。
7.根据权利要求4-6中任一项所述的方法,其特征在于,其中所述户格点形成h×h的矩阵,自然数1≤h≤3,楼层格点形成j×j的矩阵,自然数2≤j≤6,楼栋格点为n×n,自然数2≤n≤10,小区格点为m×m,自然数m≥1,每一个户格点为5k×5k个像素,自然数k≥7;对于空白的户格点、楼层格点、楼栋格点、小区格点都采用白色值赋值。
8.根据权利要求7所述的方法,其特征在于,步骤S4中以多维度标绘图像的训练集为输入端进行生成对抗网络(GAN)的训练,形成墙体语义分割模型具体包括:
S4-3将选一组训练集中的多维度标绘图像连同给定的噪声输入生成器G中,形成一组第一赝图;所述给定的噪声为均匀分布函数或正态分布函数;
S4-4:将一组第一赝图与多组真实的语义分割后的建筑图纸一起输入判别器D中进行识别分类,重复步骤S4-3和S4-4,每次选的一组训练集中多维度标绘图像都不同,每一次计算损失函数值,反向传播依次精细调整D网络参数,直到在多组真实的语义分割后的建筑图纸中以一定正确率识别出对应的最初输入一组第一赝图为止,完成判别器D的训练形成判别器D’,其中判别器D的判别真假的依据是将赝图与真实的语义分割后的建筑图纸进行差分而输入FC中输出给softmax函数进行二分类;
S4-5:将选一组训练集中多维度标绘图像连同给定的噪声输入生成器G中,形成一组第二赝图;
S4-6:将一组第二赝图与多组真实的语义分割后的建筑图纸一起输入判别器D’中进行识别分类,重复步骤S4-5和S4-6,每次选的组训练集中多维度标绘图像都不同,每一次计算损失函数值,反向传播依次精细调整G网络参数,直到在多组真实的语义分割后的建筑图纸中以一定正确率识别出对应的最初输入一组第二赝图为止,完成生成器G的训练形成生成器G’,作为墙体语义分割模型。
9.根据权利要求8所述的方法,其特征在于,其中,生成器G和判别器D都为卷积神经网络模型,步骤S4-4判别器D具体训练过程是,多组真实的语义分割后的建筑图纸与多组第一赝图输入CNN模型得到的特征提取结果形成各自多组特征图,作差分后形成差分图,将其输入全连接FC中经过softmax函数分类,采用验证集验证准确率,并计算损失函数值进行反向传播调整CNN网络,直到准确率达到阈值和损失函数值趋稳为止。
10.根据权利要求8或9所述的方法,其特征在于,其中S5中的所述墙体的位置的所述设置和所述标注是同样按照步骤S3-9中的几何切割方法分别进行绘制而设置和切割而标注,而按照S4-2-1中的排序填入具有步骤S4中划分样式的空白多维度标绘图像像素中;将几何切割方法得到的每一个矩形切割几何图形进行编号,并以按照S4-2-1中的墙和窗的彩色值排布顺序进行编号,以方便矩形切割几何图的搜寻并实现各所述彩色值按照S4-2-1中的排布顺序进行排布,以快速生成多维度标绘图像。
CN202210868125.0A 2022-07-21 2022-07-21 对墙体进行人工智能语义分割的方法 Active CN115393583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210868125.0A CN115393583B (zh) 2022-07-21 2022-07-21 对墙体进行人工智能语义分割的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210868125.0A CN115393583B (zh) 2022-07-21 2022-07-21 对墙体进行人工智能语义分割的方法

Publications (2)

Publication Number Publication Date
CN115393583A CN115393583A (zh) 2022-11-25
CN115393583B true CN115393583B (zh) 2023-09-29

Family

ID=84116960

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210868125.0A Active CN115393583B (zh) 2022-07-21 2022-07-21 对墙体进行人工智能语义分割的方法

Country Status (1)

Country Link
CN (1) CN115393583B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116228985B (zh) * 2023-03-17 2023-10-20 合肥泰瑞数创科技有限公司 基于多维图像编码的建筑物室内语义模型的构建方法及系统
CN117058297B (zh) * 2023-07-26 2024-02-20 泰瑞数创科技(北京)股份有限公司 一种利用多光谱图像自动生成材质方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785435A (zh) * 2019-01-03 2019-05-21 东易日盛家居装饰集团股份有限公司 一种墙体重建方法及装置
CN110532602A (zh) * 2019-07-19 2019-12-03 中国地质大学(武汉) 一种基于平面图图像的室内自动制图与建模方法
CN111815602A (zh) * 2020-07-06 2020-10-23 清华大学 基于深度学习和形态学的建筑pdf图纸墙体识别装置和方法
CN112116620A (zh) * 2020-09-16 2020-12-22 北京交通大学 一种室内图像语义分割与涂装展示的方法
CN112712592A (zh) * 2021-03-26 2021-04-27 泰瑞数创科技(北京)有限公司 建筑物三维模型语义化方法
CN113436319A (zh) * 2021-07-01 2021-09-24 泰瑞数创科技(北京)有限公司 一种城市室内三维语义模型的异形排列矩阵构建方法及其系统
CN113989291A (zh) * 2021-10-20 2022-01-28 上海电力大学 一种基于PointNet与RANSAC算法的建筑物屋顶平面分割方法
CN114550195A (zh) * 2020-11-10 2022-05-27 欧特克公司 用于从建筑图纸中提取楼层平面图元素的机器学习技术

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087054B2 (en) * 2019-09-06 2021-08-10 Beamup Ltd. Structural design systems and methods for automatic selection of equipment and generation of wiring diagrams by modeling and simulation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785435A (zh) * 2019-01-03 2019-05-21 东易日盛家居装饰集团股份有限公司 一种墙体重建方法及装置
CN110532602A (zh) * 2019-07-19 2019-12-03 中国地质大学(武汉) 一种基于平面图图像的室内自动制图与建模方法
CN111815602A (zh) * 2020-07-06 2020-10-23 清华大学 基于深度学习和形态学的建筑pdf图纸墙体识别装置和方法
CN112116620A (zh) * 2020-09-16 2020-12-22 北京交通大学 一种室内图像语义分割与涂装展示的方法
CN114550195A (zh) * 2020-11-10 2022-05-27 欧特克公司 用于从建筑图纸中提取楼层平面图元素的机器学习技术
CN112712592A (zh) * 2021-03-26 2021-04-27 泰瑞数创科技(北京)有限公司 建筑物三维模型语义化方法
CN113436319A (zh) * 2021-07-01 2021-09-24 泰瑞数创科技(北京)有限公司 一种城市室内三维语义模型的异形排列矩阵构建方法及其系统
CN113989291A (zh) * 2021-10-20 2022-01-28 上海电力大学 一种基于PointNet与RANSAC算法的建筑物屋顶平面分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JongHyeon Yang 等.Semantic Segmentation in Architectural Floor Plans for Detecting Walls and Doors.《2018 11th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI)》.2019,1-5. *
张蔚 ; 王腾 ; 卢政达 ; 杨思宇 ; 孟维亮 ; 郭建伟 ; 张晓鹏 ; .基于CNN的住宅平面图元素识别与布局语义分析.《中国体视学与图像分析》.2020,第25卷(第02期),174-182. *
高铭 等.基于深度学习的公共建筑像素施工图空间识别.《图学学报》.2022,第43卷(第2期),189-196. *

Also Published As

Publication number Publication date
CN115393583A (zh) 2022-11-25

Similar Documents

Publication Publication Date Title
CN115393583B (zh) 对墙体进行人工智能语义分割的方法
US11544900B2 (en) Primitive-based 3D building modeling, sensor simulation, and estimation
Ochmann et al. Automatic reconstruction of parametric building models from indoor point clouds
Xiong et al. Automatic creation of semantically rich 3D building models from laser scanner data
CN110992490B (zh) 基于cad建筑平面图自动提取室内地图的方法
CN107066916B (zh) 基于反卷积神经网络的场景语义分割方法
CN113379898B (zh) 一种基于语义分割的三维室内场景重建方法
CN113436319B (zh) 城市室内三维语义模型的异形排列矩阵构建方法及其系统
CN109801301A (zh) 一种基于bim与计算机视觉的铺砖进度信息自动收集方法
CN114758252B (zh) 基于图像的分布式光伏屋顶资源分割与提取方法及系统
CN104077447A (zh) 基于纸质平面数据的城市三维空间矢量建模方法
Laycock et al. Automatically generating large urban environments based on the footprint data of buildings
Macher et al. Semi-automatic segmentation and modelling from point clouds towards historical building information modelling
CN115937450A (zh) 建筑物分层分户的方法、系统、智能终端及存储介质
Pan et al. Void-growing: A novel Scan-to-BIM method for manhattan world buildings from point cloud
CN113051654B (zh) 基于二维gis数据的室内楼梯三维地理实体模型构建方法
Hu et al. Extended interactive and procedural modeling method for ancient Chinese architecture
CN107368832A (zh) 基于图像的目标检测及分类方法
Zhang et al. A data-driven approach for adding facade details to textured lod2 citygml models
Thiemann et al. 3D-symbolization using adaptive templates
Zhao et al. A 3D modeling method for buildings based on LiDAR point cloud and DLG
JP7230288B1 (ja) 学習モデル
CN116051771A (zh) 一种基于无人机倾斜摄影模型的光伏bim屋顶自动建模方法
JP7160295B1 (ja) 学習モデルの生成方法、情報処理装置、情報処理方法、コンピュータプログラム
CN116663113A (zh) 一种基于aigc技术的空间设计生成式方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant