CN112215820A - 一种基于图像数据的隧道掌子面分析方法 - Google Patents
一种基于图像数据的隧道掌子面分析方法 Download PDFInfo
- Publication number
- CN112215820A CN112215820A CN202011092259.5A CN202011092259A CN112215820A CN 112215820 A CN112215820 A CN 112215820A CN 202011092259 A CN202011092259 A CN 202011092259A CN 112215820 A CN112215820 A CN 112215820A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- dimensional
- data
- structural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30132—Masonry; Concrete
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于图像数据的隧道掌子面分析方法,包括对采集的掌子面图像进行质量判识,并对判别合格的掌子面图像进行三维重建得到三维点云模型;获取二维图像中的掌子面区域和二维节理数据;利用神经网络模型提取图像的结构面特征,并对结构面特征图像进行处理提取结构面线条数据;对三维分析投影到二维图像的结构面和神经网络提取的结构进行结合分析,并通过聚类分组得到识别的所有掌子面节理,利用计算机绘制掌子面素描图。本发明的优点在于:基于掌子面的几何结构进行地质分析,同时针对前方掌子面进行超短距离预测。结合三维地质信息,借助深度学习和图像识别技术,标识出结构面,减少素描难度和作业时间。
Description
技术领域
本发明涉及隧道地质探勘技术领域,尤其涉及一种基于图像数据的隧道掌子面分析方法。
背景技术
“隧道开挖,地质先行”,隧道安全控制的首要任务就是快速、准确、全面、及时掌握隧道地质。相关规范要求,在隧道建设过程中,依次展开地质勘察、超前地质预报及掌子面地质素描工作,直至隧道贯通。但受勘察技术及经费的限制,地勘工作比较粗糙,地质遗漏时有发生,特别是长大隧道更是如此。而隧道开挖揭示的掌子面地质信息是最准确、最直观的,可据此进行断层破碎带、大规模塌方、煤与瓦斯突出的临近综合预报,亦可据此进行地质素描、判识岩体完整程度及围岩分级等工作为实现信息化动态施工提供基础数据。
地质素描专业性很强,需要隧道地质专业工程师综合掌子面揭示地质情况、隧道设计地勘资料、现场补勘及地应力测试结果等多方面信息判识,但现场多不满足其要求,导致判识结果不正确或出现失误。掌子面地质工作时效性很强需在掌子面出渣完成后准确快速记录,否则随下一循环或下一工序施工,掌子面开挖揭示的地质信息也随即消逝。而且目前现场掌子面素描主要是通过肉眼观察,手动素描,纸质记录的方式完成,工作效率低,分析精度差,信息量有限,反馈时间长。
目前针对图像进行掌子面分析的技术普遍通过对图像进行预处理,滤波二值化等传统图像处理手段来提取节理特征,存在较多的误识和漏识,效果不佳。且没有将三维几何信息和二维图像信息进行结合分析,充分利用图像信息来进行组合识别。
发明内容
本发明的目的在于克服现有技术的缺点,提供了一种基于图像数据的隧道掌子面分析方法,解决了目前掌子面分析中存在的问题。
本发明的目的通过以下技术方案来实现:一种基于图像数据的隧道掌子面分析方法,所述掌子面分析方法包括:
对采集的掌子面图像进行质量判识,并对判别合格的掌子面图像进行三维重建得到三维点云模型;
从三维点云模型数据分割提取出掌子面模型,并将掌子面开挖轮廓投影到二维掌子面图像,获取二维图像中的掌子面区域;
对三维点云模型的结构面进行识别、分割和投影获取二维节理数据;
利用神经网络模型提取图像的结构面特征,并对结构面特征图像进行处理提取结构面线条数据;
对三维分析投影到二维图像的结构面和神经网络提取的结构进行结合分析,并通过聚类分组得到识别的所有掌子面节理,利用计算机绘制掌子面素描图。
进一步地,所述对采集的掌子面图像进行质量判识包括:
根据采集的不同位置不同角度的掌子面图像,采用均值低通滤波器分别获取水平和垂直方向的参考图;
获取待评价图像垂直和水平方向相邻像素值差图像,并取其绝对值,获取参考图像垂直和水平方向相邻像素值差图像,并取其绝对值;
在水平和垂直方向上对比待评价图像与参考图像的差值图像,并取值绝对值;
分别计算待评价图像在水平和垂直方向的相邻像素差总和,以及计算待评价图像与参考图像在水平和垂直方向的差值总和;
进而计算出待评价图像在水平和垂直方向上的清晰度评价参数,并剔除清晰度评价参数高于阈值的图像。
进一步地,所述对判别合格的掌子面图像进行三维重建得到三维点云模型包括:
提取合格的掌子面图像中的特征点进行两两匹配,并根据匹配结构利于射影定理计算得到相机位置的场景信息;
将场景信息与原始图像结合在一起,得到图像中物体的三维点云,并通过泊松表面重建算法将三维点云连成面,构建得到三维点云模型。
进一步地,所述从三维点云模型数据分割提取出掌子面模型,并将掌子面开挖轮廓投影到二维掌子面图像,获取二维图像中的掌子面区域包括:
根据掌子面的里程值结合三维点云模型与设计线路数据计算出每个点的里程值,并根据初支与开挖边界里程值将三维点云模型分为初支部分和边墙掌子面部分;
根据掌子面和边墙的三角面法向量相互垂直的关系将边墙掌子面部分分割为边墙和掌子面模型;
将分割得到的掌子面模型投影到垂直与设计线路数据的平面上得到二维掌子面的分析轮廓,并通过样条曲线对该轮廓进行细化处理,得到一个光滑的掌子面开挖面外轮廓。
进一步地,所述对三维点云模型的结构面进行识别、分割和投影获取二维节理数据包括:
根据掌子面模型不同结构面的法向量朝向的差异采用聚类算法对其结构面进行分割,分割为一个一个封闭的小区域,每个小区域的法向量朝向都不同;
将分割得到的结构面区域投影到垂直与设计线路数据的平面上得到二维结构面轮廓的节理数据。
进一步地,所述利用神经网络模型提取图像的结构面特征包括:
对采集到的掌子面图像以同一种判识标准进行结构面标注,标注的结构面像素数据以文本的方式记录,将标注后的图像、文本数据和原始图像形成数据集,并采用数据集扩展方法对数据集进行扩充;
采用端到端的神经网络对扩充后的数据集进行训练,用户训练后得到的网络模型对新输入的掌子面图像进行预测提取特征。
进一步地,所述对结构面特征图像进行处理提取结构面线条数据包括:
根据所述神经网络模型得到的特征图像,利用二维掌子面的分析轮廓形成闭合区域进行掩模处理,清空非分析区域的图像像素值;
通过条件随机场算法对预处理后的图像进行图像标记,并对图像标签的能量进行阈值判断,保留概率大于预设阈值的像素点,得到最终的阈值标签图像;
对所述阈值标签图像进行连通区域提取,对单独提取的连通区域进行线条细化处理,得到单像素宽度的不规则线条;
利用卷积的方式计算出所有的像素交点,对分离的小像素连接区域进行连接;
获得单个连通区域的连接结果后重复连通区域提取步骤和像素交点计算步骤得到局部连接过后的所有连通域的最终结果。
进一步地,所述通过条件随机场算法对预处理后的图像进行图像标记包括:
设置随机变量xi∈L={l1,l2,…,lL}表示像素i的标签,并根据x1,x2,…,xN组成随机向量X,N表示图像的像素个数;
进一步地,所述对三维分析投影到二维图像的结构面和神经网络提取的结构进行结合分析,并通过聚类分组得到识别的所有掌子面节理,利用计算机绘制掌子面素描图包括:
将二维掌子面的分析轮廓和二维结构面轮廓进行重合度判断,剔除重合度小于预设值的二维掌子面的分析轮廓和二维结构面轮廓;
将最终结构面上的线条的角度映射到圆周上得到线条位置的坐标点;
将坐标点作为数据输入,并通过Meanshift算法进行聚类,取数量最多的前三组作为保留结构面,剩余的组作为杂乱结构面;得到所有掌子面的节理数据,并通过计算机绘制掌子面素描图。
进一步地,所述掌子面分析方法还包括在对掌子面图像进行质量判识之前通过三维数字扫描仪采集不同位置和不同角度掌子面图像的步骤。
本发明具有以下优点:
1、快速的采集作业,一键拍摄,智能采集。比传统的手机和相机采集更方便,全面、高效。一次数据采集只需要两分钟,减少施工干扰和外业时间。
2、配置专用轻便补光灯,可远程操作,单人即可完成所有的外业工作。轻便耐用,且携带方便,外业采集简单安全。
3、快速判识图像质量后进行地质三维重构。掌子面如实景再临,节理裂隙清晰可见。采用激光测距获取真实比例尺,高度还原真实施工现场。
4、基于掌子面的几何结构进行地质分析,同时针对前方掌子面进行超短距离预测。结合三维地质信息,借助深度学习和图像识别技术,标识出结构面,减少素描难度和作业时间。
附图说明
图1为本发明方法的流程图;
图2为掌子面采集的示意图1;
图3为掌子面采集的示意图2;
图4为掌子面此案件的示意图3
图5为掌子面图像标注的对比图;
图6为掌子面特征提取的效果图;
图7为掌子面阈值标签图像示意图;
图8为掌子面连通域结果示意图;
图9为聚类分组的映射方式示意图;
图10为聚类分组后的最终识别效果图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的保护范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。下面结合附图对本发明做进一步的描述。
如图1所示,本发明涉及一种基于图像数据的隧道掌子面分析方法,其包括以下具体步骤:
S1、掌子面数据的采集
最佳的拍摄时间是掌子面出渣后,钢拱架立架之前。现场一个循环的施工工序是爆破、出渣、机械排险、台车靠前、人工排险、支钢拱架、锚杆施作、挂网、喷混凝土。在爆破、出完渣后拍摄的好处是可以拍摄到整个掌子面,没有钢拱架遮挡和施工人员干扰。而且经过挖机和人工排险之后,掌子面前方相对较安全,掌子面附近的粉尘已通过通风机排出,空气质量好,图片的噪声少。综合考虑拍摄人员的安全、拍摄照片的质量以及时间的宽裕度,选择在掌子面出渣后,钢拱架立架之前进行数据采集数据最合适;拍摄人员将设备,架设到三脚架上,保持设备基本水平即可。
如图2所示,在距离掌子面2至3米的位置摆放补光灯,可分别放置在距离边墙1.5米至3米的位置。调整补光灯的照射角度,均匀照亮掌子面。拍摄期间应该避免手电筒或外部强光直射掌子面,影响补光效果。
如图3所示,确保掌子面到设备之间没有人员、阴影和设备的遮挡后,进行掌子面的数据采集。先将设备架设在隧道中线(图中位置1),让设备正对掌子面采集数据(为了确保数据的完整性,建议在一个位置采集3张以上不同角度的图像。设备控制模块可以控制自动采集),完成一个位置点的数据采集。然后分别在左右侧位置采集剩余两个位置点的数据,各点位间相距应大于3米。采集设备距离掌子面的距离以设备能采集整个掌子面为准,可根据隧道断面大小前后移动。
如图4所示,为采集开挖边墙的数据,将设备移动到掌子面开挖边墙的正下方,分两次采集数据。如上图中标识,位置1、2分别在隧道中线左右侧,两个位置相距1.5米到2.5米。将设备和脚架成90°放置,摄像头正对左侧或者右侧边墙。设备控制模块自动控制设备拍摄,转动,以及测距,记录所有的中间数据(边墙的自动拍摄会正对开挖边墙,旋转和拍摄6-8次)。整个拍摄过程中不得有遮挡物和强光照射,同时需要避免设备晃动和在未完成拍摄的情况下移动造成的虚影模糊等情况。
S2、掌子面图像质量判识
根据采集的不同位置不同角度的掌子面图像,采用均值低通滤波器分别获取水平和垂直方向的参考图;
获取待评价图像垂直和水平方向相邻像素值差图像,并取其绝对值,获取参考图像垂直和水平方向相邻像素值差图像,并取其绝对值;
在水平和垂直方向上对比待评价图像与参考图像的差值图像,并取值绝对值;
分别计算待评价图像在水平和垂直方向的相邻像素差总和,以及计算待评价图像与参考图像在水平和垂直方向的差值总和;
进而计算出待评价图像在水平和垂直方向上的清晰度评价参数,并剔除清晰度评价参数高于阈值的图像。
清晰度评价参数的取值范围为0~1,数值越低则清晰,选取待评价图像在水平和垂直方向上的清晰度评价参数的最大值作为待评价图像的清晰度评价参数,阈值用户可以根据具体情况进行设置,一般在0.3~0.5。
S3、掌子面图像三维重建
取出经过质量判识模块判别合格的掌子面照片集合,经过三维重建模块如下步骤处理,可以得到掌子面的三维点云模型:
S31、找出各张照片中的特征点,进行两两匹配;这一步需要精确识别物体的局部特征,并且进行快速准确的匹配,由于在实际拍摄中,可能存在物体的旋转、缩放、或者亮度变化,因此需要在算法中处理此类场景。
S32、根据匹配的结果,利用射影定理计算得到相机位置等场景信息;这步又称运动恢复结构(Structure from Motion)。对于结果的衡量标准主要是准确性,我们使用的是基于Levenberg-Marquardt算法的Bundler方法对掌子面照片进行处理。可以把这一步称为稀疏重建(Sparse Reconstruction)。
S33、将场景信息与原始照片结合在一起,得到照片中物体的三维点云;有了场景信息,就能进行多视立体重建(Multi-view Stereo Reconstruction)了。由于处理的图像精度通常都比较高,所以这一步的计算量很大,执行效率算法优先解决的问题。除了效率之外,还需要考量重建的精度以及完整性,因为这些因素决定了点云的质量。为了表示和稀疏重建的区别,这一步也称之为密集重建(Dense Reconstruction)。
S34、根据三维点云构建三维模型在到了物体表面的三维点云后,使用泊松表面重建算法(Poisson Surface Reconstruction)把这些点连成面,才能在后续的三维场景中展示。
S4、掌子面和开挖轮廓分割
由于拍摄用的相机视角有限,需要离掌子面较远的地方拍摄才能拍到掌子面的全貌,这种情况下,将会不可避免的拍摄到初支位置的图像信息。同时为了使用边墙的三维信息,需要将设备放到开挖面下面通过180°旋转的方式,采集边墙照片。经过三维重建模块的处理后得到的模型数据,由分初支,边墙和掌子面三部分组成。为了在数据处理的时候方便处理,需要通过算法将这三部分单独分割出来。
隧道掌子面施工以前,会给出准确的初支和开挖段断面设计数据,初支与开挖这个两部分的边界处里程值也会有精确的设计数据。三维重建后根据掌子面的里程值,将重建后的三维点云模型放到设计线路数据上,可以计算出每个点的里程值。根据初支与开挖边界里程值可以将三维模型分成初支部分和边墙掌子面部分。
由于掌子面的三角面法向量基本上平行于设计线路,而边墙部分的三角面法向量基本上垂直于设计线路。基于这种思路,可以将边墙掌子面部分再次分割成边墙和掌子面模型。
S5、识别二维分析轮廓
将分割得到的掌子面模型投影到垂直与设计线路数据的平面上既可以得到掌子面的二维分析轮廓,可以使用样条曲线对得到的初步轮廓进行细化处理,得到一个比较光滑的开挖面外轮廓。
S6、基于三维模型识别结构面
对三维掌子面点云模型的结构面进行识别,基于不同的结构面的法向量朝向有较大差异。因此可以基于聚类算法对结构面进行分割。分割的结果是一个个的封闭小区域,每个小区域和周围的小区域在大致的法向量上都有比较大的差异。
S7、将三维结构面投影到二维掌子面图像,获取掌子面的二维节理
由于设备提供给用户的结果数据主要以二维节理数据为主,因此需要将三维空间识别得到的结构面区域投影到二维平面上。将三维结构面小区域分别投影到垂直于线路数据的平面上即可得到二位结构面轮廓。
S8、利用神经网络提取掌子面结构面特征
如图5所示,对收集到的掌子面图像进行数据标注。地质工程师对收集到的掌子面图像进行结构面标注,标注效果如下图,左侧是掌子面原图,右侧是标注后的结构面。标注的结构面像素数据以文本的方式记录,所有的掌子面图像标注都需要基于同一种判识标准,不同的判识标准标注的数据集将导致后续模型训练困难。
将标注后的图像和文本数据汇总,与原始图像一起,整理到文件夹中,形成数据集。然后采用数据集扩充方法对数据集进行扩充。具体的数据扩充方法如下:
A1、随机裁剪原图像中的一部分,裁剪的尺寸不宜过小,采集完成之后需要人工进行筛选,将没有结构面标注的掌子面图像进行剔除处理;
A2、图片进行水平翻转、垂直翻转或者镜像处理;
A3、设定浮动的角度范围,在30度以内,对图片进行随机旋转;
A4、调节图片亮度或对比度,变亮或变暗,增大对比度或减小对比度;调节色度,改变R、G、B颜色分量的比例;调节图像的饱和度。
可以通过上述几个步骤进行任意的排列组合,使用随机顺序对原始图像进行扩充处理,扩充过程中标注的图像数据也需要共同处理以保持一致性。
采用端到端的神经网络对扩充后的数据集进行训练。本方法中采用图像分割的经典模型进行训练,图像缩放到800×800的像素大小,输入模型,利用卷积神经网络及进行监督学习,通过反向传播,使用随机梯度下降算法来使代价函数达到最小化。
如图6所示,用训练后得到的网络模型,对新输入的掌子面图片进行预测提取特征。
S9、对结构面特征图像进行后续处理,提取结构面线条数据作为主要走向并进行连接
S91、特征图像预处理,对步骤S8中得到的特征图像利用步骤S5中得到的分析轮廓形成闭合区域进行掩模处理,清空非分析区域的图像像素值;
S92、使用条件随机场(CRF)算法对图像进行图像标记,具体标记方法如下:
设置随机变量xi∈L={l1,l2,…,lL}表示像素i的标签,并根据x1,x2,…,xN组成随机向量X,N表示图像的像素个数;
针对得到的E(x)进行阈值判断,保留概率大于0.5的像素点,得到如图7所示的最终的阈值标签图像。
S93、对阈值标签图像进行连通区域提取,然后对单独提取的到的连通区域进行线条细化处理,得到单像素宽度的不规则线条;
S94、利用卷积的方式计算出所有的像素交点。使用矩阵卷积的方式对细化后图像进行计算,通过设定3×3的,数值全为1的卷积核;对细化后图像进行卷积处理,得到处理后的图像;然后找出乘积总和大于3的位置,该位置即为线与线的交叉点。使用该方法比原始的遍历查询的方式在运行效率上有更大的优势,可以更有效的节省计算资源。
S95、对分离的小像素连接区域,进行连接。步骤S93中已经得到了连通区域线条的所有交点,可以很容易的从交点位置断开,最终获得所有的子连接区域线条。本步骤需要借鉴步骤S7得到的结构面整体角度,利用该角度指导连接。
S96、获取到单个连通区域的连接结果后,重复步骤S93-步骤S95,最终可以得到如图8所示的局部连接过后的所有连通域最终结果。
S10、剔除贴近的结构面,进行闭包判识
对步骤S7得到的结构面与二维图像分析得到的结构面进行重合度判断;具体为计算两者的最小闭包矩形重合率为准,结合两者角度的绝对差,即可认定为两者重合,对闭包面积更小或者小于预先设置的阈值的区域进行剔除处理。
S11、给出识别的所用掌子面节理数据,利用计算机绘图绘制掌子面素描图
如图9所示,采用Meanshift算法对S10得到的最终结构面线条进行分组。这里需要将线条的角度映射到圆的周边,来解决0度与360度重合导致无法简单使用欧式距离进行聚类的问题。
利用公式θ=arctan[(y2-y0)/(x2-x0)]-arctan[(y1-y0)/(x1-x0)]计算基于统一参照坐标轴的角度,然后利用公式P(x,y)=(sin(θ2),cos(θ2))将角度映射到圆周上得到位置的坐标点;
将坐标点作为数据输入,使用Meanshift算法进行聚类,取数量最多的前三组作为保留结构面,剩余的组别作为杂乱结构面。分组后得到最红的识别效果如图10所示,并通过计算机绘制掌子面素描图。
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。
Claims (10)
1.一种基于图像数据的隧道掌子面分析方法,其特征在于:所述掌子面分析方法包括:
对采集的掌子面图像进行质量判识,并对判别合格的掌子面图像进行三维重建得到三维点云模型;
从三维点云模型数据分割提取出掌子面模型,并将掌子面开挖轮廓投影到二维掌子面图像,获取二维图像中的掌子面区域;
对三维点云模型的结构面进行识别、分割和投影获取二维节理数据;
利用神经网络模型提取图像的结构面特征,并对结构面特征图像进行处理提取结构面线条数据;
对三维分析投影到二维图像的结构面和神经网络提取的结构进行结合分析,并通过聚类分组得到识别的所有掌子面节理,利用计算机绘制掌子面素描图。
2.根据权利要求1所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述对采集的掌子面图像进行质量判识包括:
根据采集的不同位置不同角度的掌子面图像,采用均值低通滤波器分别获取水平和垂直方向的参考图;
获取待评价图像垂直和水平方向相邻像素值差图像,并取其绝对值,获取参考图像垂直和水平方向相邻像素值差图像,并取其绝对值;
在水平和垂直方向上对比待评价图像与参考图像的差值图像,并取值绝对值;
分别计算待评价图像在水平和垂直方向的相邻像素差总和,以及计算待评价图像与参考图像在水平和垂直方向的差值总和;
进而计算出待评价图像在水平和垂直方向上的清晰度评价参数,并剔除清晰度评价参数高于阈值的图像。
3.根据权利要求1所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述对判别合格的掌子面图像进行三维重建得到三维点云模型包括:
提取合格的掌子面图像中的特征点进行两两匹配,并根据匹配结构利于射影定理计算得到相机位置的场景信息;
将场景信息与原始图像结合在一起,得到图像中物体的三维点云,并通过泊松表面重建算法将三维点云连成面,构建得到三维点云模型。
4.根据权利要求1所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述从三维点云模型数据分割提取出掌子面模型,并将掌子面开挖轮廓投影到二维掌子面图像,获取二维图像中的掌子面区域包括:
根据掌子面的里程值结合三维点云模型与设计线路数据计算出每个点的里程值,并根据初支与开挖边界里程值将三维点云模型分为初支部分和边墙掌子面部分;
根据掌子面和边墙的三角面法向量相互垂直的关系将边墙掌子面部分分割为边墙和掌子面模型;
将分割得到的掌子面模型投影到垂直与设计线路数据的平面上得到二维掌子面的分析轮廓,并通过样条曲线对该轮廓进行细化处理,得到一个光滑的掌子面开挖面外轮廓。
5.根据权利要求1所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述对三维点云模型的结构面进行识别、分割和投影获取二维节理数据包括:
根据掌子面模型不同结构面的法向量朝向的差异采用聚类算法对其结构面进行分割,分割为一个一个封闭的小区域,每个小区域的法向量朝向都不同;
将分割得到的结构面区域投影到垂直与设计线路数据的平面上得到二维结构面轮廓的节理数据。
6.根据权利要求1所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述利用神经网络模型提取图像的结构面特征包括:
对采集到的掌子面图像以同一种判识标准进行结构面标注,标注的结构面像素数据以文本的方式记录,将标注后的图像、文本数据和原始图像形成数据集,并采用数据集扩展方法对数据集进行扩充;
采用端到端的神经网络对扩充后的数据集进行训练,用户训练后得到的网络模型对新输入的掌子面图像进行预测提取特征。
7.根据权利要求6所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述对结构面特征图像进行处理提取结构面线条数据包括:
根据所述神经网络模型得到的特征图像,利用二维掌子面的分析轮廓形成闭合区域进行掩模处理,清空非分析区域的图像像素值;
通过条件随机场算法对预处理后的图像进行图像标记,并对图像标签的能量进行阈值判断,保留概率大于预设阈值的像素点,得到最终的阈值标签图像;
对所述阈值标签图像进行连通区域提取,对单独提取的连通区域进行线条细化处理,得到单像素宽度的不规则线条;
利用卷积的方式计算出所有的像素交点,对分离的小像素连接区域进行连接;
获得单个连通区域的连接结果后重复连通区域提取步骤和像素交点计算步骤得到局部连接过后的所有连通域的最终结果。
9.根据权利要求5所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述对三维分析投影到二维图像的结构面和神经网络提取的结构进行结合分析,并通过聚类分组得到识别的所有掌子面节理,利用计算机绘制掌子面素描图包括:
将二维掌子面的分析轮廓和二维结构面轮廓进行重合度判断,剔除重合度小于预设值的二维掌子面的分析轮廓和二维结构面轮廓;
将最终结构面上的线条的角度映射到圆周上得到线条位置的坐标点;
将坐标点作为数据输入,并通过Meanshift算法进行聚类,取数量最多的前三组作为保留结构面,剩余的组作为杂乱结构面;得到所有掌子面的节理数据,并通过计算机绘制掌子面素描图。
10.根据权利要求1-9中任意一项所述的一种基于图像数据的隧道掌子面分析方法,其特征在于:所述掌子面分析方法还包括在对掌子面图像进行质量判识之前通过三维数字扫描仪采集不同位置和不同角度掌子面图像的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011092259.5A CN112215820A (zh) | 2020-10-13 | 2020-10-13 | 一种基于图像数据的隧道掌子面分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011092259.5A CN112215820A (zh) | 2020-10-13 | 2020-10-13 | 一种基于图像数据的隧道掌子面分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112215820A true CN112215820A (zh) | 2021-01-12 |
Family
ID=74053923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011092259.5A Pending CN112215820A (zh) | 2020-10-13 | 2020-10-13 | 一种基于图像数据的隧道掌子面分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112215820A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950771A (zh) * | 2021-04-02 | 2021-06-11 | 中国铁建重工集团股份有限公司 | 一种围岩结构的检测方法、系统及相关组件 |
CN113012283A (zh) * | 2021-04-25 | 2021-06-22 | 北京安怀信科技股份有限公司 | 一种基于三维模型识别轴孔特征越程槽设置合理性的方法 |
CN113256082A (zh) * | 2021-05-07 | 2021-08-13 | 中交第二航务工程局有限公司 | 一种隧道掌子面智能地质素描及地质评价方法 |
CN113269714A (zh) * | 2021-04-07 | 2021-08-17 | 西南交通大学 | 隧道掌子面涌水水头高度智能识别方法及确定装置 |
CN113269865A (zh) * | 2021-04-07 | 2021-08-17 | 西南交通大学 | 隧道掌子面地下水出水特征智能识别方法及地下水状态分级方法 |
CN114049454A (zh) * | 2022-01-12 | 2022-02-15 | 成都理工大学 | 一种基于混合聚类解译岩体结构面产状的方法及系统 |
CN115546113A (zh) * | 2022-09-15 | 2022-12-30 | 山东大学 | 掌子面裂隙图像与前方三维结构参数预测方法及系统 |
CN116777823A (zh) * | 2023-02-02 | 2023-09-19 | 中国矿业大学 | 一种锚固孔图像结构面快速识别方法 |
CN117152344A (zh) * | 2023-06-28 | 2023-12-01 | 西南交通大学 | 基于照片重建点云的隧道围岩结构面解析方法及系统 |
-
2020
- 2020-10-13 CN CN202011092259.5A patent/CN112215820A/zh active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950771A (zh) * | 2021-04-02 | 2021-06-11 | 中国铁建重工集团股份有限公司 | 一种围岩结构的检测方法、系统及相关组件 |
CN113269714B (zh) * | 2021-04-07 | 2023-08-11 | 西南交通大学 | 隧道掌子面涌水水头高度智能识别方法及确定装置 |
CN113269714A (zh) * | 2021-04-07 | 2021-08-17 | 西南交通大学 | 隧道掌子面涌水水头高度智能识别方法及确定装置 |
CN113269865A (zh) * | 2021-04-07 | 2021-08-17 | 西南交通大学 | 隧道掌子面地下水出水特征智能识别方法及地下水状态分级方法 |
CN113269865B (zh) * | 2021-04-07 | 2023-10-03 | 西南交通大学 | 隧道掌子面地下水出水特征智能识别方法及地下水状态分级方法 |
CN113012283A (zh) * | 2021-04-25 | 2021-06-22 | 北京安怀信科技股份有限公司 | 一种基于三维模型识别轴孔特征越程槽设置合理性的方法 |
CN113012283B (zh) * | 2021-04-25 | 2021-09-07 | 北京安怀信科技股份有限公司 | 一种基于三维模型识别轴孔特征越程槽设置合理性的方法 |
CN113256082A (zh) * | 2021-05-07 | 2021-08-13 | 中交第二航务工程局有限公司 | 一种隧道掌子面智能地质素描及地质评价方法 |
CN114049454A (zh) * | 2022-01-12 | 2022-02-15 | 成都理工大学 | 一种基于混合聚类解译岩体结构面产状的方法及系统 |
CN115546113A (zh) * | 2022-09-15 | 2022-12-30 | 山东大学 | 掌子面裂隙图像与前方三维结构参数预测方法及系统 |
CN116777823A (zh) * | 2023-02-02 | 2023-09-19 | 中国矿业大学 | 一种锚固孔图像结构面快速识别方法 |
CN117152344A (zh) * | 2023-06-28 | 2023-12-01 | 西南交通大学 | 基于照片重建点云的隧道围岩结构面解析方法及系统 |
CN117152344B (zh) * | 2023-06-28 | 2024-05-24 | 西南交通大学 | 基于照片重建点云的隧道围岩结构面解析方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112215820A (zh) | 一种基于图像数据的隧道掌子面分析方法 | |
CN109872397B (zh) | 一种基于多目立体视觉的飞机零件的三维重建方法 | |
US20210319561A1 (en) | Image segmentation method and system for pavement disease based on deep learning | |
Li et al. | Reconstructing building mass models from UAV images | |
Xu et al. | Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor | |
Rau et al. | Analysis of oblique aerial images for land cover and point cloud classification in an urban environment | |
Pu et al. | Knowledge based reconstruction of building models from terrestrial laser scanning data | |
CN110473221B (zh) | 一种目标物体自动扫描系统及方法 | |
CN112560675B (zh) | Yolo与旋转-融合策略相结合的鸟类视觉目标检测方法 | |
CN109255808A (zh) | 基于倾斜影像的建筑物纹理提取方法和装置 | |
CN111951197B (zh) | 一种基于结构光的点云分割方法 | |
Hadjigeorgiou et al. | An evaluation of image analysis algorithms for constructing discontinuity trace maps | |
CN111292228A (zh) | 镜头缺陷检测方法 | |
Nex et al. | Automatic roof outlines reconstruction from photogrammetric DSM | |
CN114549956A (zh) | 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法 | |
CN113192200A (zh) | 一种基于空三并行计算算法的城市实景三维模型的构建方法 | |
Frommholz et al. | Extracting semantically annotated 3D building models with textures from oblique aerial imagery | |
Tutzauer et al. | Façade reconstruction using geometric and radiometric point cloud information | |
CN109064482B (zh) | 一种三维倾斜摄影场景中自动获取房屋轮廓的方法及装置 | |
Wang | Automatic extraction of building outline from high resolution aerial imagery | |
Babahajiani et al. | Comprehensive automated 3D urban environment modelling using terrestrial laser scanning point cloud | |
Sun et al. | Geographic, geometrical and semantic reconstruction of urban scene from high resolution oblique aerial images. | |
Wolf et al. | Applicability of neural networks for image classification on object detection in mobile mapping 3d point clouds | |
Bulatov et al. | On Applications of Sequential Multi-view Dense Reconstruction from Aerial Images. | |
Lin et al. | 3-D descriptions of buildings from an oblique view aerial image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |