CN117115529A - 一种隧道爆破碴体块度识别方法、系统及储存介质 - Google Patents
一种隧道爆破碴体块度识别方法、系统及储存介质 Download PDFInfo
- Publication number
- CN117115529A CN117115529A CN202311052839.5A CN202311052839A CN117115529A CN 117115529 A CN117115529 A CN 117115529A CN 202311052839 A CN202311052839 A CN 202311052839A CN 117115529 A CN117115529 A CN 117115529A
- Authority
- CN
- China
- Prior art keywords
- ballast
- tunnel blasting
- tunnel
- training
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005422 blasting Methods 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 48
- 239000002893 slag Substances 0.000 claims abstract description 43
- 230000006870 function Effects 0.000 claims description 24
- 230000014509 gene expression Effects 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims 3
- 238000005259 measurement Methods 0.000 description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009412 basement excavation Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
Abstract
本发明涉及隧道爆破碴体识别技术领域,具体公开了一种隧道爆破碴体块度识别方法、系统及储存介质,包括以下步骤:S1、建立隧道爆破碴体目标数据集:通过采集到的隧道爆破碴体图像建立隧道爆破碴体目标数据集文件;S2、算法训练:将建立的隧道爆破碴体目标数据集文件输入训练算法进行训练,得到隧道爆破碴体识别模型;S3、输入待检测图像:将待检测图像输入到隧道爆破碴体识别模型,隧道爆破碴体识别模型自动识别隧道爆破碴体目标并生成掩码覆盖属于碴体目标的像素,然后通过统计得到碴体目标的像素数量;S4、将像素数量转换为隧道爆破碴体实际面积:在隧道工程现场拍摄隧道地面碴体的图像,计算出隧道爆破碴体实际面积A。
Description
技术领域
本发明涉及隧道爆破碴体识别技术领域,特别是一种隧道爆破碴体块度识别方法、系统及储存介质。
背景技术
碴体块度样本数据的获取是隧道爆破工程中重要的一项任务,其对于评估隧道爆破效果与预测隧道爆破块度和超欠挖量具有重要意义。传统的数据获取方法对于大规模隧道工程而言,工作量大、效率低且存在安全隐患,无法满足实际工程需求。现阶段常用方法如下:
人工测量方法:目前碴体块度样本数据的获取主要依赖于人工测量的方法,需要操作人员通过视觉观察和物理测量手段对碴体块度样本数据进行测量。操作人员需要凭借经验和技能进行尺寸和形态的测量,并记录相关数据。然而,人工测量存在一定的主观性和误差,尤其是对于复杂形状的碴体或大量碴体样本的测量,人工测量的速度较慢且存在较大的误差;传统测量设备方法:一些传统的测量设备,如使用卷尺、游标卡尺或激光测距仪等工具进行测量,被用于测量碴体的形态和尺寸。这些设备通常需要将碴体放置在特定的测量台或样品架上。然而,这些设备的使用相对复杂,且需要经过长时间的操作和校准,测量效率较低;人工抽样方法:在实际工程中,也存在通过人工抽样的方式获取碴体块度样本数据。这种方法通常需要在施工过程中随机选取一定数量的碴体样本进行测量和分析。然而,由于样本选择的主观性和限制性,可能无法充分代表整体碴体块度样本数据的具体情况,存在一定的偏差。针对大规模隧道工程现阶段的方法都无法准确、快速的获取碴体块度样本数据,更无法便捷的将碴体块度样本数据应用评估隧道爆破效果和指导后续的施工工作。
发明内容
本发明的目的在于克服现有技术的缺点,提供一种隧道爆破碴体块度识别方法。
本发明的目的通过以下技术方案来实现:一种隧道爆破碴体块度识别方法,包括以下步骤:S1、建立隧道爆破碴体目标数据集:通过采集到的隧道爆破碴体图像建立隧道爆破碴体目标数据集文件;
S2、算法训练:将建立的隧道爆破碴体目标数据集文件输入训练算法进行训练,得到隧道爆破碴体识别模型;
S3、输入待检测图像:将待检测图像输入到隧道爆破碴体识别模型,隧道爆破碴体识别模型自动识别隧道爆破碴体目标并生成掩码覆盖属于碴体目标的像素,然后通过统计得到碴体目标的像素数量;
S4、将像素数量转换为隧道爆破碴体实际面积:在隧道工程现场拍摄隧道地面碴体的图像,计算出隧道爆破碴体实际面积A。
具体的,S2中算法训练包括以下步骤:
S21、主干网络提取特征图;输入隧道爆破碴体目标数据集文件,通过残差神经网络提取后形成特征图,然后特征金字塔利用残差神经网络提取的特征图,经过卷积、上采样和最大池化处理得到有效特征图,用作区域建议网络的输入;
S22、区域建议网络训练,利用区域建议网络通过滑动扫描S21中得到的有效特征图的每个像素的方式来生成先验框,然后计算先验框与真实框之间的交集与并集的比值,并根据设定的阈值来划分区域建议网络训练样本的类别;
S23、区域尺寸调节;统一先验框和真实框的尺寸;
S24、感兴趣区域分类,预测框的多元分类和位置精调,以及生成掩码。
具体的,S22中先验框与真实框的交集与并集的比值>70%,先验框被标定为正样本;
先验框与真实框的交集与并集的比值<30%,先验框被标定为负样本;
区域建议网络总训练误差函数MRPN定义为:
MRPN=MRcls+Mreg
其中:
MRcls—区域建议网络阶段的二分类训练误差;
Mreg—区域建议网络阶段的回归训练误差;
表达式分别如下:
其中:
β—超参数,用于调节权重;
j—先验框的索引;
qj—第j先验框预测为正样本的概率;
—真实标签,其1表示先验框为正样本,为0表示先验框为负样本;
fj—包含预测框中心坐标、宽和高4个参数的向量;
—真实框中心坐标、宽和高4个参数的向量;
KRcls,Kreg—批次数据量;
—二分类对数误差函数;
—回归误差,表达式定义为:
其中:
H(x)表达式定义为:
定义f与f*如下:
f=(fx,fy,fz,fg)
其中:
x,y,z,g—边框的中心坐标、宽和高;
x,xc,x*—预测框、先验框与真实框。
具体的,S24中针对单个感兴趣区域,设置误差函数MROI如下:
MROI=Mcls+Mbox
其中:
多分类误差函数Mcls为:
Mcls=-log(lv)
式中:
l—预测概率;
-log(lv)—真实类别v的对数误差函数。
感兴趣区域的回归预测误差函数Mbox为:
Mbox=α[b≥1]Mioc(fb,p)
其中:
[b≥1]—b≥1时值为1,b<1时值为0,这里α设置为1;
fb—对应类别b的偏移;
p—真实边界框回归目标。
总误差函数Mall为:
Mall=MRcls+Mreg+Mcls+Mbox
具体的,S4中隧道爆破碴体实际面积A通过下式进行计算:
其中:
A—隧道爆破碴体实际面积
l—碴体像素数量
p—拍摄距离
f—相机焦距
c—像元尺寸。
一种隧道爆破碴体块度识别系统,包括:
获取单元,用于采集隧道爆破碴体图像并形成隧道爆破碴体目标数据集文件;
训练单元,用于利用隧道爆破碴体目标数据集文件搭建隧道爆破碴体识别模型;按下式计算隧道爆破碴体识别模型总误差:
Mall=MRcls+Mreg+Mcls+Mbox;
其中,MRcls和Mreg分别为区域建议网络阶段的二分类训练误差和回归训练误差,Mcls和Mbox分别为感兴趣区域的多分类误差和回归预测误差;
输出单元,用于在隧道爆破碴体识别模型满足预设的总误差性能指标后,输出训练结束后的隧道爆破碴体识别模型;
隧道爆破碴体实际面积输出单元,用于将输入待检测图像输入至隧道爆破碴体识别模型,输出目标爆破参数隧道爆破碴体实际面积。
一种计算机可读存储介质,其上存储有计算机可读程序,所述计算机可读程序被调用时执行上述的隧道爆破碴体块度识别方法
本发明具有以下优点:
针对现有隧道爆破碴体识别技术的不足;人工测量存在一定的主观性和误差,尤其是对复杂形状的碴体或大量碴体样本的测量,人工测量的速度较慢且存在较大的误差;传统测量设备的使用相对复杂,且需要经过长时间的操作和校准,测量效率较低;人工抽样存在主观性和随机性,无法充分代表整体碴体块度样本数据的具体情况,存在一定的偏差。本发明所提供的一种隧道爆破碴体块度识别方法有效弥补了传统测量方法的缺陷,有着安全、高效、便捷、准确的优点。
附图说明
图1为本发明的隧道爆破碴体块度获取过程图;
图2为本发明的隧道爆破碴体识别模型深度学习过程图;
具体实施方式
下面结合附图对本发明做进一步的描述,但本发明的保护范围不局限于以下所述。如图1-图2所示,一种隧道爆破碴体块度识别方法,包括以下步骤:
S1、建立隧道爆破碴体目标数据集:利用采集到的隧道爆破碴体图像,并通过人工标注的建立隧道爆破碴体目标数据集文件;
S2、算法训练:将建立的隧道爆破碴体目标数据集文件输入训练算法进行训练,得到隧道爆破碴体识别模型;
算法训练包括以下步骤:
S21、主干网络提取特征图;输入隧道爆破碴体目标数据集文件,通过残差神经网络提取后形成特征图,然后特征金字塔利用残差神经网络提取的特征图,经过卷积、上采样和最大池化处理得到有效特征图,用作区域建议网络的输入;主干网络包括残差神经网络和特征金字塔,残差神经网络包括卷积残差块和恒等残差块,卷积残差块用于改变图像的维度大小,而恒等残差块则用于增加主干网络的深度,在主干网络中,残差神经网络通过引入残差连接,解决深层网络训练中的梯度消失和梯度爆炸问题,有效地促进网络的训练和优化过程,卷积残差块通过使用具有不同滤波器大小的卷积层,以及跳跃连接,实现对输入图像尺寸的改变,这有助于网络在不同尺度下对目标进行检测和分析,恒等残差块通过堆叠多个恒等映射层来加深主干网络,从而进一步提高网络的表达能力和性能,特征金字塔通过在网络的不同层级上提取多尺度的特征图,使网络能够对不同大小的目标进行检测和分割,这种多尺度的特征表示能够增强网络对不同尺度目标的感知能力;
S22、区域建议网络训练,利用区域建议网络通过滑动扫描S21中得到的有效特征图的每个像素的方式来生成先验框,然后计算先验框与真实框之间的交集与并集的比值,并根据设定的阈值来划分区域建议网络训练样本的类别;区域建议网络训练的功能是训练先验框(区域建议网络生成的检测框)的分类模型和位置调整模型,通过区域建议网络训练,可以有效地筛选出与目标物体相关的候选框,并为后续的目标检测任务提供准确的区域建议,分类模型用于判断候选框中是否包含目标物体,而位置调整模型则用于对候选框的位置进行修正,以更准确地框出目标物体的位置;
先验框与真实框的交集与并集的比值>70%,先验框被标定为正样本;与目标物体高度重叠;先验框与真实框的交集与并集的比值<30%,先验框被标定为负样本;与目标物体高度不重叠;其他先验框称为中性样本,不参与训练过程而被剔除;
区域建议网络总训练误差函数MRPN定义为:
MRPN=MRcls+Mreg
其中:
MRcls—区域建议网络阶段的二分类训练误差;
Mreg—区域建议网络阶段的回归训练误差;
表达式分别如下:
其中:
β—超参数,用于调节权重;
j—先验框的索引;
qj—第j先验框预测为正样本的概率;
—真实标签,其1表示先验框为正样本,为0表示先验框为负样本;
fj—预测框中心坐标、宽和高4个参数的向量;
—真实框中心坐标、宽和高4个参数的向量;
KRcls,Kreg—批次数据量;
—二分类对数误差函数;
—回归误差,表达式定义为:
其中:
H为本发明建立的函数,H(x)表达式定义为:
定义f与f*如下:
f=(fx,fy,fz,fg)
其中:
x,y,z,g—边框的中心坐标、宽和高;
x,xc,x*—预测框、先验框与真实框
S23、区域尺寸调节;边框调整后大小不一,感兴趣区域统一先验框和真实框的尺寸;
S24、感兴趣区域分类,预测框的多元分类和位置精调,以及生成掩码;
针对单个感兴趣区域,设置误差函数MROI如下:
MROI=Mcls+Mbox
其中:
多分类误差函数Mcls为:
Mcls=-log(lv)
式中:
l—预测概率;
-log(lv)—真实类别v的对数误差函数。
感兴趣区域的回归预测误差函数Mbox为:
Mbox=α[b≥1]Mioc(fb,p)
其中:
[b≥1]—b≥1时值为1,b<1时值为0,这里α设置为1;
fb—对应类别b的偏移;
p—真实边界框回归目标。
综上,训练过程共涉及4个误差函数,分别是区域建议网络的分类误差和回归误差、感兴趣区域的多分类误差和回归误差,总误差函数Mall为:
Mall=MRcls+Mreg+Mcls+Mbox;
通过本发明算法检测的块状物体面积大小与其真实值的误差小于1%以下,满足测量隧道爆破碴体的精度要求。
S3、输入待检测图像:将待检测图像输入到隧道爆破碴体识别模型,隧道爆破碴体识别模型自动识别隧道爆破碴体目标并生成掩码覆盖属于碴体目标的像素,然后通过统计得到碴体目标的像素数量;
S4、将像素数量转换为隧道爆破碴体实际面积:在隧道工程现场拍摄隧道地面碴体的图像,并使用激光测距仪进行拍摄距离的测量。然后根据相机成像原理和几何关系,计算出隧道爆破碴体实际面积A;
隧道爆破碴体实际面积A通过下式进行计算:
其中:
A—隧道爆破碴体实际面积
l—碴体像素数量
p—拍摄距离
f—相机焦距
c—像元尺寸。
通过上述换算方法得到隧道爆破碴体的实际面积。在实际应用过程中,可以同时检测多张不同角度的隧道爆破碴体图像,统计计算各个检测目标的平均值,从而获得隧道爆破碴体块度数据。
本方案还提出一种隧道爆破碴体块度识别系统,包括:
获取单元,用于采集隧道爆破碴体图像并形成隧道爆破碴体目标数据集文件;
训练单元,用于利用隧道爆破碴体目标数据集文件搭建隧道爆破碴体识别模型;按下式计算隧道爆破碴体识别模型总误差:
Mall=MRcls+Mreg+Mcls+Mbox;
其中,MRcls和Mreg分别为区域建议网络阶段的二分类训练误差和回归训练误差,Mcls和Mbox分别为感兴趣区域的多分类误差和回归预测误差;
输出单元,用于在隧道爆破碴体识别模型满足预设的总误差性能指标后,输出训练结束后的隧道爆破碴体识别模型;
隧道爆破碴体实际面积输出单元,用于将输入待检测图像输入至隧道爆破碴体识别模型,输出目标爆破参数隧道爆破碴体实际面积。
本方案还提出一种计算机可读存储介质,其上存储有计算机可读程序,计算机可读程序被调用时执行如上述的隧道爆破碴体块度识别方法;
可以理解的是,存储介质可以是磁性介质,例如,软盘、硬盘、磁带;光介质例如,DVD;或者半导体介质例如固态硬盘SolidStateDisk,SSD等。
Claims (6)
1.一种隧道爆破碴体块度识别方法,其特征在于:包括以下步骤:
S1、建立隧道爆破碴体目标数据集:通过采集到的隧道爆破碴体图像建立隧道爆破碴体目标数据集文件;
S2、算法训练:将建立的隧道爆破碴体目标数据集文件输入训练算法进行训练,得到隧道爆破碴体识别模型;
S3、输入待检测图像:将待检测图像输入到隧道爆破碴体识别模型,隧道爆破碴体识别模型自动识别隧道爆破碴体目标并生成掩码覆盖属于碴体目标的像素,然后通过统计得到碴体目标的像素数量;
S4、将像素数量转换为隧道爆破碴体实际面积:在隧道工程现场拍摄隧道地面碴体的图像,计算出隧道爆破碴体实际面积A。
2.根据权利要求1所述的一种隧道爆破碴体块度识别方法,其特征在于:S2中算法训练包括以下步骤:
S21、主干网络提取特征图;输入隧道爆破碴体目标数据集文件,通过残差神经网络提取后形成特征图,然后特征金字塔利用残差神经网络提取的特征图,经过卷积、上采样和最大池化处理得到有效特征图,用作区域建议网络的输入;
S22、区域建议网络训练,利用区域建议网络通过滑动扫描S21中得到的有效特征图的每个像素的方式来生成先验框,然后计算先验框与真实框之间的交集与并集的比值,并根据设定的阈值来划分区域建议网络训练样本的类别;
S23、区域尺寸调节;统一先验框和真实框的尺寸;
S24、感兴趣区域分类,预测框的多元分类和位置精调,以及生成掩码。
3.根据权利要求2所述的一种隧道爆破碴体块度识别方法,其特征在于:S22中先验框与真实框的交集与并集的比值>70%,先验框被标定为正样本;
先验框与真实框的交集与并集的比值<30%,先验框被标定为负样本;
区域建议网络总训练误差函数MRPN定义为:
MRPN=MRcls+Mreg
其中:
MRcls—区域建议网络阶段的二分类训练误差;
Mreg—区域建议网络阶段的回归训练误差;
表达式分别如下:
其中:
β—超参数,用于调节权重;
j—先验框的索引;
qj—第j先验框预测为正样本的概率;
—真实标签,其1表示先验框为正样本,为0表示先验框为负样本;fj—预测框中心坐标、宽和高4个参数的向量;
—真实框中心坐标、宽和高4个参数的向量;
KRcls,Kreg—批次数据量;
—二分类对数误差函数;
—回归误差,表达式定义为:
其中:
H(x)表达式定义为:
定义f与f*如下:
其中:
x,y,z,g—边框的中心坐标、宽和高;
x,xc,x*—预测框、先验框与真实框。
4.根据权利要求2所述的一种隧道爆破碴体块度识别方法,其特征在于:S24中针对单个感兴趣区域,设置误差函数MROI如下:
MROI=Mcls+Mbox
其中:
多分类误差函数Mcls为:
Mcls=-log(lv)
式中:
l—预测概率;
-log(lv)—真实类别v的对数误差函数。
感兴趣区域的回归预测误差函数Mbox为:
Mbox=α[b≥1]Mioc(fb,p)
其中:
[b≥1]—b≥1时值为1,b<1时值为0,这里α设置为1;
fb—对应类别b的偏移;
p—真实边界框回归目标;
总误差函数Mall为:
Mall=MRcls+Mreg+Mcls+Mbox
S4中隧道爆破碴体实际面积A通过下式进行计算:
其中:
A—隧道爆破碴体实际面积
l—碴体像素数量
p—拍摄距离
f—相机焦距
c—像元尺寸。
5.一种隧道爆破碴体块度识别系统,用于实现权利要求1-4任一项所述的隧道爆破碴体块度识别方法,其特征在于:包括:
获取单元,用于采集隧道爆破碴体图像并形成隧道爆破碴体目标数据集文件;
训练单元,用于利用隧道爆破碴体目标数据集文件搭建隧道爆破碴体识别模型;按下式计算隧道爆破碴体识别模型总误差:
Mall=MRcls+Mreg+Mcls+Mbox;
其中,MRcls和Mreg分别为区域建议网络阶段的二分类训练误差和回归训练误差,Mcls和Mbox分别为感兴趣区域的多分类误差和回归预测误差;
输出单元,用于在隧道爆破碴体识别模型满足预设的总误差性能指标后,输出训练结束后的隧道爆破碴体识别模型;
隧道爆破碴体实际面积输出单元,用于将输入待检测图像输入至隧道爆破碴体识别模型,输出目标爆破参数隧道爆破碴体实际面积。
6.一种计算机可读存储介质,其上存储有计算机可读程序,其特征在于,所述计算机可读程序被调用时执行如权利要求1-4任一项所述的隧道爆破碴体块度识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311052839.5A CN117115529A (zh) | 2023-08-21 | 2023-08-21 | 一种隧道爆破碴体块度识别方法、系统及储存介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311052839.5A CN117115529A (zh) | 2023-08-21 | 2023-08-21 | 一种隧道爆破碴体块度识别方法、系统及储存介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117115529A true CN117115529A (zh) | 2023-11-24 |
Family
ID=88797713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311052839.5A Pending CN117115529A (zh) | 2023-08-21 | 2023-08-21 | 一种隧道爆破碴体块度识别方法、系统及储存介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117115529A (zh) |
-
2023
- 2023-08-21 CN CN202311052839.5A patent/CN117115529A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340797B (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN109785337B (zh) | 一种基于实例分割算法的栏内哺乳动物清点方法 | |
CN110287932B (zh) | 基于深度学习图像语义分割的道路阻断信息提取方法 | |
CN112818988B (zh) | 一种指针式仪表自动识别读数方法及系统 | |
CN111178206B (zh) | 一种基于改进yolo的建筑预埋件检测方法及系统 | |
CN113252700B (zh) | 一种结构裂缝检测方法、设备及系统 | |
CN111724355B (zh) | 一种鲍鱼体型参数的图像测量方法 | |
CN107392929B (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
CN110992349A (zh) | 一种基于深度学习的地下管道异常自动化定位与识别方法 | |
CN102975826A (zh) | 基于机器视觉的便携式船舶水尺自动检测和识别方法 | |
CN113470090A (zh) | 基于sift-shot特征的多固态激光雷达外参标定方法 | |
CN111612846A (zh) | 基于U-net CNN图像识别和像素标定的混凝土裂缝宽度测定方法 | |
CN110008947A (zh) | 一种基于卷积神经网络的粮仓粮食数量监测方法及装置 | |
CN114091606A (zh) | 一种隧道爆破炮孔半眼痕识别和损伤平整度评价分类方法 | |
CN103942786B (zh) | 无人机可见光和红外图像的自适应团块目标检测方法 | |
CN104050660A (zh) | 一种测量工件圆形边缘的方法 | |
CN114359542A (zh) | 基于计算机视觉与深度学习的混凝土结构裂缝识别方法 | |
CN110197113A (zh) | 一种高精度锚点匹配策略的人脸检测方法 | |
CN113252103A (zh) | 一种基于matlab图像识别技术计算物料堆体积及质量的方法 | |
CN106018198B (zh) | 一种气泡粒径的反演计算方法 | |
CN111060922B (zh) | 基于机载激光雷达点云空间分布特征的树木点云提取方法 | |
CN116403223A (zh) | 一种基于机器学习的指针式仪表读数识别方法和系统 | |
CN109934151B (zh) | 一种基于movidius计算芯片和Yolo face的人脸检测方法 | |
CN117115529A (zh) | 一种隧道爆破碴体块度识别方法、系统及储存介质 | |
CN116051808A (zh) | 一种基于YOLOv5的轻量化零件识别定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |