CN112488119A - 基于双深度学习模型的隧道掉块或渗水检测及测量方法 - Google Patents
基于双深度学习模型的隧道掉块或渗水检测及测量方法 Download PDFInfo
- Publication number
- CN112488119A CN112488119A CN202011511004.8A CN202011511004A CN112488119A CN 112488119 A CN112488119 A CN 112488119A CN 202011511004 A CN202011511004 A CN 202011511004A CN 112488119 A CN112488119 A CN 112488119A
- Authority
- CN
- China
- Prior art keywords
- image
- block
- falling
- water seepage
- seepage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 84
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 74
- 238000000691 measurement method Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 58
- 230000011218 segmentation Effects 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000013135 deep learning Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000003709 image segmentation Methods 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000013136 deep learning model Methods 0.000 claims description 13
- 238000013500 data storage Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 6
- 238000009795 derivation Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 239000007787 solid Substances 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明属于隧道检测技术领域,具体涉及一种基于双深度学习模型的隧道掉块或渗水检测及测量方法,包括下列步骤:采集隧道图像;创建基于深度学习用于目标检测的训练集;创建基于深度学习用于语义分割的训练集;训练目标检测模型;训练语义分割模型;使用训练好的目标检测模型对输入的待检测图像进行检测判断是否有掉块或渗水;将有掉块或渗水的图像输入到训练好的语义分割模型中进行图像分割;预测图像类别、掉块或渗水位于图像中的坐标、掉块或渗水面积信息;将模型预测的结果进行输出和保存。本发明与单纯图像处理技术相比,本发明检测准确率高,检测速度快。本发明用于隧道掉块或渗水的检测及测量。
Description
技术领域
本发明属于隧道检测技术领域,具体涉及一种基于双深度学习模型的隧道掉块或渗水检测及测量方法。
背景技术
交通是国家发展的命脉,而交通建设的生产安全和运营安全就成为永恒的主题。隧道作为交通建设的重要组成部分,定期对隧道展开病害检测,早发现早预防能够对交通安全起到尤为重要的保障。
目前,基于深度学习的方法已成为检测领域的重要手段,这些方法往往应用于光线较好的自然环境下,且检测目标一般都比较明显,然而,面对隧道的复杂环境,检测效果就会相对降低,且目前的深度学习检测方法只有检测功能,对于进一步挖掘检测目标的信息还不完善。
基于图像处理的方法能够挖掘检测目标的信息,如计算目标面积、周长等,但图像处理方法易受噪声干扰,无法很好的挖掘复杂环境下检测目标的信息。
发明内容
针对上述现有的图像处理方法易受噪声干扰的技术问题,本发明提供了一种检测准确率高、检测速度快、检测范围广的基于双深度学习模型的隧道掉块或渗水检测及测量方法。
为了解决上述技术问题,本发明采用的技术方案为:
基于双深度学习模型的隧道掉块或渗水检测及测量方法,包括下列步骤:
S1、采集隧道图像;
S2、创建基于深度学习用于目标检测的训练集;
S3、创建基于深度学习用于语义分割的训练集;
S4、训练目标检测模型;
S5、训练语义分割模型;
S6、使用训练好的目标检测模型对输入的待检测图像进行检测判断是否有掉块或渗水;
S7、将有掉块或渗水的图像输入到训练好的语义分割模型中进行图像分割;
S8、根据目标检测与语义分割模型预测图像类别、掉块或渗水位于图像中的坐标、掉块或渗水面积信息;
根据S7语义分割出的图像通过Opencv库获取连通域,即掉块或渗水,并利用Opencv库中icvprLabelColor函数扫描图像,统计连通域中像素点个数,记作N,所述N为图像像素级面积;
计算近似实际掉块或渗水的面积,计算公式如下:
S=α2*N
所述α表示图像中单像素值与实际相机到隧道壁距离的比值系数,所述α的取值为0.2mm/pixel;
S9、将模型预测的结果进行输出和保存,若预测结果中有掉块或渗水,则保存掉块或渗水图像名称、掉块或渗水位于图像中的坐标、掉块或渗水的面积;若预测结果中无掉块或渗水,则不保存。
所述S1中采用采集装置进行采集隧道图像,所述采集装置包括相机采集单元、系统控制单元、数据存储单元,所述系统控制单元包括嵌入式工控机、独立电池、TCP通信,所述数据存储单元包括2个4T的固态硬盘,所述相机采集单元通过TCP通信与系统控制单元中的嵌入式工控机进行连接,所述独立电池通过与嵌入式工控机连接,提供整个系统的供电,所述数据存储单元中的固态硬盘与嵌入式工控机连接,由嵌入式工控机控制数据的存储。
所述S2中创建基于深度学习用于目标检测的训练集的方法为:包括下列步骤:
S2.1、隧道图像处理:将采集到的图像通过滑动窗口的方式进行裁剪,裁剪出的图像大小均为416x416像素,并从所有采集并裁剪的图像中选出3万张掉块或渗水图像和3万张非掉块或渗水图像;
S2.2、通过lableme图像标注工具,将选出的掉块或渗水图像画框及填写类别,完成用于目标检测的标注工作,创建目标检测训练集结束。
所述S3中创建基于深度学习用于语义分割的训练集的方法为:包括下列步骤:
S3.1、隧道图像处理:将采集到的图像通过滑动窗口的方式进行裁剪,裁剪出的图像大小均为416x416像素,并从所有采集并裁剪的图像中选出3万张掉块或渗水图像和3万张非掉块或渗水图像;
S3.2、使用Photoshop软件分别打开选出的掉块或渗水图像,利用软件的快速选择工具选出掉块或渗水区域,并将此区域记为Cd,而非掉块或渗水区域记为Cempty;
S3.3、将选出的Cd区域颜色填充为白色,而Cempty区域颜色填充为黑色;
S3.4、图像颜色填充完之后选择另存为,命名及格式与颜色填充前的图像保持一致;
S3.5、所有掉块或渗水图像填充完后,创建用于语义分割的训练集结束。
所述S4中训练目标检测模型的方法为:包括下列步骤:
S4.1、搭建用于目标检测的卷积神经网络结构:目标检测的卷积神经网络通过改进的YOLOv3结构来实现,在YOLOv3基础上增加一个Level4大尺度输出,用于检测小掉块或渗水信息,增加的大尺度特征由Level3输出通道的特征信息与特征提取网络Darknet-53网络的浅层信息进行特征融合构成的;
S4.2、目标检测网络模型训练策略:目标检测网络模型使用随机梯度下降法进行优化求导,更新网络模型的参数,并使用批正则化加速网络训练过程;
S4.3、选择目标检测深度学习库:使用Tensorflow网络框架实现上述用于目标检测的卷积神经网络结构,并根据创建的目标检测的训练集和选择的训练策略进行训练。
所述S5中训练语义分割模型的方法为:包括下列步骤:
S5.1、搭建用于语义分割的卷积神经网络结构:语义分割的卷积神经网络通过设计了一个7层的全卷积网络实现,分别由4个卷积层和3个反卷积层构成,卷积层L1~L4的卷积核大小(宽,高,通道数)依次为(7,7,32),(5,5,64),(3,3,128),(1,1,128);反卷积层L5~L7大小依次为(3,3,64),(5,5,32),(7,7,1);设计的语义分割网络使用的激活函数为矫正线性单元,使用的损失函数loss为:
所述X表示人工标注的分割图像,所述Y表示通过模型预测的分割图像;
S5.2、语义分割网络模型训练策略:语义分割网络模型使用随机梯度下降法进行优化求导,更新网络模型的参数,并使用批正则化加速网络训练过程;
S5.3、选择语义分割深度学习库:使用Tensorflow网络框架实现上述用于语义分割的卷积神经网络结构,并根据创建的语义分割的训练集和选择的训练策略进行训练。
所述S6中检测判断是否有掉块或渗水的方法为:包括下列步骤:
S6.1、选择一张待检测的隧道图像,通过滑动窗口的方式将图像分割成416x416像素大小;
S6.2、将分割好的待检测图像输入到训练好的目标检测模型中,对待检测图像进行推理预测,输出预测结果并保存掉块或渗水位置坐标。
所述S7中图像分割的方法为:将S6预测结果有掉块或渗水的图像输入到训练好的语义分割模型中,对输入的图像进行推理,输出预测结果并保存。
本发明与现有技术相比,具有的有益效果是:
本发明采用深度学习算法与图像处理技术对隧道表面的掉块病害进行自动检测,与单纯图像处理技术相比,本发明检测准确率高,检测速度快;与纯深度学习算法相比,本发明除具有深度学习算法的优点外,还能进一步挖掘掉块或渗水面积信息。
附图说明
图1为本发明的工作流程图;
图2为本发明采集装置的结构示意图;
图3为本发明改进的YOLOv3网络结构图;
图4为本发明语义分割网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
基于双深度学习模型的隧道掉块或渗水检测及测量方法,如图1所示,包括下列步骤:
步骤1、采集隧道图像;
步骤2、创建基于深度学习用于目标检测的训练集;
步骤3、创建基于深度学习用于语义分割的训练集;
步骤4、训练目标检测模型;
步骤5、训练语义分割模型;
步骤6、使用训练好的目标检测模型对输入的待检测图像进行检测判断是否有掉块或渗水;
步骤7、将有掉块或渗水的图像输入到训练好的语义分割模型中进行图像分割;
步骤8、根据目标检测与语义分割模型预测图像类别、掉块或渗水位于图像中的坐标、掉块或渗水面积信息;
根据步骤7语义分割出的图像通过Opencv库获取连通域,即掉块或渗水,并利用Opencv库中icvprLabelColor函数扫描图像,统计连通域中像素点个数,记作N,N为图像像素级面积;
计算近似实际掉块或渗水的面积,计算公式如下:
S=α2*N
其中α表示图像中单像素值与实际相机到隧道壁距离的比值系数,α的取值为0.2mm/pixel;
步骤9、将模型预测的结果进行输出和保存,若预测结果中有掉块或渗水,则保存掉块或渗水图像名称、掉块或渗水位于图像中的坐标、掉块或渗水的面积;若预测结果中无掉块或渗水,则不保存。
进一步,如图2所示,步骤1中采用采集装置进行采集隧道图像,采集装置包括相机采集单元、系统控制单元、数据存储单元,系统控制单元包括嵌入式工控机、独立电池、TCP通信,数据存储单元包括2个4T的固态硬盘,相机采集单元通过TCP通信与系统控制单元中的嵌入式工控机进行连接,独立电池通过与嵌入式工控机连接,提供整个系统的供电,数据存储单元中的固态硬盘与嵌入式工控机连接,由嵌入式工控机控制数据的存储。
进一步,步骤2中创建基于深度学习用于目标检测的训练集的方法为:包括下列步骤:
步骤2.1、隧道图像处理:将采集到的图像通过滑动窗口的方式进行裁剪,裁剪出的图像大小均为416x416像素,并从所有采集并裁剪的图像中选出3万张掉块或渗水图像和3万张非掉块或渗水图像;
步骤2.2、通过lableme图像标注工具,将选出的掉块或渗水图像画框及填写类别,完成用于目标检测的标注工作,创建目标检测训练集结束。
进一步,步骤3中创建基于深度学习用于语义分割的训练集的方法为:包括下列步骤:
步骤3.1、隧道图像处理:将采集到的图像通过滑动窗口的方式进行裁剪,裁剪出的图像大小均为416x416像素,并从所有采集并裁剪的图像中选出3万张掉块或渗水图像和3万张非掉块或渗水图像;
步骤3.2、使用Photoshop软件分别打开选出的掉块或渗水图像,利用软件的快速选择工具选出掉块或渗水区域,并将此区域记为Cd,而非掉块或渗水区域记为Cempty;
步骤3.3、将选出的Cd区域颜色填充为白色,而Cempty区域颜色填充为黑色;
步骤3.4、图像颜色填充完之后选择另存为,命名及格式与颜色填充前的图像保持一致;
步骤3.5、所有掉块或渗水图像填充完后,创建用于语义分割的训练集结束。
进一步,如图3所示,步骤4中训练目标检测模型的方法为:包括下列步骤:
步骤4.1、搭建用于目标检测的卷积神经网络结构:目标检测的卷积神经网络通过改进的YOLOv3结构来实现,在YOLOv3基础上增加一个Level4大尺度输出,用于检测小掉块或渗水信息,增加的大尺度特征由Level3输出通道的特征信息与特征提取网络Darknet-53网络的浅层信息进行特征融合构成的;
步骤4.2、目标检测网络模型训练策略:目标检测网络模型使用随机梯度下降法进行优化求导,更新网络模型的参数,并使用批正则化加速网络训练过程;
步骤4.3、选择目标检测深度学习库:使用Tensorflow网络框架实现上述用于目标检测的卷积神经网络结构,并根据创建的目标检测的训练集和选择的训练策略进行训练。
进一步,如图4所示,步骤5中训练语义分割模型的方法为:包括下列步骤:
步骤5.1、搭建用于语义分割的卷积神经网络结构:语义分割的卷积神经网络通过设计了一个7层的全卷积网络实现,分别由4个卷积层和3个反卷积层构成,卷积层L1~L4的卷积核大小(宽,高,通道数)依次为(7,7,32),(5,5,64),(3,3,128),(1,1,128);反卷积层L5~L7大小依次为(3,3,64),(5,5,32),(7,7,1);设计的语义分割网络使用的激活函数为矫正线性单元,使用的损失函数loss为:
其中:X表示人工标注的分割图像,Y表示通过模型预测的分割图像;
步骤5.2、语义分割网络模型训练策略:语义分割网络模型使用随机梯度下降法进行优化求导,更新网络模型的参数,并使用批正则化加速网络训练过程;
步骤5.3、选择语义分割深度学习库:使用Tensorflow网络框架实现上述用于语义分割的卷积神经网络结构,并根据创建的语义分割的训练集和选择的训练策略进行训练。
进一步,步骤6中检测判断是否有掉块或渗水的方法为:包括下列步骤:
步骤6.1、选择一张待检测的隧道图像,通过滑动窗口的方式将图像分割成416x416像素大小;
步骤6.2、将分割好的待检测图像输入到训练好的目标检测模型中,对待检测图像进行推理预测,输出预测结果并保存掉块或渗水位置坐标。
进一步,步骤7中图像分割的方法为:将步骤6预测结果有掉块或渗水的图像输入到训练好的语义分割模型中,对输入的图像进行推理,输出预测结果并保存。
上面仅对本发明的较佳实施例作了详细说明,但是本发明并不限于上述实施例,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化,各种变化均应包含在本发明的保护范围之内。
Claims (8)
1.基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:包括下列步骤:
S1、采集隧道图像;
S2、创建基于深度学习用于目标检测的训练集;
S3、创建基于深度学习用于语义分割的训练集;
S4、训练目标检测模型;
S5、训练语义分割模型;
S6、使用训练好的目标检测模型对输入的待检测图像进行检测判断是否有掉块或渗水;
S7、将有掉块或渗水的图像输入到训练好的语义分割模型中进行图像分割;
S8、根据目标检测与语义分割模型预测图像类别、掉块或渗水位于图像中的坐标、掉块或渗水面积信息;
根据S7语义分割出的图像通过Opencv库获取连通域,即掉块或渗水,并利用Opencv库中icvprLabelColor函数扫描图像,统计连通域中像素点个数,记作N,所述N为图像像素级面积;
计算近似实际掉块或渗水的面积,计算公式如下:
S=α2*N
所述α表示图像中单像素值与实际相机到隧道壁距离的比值系数,所述α的取值为0.2mm/pixel;
S9、将模型预测的结果进行输出和保存,若预测结果中有掉块或渗水,则保存掉块或渗水图像名称、掉块或渗水位于图像中的坐标、掉块或渗水的面积;若预测结果中无掉块或渗水,则不保存。
2.根据权利要求1所述的基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:所述S1中采用采集装置进行采集隧道图像,所述采集装置包括相机采集单元、系统控制单元、数据存储单元,所述系统控制单元包括嵌入式工控机、独立电池、TCP通信,所述数据存储单元包括2个4T的固态硬盘,所述相机采集单元通过TCP通信与系统控制单元中的嵌入式工控机进行连接,所述独立电池通过与嵌入式工控机连接,提供整个系统的供电,所述数据存储单元中的固态硬盘与嵌入式工控机连接,由嵌入式工控机控制数据的存储。
3.根据权利要求1所述的基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:所述S2中创建基于深度学习用于目标检测的训练集的方法为:包括下列步骤:
S2.1、隧道图像处理:将采集到的图像通过滑动窗口的方式进行裁剪,裁剪出的图像大小均为416x416像素,并从所有采集并裁剪的图像中选出3万张掉块或渗水图像和3万张非掉块或渗水图像;
S2.2、通过lableme图像标注工具,将选出的掉块或渗水图像画框及填写类别,完成用于目标检测的标注工作,创建目标检测训练集结束。
4.根据权利要求1所述的基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:所述S3中创建基于深度学习用于语义分割的训练集的方法为:包括下列步骤:
S3.1、隧道图像处理:将采集到的图像通过滑动窗口的方式进行裁剪,裁剪出的图像大小均为416x416像素,并从所有采集并裁剪的图像中选出3万张掉块或渗水图像和3万张非掉块或渗水图像;
S3.2、使用Photoshop软件分别打开选出的掉块或渗水图像,利用软件的快速选择工具选出掉块或渗水区域,并将此区域记为Cd,而非掉块或渗水区域记为Cempty;
S3.3、将选出的Cd区域颜色填充为白色,而Cempty区域颜色填充为黑色;
S3.4、图像颜色填充完之后选择另存为,命名及格式与颜色填充前的图像保持一致;
S3.5、所有掉块或渗水图像填充完后,创建用于语义分割的训练集结束。
5.根据权利要求1所述的基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:所述S4中训练目标检测模型的方法为:包括下列步骤:
S4.1、搭建用于目标检测的卷积神经网络结构:目标检测的卷积神经网络通过改进的YOLOv3结构来实现,在YOLOv3基础上增加一个Level4大尺度输出,用于检测小掉块或渗水信息,增加的大尺度特征由Level3输出通道的特征信息与特征提取网络Darknet-53网络的浅层信息进行特征融合构成的;
S4.2、目标检测网络模型训练策略:目标检测网络模型使用随机梯度下降法进行优化求导,更新网络模型的参数,并使用批正则化加速网络训练过程;
S4.3、选择目标检测深度学习库:使用Tensorflow网络框架实现上述用于目标检测的卷积神经网络结构,并根据创建的目标检测的训练集和选择的训练策略进行训练。
6.根据权利要求1所述的基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:所述S5中训练语义分割模型的方法为:包括下列步骤:
S5.1、搭建用于语义分割的卷积神经网络结构:语义分割的卷积神经网络通过设计了一个7层的全卷积网络实现,分别由4个卷积层和3个反卷积层构成,卷积层L1~L4的卷积核大小(宽,高,通道数)依次为(7,7,32),(5,5,64),(3,3,128),(1,1,128);反卷积层L5~L7大小依次为(3,3,64),(5,5,32),(7,7,1);设计的语义分割网络使用的激活函数为矫正线性单元,使用的损失函数loss为:
所述X表示人工标注的分割图像,所述Y表示通过模型预测的分割图像;
S5.2、语义分割网络模型训练策略:语义分割网络模型使用随机梯度下降法进行优化求导,更新网络模型的参数,并使用批正则化加速网络训练过程;
S5.3、选择语义分割深度学习库:使用Tensorflow网络框架实现上述用于语义分割的卷积神经网络结构,并根据创建的语义分割的训练集和选择的训练策略进行训练。
7.根据权利要求1所述的基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:所述S6中检测判断是否有掉块或渗水的方法为:包括下列步骤:
S6.1、选择一张待检测的隧道图像,通过滑动窗口的方式将图像分割成416x416像素大小;
S6.2、将分割好的待检测图像输入到训练好的目标检测模型中,对待检测图像进行推理预测,输出预测结果并保存掉块或渗水位置坐标。
8.根据权利要求1所述的基于双深度学习模型的隧道掉块或渗水检测及测量方法,其特征在于:所述S7中图像分割的方法为:将S6预测结果有掉块或渗水的图像输入到训练好的语义分割模型中,对输入的图像进行推理,输出预测结果并保存。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011511004.8A CN112488119A (zh) | 2020-12-18 | 2020-12-18 | 基于双深度学习模型的隧道掉块或渗水检测及测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011511004.8A CN112488119A (zh) | 2020-12-18 | 2020-12-18 | 基于双深度学习模型的隧道掉块或渗水检测及测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112488119A true CN112488119A (zh) | 2021-03-12 |
Family
ID=74914906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011511004.8A Pending CN112488119A (zh) | 2020-12-18 | 2020-12-18 | 基于双深度学习模型的隧道掉块或渗水检测及测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112488119A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516179A (zh) * | 2021-06-24 | 2021-10-19 | 北京航空航天大学 | 一种地下基础设施渗漏水性态辨识方法及系统 |
CN114202725A (zh) * | 2021-12-07 | 2022-03-18 | 牧原食品股份有限公司 | 一种基于智能视觉的沼液外溢监视方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229461A (zh) * | 2018-01-16 | 2018-06-29 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道裂缝快速识别方法 |
CN110473173A (zh) * | 2019-07-24 | 2019-11-19 | 熵智科技(深圳)有限公司 | 一种基于深度学习语义分割的缺陷检测方法 |
KR102037893B1 (ko) * | 2019-07-05 | 2019-11-26 | 세종대학교산학협력단 | 디지털 외관조사망도 구축 시스템 및 방법 |
CN111062915A (zh) * | 2019-12-03 | 2020-04-24 | 浙江工业大学 | 一种基于改进YOLOv3模型的实时钢管缺陷检测方法 |
CN111160301A (zh) * | 2019-12-31 | 2020-05-15 | 同济大学 | 基于机器视觉的隧道病害目标智能识别及提取方法 |
CN111444921A (zh) * | 2020-03-25 | 2020-07-24 | 浙江华睿科技有限公司 | 划痕缺陷检测方法、装置、计算设备和存储介质 |
CN111476756A (zh) * | 2020-03-09 | 2020-07-31 | 重庆大学 | 一种基于改进YOLOv3网络模型识别铸件DR图像疏松缺陷的方法 |
CN111507990A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 一种基于深度学习的隧道表面缺陷分割方法 |
CN111583229A (zh) * | 2020-05-09 | 2020-08-25 | 江苏野马软件科技有限公司 | 一种基于卷积神经网络路面故障检测方法 |
CN111861978A (zh) * | 2020-05-29 | 2020-10-30 | 陕西师范大学 | 基于Faster R-CNN的桥梁裂缝实例分割方法 |
-
2020
- 2020-12-18 CN CN202011511004.8A patent/CN112488119A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229461A (zh) * | 2018-01-16 | 2018-06-29 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道裂缝快速识别方法 |
KR102037893B1 (ko) * | 2019-07-05 | 2019-11-26 | 세종대학교산학협력단 | 디지털 외관조사망도 구축 시스템 및 방법 |
CN110473173A (zh) * | 2019-07-24 | 2019-11-19 | 熵智科技(深圳)有限公司 | 一种基于深度学习语义分割的缺陷检测方法 |
CN111062915A (zh) * | 2019-12-03 | 2020-04-24 | 浙江工业大学 | 一种基于改进YOLOv3模型的实时钢管缺陷检测方法 |
CN111160301A (zh) * | 2019-12-31 | 2020-05-15 | 同济大学 | 基于机器视觉的隧道病害目标智能识别及提取方法 |
CN111476756A (zh) * | 2020-03-09 | 2020-07-31 | 重庆大学 | 一种基于改进YOLOv3网络模型识别铸件DR图像疏松缺陷的方法 |
CN111444921A (zh) * | 2020-03-25 | 2020-07-24 | 浙江华睿科技有限公司 | 划痕缺陷检测方法、装置、计算设备和存储介质 |
CN111507990A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 一种基于深度学习的隧道表面缺陷分割方法 |
CN111583229A (zh) * | 2020-05-09 | 2020-08-25 | 江苏野马软件科技有限公司 | 一种基于卷积神经网络路面故障检测方法 |
CN111861978A (zh) * | 2020-05-29 | 2020-10-30 | 陕西师范大学 | 基于Faster R-CNN的桥梁裂缝实例分割方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516179A (zh) * | 2021-06-24 | 2021-10-19 | 北京航空航天大学 | 一种地下基础设施渗漏水性态辨识方法及系统 |
CN113516179B (zh) * | 2021-06-24 | 2022-02-18 | 北京航空航天大学 | 一种地下基础设施渗漏水性态辨识方法及系统 |
CN114202725A (zh) * | 2021-12-07 | 2022-03-18 | 牧原食品股份有限公司 | 一种基于智能视觉的沼液外溢监视方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112508030A (zh) | 一种基于双深度学习模型的隧道裂缝检测及测量方法 | |
WO2021208275A1 (zh) | 一种交通视频背景建模方法及系统 | |
CN108229461B (zh) | 一种基于深度学习的隧道裂缝快速识别方法 | |
WO2018214195A1 (zh) | 一种基于卷积神经网络的遥感图像桥梁检测方法 | |
CN112488119A (zh) | 基于双深度学习模型的隧道掉块或渗水检测及测量方法 | |
CN110569843B (zh) | 一种矿井目标智能检测与识别方法 | |
CN109255350A (zh) | 一种基于视频监控的新能源车牌检测方法 | |
CN111753682B (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN114973207B (zh) | 一种基于目标检测的路标识别方法 | |
CN110874592A (zh) | 一种基于总有界变分的森林火灾烟雾图像检测方法 | |
CN109886086B (zh) | 基于hog特征和线性svm级联分类器的行人检测方法 | |
CN108734109B (zh) | 一种面向图像序列的视觉目标跟踪方法及系统 | |
CN109708658B (zh) | 一种基于卷积神经网络的视觉里程计方法 | |
CN106709938A (zh) | 基于改进tld的多目标追踪方法 | |
CN112733711B (zh) | 基于多尺度场景变化检测的遥感影像损毁建筑物提取方法 | |
CN111008994A (zh) | 基于MPSoC的运动目标实时检测跟踪系统及方法 | |
CN114332644B (zh) | 一种基于视频卫星数据的大视场交通密度获取方法 | |
CN116485885A (zh) | 基于深度学习去除视觉slam前端动态特征点的方法 | |
CN113139431B (zh) | 基于深监督学习的图像显著性目标检测方法 | |
CN113361496B (zh) | 一种基于U-Net的城市建成区统计方法 | |
CN113408550A (zh) | 基于图像处理的智能称重管理系统 | |
CN108280842A (zh) | 一种克服光照突变的前景分割方法 | |
CN116343078A (zh) | 基于视频sar的目标跟踪方法、系统及设备 | |
CN110738208A (zh) | 一种高效的尺度规范化目标检测训练方法 | |
CN114758237A (zh) | 一种输水隧洞缺陷自动识别模型的构建方法、检测方法、构建装置、计算机及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |