CN113362389B - 基于cnn-rnn耦合数-形融合的盾构隧道变形预测方法 - Google Patents

基于cnn-rnn耦合数-形融合的盾构隧道变形预测方法 Download PDF

Info

Publication number
CN113362389B
CN113362389B CN202110639221.3A CN202110639221A CN113362389B CN 113362389 B CN113362389 B CN 113362389B CN 202110639221 A CN202110639221 A CN 202110639221A CN 113362389 B CN113362389 B CN 113362389B
Authority
CN
China
Prior art keywords
deformation
neural network
rnn
prediction
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110639221.3A
Other languages
English (en)
Other versions
CN113362389A (zh
Inventor
马恩临
赖金星
王立新
汪珂
邱军领
杨永泰
黎忠灏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN202110639221.3A priority Critical patent/CN113362389B/zh
Publication of CN113362389A publication Critical patent/CN113362389A/zh
Application granted granted Critical
Publication of CN113362389B publication Critical patent/CN113362389B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Lining And Supports For Tunnels (AREA)

Abstract

本发明公开的基于CNN‑RNN耦合数‑形融合的盾构隧道变形预测方法,通过数码相机和传感器获取测量区域的图形信息和变形数据采集。根据图像信息,通过CNN判断当前测点位置的安全状态。采用RNN方法,预测测点监测数据时间序列的发展趋势,然后将RNN结果与CNN结果作为全连接神经网络的输入参数,全连接神经网络输出综合考虑安全状态的变形预测结果。本发明考虑到盾构隧道中结构安全状态对变形发展趋势的影响,针对单一的时间序列预测在结构安全状态发生转变时预测不准确的问题,提出基于CNN‑RNN类耦合神经网络的盾构隧道变形数‑形融合预测算法,以较准确地预测出在结构安全状态已经发生变化时变形的发展趋势。本发明适用于地铁盾构隧道施工及运营期的变形预测。

Description

基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法
技术领域
本发明涉及隧道工程结构监测领域,具体为基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法。
背景技术
盾构法是绝大多数城市地铁隧道所采用的施工方法,其具有安全、断面标准、施工速度快、机械化程度高、人工成本低等优点。如今,全国各个城市的隧道建设还在有序进行中,这为缓解城市地面交通、减少交通排放污染提供了重要支撑。在地铁施工期,对结构变形进行监测是至关重要的,其可帮助人们准确了解结构当前的受力状态,进而及时进行支护参数的变更,实现动态设计。在运营期,结构的变形监测也十分重要,随着材料的老化、长期的列车动荷载以及周边地层环境的改变,衬砌结构可能发生大变形进而破坏。
由于具有破坏性的结构变形往往发生较快,有时甚至来不及实施应急对策以防止破坏。此时,若能够提前预知结构的变形演变趋势则可有效防范风险。神经网络等人工智能技术为地下结构变形预测提供了新的可能。数据驱动预测模型利用已有的实测变形数据建模预测未来变形量,该方法成功避开了复杂的岩土变形机理,从数据本身的角度进行预测,可作为工程信息化施工和动态控制的有效途径。
正常情况下,RNN类预测方法在时间序列的预测领域已经取得了较好的成果。但是,数据驱动模型难以反映结构安全状态发生变化时对变形造成的影响,预测可能产生一定的滞后性。当结构的安全状态已经发生改变时,数据驱动仍按照之前的安全状态对历史数据进行趋势预测,这可能会增加预测失效的风险。因此,需要一种方法将结构的历史监测数据与安全状态联系起来进行融合预测。
发明内容
针对现有技术中存在的问题,本发明提供一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,解数据驱动模型如RNN类时间序列预测方法中的滞后问题。
本发明是通过以下技术方案来实现:
一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,包括以下步骤:
步骤1、获取测量区域的图像信息以及变形数据信息;
步骤2、将步骤1获取的图像信息输入至训练后的卷积神经网路,卷积神经网路输出该测量区域的安全状态;
步骤3、采用步骤1得到的变形数据信息对构建的RNN类神经网络进行训练,RNN类神经网络输出测量区域下一时刻的预测变形值;
步骤4、将步骤2卷积神经网路输出的测量区域的安全状态,以及步骤3输出的测量区域下一时刻的预测变形值作为全连接神经网络的输入参数,全连接神经网络对预测变形值进行修正,输出综合考虑安全状态的最终变形预测值。
优选的,步骤1中采用相机拍摄测量区域的图像,在测量区域设置传感器,获取测量区域的变形数据。
优选的,所述相机的拍摄频率与传感器的监测频率相同。
优选的,沿隧道的轴向设置定位轨道7,相机通过相机固定器5套于定位轨道7上并能够滑动,机拍摄部位为传感器9所在的结构部位。
优选的,步骤2中卷积神经网路的训练方法如下:
获取各种盾构隧道的图片,并对图片进行人工安全标记,采用标记后的图片对构建的卷积神经网络进行训练,训练后的卷积神经网络输出图片中隧道位置的安全状态。
优选的,所述安全标记包括正常、裂缝和渗水。
优选的,步骤3中RNN类神经网络的训练方法如下:
将步骤1得到的监测数据按照时间排序得到时间序列;
设置RNN类神经网络的预测窗口p与预测步长q;
根据预测窗口p和预测步长q,将时间序列变换为矩阵A和B,矩阵A、B中分别由向量组ai、bi构成,设ci是与bi具有相同的数量和维度的向量组,求解映射关系F:ai→ci,使c与b在整体上最接近,即总体误差最小,完成RNN类神经网络的训练。
优选的,所述RNN类神经网络的训练误差ε如下:
优选的,步骤4中得到最终变形预测值的方法具体如下:
5.1、将t+1至t+q时刻的变形值与t时测量区域的安全状态进行对应,合并为一个新的序列,序列长度为q+1;
5.2、构建全连接神经网络并训练,其输入节点数量为q+1,输出节点数量为q;
5.3.将Dt+1:t+q+St作为输入,通过全连接神经网络预测D't+1:t+q,完成了时间数列数据和图像信息的融合预测,得到综合考虑被测点历史变形数据和安全状态的变形预测结果。
优选的,所述全连接神经网络的训练方法如下:
将i时刻的RNN预测结果记为Di,将与Di对应的实际监测结果记为Mi将i时刻的CNN结果记为Si;对于某一时刻j,若Dj和Sj同时存在,则称作满足“训练数据条件”;
设预测步长为q、当前时刻为t,令i从0至t-q进行检索,对于每一时刻i,若满足“训练数据条件”,则将此时的Di和Si记为一组训练数据,设最终得到的训练数据组数为n;
当当前时刻t≥p+q+20时,进行神经网络训练,训练样本集一共有n组,每一组的输入数据为Di和Si(i=1~n),每一组的输出数据为Mi(i=1~n),求解映射关系F,使F(Di,Si)接近Mi,当F(Di,Si)与Mi之间的误差最小时,训练结束。
与现有技术相比,本发明具有以下有益的技术效果:
本发明公开的一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,在盾构隧道变形预测问题中,针对单一的RNN时间序列预测在结构安全状态发生变化时存在滞后这一问题,利用盾构地铁隧道断面、结构形式和照明条件具有标准化,有利于进行图形学习这一特点,以测点部位的图像为信息(形),通过CNN判断盾构隧道结构的安全状态,并结合RNN类时间序列(数)预测结果,综合两者的输出结果,以全连接神经网络进行变形的数-形融合预测,即综合考虑了被测点历史变形数据和安全状态的变形预测结果,从而得到更加切合实际的预测趋势,通过反馈及时调整施工方案或采取相应处理措施,可有效降低发生工程事故的可能性。
附图说明
图1为本发明基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法的流程图;
图2为本发明相机与测点传感器沿隧道横断面的布设图;
图3为本发明测点传感器沿隧道纵断面的布设图;
图4为本发明CNN-RNN融合方法示意图。
图中:1-管线,2-地铁车厢,3-车辆道床,4-检修道,5-相机固定器,6-相机,7-定位轨道,8-相机固定杆,9-位移传感器。
具体实施方式
下面结合附图对本发明做进一步的详细说明,所述是对本发明的解释而不是限定。
参阅图1,基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,包括以下步骤:
步骤1、通过数码相机获取测量区域的图像信息;结合地铁盾构隧道的特点,设置定点对测量区域进行拍照,具体包括以下几个步骤:
1.1、沿隧道的轴向设置轨道,并在轨道上设置测量点,将照相机固定在测量点,保证其可拍到测量区域的结构图像信息;
1.2、设置拍照频率,需与测点的监测频率保持一致;
1.3、定期进行拍照,获取测量区域的图像信息,采用定点摄像使得所拍的照片具有一致性;
1.4、将照片按照拍摄时间顺序进行编号。
步骤2、通过传感器获取测量区域的变形数据,测量区域的变形数据的监测频率与步骤1的拍照频率保持一致。
图2为相机与测点传感器在隧道横断面的布设方案图,图3为相机与测点传感器在隧道纵断面的布设方案图,其可适用于盾构地铁隧道环境。
图2中,隧道的顶部设置管线1,隧道的一侧为检修道4,检修道位于车厢2的左侧,车厢位于车辆道床3上,相机6位于检修道4一侧的隧道侧壁上,沿隧道轴线方向设置定位轨道7,其间隔一定距离设有定位凹槽,相机固定器5套于定位轨道7上并能够滑动。相机固定器5通过相机固定杆8与相机6连接,机拍摄部位为位移传感器9所在的结构部位。
步骤3、获取隧道不同安全状态的图片,并进行人工标记,得到数据样本集,采用数据样本集对构建的卷积神经网络进行训练,训练后的卷积神经网络输出图片中隧道位置的安全状态,即根据拍照得到的照片Pi(i为编号),通过CNN网络判断其所对应的安全状态Si。具体方法如下:
3.1、获取大量包含各种盾构隧道的图片,并对图片进行人工安全标记,安全标记包括正常、裂缝、渗水等,并完成图片的标定,即定义图片所代表的安全状态;
3.2、构建CNN卷积神经网,将数据样本集作为卷积神经网的输入对其进行训练,直至安全状态的判断误差达到最小,完成卷积神经网的训练,将步骤1获得的测量区域的图片输入至卷积神经网,卷积神经网输出测量区域的安全状态;
所述的安全状态可包括正常情况(S=1)、出现裂纹(S=2)、结构渗水(S=3)、裂纹大范围扩展(S=4)。
步骤4、基于训练后RNN类神经网络对步骤1得到测量区域1~t时刻的监测数据进行分析,得到测量区域t+q时刻的预测变形值,也就是预测测点监测数据随时间的发展趋势;
RNN类神经网络目前可用于地铁隧道变形这种具有长期依赖特性的时间序列的方法主要有LSTM和GRU模型,其具体步骤如下:
4.1、整理测点监测数据,得到时间序列xi(i=1~t);
4.2、构建RNN类神经网络,设置预测窗口p与预测步长q,即以p个监测的变形数据向后预测q个变形数据;当t<p+q+10时,监测数据过少,无法进行RNN训练及预测,结束当前预测,返回步骤4.1;
4.3、当t≥p+q+10时,根据预测窗口p和预测步长q,进行时间序列变换,将时间序列的变形数据集xi变换为矩阵A、B;
4.4、矩阵A、B中分别由向量组ai、bi构成,设ci是与bi具有相同的数量和维度的向量组。RNN网络训练,即求解一个映射关系F:ai→ci,使c与b在整体上最接近,即总体误差最小,模型训练误差ε为:
4.5、RNN类神经网络根据映射关系F,预测t+1至t+q时刻的变形值,Dt+1:t+q=F[x(t-p+1):t]
其中,Dt+1:t+q为模型预测的t+1至t+q时刻的变形值。
步骤5、将RNN结果与CNN结果作为全连接神经网络的输入参数,全连接神经网络输出综合考虑安全状态的变形预测结果。
图4为CNN-RNN融合示意图,包括以下步骤:
5.1.将Dt+1:t+q与t时刻测点的安全状态进行对应,合并为一个新的序列,序列长度为q+1;
5.2.构造全连接神经网络,输入节点数量为q+1,输出节点数量为q;
5.3.将Dt+1:t+q+St作为输入,通过全连接神经网络预测D't+1:t+q,完成了时间数列数据和图像信息的融合预测,即综合考虑被测点历史变形数据和安全状态的变形预测结果。
全连接神经网络训练过程:
5.2.1、将i时刻的RNN预测结果记为Di,将与Di对应的实际监测结果记为Mi(例如,Dt为t+1到t+q时刻的变形预测值,则Mt则为t+1到t+q时刻的实际变形值),将i时刻的CNN结果记为Si;对于某一时刻j,若Dj和Sj同时存在,则称作满足“训练数据条件”。设预测步长为q、当前时刻为t,令i从0至t-q进行检索,对于每一时刻i,若满足“训练数据条件”,则将此时的Di和Si记为一组训练数据。设最终得到的训练数据组数为n。
5.2.2、当当前时刻t<p+q+20时,训练样本数量过小,不进行融合预测,即结束步骤五,当监测数据增加时,继续进行CNN和RNN预测;
5.2.3、当当前时刻t≥p+q+20时,进行神经网络训练。训练样本集一共有n组,每一组的输入数据为Di和Si(i=1~n),每一组的输出数据为Mi(i=1~n)。训练过程即为求解一个映射关系F,使F(Di,Si)尽可能接近Mi。当F(Di,Si)与Mi之间的误差最小时,训练结束。F(Di,Si)与Mi之间的误差δ为:
本发明的基本思路在于以CNN通过被测区域的照片判断该区域的安全状态,将安全状态作为变形预测的依据之一,同时结合RNN时间序列预测结果,将安全状态和变形的时间序列预测结果作为全连接神经网络的输入数据,输出新的变形预测结果,其综合考虑了历史数据与当前的安全状态,从而改进了RNN时间序列预测的滞后性,进而可更加及时地调整施工方案或及时采取相应处理措施,降低施工过程中发生事故的可能性。
本发明方法适用于地铁盾构隧道等标准化结构的施工及运营期变形预测,将结构的安全状态作为预测的依据之一,对时间序列数据驱动预测的滞后性进行改进,从而更加及时地调整施工方案或及时采取相应处理措施,降低施工过程中发生事故的可能性。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (6)

1.一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,其特征在于,包括以下步骤:
步骤1、获取测量区域的图像信息以及变形数据信息;
步骤2、将步骤1获取的图像信息输入至训练后的卷积神经网路,卷积神经网路输出该测量区域的安全状态;
所述卷积神经网路的训练方法如下:
获取各种盾构隧道的图片,并对图片进行人工安全标记,采用标记后的图片对构建的卷积神经网络进行训练,训练后的卷积神经网络输出图片中隧道位置的安全状态;所述安全标记包括正常、裂缝和渗水;
步骤3、采用步骤1得到的变形数据信息对构建的RNN类神经网络进行训练,RNN类神经网络输出测量区域下一时刻的预测变形值;
步骤4、将步骤2卷积神经网路输出的测量区域的安全状态,以及步骤3输出的测量区域下一时刻的预测变形值作为全连接神经网络的输入参数,全连接神经网络对预测变形值进行修正,输出综合考虑安全状态的最终变形预测值;
得到最终变形预测值的方法具体如下:
5.1、将t+1至t+q时刻的变形值与t时测量区域的安全状态进行对应,合并为一个新的序列,序列长度为q+1;
5.2、构建全连接神经网络并训练,其输入节点数量为q+1,输出节点数量为q
5.3.将D t+1: t+q+S t作为输入,通过全连接神经网络预测D' t+1: t+q,完成了时间数列数据和图像信息的融合预测,得到综合考虑被测点历史变形数据和安全状态的变形预测结果;
所述全连接神经网络的训练方法如下:
i时刻的RNN预测结果记为D i,将与D i对应的实际监测结果记为M ii时刻的CNN结果记为S i;对于某一时刻j,若D jS j同时存在,则称作满足“训练数据条件”;
设预测步长为q、当前时刻为t,令i从0至t-q进行检索,对于每一时刻i,若满足“训练数据条件”,则将此时的D iS i记为一组训练数据,设最终得到的训练数据组数为n;
当当前时刻tp+q+20时,进行神经网络训练,训练样本集一共有n组,每一组的输入数据为D iS ii=1~n),每一组的输出数据为M ii=1~n),求解映射关系F,使F (D i, S i)接近M i,当F (D i, S i) 与M i之间的误差最小时,训练结束。
2.根据权利要求1所述的一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,其特征在于,步骤1中采用相机拍摄测量区域的图像,在测量区域设置传感器,获取测量区域的变形数据。
3.根据权利要求2所述的一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,其特征在于,所述相机的拍摄频率与传感器的监测频率相同。
4.根据权利要求3所述的一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,其特征在于,沿隧道的轴向设置定位轨道,相机通过相机固定器套于定位轨道上并能够滑动,机拍摄部位为传感器所在的结构部位。
5.根据权利要求1所述的一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,其特征在于,步骤3中RNN类神经网络的训练方法如下:
将步骤1得到的监测数据按照时间排序得到时间序列;
设置RNN类神经网络的预测窗口p与预测步长q
根据预测窗口p和预测步长q,将时间序列变换为矩阵AB,矩阵AB中分别由向量组a ib i构成,设c i是与b i具有相同的数量和维度的向量组,求解映射关系Fa ic i,使cb在整体上最接近,即总体误差最小,完成RNN类神经网络的训练。
6.根据权利要求5所述的一种基于CNN-RNN耦合数-形融合的盾构隧道变形预测方法,其特征在于,所述RNN类神经网络的训练误差ε如下:
CN202110639221.3A 2021-06-08 2021-06-08 基于cnn-rnn耦合数-形融合的盾构隧道变形预测方法 Active CN113362389B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110639221.3A CN113362389B (zh) 2021-06-08 2021-06-08 基于cnn-rnn耦合数-形融合的盾构隧道变形预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110639221.3A CN113362389B (zh) 2021-06-08 2021-06-08 基于cnn-rnn耦合数-形融合的盾构隧道变形预测方法

Publications (2)

Publication Number Publication Date
CN113362389A CN113362389A (zh) 2021-09-07
CN113362389B true CN113362389B (zh) 2024-02-27

Family

ID=77533130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110639221.3A Active CN113362389B (zh) 2021-06-08 2021-06-08 基于cnn-rnn耦合数-形融合的盾构隧道变形预测方法

Country Status (1)

Country Link
CN (1) CN113362389B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115248873B (zh) * 2022-09-22 2022-12-06 国网山西省电力公司太原供电公司 一种基于数据融合的电缆隧道安全监测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766129A (zh) * 2014-12-31 2015-07-08 华中科技大学 一种基于时空信息融合的地铁盾构施工地表变形的预警方法
CN107858883A (zh) * 2017-11-29 2018-03-30 北京交通大学 一种轨道系统安全状态综合监测及智能分析方法
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN112258049A (zh) * 2020-10-26 2021-01-22 西南交通大学 一种针对复杂地质条件区域隧道的安全控制方法
WO2021068848A1 (zh) * 2019-10-09 2021-04-15 山东大学 隧道结构病害多尺度检测与智能诊断系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766129A (zh) * 2014-12-31 2015-07-08 华中科技大学 一种基于时空信息融合的地铁盾构施工地表变形的预警方法
CN107858883A (zh) * 2017-11-29 2018-03-30 北京交通大学 一种轨道系统安全状态综合监测及智能分析方法
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
WO2021068848A1 (zh) * 2019-10-09 2021-04-15 山东大学 隧道结构病害多尺度检测与智能诊断系统及方法
CN112258049A (zh) * 2020-10-26 2021-01-22 西南交通大学 一种针对复杂地质条件区域隧道的安全控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
人工神经网络在隧道地表变形预测中的应用;王穗辉,潘国荣;同济大学学报(自然科学版)(第10期);全文 *
基于正交参数优化的LSTM结构变形预测模型;甘文娟;陈永红;韩静;王亚飞;;计算机系统应用(第09期);全文 *
盾构法隧道施工地表变形的小样本智能预测;安红刚,孙钧,胡向东,赵其华;成都理工大学学报(自然科学版)(第04期);全文 *

Also Published As

Publication number Publication date
CN113362389A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN108229461B (zh) 一种基于深度学习的隧道裂缝快速识别方法
CN111476781B (zh) 一种基于视频语义分割技术的混凝土裂缝识别方法和装置
Wang et al. Semi-supervised semantic segmentation network for surface crack detection
CN113362389B (zh) 基于cnn-rnn耦合数-形融合的盾构隧道变形预测方法
Ni et al. A generative adversarial learning strategy for enhanced lightweight crack delineation networks
CN110956196B (zh) 一种城市建筑物窗墙比自动识别方法
CN111985325B (zh) 特高压环境评价中的航拍小目标快速识别方法
CN111241994B (zh) 一种深度学习的遥感影像农村公路砂化路段的提取方法
CN109978847B (zh) 基于迁移学习与拉索机器人的拉索外套病害自动识别方法
Li et al. Underwater crack pixel-wise identification and quantification for dams via lightweight semantic segmentation and transfer learning
CN114705689A (zh) 一种基于无人机的建筑物外立面裂缝检测方法及系统
Tan et al. Prediction for the future mechanical behavior of underwater shield tunnel fusing deep learning algorithm on SHM data
Park et al. Learning‐based image scale estimation using surface textures for quantitative visual inspection of regions‐of‐interest
Sarkar et al. Revolutionizing concrete analysis: An in-depth survey of AI-powered insights with image-centric approaches on comprehensive quality control, advanced crack detection and concrete property exploration
CN107480786B (zh) 基于输出状态限制的循环神经网络轨迹似然概率计算方法
Qian et al. Analysis method of apparent quality of fair-faced concrete based on convolutional neural network machine learning
Huang et al. A photogrammetric system for tunnel underbreak and overbreak detection
CN115393279A (zh) 一种基于深度学习模型的砂岩ct图像渗透率预测方法
CN114663840A (zh) 隧道环境的巡检设备监控方法及系统
CN112330670A (zh) 一种隧道钻孔机器人钻孔方法、装置、钻孔机器人和介质
CN113762021A (zh) 一种基于循环神经网络和注意力引导机制的复杂路面裂缝检测方法
CN112215485A (zh) 一种基于物联网的桥梁寿命监控预警系统及方法
CN117556521B (zh) 基于数字孪生的高海拔隧道衬砌开裂风险监测方法及系统
CN117934473B (zh) 一种基于深度学习的公路隧道表观裂缝检测方法
CN116012296B (zh) 基于超分辨率和半监督学习的装配式预制构件检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant