CN106930770B - 基于卷积神经网络的盾构机护盾间隙估计方法 - Google Patents

基于卷积神经网络的盾构机护盾间隙估计方法 Download PDF

Info

Publication number
CN106930770B
CN106930770B CN201710066117.3A CN201710066117A CN106930770B CN 106930770 B CN106930770 B CN 106930770B CN 201710066117 A CN201710066117 A CN 201710066117A CN 106930770 B CN106930770 B CN 106930770B
Authority
CN
China
Prior art keywords
shield
resolution
image
gap
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710066117.3A
Other languages
English (en)
Other versions
CN106930770A (zh
Inventor
赵栓峰
丁志兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Science and Technology
Original Assignee
Xian University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Science and Technology filed Critical Xian University of Science and Technology
Priority to CN201710066117.3A priority Critical patent/CN106930770B/zh
Publication of CN106930770A publication Critical patent/CN106930770A/zh
Application granted granted Critical
Publication of CN106930770B publication Critical patent/CN106930770B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • EFIXED CONSTRUCTIONS
    • E21EARTH DRILLING; MINING
    • E21DSHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
    • E21D9/00Tunnels or galleries, with or without linings; Methods or apparatus for making thereof; Layout of tunnels or galleries
    • E21D9/003Arrangement of measuring or indicating devices for use during driving of tunnels, e.g. for guiding machines
    • EFIXED CONSTRUCTIONS
    • E21EARTH DRILLING; MINING
    • E21DSHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
    • E21D9/00Tunnels or galleries, with or without linings; Methods or apparatus for making thereof; Layout of tunnels or galleries
    • E21D9/06Making by using a driving shield, i.e. advanced by pushing means bearing against the already placed lining
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8411Application to online plant, process monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geochemistry & Mineralogy (AREA)
  • Geology (AREA)
  • Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的盾构机护盾间隙估计方法,其特征是通过对被测盾尾间隙处的局部区域进行激光标定,然后利用工业摄像机进行图像采集,将采集到的带有激光标定点的管片局部图像传入到计算机中,采用基于卷积神经网络的图像超分辨率重建方法,对采集到的图像进行超分辨率重建得到高分辨率图像,选用合适的图像处理算法对采集到的图像进行分析、处理和计算得到盾尾间隙的大小,从而实现非接触式自动测量。本发明实现了盾尾间隙的自动测量,降低了盾构环境下光照的要求,使得盾构护盾间隙自动化测量能够用于盾构的全周期中,有助于实现盾构施工的精确化和自动化。

Description

基于卷积神经网络的盾构机护盾间隙估计方法
技术领域
本发明属于施工机械状态测量领域,涉及一种基于卷积神经网络的盾构机护盾间隙估计方法。
背景技术
随着我国的隧道及地下铁路事业进入高速发展的时代,中国成为了世界上最大的隧道及地下工程施工市场,我国的城市轨道交通建设正面临着史无前例的高速发展,大城市每年仍然在以巨大的投资速度继续发展着地下隧道工程建设。在盾构施工中,由于盾构机掘进路线的曲率变化和推进油缸的伸长长度不能时刻保持一致,将会导致盾构机盾尾内壁与管片外径之间的空间发生变化,这个空间即为盾尾间隙。当盾尾间隙变化量超过设计允许的变化范围时,轻则会使盾尾与管片之间发生干扰,降低掘进速度,致使盾尾密封刷被过快磨损而导致盾尾密封系统受到破坏,重则盾尾将管片损坏,造成隧道渗漏水或地表沉降。因此,在施工中有必要对盾尾间隙进行连续性和周期性测量,以便及时调整盾构机姿态,来保证施工的顺利进行。在现阶段,大部分盾构施工都采用落后的人工测量,而人工测量将会产生无法控制的错误和误差,给盾构机姿态的调整带来滞后性。本发明利用摄像机对盾尾间隙进行连续拍照采集图像,然后利用图像处理算法进行距离测量。然而由于盾构施工过程中光线条件比较差,摄像头拍摄的图像质量较差,分辨率比较低,若直接用于盾构机护盾间隙的测量,其测量精度和应用范围受到限制。本发明提出一种基于卷积神经网络的盾构机护盾间隙估计方法,其原理是通过卷积神经网络建立低分辨率图像与高分辨率图像之间“端对端”的映射,实现盾构弱光照环境下盾构间隙图像的超分辨率重构,增加盾构盾尾间隙测量的精度。实现对盾尾间隙的自动测量,该技术能够降低盾构环境下光照的要求,使得盾构护盾间隙自动化测量能够用于盾构的全周期中,有助于实现盾构施工的精确化和自动化。
发明内容
本发明的目的是提供一种基于卷积神经网络的盾构机护盾间隙估计方法,本发明实现了盾尾间隙的自动测量,降低了盾构环境下光照的要求,使得盾构护盾间隙自动化测量能够用于盾构的全周期中,有助于实现盾构施工的精确化和自动化。
本发明的技术方案是:基于卷积神经网络的盾构机护盾间隙估计方法,其特征是包括以下步骤:
步骤一、激光器及工业摄像机安装;
步骤二、对被测盾尾间隙处的局部区域进行激光标定;
步骤三、利用工业摄像机对局部区域进行连续拍摄,得到局部区域低分辨率图像;
步骤四、利用卷积神经网络对低分辨率图像进行超分辨率重建;
步骤五、将低分变率图像输入SRCNN模型,输出高分辨率图像;
步骤六、对得到的高分辨率图像进行分析、处理和计算得到盾尾间隙的大小。
本发明优点:本发明采用一种基于深度神经网络的盾构机护盾间隙估计方法,釆用深度卷积神经网络对图像增强,提高了系统分辨率。深度卷积神经网络对图像增强改善了传统处理方法的不足。能够有效克服在盾构机工作时或光照环境改变下图像分辨率低的现状。实现了在施工中对盾尾间隙进行连续性和周期性测量,能够判断管片与盾尾之间的距离变化,并与其他推进技术参数相结合,达到及时综合调整盾构机姿态,来保证施工顺利进行的目的。改变了大部分盾构施工采用落后的人工测量带来无法控制的错误和误差,给盾构机姿态的调整带来滞后性。基于深度神经网络的盾构机护盾间隙估计方法的开发将实现对盾尾间隙的自动测量,该发明能够降低盾构环境下光照的要求,使得盾构护盾间隙自动化测量能够用于盾构的全周期中,有助于实现盾构施工的精确化和自动化。
附图说明
图1是本发明工作流程图。
图2是激光器及摄像机安装。
图3是采集装置安装图。
图4是管片及盾尾内壁位置距离标定图。
图5是本发明的网络结构图。
附图标号:工业摄像机-1;筋板-2;采集盒-3;盾尾内壁-4;盾尾间隙-5;激光器-6;管片-7。
具体实施方式
下面将结合附图对本发明内容进一步说明,但本发明的实际方法并不仅限于下述的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明公开了一种基于卷积神经网络的盾构机护盾间隙估计方法,通过对被测盾尾间隙处的局部区域进行激光标定,然后利用工业摄像机进行图像采集,将采集到的带有激光标定点的管片局部图像传入到计算机中,采用基于卷积神经网络的图像超分辨率重建方法,对采集到的图像进行超分辨率重建得到高分辨率图像,选用合适的图像处理算法对采集到的图像进行分析、处理和计算得到盾尾间隙的大小,从而实现非接触式自动测量。
以下结合附图对本发明内容进行详细说明。
一、激光器及工业摄像机安装。激光器6及工业摄像机1安装于盾尾推进油缸之间的筋板2处,其安装位置处于盾尾,所以盾构机内环境对摄像机干扰较小。安装如图2所示。
二、被测盾尾间隙处的局部区域进行激光标定。对采集区域进行标定的两个激光器6A和6B平行安置于工业摄像机1两端,两个激光器射出的激光射线为平行射线。调整两平行射线,使其与盾壳内壁平行。根据以上盾尾间隙5变化特点以及盾构机内安装环境特点,本系统将在盾尾内壁4圆周方向上设置三个间隙120°图像采集盒3A,3B和3C,由于盾构机盾尾底部与管片7想接触且经常存在水、泥浆、油污等杂物。因此盾尾底部将不设置图像采集设备。综合考虑以上因素,图像采集设备将置于图3所示的位置。其中O1为盾构机盾壳中心,O2为管片中心。
设定投射到管片上的两个激光点之间的距离为d,两点的连线要与管片下边缘线保持平行,并设定其距离为e,如图4所示。
设定管片厚度为f,由于在安装采集端时激光器所射出的平行射线与盾尾内壁已经调整平行,因此,平行射线到盾尾内壁的距离h已知。
三、利用工业摄像机对局部区域进行连续拍摄,得到局部区域图像,由于盾构过程中光照条件及盾构机运动影响,导致采集到的图像分辨率比较低。
四、本发明采用基于卷积神经网络的图像超分辨率重建方法对低分辨率图像进行超分辨率重建得到高分辨率图像。
1、建立训练所需要的外部图像库
照明灯具关闭、打开时各拍摄一张照片,在固定短时间间隔内,由于时间间隔较短,可以默认在同一时刻分别获得低分辨率和高分辨率盾尾间隙局部区域图像,基于这种方法得到在较长一段时间内的盾尾间隙局部区域低分辨率图像集{Yi}和对应高分辨率图像集{Xi},以此作为外部图像库。
2、构建网络模型
构建SRCNN(Super‐Resolution Convolutional Neural Network)模型,该模型由三层卷积层构成,分别为特征提取,非线性映射,高分辨率图像重构。其算法框架如图1所示。
3、以外部图像库为训练对象,对网络参数Θ={W1,W2,W3,B1,B2,B3}进行训练,在低、高分辨率图像之间形成“端到端”的非线性映射,即获得端到端的映射F的一组网络参数。该过程如下:
(1)特征提取
输入外部图像库,即输入多个二维数组,以单张低分辨率图像为例,利用卷积核对外部图像进行特征提取得到特征图F1(Y),该卷积层卷积核个数为n1,单个卷积核尺寸为f1,c为输入图像的通道数。卷积过程如公式(1)所示:
F1(Y)=max(0,W1*Y+B1) (1)
上式中,W1包含n1个卷积核,尺寸大小为c×f1×f1×n1,Y为输入初始低分辨率图像,B1为神经元偏置向量,维数为n1。“*”为卷积符号。对卷积得到的特征经过ReLU进行了处理,公式表示为:
g(x)=max(0,x) (2)
其x=(W1*Y+B1)即为未经ReLU处理的卷积得到的特征图。
(2)非线性映射
非线性映射是将特征向量从低分辨率空间变换至高分辨率空间,输出特征为F2(Y)。即把第一层中每块图像块的n1维向量非线性地映射到另一个维数为n2的向量中,用n2个卷积核对由第一层卷积得到的n1张特征图进行卷积处理,n2为该卷积层卷积核个数,单个卷积核尺寸为f2。第二层卷积过程如公式(3)所示:
F2(Y)=max(0,W2*F1(Y)+B2) (3)
上式中,W2包含n2个卷积核,尺寸大小为n2×f2×f2×n1,B2为神经元偏置向量,维数为n2
(3)高分辨率图像重构
高分辨率图像重构是利用之前得到的基于块的输出特征图F2(Y)来生成最终的高分辨率图像F3(Y),过程公式如(4)所示:
F3(Y)=W3*F2(Y)+B3 (4)
上式中,W3包含c个卷积核,尺寸大小为n2×f3×f3×c,B3为神经元偏置向量,维数为c。
以上SRCNN网络的参数表示为Θ={W1,W2,W3,B1,B2,B3},整个网络的训练过程就是对这些参数的估计和优化。通过最小化F(Y)与X之间的误差得到参数最优解。通过上述特征提取,非线性映射,高分辨率图像重构得到低分辨率图像集合{Yi},其相对应的高分辨率图像集合{Xi},均方误差L(Θ),如公式(5)所示:
当L(Θ)小于网络规定的误差阈值的时候,即得到最优参数Θ={W1,W2,W3,B1,B2,B3},完成SRCNN网络的训练。
五、将低分变率图像输入SRCNN模型,输出高分辨率图像。
由上述过程(3)可知SRCNN网络模型经过训练得到最优参数Θ={W1,W2,W3,B1,B2,B3},再次输入一张低分辨率图像,即可重构出需要的高分辨率图像。具体过程方法如下所示:
上述SRCNN网络模型经过训练形成非线性映射F,重建过程为提取图像块、非线性映射和重建。如图5所示:先输入一张给定的低分辨率图像Z,使其通过第一个卷积层以获得一组特征图,在第二层里,让这些特征图非线性映射到高分辨率的图块中,最后,通过聚合来重建出高分辨率的图像F(Y)。
(1)提取图像块。先输入一张给定的低分辨率图像Z,通过第一个卷积层以获得一组特征图。过程方法如公式(6)所示:
F1(Z)=max(0,W1*Z+B1) (6)
上式中,F1(Z)为提取出来的特征图。W1为第一层卷积核,B1为神经元偏置量,且W1,B1经过SRCNN网络训练以后均为已知。“*”为卷积符号。采用ReLU为激活函数,公式表示为:
g(x)=max(0,x)其中x=(W1*Z+B1) (7)
(2)非线性映射
这一层是将第一层中每块特征图非线性地映射到高分辨率图像块中。也就是说用第二层卷积核对第一层的特征图进行卷积处理。过程方法如公式(8)所示:
F2(Z)=max(0,W2*F1(Z)+B2) (8)
上式中,F2(Z)为高分辨率图像块。W2为第二层卷积核,B2为神经元偏置量。且W2,B2经过SRCNN网络训练以后均为已知。
(3)重建
在这一层中,将高分辨率图像块聚合到一起,以形成相对应的的高分辨率图像。过程方法如公式(9)所示:
F3(Z)=W3*F2(Z)+B3 (9)
上式中,F3(Z)为聚合后重建出来的高分辨率图像。W3为第三层卷积核,B3为神经元偏置量。且W3,B3经过SRCNN网络训练以后均为已知。
由上述过程即完成了高分辨图像的重建,输入一张低分辨率盾尾间隙局部图像到训练好的SRCNN网络进行超分辨率重构即可输出一张高分辨率盾尾间隙局部图像。
六、图像处理中,将两个激光点距离之间的d值转化为像素的个数n,设定k为系数,另k=d/n;
通过对h、d、e、n、k按照如下公式进行计算,即可得出盾尾间隙L的值。
L=h+e-f (10)
上述具体实施方式用来解释本发明,而不是对本发明进行限制,在本发明精神和权权利要求的保护范围内,对本发明做出的任何修改和改变,都落入本发明的保护范围。

Claims (3)

1.基于卷积神经网络的盾构机护盾间隙估计方法,其特征在于,包括以下步骤:
步骤一、激光器(6)及工业摄像机(1)安装:
在盾尾内壁(4)圆周方向上设置三个间隙120°的采集盒(3),三个采集盒(3)安装于盾尾推进油缸之间的筋板(2)处,在采集盒内设有两个激光器(6)和工业摄像机(1),使采集区域激光射线与盾尾内壁(4)平行;
步骤二、对被测盾尾间隙(5)处的局部区域进行激光标定:
激光标定的参数为:投射到管片(7)上的两个激光点之间的距离d,两个激光点的连线与管片下边缘距离e,管片厚度f,平行激光射线到盾尾内壁(4)的距离h;
步骤三、利用工业摄像机(1)对局部区域进行连续拍摄,得到局部区域低分辨率图像;利用照明灯具关闭、打开时各拍摄一张照片,在同一时刻分别获得低分辨率和高分辨率盾尾间隙局部区域图像;
步骤四、利用卷积神经网络对低分辨率图像进行超分辨率重建:
其中超分辨率重建的方法是:
(1)建立训练所需要的外部图像库
在同一时刻分别获得低分辨率和高分辨率盾尾间隙局部区域图像,得到在较长一段时间内的盾尾间隙局部区域低分辨率图像集{Yi}和对应高分辨率图像集{Xi},以此作为外部图像库;
(2)构建网络模型
构建SRCNN模型,该模型由三层卷积层构成,分别为特征提取、非线性映射和高分辨率图像重构;
(3)以外部图像库为训练对象,在低、高分辨率图像之间形成端到端的非线性映射,即获得端到端的映射F的一组网络参数Θ={W1,W2,W3,B1,B2,B3},然后对网络参数进行训练;
步骤五、将低分变率图像输入SRCNN模型,输出高分辨率图像:
先输入一张给定的低分辨率图像Z,使其通过第一个卷积层以获得一组特征图,在第二层里,让这些特征图非线性映射到高分辨率的图块中,最后,通过聚合来重建出高分辨率的图像F(Y);
步骤六、对得到的高分辨率图像进行分析、处理和计算得到盾尾间隙(5)的大小;将两个激光点之间距离d值转化为像素的个数n,设定k为系数,另k=d/n;
L=h+e-f (10)
通过对h、d、e、n、k按照上述公式进行计算,即可得出盾尾间隙L的值。
2.如权利要求1所述的基于卷积神经网络的盾构机护盾间隙估计方法,其特征在于:步骤四对网络参数进行训练的方法是
(1)特征提取
输入外部图像库,即输入多个二维数组,利用卷积核对外部图像进行特征提取得到特征图F1(Y),该卷积层卷积核个数为n1,单个卷积核尺寸为f1,c为输入图像的通道数,卷积过程如公式(1)所示:
F1(Y)=max(0,W1*Y+B1) (1)
上式中,W1包含n1个卷积核,尺寸大小为c×f1×f1×n1,Y为输入初始低分辨率图像,B1为神经元偏置向量,维数为n1,*为卷积符号,对卷积得到的特征经过ReLU进行了处理,其公式表示为:
g(x)=max(0,x) (2)
其x=(W1*Y+B1)即为未经ReLU处理的卷积得到的特征图;
(2)非线性映射
非线性映射是将特征向量从低分辨率空间变换至高分辨率空间,输出特征为F2(Y),即把第一层中每块图像块的n1维向量非线性地映射到另一个维数为n2的向量中,用n2个卷积核对由第一层卷积得到的n1张特征图进行卷积处理,n2为该卷积层卷积核个数,单个卷积核尺寸为f2;第二层卷积过程如公式(3)所示:
F2(Y)=max(0,W2*F1(Y)+B2) (3)
上式中,W2包含n2个卷积核,尺寸大小为n2×f2×f2×n1,B2为神经元偏置向量,维数为n2
(3)高分辨率图像重构
高分辨率图像重构是利用之前得到的基于块的输出特征图F2(Y)来生成最终的高分辨率图像F3(Y),过程公式如(4)所示:
F3(Y)=W3*F2(Y)+B3 (4)
上式中,W3包含c个卷积核,尺寸大小为n2×f3×f3×c,B3为神经元偏置向量,维数为c;
整个网络的训练过程就是对这些参数的估计和优化,通过最小化F(Y)与X之间的误差得到参数最优解;通过上述特征提取,非线性映射,高分辨率图像重构得到低分辨率图像集合{Yi},其相对应的高分辨率图像集合{Xi},均方误差L(Θ),如公式(5)所示:
当L(Θ)小于网络规定的误差阈值的时候,即得到最优参数Θ={W1,W2,W3,B1,B2,B3},完成SRCNN网络的训练。
3.如权利要求1所述的基于卷积神经网络的盾构机护盾间隙估计方法,其特征在于:步骤五包括以下步骤:
(1)提取图像块,先输入一张给定的低分辨率图像Z,通过第一个卷积层以获得一组特征图,过程方法如公式(6)所示:
F1(Z)=max(0,W1*Z+B1) (6)
上式中,F1(Z)为提取出来的特征图,W1为第一层卷积核,B1为神经元偏置量,且W1,B1经过SRCNN网络训练以后均为已知,*为卷积符号,采用ReLU为激活函数,公式表示为:
g(x)=max(0,x) (7)
其中x=(W1*Z+B1)即为未经ReLU处理的卷积得到的特征图;
(2)非线性映射
这一层是将第一层中每块特征图非线性地映射到高分辨率图像块中,也就是说用第二层卷积核对第一层的特征图进行卷积处理,过程方法如公式(8)所示:
F2(Z)=max(0,W2*F1(Z)+B2) (8)
上式中,F2(Z)为高分辨率图像块,W2为第二层卷积核,B2为神经元偏置量,且W2,B2经过SRCNN网络训练以后均为已知;
(3)重建
在这一层中,将高分辨率图像块聚合到一起,以形成相对应的高分辨率图像,过程方法如公式(9)所示:
F3(Z)=W3*F2(Z)+B3 (9)
上式中,F3(Z)为聚合后重建出来的高分辨率图像,W3为第三层卷积核,B3为神经元偏置量,且W3,B3经过SRCNN网络训练以后均为已知;
由上述过程即完成了高分辨图像的重建,输入一张低分辨率盾尾间隙局部图像到训练好的SRCNN网络进行超分辨率重构即可输出一张高分辨率盾尾间隙局部图像。
CN201710066117.3A 2017-02-06 2017-02-06 基于卷积神经网络的盾构机护盾间隙估计方法 Active CN106930770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710066117.3A CN106930770B (zh) 2017-02-06 2017-02-06 基于卷积神经网络的盾构机护盾间隙估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710066117.3A CN106930770B (zh) 2017-02-06 2017-02-06 基于卷积神经网络的盾构机护盾间隙估计方法

Publications (2)

Publication Number Publication Date
CN106930770A CN106930770A (zh) 2017-07-07
CN106930770B true CN106930770B (zh) 2019-04-19

Family

ID=59423447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710066117.3A Active CN106930770B (zh) 2017-02-06 2017-02-06 基于卷积神经网络的盾构机护盾间隙估计方法

Country Status (1)

Country Link
CN (1) CN106930770B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107515253B (zh) * 2017-07-10 2019-11-15 西安科技大学 基于卷积神经网络的梁结构缺陷非接触定量诊断方法
CN109961396B (zh) * 2017-12-25 2020-12-22 中国科学院沈阳自动化研究所 一种基于卷积神经网络的图像超分辨率重建方法
CN108038832A (zh) * 2017-12-25 2018-05-15 中国科学院深圳先进技术研究院 一种水下图像增强方法及系统
CN109948188B (zh) * 2019-02-19 2023-07-14 中国铁建重工集团股份有限公司 一种管片选型方法
CN111189401B (zh) * 2020-01-10 2021-01-08 中国矿业大学(北京) 盾尾间隙实时自动测量方法及系统
CN111636881B (zh) * 2020-05-22 2022-04-29 湖北工业大学 盾尾间隙监测装置
CN113047859A (zh) * 2021-04-12 2021-06-29 上海应用技术大学 基于局部Fisher土层识别的盾构掘进参数控制方法
CN113358046B (zh) * 2021-05-19 2023-04-14 上海隧道工程有限公司 盾尾间隙的视觉测量方法及其系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4041910B2 (ja) * 2002-08-05 2008-02-06 株式会社Ihi シールド掘削機のテールプレートとセグメント間の間隔測定装置
CN202110283U (zh) * 2011-05-26 2012-01-11 郭京波 盾构机盾尾间隙激光测量装置
CN202066485U (zh) * 2011-05-26 2011-12-07 郭京波 基于视觉检测的盾构机盾尾间隙自动测量装置
CN203081453U (zh) * 2013-01-24 2013-07-24 中国铁建重工集团有限公司 一种基于图像识别的竖井盾构导向系统
CN105976318A (zh) * 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法

Also Published As

Publication number Publication date
CN106930770A (zh) 2017-07-07

Similar Documents

Publication Publication Date Title
CN106930770B (zh) 基于卷积神经网络的盾构机护盾间隙估计方法
Shan et al. Simulation-based lidar super-resolution for ground vehicles
CN105069746B (zh) 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN108389226A (zh) 一种基于卷积神经网络和双目视差的无监督深度预测方法
CN104599258B (zh) 一种基于各向异性特征描述符的图像拼接方法
CN107358576A (zh) 基于卷积神经网络的深度图超分辨率重建方法
CN102651135B (zh) 一种基于优化方向采样的自然图像抠图方法
CN106227015A (zh) 一种基于压缩感知理论的全息图像高分辨率重建方法及系统
CN110414380A (zh) 一种基于目标检测的学生行为检测方法
CN103413286A (zh) 一种基于学习的高动态范围与高分辨率图像联合重建方法
CN110349087B (zh) 基于适应性卷积的rgb-d图像高质量网格生成方法
CN105261059A (zh) 一种基于在屏幕空间计算间接反射高光的渲染方法
CN110705340B (zh) 一种基于注意力神经网络场的人群计数方法
CN102034267A (zh) 基于关注度的目标物三维重建方法
CN111275171A (zh) 一种基于参数共享的多尺度超分重建的小目标检测方法
CN114692509A (zh) 基于多阶段退化神经网络的强噪声单光子三维重建方法
CN103971354A (zh) 低分辨率红外图像重建高分辨率红外图像的方法
CN116258658A (zh) 基于Swin Transformer的图像融合方法
Gao et al. A general deep learning based framework for 3D reconstruction from multi-view stereo satellite images
CN105654060A (zh) 一种从道路监控视频获取车辆车速的方法
Tian et al. Semantic segmentation of remote sensing image based on GAN and FCN network model
Li et al. Fault-Seg-Net: A method for seismic fault segmentation based on multi-scale feature fusion with imbalanced classification
CN109993104B (zh) 一种遥感图像对象层次的变化检测方法
Li et al. A Hierarchical Deformable Deep Neural Network and an Aerial Image Benchmark Dataset for Surface Multiview Stereo Reconstruction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant