CN113863966A - 基于深度学习视觉的管片抓取位姿检测装置及检测方法 - Google Patents
基于深度学习视觉的管片抓取位姿检测装置及检测方法 Download PDFInfo
- Publication number
- CN113863966A CN113863966A CN202111113376.XA CN202111113376A CN113863966A CN 113863966 A CN113863966 A CN 113863966A CN 202111113376 A CN202111113376 A CN 202111113376A CN 113863966 A CN113863966 A CN 113863966A
- Authority
- CN
- China
- Prior art keywords
- segment
- camera
- laser displacement
- freedom
- displacement sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 26
- 238000013135 deep learning Methods 0.000 title claims abstract description 14
- 238000006073 displacement reaction Methods 0.000 claims abstract description 60
- 238000005516 engineering process Methods 0.000 claims abstract description 9
- 238000005259 measurement Methods 0.000 claims abstract description 8
- 238000005096 rolling process Methods 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 21
- 238000010276 construction Methods 0.000 abstract description 11
- 230000005641 tunneling Effects 0.000 abstract 2
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000010410 layer Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E21—EARTH OR ROCK DRILLING; MINING
- E21D—SHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
- E21D11/00—Lining tunnels, galleries or other underground cavities, e.g. large underground chambers; Linings therefor; Making such linings in situ, e.g. by assembling
- E21D11/40—Devices or apparatus specially adapted for handling or placing units of linings or supporting units for tunnels or galleries
-
- E—FIXED CONSTRUCTIONS
- E21—EARTH OR ROCK DRILLING; MINING
- E21D—SHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
- E21D9/00—Tunnels or galleries, with or without linings; Methods or apparatus for making thereof; Layout of tunnels or galleries
- E21D9/06—Making by using a driving shield, i.e. advanced by pushing means bearing against the already placed lining
- E21D9/0607—Making by using a driving shield, i.e. advanced by pushing means bearing against the already placed lining the shield being provided with devices for lining the tunnel, e.g. shuttering
-
- E—FIXED CONSTRUCTIONS
- E21—EARTH OR ROCK DRILLING; MINING
- E21F—SAFETY DEVICES, TRANSPORT, FILLING-UP, RESCUE, VENTILATION, OR DRAINING IN OR OF MINES OR TUNNELS
- E21F17/00—Methods or devices for use in mines or tunnels, not covered elsewhere
- E21F17/18—Special adaptations of signalling or alarm devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mining & Mineral Resources (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geochemistry & Mineralogy (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Architecture (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Quality & Reliability (AREA)
- Environmental & Geological Engineering (AREA)
- Lining And Supports For Tunnels (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于深度学习视觉的管片抓取位姿检测装置及检测方法,利用视觉获取技术进行管片抓取位姿的检测,该装置包括第一、第二相机(1)(2)、第一至第三激光位移传感器(3)(4)(5)、液压控制的六自由度盾构管片拼装机(6)、含有标志凹槽(8)的管片(7);利用深度学习视觉提取识别管片上的标志凹槽的轮廓,实现待拼装管片的抓取位姿检测。与现有技术相比,本发明具有测量精度高、系统简单,标定方便;而且测量范围大;抗干扰能力更强,在盾构施工环境中具有更强的适用性的优势。
Description
技术领域
本发明属于盾构自动化施工中管片位姿检测领域,涉及一种基于深度学习视觉和激光阵列的管片抓取位姿检测装置和检测方法。
背景技术
目前,我国已经能够掌握从设计到生产的全部流程,实现了盾构技术的自主化。14m及以上的大直径盾构技术发展的一个重要方向,因为一条大直径隧道就可以实现双层4/6车道或单层3车道,更能满足城市化进程的发展及交通需求量的增长。盾构直径的增加使其在管片拼装、刀盘设计、周边保护、始发和到达施工等技术和工业方面都需要进行改进。尤其是管片拼装,作为为隧道装配永久衬砌结构的施工流程,直接关系到隧道的整体质量和安全,影响隧道的防水性能及耐久性能。国内盾构施工依靠人工控制遥控器的方式进行管片拼装,这种作业方式很难满足大直径盾构施工要求,主要存在以下问题:
人工拼装过程拼装人员的安全隐患增加:在拼装位置较高的管片时,拼装人员需要经常爬到高度超过10m的接近管片的位置,大大增加了施工的危险性。
管片拼装质量无法保证:大直径盾构增加了拼装人员的观察难度,无法保证管片的位置在3mm的精度范围内。
拼装效率低:大直径盾构不光增加了每一环的管片数量,而且单片管片的拼装时间也大大增加,影响整个施工效率。
解决上述问题的一个思路就是研发无人化、高精度和高效率的盾构管片自动拼装技术。管片抓取位姿检测是自动拼装的核心内容,准确的检测出待抓取管片的位姿是安全高效的进行自动拼装的前提。
目前,常用的位姿检测方法包括三种:第一类是利用多个测距类传感器同时测量测量管片表面上多个点的高度信息,通过不同位置上多个传感器的高度信息去计算管片位姿误差。第二类是利用线阵类传感器去采集管片边缘的位置信息,利用边缘位置信息去计算管片的位姿误差。第三类是利用视觉类传感器采集管片上特征点的表面信息,通过计算特征点再相机上成像坐标值的变化来计算位姿误差。
第一种方法的优点传感器的安装位置相对灵活,而且还可以根据高度信息去纠正拼装机液压系统中运动中存在的不同步问题。缺点是安装、标定和位姿解算复杂,系统抗干扰和自检能力差。这种方法目前最常用的传感器包括超声测距传感器、电磁感应测距传感器和激光测距传感器。其中基于激光三角原理的激光测距传感器由于测量精度高,是应用最广泛的位姿检测传感器。
有两种设备可以实现第二种方法,一种是光切测量设备,即利用线阵光源和工业相机组成的位置测量系统。另一种是二维激光扫描仪。第二种方法简化了传感系统的同时保留了高度信息。但是,这种方法依靠的是边缘信息点,在工业环境种,物体的边缘信息容易破损,会对定位精度造成较大的影响(3D激光位移传感器)。
第三种方法就是利用相机采集管片表面特征标志的图像,利用图像处理技术提取标志轮廓并拟合,得到特征标志上固定点在相机上的平面坐标。该方法系统简单,标定方便,而且测量范围大。但是,该方法会使高度信息缺失,而且目前这种方法需要另外添加特征标志,这就引入了额外的误差。
发明内容
本发明基于上述发明背景中存在的问题,克服了只利用多点高度信息进行位姿检测带来的系统复杂、抗干扰和自检能力差等问题,而提出了基于深度学习视觉的管片抓取位姿检测装置及检测方法,利用所设计的检测装置同时获取了管片平面坐标信息和高度信息,实现了将相机和激光位移传感阵列结合使用,从而进行待抓取管片的位姿检测。
本发明为解决上述问题而采取的技术方案如下:
一种基于深度学习视觉的管片位姿检测装置,利用视觉获取技术进行管片抓取位姿的检测,该装置包括第一、第二相机1、2、第一至第三激光位移传感器3、4、5、液压控制的六自由度盾构管片拼装机6、含有标志凹槽8的管片7;其中:
所述第一、第二相机1、2和所述第一至第三激光位移传感器3、4、5固定在管片固定在拼装机边缘上,当六自由度盾构管片拼装机6在管片7正上方时,第一、第二相机1、2和第一至第三激光位移传感器3、4、5的光轴与管片7垂直,保证激光位移传感器的光源点在管片7表面,标志凹槽8位于相机图像平面坐标系的中心;所述六自由度盾构管片拼装机6具有平动、俯仰、横摇、侧翻、提升及回转六个自由度;
所述第一、第二相机1、2用于通过测量标志凹槽8中心点的坐标值确定控制管片7平动、回转和横摇三个自由度油缸的移动距离;所述第一至第三激光位移传感器3、4、5用于通过测量和管片7的高度距离确定控制管片7俯仰、侧翻和提升三个自由度油缸的移动距离;
标志凹槽8为设置于管片7上的可识别标志。
一种基于深度学习视觉的管片位姿检测检测方法,该方法具体包括以下步骤:
步骤1:将六自由度盾构管片拼装机6定位到管片7上方,使相机能够采集到相应的标志凹槽以及管片表面图像,从所拍摄得图像中提取标志凹槽8的轮廓;
步骤2:利用深度神经网络训练从所拍摄得图像中提取标志凹槽8的轮廓,得到标志凹槽的轮廓模型;
步骤3:利用训练好的标志凹槽轮廓的模型再次提取出标志凹槽的轮廓,对提取的标志凹槽的轮廓进行最小外接矩形拟合,得到外接矩形的中心坐标点作为相机标定坐标点;
步骤4:在步骤1中相机标定点采集激光位移传感器到管片表面的距离,作为激光位移传感器的标定坐标点;
步骤5:根据相机所拍摄的图像求得两个标志凹槽的中心坐标点和标定坐标点的值,从而计算管片相对于六自由度盾构管片拼装机6的位姿,进而确定六自由度盾构管片拼装机6在平动、回转和横摇三个方向上需要移动的距离;
步骤6:利用激光位移传感器测量管片的高度,通过三个激光位移传感器组成的平面与对应测量点组成的平面法线进行比较,根据法线的角度计算六自由度盾构管片拼装机6需要在俯仰、侧翻和提升这三个方向上需要移动的距离;
步骤7:重复调节步骤4和步骤5,直至相机和激光位移传感器的数据与标定数据相同,完成待拼装管片的抓取位姿的检测。
与现有的方法相比,本发明能够达到以下的积极技术效果:
1)测量精度高、系统简单,标定方便;
2)测量范围大;
3)而且抗干扰能力更强,在盾构施工环境中具有更强的适用性。
附图说明
图1为管片抓取位姿检测装置图;
图2为管片结构示意图;
图3为深度神经网络模型示意图;
图4为相机坐标系、像素坐标系和图像平面坐标系之间关系图;
图5为六自由度盾构管片拼装机示意图;
附图标记:
1、第一相机,2、第二相机,3、第一激光位移传感器,4、第二激光位移传感器,5、第三激光位移传感器,6、六自由度盾构管片拼装机,7、管片,8、标志凹槽。
具体实施方式
下面结合附图和具体实施例对本发明技术方案作进一步详细描述。
本发明提出了一种管片位姿检测装置及基于深度学习的管片位姿检测方法。该方法充分结合了单一种类传感器的优点,在同时获取了管片平面坐标信息和高度信息的前提下,也通过和视觉系统进行结构和数据融合,克服了只利用多点高度信息进行位姿检测带来的系统复杂、抗干扰和自检能力差等问题。针对目前视觉方法需要另外添加特征标志引入额外的误差的问题,本方法使用管片表面本身特征作为识别标志的方案,利用深度学习视觉提取识别标志的轮廓,实现管片抓取位姿检测。
如图1所示,为管片位姿检测装置,利用视觉获取技术进行管片抓取位姿的检测,该装置主要包括第一、第二相机1、2、第一至第三激光位移传感器3、4、5、液压控制的六自由度盾构管片拼装机6、含有标志凹槽8的管片7。相机和激光位移传感器固定在管片固定在拼装机边缘上,当六自由度盾构管片拼装机6在管片7正上方时,第一、第二相机1、2和第一至第三激光位移传感器3、4、5的光轴与管片7垂直,保证激光位移传感器的光源点在管片7表面,标志凹槽8位于相机图像平面坐标系的中心。六自由度盾构管片拼装机6具有平动、俯仰、横摇、侧翻、提升及回转六个自由度,第一、第二相机1、2通过测量标志凹槽8中心点的坐标值确定控制管片7平动、回转和横摇三个自由度油缸的移动距离、第一至第三激光位移传感器3、4、5通过测量和管片7的高度距离确定控制管片7俯仰、侧翻和提升三个自由度油缸的移动距离。标志凹槽8为设置于管片7上的可识别标志。
如图3所示,本发明提出一种基于深度学习的管片位姿检测方法,该方法主要包括以下步骤:
步骤1:将六自由度盾构管片拼装机6定位到管片7上方,使相机能够采集到相应的标志凹槽以及管片表面图像,从所拍摄得图像中提取标志凹槽8的轮廓;
步骤2:利用深度神经网络训练从所拍摄得图像中提取标志凹槽8的轮廓,得到标志凹槽的轮廓模型;其中,深度神经网络主要包括特征提取网络、区域候选网络以及分类和回归网络。首先利用特征提取网络采用ResNet网络框架,网络里隐藏层的层数为101;然后利用区域候选网络提出候选对象边界框;继而使用分类和回归网络从每个候选框中提取特征,并对每个感兴趣区域执行分类、边界框回归和二进制掩码,实现目标凹槽和管片表面的图像分割。
步骤3:利用训练好的标志凹槽轮廓的模型再次提取出标志凹槽的轮廓,对提取的标志凹槽的轮廓进行最小外接矩形拟合,得到外接矩形的中心坐标点作为相机标定坐标点;
步骤4:在步骤1中相机标定点采集激光位移传感器到管片表面的距离,作为激光位移传感器的标定坐标点;
步骤5:根据相机所拍摄的图像求得两个标志凹槽的中心坐标点和标定坐标点的值,从而计算管片相对于六自由度盾构管片拼装机6的位姿,进而确定六自由度盾构管片拼装机6在平动、回转和横摇三个方向上需要移动的距离;
步骤6:利用激光位移传感器测量管片的高度,通过三个激光器组成的平面与对应测量点组成的平面法线进行比较,根据法线的角度计算六自由度盾构管片拼装机6需要在俯仰、侧翻和提升三个方向上需要移动的距离;
步骤7:重复调节步骤4和步骤5,直至相机和激光位移传感器的数据与标定数据相同,完成抓取。
本发明的技术方案避免了管片边缘损坏引入的测量误差;而且,引入深度学习进行标志识别后,避免外加标志引入的误差。
本发明步骤4中根据相机所拍摄的图像求得两个标志凹槽的中心坐标点和标定坐标点的值,这一步骤所基于的计算原理举例说明如下(可替换为其他等效算法):
设管片上的标志凹槽的中心点为A和B,找到这两点在相机坐标系、像素坐标系和像平面坐标系之间的所在位置。像素坐标(u,v)以像素为单位,表示像素所在的行列号,像平面坐标(x,y)以毫米为单位,以像主点即摄影机光轴与像平面的交点作为原点。管片上的标志凹槽中心点A在图像中的像素坐标系中的像素坐标(uA,vA)与其像平面坐标系中的像平面坐标(xA,yA)之间满足以下公式:
其中,(u0,v0)为主点O在像素坐标系中的坐标,dx和dy分别为每个像素在x轴和y轴方向上的物理尺寸;
管片上的标志凹槽中心点A在像平面坐标系的像平面坐标(xA,yA)与相机坐标系的相机坐标(XCA,YCA,ZCA)之间的关系满足下式:
其中,f为相机的主焦距。
B点和A点的计算过程相同。
以抓取过程为例阐述激光位移传感器阵列的测量原理。本发明的步骤6中记载的利用激光位移传感器测量管片的高度,通过三个激光位移传感器组成的平面与对应测量点组成的平面法线进行比较,根据法线的角度计算六自由度盾构管片拼装机6需要在俯仰、侧翻和提升这三个方向上需要移动的距离;其中,激光位移传感器所基于的计算原理举例说明如下(可替换为其他等效算法):
激光位移传感器坐标系以激光光源投射方向为Z轴,Z轴和感光平面的交点为坐标原点A0、B0和C0,激光位移传感器的坐标系分别为{A0}、{B0}和{C0},各激光位移传感器的坐标分别为和激光位移传感器对应的管片表面上点A′0、B′0和C′0的坐标分别为和三个激光位移传感器和对应的管片表面上的点分别组成两个平面A0B0C0和A′0B′0C′0,两个平面的平面方程分别为
Ex+Fy+Gz+H=0
E′x+F′y+G′z+H′=0
其中,x,y,z为平面坐标。
其中,E、F、G、H、E′、F′、G′和H′为平面方程的系数,利用平面上的坐标点计算得到:
通过计算两个法向量的角度关系,在转换到真空吸盘坐标系中,就可以确定真空吸盘和待拼装管片的位姿关系。
说明书中的实施方式仅用于对本发明进行说明,其并不对本发明的保护范围起到限定作用。本发明的保护范围仅由权利要求限定,凡在公开的实施方式的基础上所做的任何省略、修改或替换手段将均落入本发明的保护范围。
Claims (2)
1.一种基于深度学习视觉的管片位姿检测装置,利用视觉获取技术进行管片抓取位姿的检测,其特征在于,该装置包括第一、第二相机(1)(2)、第一至第三激光位移传感器(3)(4)(5)、液压控制的六自由度盾构管片拼装机(6)、含有标志凹槽(8)的管片(7);其中:
所述第一、第二相机(1)2和所述第一至第三激光位移传感器(3)(4)(5)固定在管片固定在拼装机边缘上,当六自由度盾构管片拼装机(6)在管片(7)正上方时,第一、第二相机(1)(2)和第一至第三激光位移传感器(3)(4)(5)的光轴与管片(7)垂直,保证激光位移传感器的光源点在管片(7)表面,标志凹槽(8)位于相机图像平面坐标系的中心;所述六自由度盾构管片拼装机(6)具有平动、俯仰、横摇、侧翻、提升及回转六个自由度;
所述第一、第二相机(1)(2)用于通过测量标志凹槽(8)中心点的坐标值确定控制管片(7)平动、回转和横摇三个自由度油缸的移动距离;所述第一至第三激光位移传感器(3)(4)(5)用于通过测量和管片(7)的高度距离确定控制管片(7)俯仰、侧翻和提升三个自由度油缸的移动距离;
标志凹槽(8)为设置于管片(7)上的可识别标志。
2.一种基于深度学习视觉的管片位姿检测检测方法,其特征在于,该方法具体包括以下步骤:
步骤1:将六自由度盾构管片拼装机定位到管片上方,使相机能够采集到相应的标志凹槽以及管片表面图像,从所拍摄得图像中提取标志凹槽的轮廓;
步骤2:利用深度神经网络训练从所拍摄得图像中提取标志凹槽8的轮廓,得到标志凹槽的轮廓模型;其中,深度神经网络主要包括特征提取网络、区域候选网络以及分类和回归网络:首先利用特征提取网络采用ResNet网络框架,网络里隐藏层的层数为101;然后利用区域候选网络提出候选对象边界框;继而使用分类和回归网络从每个候选框中提取特征,并对每个感兴趣区域执行分类、边界框回归和二进制掩码,实现目标标志凹槽和管片表面的图像分割;
步骤3:利用训练好的标志凹槽轮廓的模型再次提取出标志凹槽的轮廓,对提取的标志凹槽的轮廓进行最小外接矩形拟合,得到外接矩形的中心坐标点作为相机标定坐标点;
步骤4:在步骤1中相机标定点采集激光位移传感器到管片表面的距离,作为激光位移传感器的标定坐标点;
步骤5:根据相机所拍摄的图像求得两个标志凹槽的中心坐标点和标定坐标点的值,从而计算管片相对于六自由度盾构管片拼装机的位姿,进而确定六自由度盾构管片拼装机在平动、回转和横摇三个方向上需要移动的距离;
步骤6:利用激光位移传感器测量管片的高度,通过三个激光位移传感器组成的平面与对应测量点组成的平面法线进行比较,根据法线的角度计算六自由度盾构管片拼装机6需要在俯仰、侧翻和提升这三个方向上需要移动的距离;
步骤7:重复调节步骤4和步骤5,直至相机和激光位移传感器的数据与标定数据相同,完成待拼装管片的抓取位姿的检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111113376.XA CN113863966B (zh) | 2021-09-18 | 2021-09-18 | 基于深度学习视觉的管片抓取位姿检测装置及检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111113376.XA CN113863966B (zh) | 2021-09-18 | 2021-09-18 | 基于深度学习视觉的管片抓取位姿检测装置及检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113863966A true CN113863966A (zh) | 2021-12-31 |
CN113863966B CN113863966B (zh) | 2023-06-06 |
Family
ID=78993394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111113376.XA Active CN113863966B (zh) | 2021-09-18 | 2021-09-18 | 基于深度学习视觉的管片抓取位姿检测装置及检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113863966B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114941543A (zh) * | 2022-05-31 | 2022-08-26 | 浙江大学高端装备研究院 | Rgb-d视觉管片抓取识别系统、拼装定位系统及拼装定位方法 |
CN118346296A (zh) * | 2024-06-18 | 2024-07-16 | 山东拓新电气有限公司 | 一种盾构法隧道掘进速度智能控制系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0884452A1 (fr) * | 1997-06-09 | 1998-12-16 | NFM Technologies | Machine de creusement d'un tunnel |
JP2002174601A (ja) * | 2000-12-05 | 2002-06-21 | Matsushita Electric Ind Co Ltd | 壁面損傷検出方法及び装置 |
CN105863674A (zh) * | 2016-05-25 | 2016-08-17 | 中国铁建重工集团有限公司 | 管片拼装位姿检测装置及检测方法 |
CN109736836A (zh) * | 2019-01-22 | 2019-05-10 | 长沙理工大学 | 一种基于Tag码视觉测量的盾构机管片自动拼装方法 |
CN110018163A (zh) * | 2019-04-09 | 2019-07-16 | 大连理工大学 | 基于机器视觉的管片拼装测量与控制系统和方法 |
CN110887513A (zh) * | 2019-11-19 | 2020-03-17 | 天津大学 | 一种基于bp神经网络的光纤光栅传感系统及其解调方法 |
CN112253168A (zh) * | 2020-10-28 | 2021-01-22 | 中交天和机械设备制造有限公司 | 一种盾构机管片自动化拼装方法及装置 |
CN112610231A (zh) * | 2020-12-09 | 2021-04-06 | 上海隧道工程有限公司 | 全自动盾构机管片拼装方法及系统 |
-
2021
- 2021-09-18 CN CN202111113376.XA patent/CN113863966B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0884452A1 (fr) * | 1997-06-09 | 1998-12-16 | NFM Technologies | Machine de creusement d'un tunnel |
JP2002174601A (ja) * | 2000-12-05 | 2002-06-21 | Matsushita Electric Ind Co Ltd | 壁面損傷検出方法及び装置 |
CN105863674A (zh) * | 2016-05-25 | 2016-08-17 | 中国铁建重工集团有限公司 | 管片拼装位姿检测装置及检测方法 |
CN109736836A (zh) * | 2019-01-22 | 2019-05-10 | 长沙理工大学 | 一种基于Tag码视觉测量的盾构机管片自动拼装方法 |
CN110018163A (zh) * | 2019-04-09 | 2019-07-16 | 大连理工大学 | 基于机器视觉的管片拼装测量与控制系统和方法 |
CN110887513A (zh) * | 2019-11-19 | 2020-03-17 | 天津大学 | 一种基于bp神经网络的光纤光栅传感系统及其解调方法 |
CN112253168A (zh) * | 2020-10-28 | 2021-01-22 | 中交天和机械设备制造有限公司 | 一种盾构机管片自动化拼装方法及装置 |
CN112610231A (zh) * | 2020-12-09 | 2021-04-06 | 上海隧道工程有限公司 | 全自动盾构机管片拼装方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114941543A (zh) * | 2022-05-31 | 2022-08-26 | 浙江大学高端装备研究院 | Rgb-d视觉管片抓取识别系统、拼装定位系统及拼装定位方法 |
CN118346296A (zh) * | 2024-06-18 | 2024-07-16 | 山东拓新电气有限公司 | 一种盾构法隧道掘进速度智能控制系统 |
CN118346296B (zh) * | 2024-06-18 | 2024-08-20 | 山东拓新电气有限公司 | 一种盾构法隧道掘进速度智能控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113863966B (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105043259B (zh) | 基于双目视觉的数控机床旋转轴误差检测方法 | |
CN103411553B (zh) | 多线结构光视觉传感器的快速标定方法 | |
CN100453966C (zh) | 一种摄像机空间三维位置姿态测量方法 | |
CN110008893B (zh) | 一种基于车载图像传感器的车辆行驶跑偏自动检测方法 | |
CN113863966B (zh) | 基于深度学习视觉的管片抓取位姿检测装置及检测方法 | |
CN110065075B (zh) | 一种基于视觉的空间细胞机器人外部状态感知方法 | |
CN110044374B (zh) | 一种基于图像特征的单目视觉测量里程的方法及里程计 | |
WO2015024407A1 (zh) | 基于电力机器人的双目视觉导航系统及方法 | |
CN110334678A (zh) | 一种基于视觉融合的行人检测方法 | |
CN108279677B (zh) | 基于双目视觉传感器的轨道机器人检测方法 | |
CN103616016A (zh) | 基于点线组合特征的位姿视觉测量方法 | |
CN106403900B (zh) | 飞行物追踪定位系统及方法 | |
CN105157592A (zh) | 基于双目视觉的柔性后缘可变形机翼的变形形状和速率的测量方法 | |
CN103759669A (zh) | 一种大型零件的单目视觉测量方法 | |
CN103065323A (zh) | 一种基于单应性变换矩阵的分段空间对准方法 | |
CN106651957B (zh) | 基于模板的单目视觉目标空间定位方法 | |
CN115578315A (zh) | 一种基于无人机图像的桥梁应变近景摄影测量方法 | |
CN112729318A (zh) | 一种agv叉车自主定位移动slam导航系统 | |
CN113536895A (zh) | 一种圆盘指针表计识别方法 | |
CN112540382B (zh) | 一种基于视觉识别检测的激光导航agv辅助定位方法 | |
CN117710588A (zh) | 一种基于视觉测距先验信息的三维目标检测方法 | |
CN106444774B (zh) | 基于室内照明灯的移动机器人视觉导航方法 | |
CN108090931B (zh) | 一种基于圆和十字特征组合的抗遮挡抗干扰的标志器识别与位姿测量方法 | |
CN114660579A (zh) | 一种全自动激光雷达与相机标定方法 | |
Higuchi et al. | 3D measurement of large structure by multiple cameras and a ring laser |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |