CN114636400B - 基于ann深度学习的多盾体间相对位姿测量方法及系统 - Google Patents

基于ann深度学习的多盾体间相对位姿测量方法及系统 Download PDF

Info

Publication number
CN114636400B
CN114636400B CN202210213108.3A CN202210213108A CN114636400B CN 114636400 B CN114636400 B CN 114636400B CN 202210213108 A CN202210213108 A CN 202210213108A CN 114636400 B CN114636400 B CN 114636400B
Authority
CN
China
Prior art keywords
shield
ann
relative pose
deep learning
relative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210213108.3A
Other languages
English (en)
Other versions
CN114636400A (zh
Inventor
朱国力
刘毅松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202210213108.3A priority Critical patent/CN114636400B/zh
Publication of CN114636400A publication Critical patent/CN114636400A/zh
Application granted granted Critical
Publication of CN114636400B publication Critical patent/CN114636400B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明属于盾构施工控制技术领域,公开了一种基于ANN深度学习的多盾体间相对位姿测量方法及系统,利用数字建模、仿真和人工智能建立ANN深度学习模型;利用铰接油缸长度、感光靶上光斑坐标信息、前后盾体上倾角仪测量出滚动角之差计算出多盾体间相对位姿。本发明应用于多盾体智能导向系统中,有效解决了现有的基于数值方法和基于机器视觉测量方法过程复杂繁琐、需要传感器数量多、精度低、使用环境受限等问题,仅通过铰接油缸长度、感光靶上光斑坐标和倾角仪等信息实时、迅速、准确测量计算出多盾体间相对位姿,为多护盾智能导向系统提供准确依据,有效提高多护盾盾构机施工效率,具有很高的工程实用价值。

Description

基于ANN深度学习的多盾体间相对位姿测量方法及系统
技术领域
本发明属于盾构施工控制技术领域,尤其涉及一种基于ANN深度学习的多盾体间相对位姿测量方法及系统。
背景技术
目前,双护盾TBM因其具有施工速度快、适用岩层广、施工质量优、可有效利用隧道空间等优点,同时双护盾TBM又可解决隧道施工过程中隧道转弯半径小、岩性复杂、岩石强度高等问题,成为隧道施工的首选对象。
应用于双护盾TBM的导向系统也应用而生,而测量计算出盾体间相对位姿是双护盾TBM导向系统中最重要的组成部分。目前测量求解多盾体间相对位姿,主要通过数值方法近似求解和基于机器视觉,运用工业摄影测量等算法求解。然而传统数值方法,多基于几何学分析迭代求解,所需传感器信息多,依赖于初值的选取,近似计算误差和传感器误差导致的累积误差大,且数值方法求解过程繁琐复杂;现有的基于机器视觉的方法涉及相机标定、相机焦距选型,施工现场环境复杂、恶劣,相机无法及时、准确获取所需信息。
通过对多盾体间传动建模,结合ANN深度学习和多传感器信息融合技术,本发明提出了一种新的测量计算多盾体间相对位姿方法。通过数学分析,铰接油缸伸缩量、感光靶上光斑坐标与多盾体间相对位姿之间存在某种复杂的非线性关系。且ANN(人工神经网络)深度学习模型具有超强的非线性拟合能力,合理选择网络层数和每一层的节点数,可以拟合出任意的非线性关系。
然而,多盾体传动机构不同于Stewart等应用较广的并联机器人机构,其平移变换和旋转变换对铰接油缸长度变化的影响差距较大。因此不能像一般的并联机器人,仅通过关节长度信息无法搭建训练出最优的ANN深度学习相对位姿测量计算模型。因此,需要添加适宜的传感器,配合最佳的传感器安装方式,以铰接油缸长度和所添加的传感器信息、结合ANN深度学习模型超强的非线性拟合能力,开发多盾体间相对位姿测量方法。
通过上述分析,现有技术存在的问题及缺陷为:使用ANN求解并联机器人运动学正解只针对于某些特殊的并联机构(Stewart、delta等),并未涉及求解多盾体中的圆柱形并联机构运动学正解。现有双护盾TBM导向系统中,盾体间相对位姿测量求解过程,存在复杂繁琐且误差大、所需传感器信息多、适用环境受限、不能满足工业现场实时精确控制要求等问题。
解决以上问题及缺陷的难度为:对于多盾体间的圆柱形并联机构而言,使用ANN深度学习求解盾体间相对位姿时,仅通过关节长度等信息无法确定出唯一的多盾体间相对位姿信息,因此需要重新确定相对位姿测量方案(添加何种附加传感器信息、传感器安装方式、位置等)。
解决以上问题及缺陷的意义为:本发明基于ANN深度学习,提出了一种新的多盾体间相对位姿测量方法,极大提高了多盾体导向系统中相对位姿求解速率与精度,且极易与其他模块集成,使用方便操作简单有效。并进一步地,针对所有圆柱形并联机构,提出了一种新求解其运动学正解方法,可适用于多节盾体导向控制、蛇形、毛虫等节肢动物仿生机器人运动学控制。
发明内容
针对现有技术存在的问题,本发明提供了一种基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法及系统。
本发明是这样实现的,一种基于ANN深度学习的多盾体间相对位姿测量方法包括:利用数字建模、仿真和人工智能建立ANN深度学习模型;利用铰接油缸长度、感光靶上光斑坐标信息、前后盾体上倾角仪测量出滚动角之差计算出多盾体间相对位姿。
进一步,测量多盾体间相对位姿的传感器包括直线位移传感器、准直激光器和感光靶和倾角仪在内的传感器,直线位移传感器安装在铰接油缸上,多个直线位移传感器测量出多根铰接油缸长度;倾角仪各安装在前后盾体上,测量前后盾体的滚动角;所述感光靶安装方式为:将感光靶相对前盾体的俯仰、偏航方向旋转一定角度安装,并接收后盾体上准直激光器发射出的光线;所述感光靶特殊的安装方式为:通过误差敏感性分析和实验验证,对感光靶安装中,使感光靶坐标系与前盾体坐标系的偏航、俯仰方向成一定角度,将感光靶相对前盾体的俯仰方向、偏航方向同时旋转30°±5°。
进一步,对感光靶靶坐标系相对前盾体坐标系的旋转角度进行两次不同方法的标定:1)使用全站仪测量出感光靶未旋转时和沿相对前盾体的俯仰、偏航方向旋转一定角度时感光靶坐标系上的坐标原点、x、y轴各上一点的坐标,共五点的坐标,通过这五点坐标计算出感光靶坐标系相对前盾体坐标系的偏航角、俯仰角;2)使用倾角仪直接测量出感光靶相对前盾体的俯仰角、偏航角;对比两次计算、测量结果,使用卡尔曼滤波算法计算出感光靶坐标系相对前盾体坐标系真实的俯仰角、偏航角。
进一步,所述基于ANN深度学习的多盾体间相对位姿测量方法具体包括:
步骤一,多盾体几何建模阶段;
步骤二,ANN深度学习模型训练阶段;
步骤三,多盾体间相对位姿测量阶段。
进一步,步骤一所述的多盾体几何建模阶段包括:
(1)多盾体间并联机构几何建模,剥离与多盾体间传动无关部件,将多盾体间传动机构简化为6自由度SPS链的圆柱形并联机构;
(2)多盾体几何分析,对多盾体间特殊的传动机构,基于刚体位姿齐次变换建立铰接油缸长度、感光靶上光斑坐标与多盾体间相对位姿之间的函数关系;
(3)确立多盾体间相对位姿测量方案,确定使用多个直线位移传感器测量出多根铰接油缸长度、感光靶上光斑坐标和倾角仪测量出的前后盾体滚动角之差与对应的盾体间相对位姿信息,训练ANN深度学习模型;
(4)标定多盾体间相对位姿测量方法中所用的传感器,使用全站仪标定出准直激光器的安装位置、激光方向,使用全站仪测量出感光靶初始安装和沿俯仰、偏航方向旋转一定角度安装时感光靶坐标系上的坐标原点、x、y轴上各一点的坐标,共五点的坐标,旋转前后感光靶坐标系原点坐标不变;使用倾角仪测量出感光靶沿俯仰、偏航方向的旋转角度;
步骤二所述的ANN深度学习模型训练阶段包括:
(1)数据确定及生成
1)确定ANN的输入参数和输出参数:将多盾体间的≥4的多根铰接油缸长度、前盾体上感光靶上的光斑坐标和倾角仪测量出的前、后盾体间滚动角的差值作为多盾体间相对位姿测量模型的输入参数;将多盾体间相对位姿包括盾体间水平偏移量、垂直偏移量、轴向偏移量、相对偏航角、相对俯仰角作为多盾体间相对位姿测量模型的输出参数;
2)生成数据:根据多盾体盾构机实际施工参数中的铰接油缸伸缩量0~2000mm和球铰接球转角≤3°,建立多盾体间相对位姿传递数学模型;基于蒙特卡洛法随机生成相对位姿信息,并反解求出所对应的多根铰接油缸长度、感光靶上光斑坐标信息;以求解的多根铰接油缸长度、旋转式感光靶上光斑位置坐标和对应的相对位姿为所生成数据,并将不符合施工参数数据剔除;
3)数据预处理:对所生成数据的输入部分进行数据预处理:①根据盾构实际施工情况去除不合理数据;②添加噪声干扰;③归一化处理;得到ANN深度学习样本数据,将样本数据分为训练集、验证集和测试集;
(2)将训练集中的输入参数作为输入、输出参数作为标签,输入ANN深度学习模型进行监督学习训练,并用验证集进行验证;
(3)利用测试集的输入参数和输出参数对训练好的ANN深度学习的多盾体间相对位姿测量模型进行测试,比较实际输出参数与测试集的输出参数之间的偏差,并计算平均绝对误差MAE和最大误差,若MAE和最大误差超出预设范围,则调节ANN深度学习模型结构并返回步骤(2);若偏差在预设范围内,训练完毕,得到基于ANN深度学习的多盾体间相对位姿测量模型;
步骤三所述多盾体间相对位姿测量阶段包括:
将直线位移传感器测量出的多根铰接油缸长度、感光靶上的光斑坐标和倾角仪测量出的前后盾体滚动角之差在内的多个变量作为输入,输入至多盾体间相对位姿测量模型中,测量得到多盾体间相对位姿,求得前盾体的位姿,实现多护盾实时导向。
进一步,步骤二中的ANN模型建立阶段采用如下的传感器误差补偿技术:在生成数据过程中,对输入数据施加高斯噪声干扰;在反解出铰接油缸长度、旋转式感光靶上光斑坐标时,根据各个传感器测量精度,施加高斯噪声,添加到训练数据的输入参数上;所述高斯噪声均值为0,方差为1/3。
本发明的另一目的在于提供一种应用所述的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量系统,所述基于ANN深度学习和多传感器融合的多盾体间相对位姿测量系统包括:
多盾体几何建模模块,用于分别进行多盾体间并联机构几何建模、多盾体几何分析,确立多盾体间相对位姿测量方案,并标定传感器;
ANN模型建立模块,用于进行数据确定及生成,输入ANN深度学习模型进行监督学习训练,得到基于ANN深度学习的多盾体间相对位姿测量模型;
多盾体间相对位姿测量模块,用于将直线位移传感器测量出的变量输入多盾体间相对位姿测量模型中进行多盾体间相对位姿测量。
本发明的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
采用数字建模、仿真技术和人工智能技术,建立ANN深度学习模型;通过铰接油缸长度、感光靶上光斑坐标信息、前后盾体上倾角仪测量出的滚动角之差,直接测量计算出多盾体间相对位姿。
本发明的另一目的在于提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
采用数字建模、仿真技术和人工智能技术,建立ANN深度学习模型;通过铰接油缸长度、感光靶上光斑坐标信息、前后盾体上倾角仪测量出的滚动角之差,直接测量计算出多盾体间相对位姿。
本发明的另一目的在于提供一种信息数据处理终端,所述信息数据处理终端用于实现所述的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量系统。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明提供的基于ANN深度学习的多盾体间相对位姿测量方法,采用数字建模、仿真技术和人工智能技术,建立ANN深度学习模型,通过铰接油缸长度、感光靶上光斑坐标信息、前后盾体上倾角仪测量出的滚动角之差,直接测量计算出多盾体间相对位姿。本发明是一种独创的测量方案,只需较少的传感器,实现盾体间相对位姿高精度测量。该方法应用于多盾体智能导向系统中,有效解决了现有的基于数值方法和基于机器视觉测量方法过程复杂繁琐、需要传感器数量多、精度低、使用环境受限等问题。本方法可实现实时、准确、迅速测量计算出多盾体间相对位姿,且易于集成,具有很高的工程实用价值。
通过本发明所构思的以上技术方案与现有技术相比,本发明提供的基于ANN深度学习和多传感器信息融合的多盾体间相对位姿测量方法:通过对以SPS为支链关节的6自由度圆柱形并联机构进行分析研究,提出了基于ANN深度学习的多盾体间相对位姿测量方法,并将其应用于多盾体智能导向系统中的相对位姿解算框架中,有效地解决了多盾体间相对位姿计算过程繁琐复杂、需要传感器信息多、求解精度低等问题。本发明所提出的位姿解算算法,只需多根(≥4)铰接油缸长度、倾角仪所测量出的前后盾体的滚动角之差和感光靶上准直激光器的光斑坐标等多个传感器信息,便可快速、准确测量计算出多盾体间相对位姿,可适应于工业现场各种环境,并且易于施工人员及时准确控制,且易于集成,可提高多盾体导向精度和隧道成型精度。
本发明可以快速地通过铰接油缸长度、感光靶上光斑坐标和倾角仪等信息实时、迅速、准确测量计算出多盾体间相对位姿,为多护盾智能导向系统提供准确依据,有效提高多护盾盾构机施工效率。更进一步,本发明提供了一种求解圆柱形并联机构运动学正解的通用方法,可适用于多节盾体导向控制、蛇形、毛虫等节肢动物仿生机器人运动学控制,所需传感器信息少,易于集成,可实现对其精确控制。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法流程图。
图2是本发明实施例提供的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法原理图。
图3是本发明实施例提供的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量系统结构框图;
图中:1、多盾体几何建模模块;2、ANN模型建立模块;3、多盾体间相对位姿测量模块。
图4是本发明实施例提供的多盾体间传动建模示意图。
图5是本发明实施例提供的感光靶特殊安装方式示意简图。
图6是本发明实施例提供的示范性解释ANN深度学习模型构造图。
图7是本发明实施例提供的模型测试误差分布散点图,图中代表多盾体间相对位姿中:图7(a)X为水平偏移量误差分布散点图、图7(b)Y为竖直偏移量误差分布散点图、图7(c)Z为轴向偏移量误差分布散点图、图7(d)α为偏航角误差分布散点图、图7(e)β为俯仰角误差分布散点图。
图8是本发明实施例提供的模型测试误差分布直方图及高斯拟合曲线图,图中代表多盾体间相对位姿中:图8(a)为X为水平偏移量误差分布直方图及高斯拟合曲线、图8(b)Y为竖直偏移量误差分布直方图及高斯拟合曲线、图8(c)Z为轴向偏移量误差分布直方图及高斯拟合曲线、图8(d)α为偏航角误差分布直方图及高斯拟合曲线、图8(e)β为俯仰角误差分布直方图及高斯拟合曲线。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法,下面结合附图对本发明作详细的描述。
如图1所示,本发明实施例提供的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法包括以下步骤:
S101,多盾体间传动建模阶段;
S102,ANN模型建立阶段;
S103,多盾体间相对位姿测量阶段。
本发明实施例提供的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法原理图如图2所示。
如图3所示,本发明实施例提供的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量系统包括:
多盾体几何建模模块1,用于分别进行多盾体间并联机构几何建模、多盾体几何分析,确立多盾体间相对位姿测量方案,并标定传感器;
ANN模型建立模块2,用于进行数据确定及生成,输入ANN深度学习模型进行监督学习训练,得到基于ANN深度学习的多盾体间相对位姿测量模型;
多盾体间相对位姿测量模块3,用于将直线位移传感器测量出的变量输入多盾体间相对位姿测量模型中进行多盾体间相对位姿测量。
下面结合具体实施例对本发明的技术方案作进一步描述。
实施例1
针对现有双护盾TBM导向系统中,盾体间相对位姿测量求解过程复杂繁琐且误差大、所需传感器信息多、适用环境受限、不能满足工业现场实时精确控制要求等缺点,本发明提供了一种新的多盾体间相对位姿测量方法,所需传感器信息少、位姿求解迅速且精度高。
本发明解决上述技术问题的技术方案如下:一种基于ANN深度学习和多传感器融合的多盾体间相对位姿测量方法,其特征在于,包括多盾体间传动建模阶段、ANN模型建立阶段和多盾体间相对位姿测量阶段,其中:
步骤S1:多盾体间传动建模阶段包括:
步骤S1.1:多盾体间并联机构几何建模:即将多盾体间的传动机构简化为圆柱形的并联机构。多护盾中前盾体与后盾体尺寸大小相同,前、后盾体之间布置有四组铰接油缸关节,每组铰接油缸均为SPS支链(盾体与关节之间为空间球副,有球铰接连接,球转角3°,关节之间为移动副,通过油缸伸缩传动),前、后盾体之间有6个自由度。剥离掉与盾体间传动无关部件,将多盾体间传动机构简化为6自由度SPS链圆柱形并联机构;
步骤S1.2:多盾体间运动学分析:即对于6自由度SPS链圆柱形并联机构,基于刚体位姿齐次变换,进行运动学反解,分析运动学正解。通过已知前后盾体间相对位姿和铰接油缸安装位置信息,基于刚体位姿齐次变换,建立关节长度与位姿之间的函数关系,通过微分学分析,分别建立角度旋转变换、平移变换对铰接油缸伸缩量的影响趋势;
步骤S1.3:确立多盾体间相对位姿测量方案:即通过步骤S1.1和S1.2并结合大量实验验证,多盾体间相对位姿测量所需的传感器为:直线位移传感器、准直激光器和感光靶、倾角仪等传感器,直线位移传感器安装在铰接油缸上,多个直线位移传感器测量出多根铰接油缸长度;倾角仪各安装在前后盾体上,测量前、后盾体的滚动角;感光靶安装方式为:将感光靶相对前盾体的俯仰、偏航方向旋转一定角度安装,增加对平移变换的感知;
步骤S1.4:标定多盾体间相对位姿测量方法中所用的传感器:即使用全站仪标定出准直激光器的安装位置、激光方向,使用全站仪测量出感光靶初始安装和俯仰、偏航方向旋转一定角度安装时感光靶坐标系上的坐标原点、x、y轴上各一点的坐标,共五点的坐标,使用倾角仪测量出感光靶沿俯仰、偏航方向的旋转角度;
步骤S2:ANN模型建立阶段,包括:
步骤S2.1:数据确定及生成
步骤S2.1.1:确定ANN的输入参数和输出参数:
将多盾体间的多(≥4)根铰接油缸长度、前盾体上感光靶上的光斑坐标和倾角仪测量出的前、后盾体间滚动角的差值作为多盾体间相对位姿测量模型的输入参数;
将多盾体间相对位姿包括盾体间水平偏移量、垂直偏移量、轴向偏移量、相对偏航角、相对俯仰角作为多盾体间相对位姿测量模型的输出参数;
步骤S2.1.2:生成数据
建立多盾体间相对位姿传递数学模型,基于蒙特卡洛法随机生成相对位姿信息,并反解求出所对应的多(≥4)根铰接油缸长度、感光靶上光斑坐标等信息,以求解的多(≥4)根铰接油缸长度、感光靶上光斑位置坐标和对应的相对位姿为所生成数据;
步骤S2.1.3:数据预处理
对所生成数据的输入部分进行数据预处理:(1)根据盾构实际施工情况去除不合理数据;(2)添加噪声干扰;(3)归一化处理;得到ANN深度学习样本数据,将样本数据分为训练集、验证集和测试集;
步骤S2.2:将训练集中的输入参数作为输入、输出参数作为标签,输入ANN深度学习模型进行监督学习训练,并用验证集进行验证;
步骤S2.3:利用测试集的输入参数和输出参数对训练好的ANN深度学习的多盾体间相对位姿测量模型进行测试,比较实际输出参数与测试集的输出参数之间的偏差,并计算平均绝对误差MAE和最大误差,若MAE和最大误差超出预设范围,则调节ANN深度学习模型结构并返回步骤S2.2;若偏差在预设范围内,训练完毕,得到基于ANN深度学习的多盾体间相对位姿测量模型。
步骤S3:多盾体间相对位姿测量阶段,将直线位移传感器测量出的多根(≥4)铰接油缸长度、感光靶上的光斑坐标和倾角仪测量出的前后盾体滚动角之差等多个变量作为输入,输入多盾体间相对位姿测量模型中,实时、准确、迅速测量出多盾体间相对位姿,进而求得前盾体的位姿,实现多护盾实时导向;
进一步地,针对本发明所提出的多盾体间相对位姿测量方法,采用出与之前不同的传感器的类型、安装方式、标定方法,并对感光靶靶坐标系相对前盾体坐标系的旋转角度进行两次不同方法的标定:(1)使用全站仪测量出感光靶未旋转时和沿相对前盾体的俯仰、偏航方向旋转一定角度时感光靶坐标系上的坐标原点、x、y轴各上一点的坐标,共五点的坐标,通过这五点坐标计算出感光靶坐标系相对前盾体坐标系的偏航角、俯仰角,(2)使用倾角仪直接测量出感光靶相对前盾体的俯仰角、偏航角。对比两次计算、测量结果,使用卡尔曼滤波算法计算出感光靶坐标系相对前盾体坐标系真实的俯仰角、偏航角,减小并联机构几何建模误差,提高相对位姿测量模型精度;
进一步地,针对本发明所提出的多盾体间相对位姿测量方法,通过误差敏感性分析和大量实验验证,对感光靶采取特殊的安装方式:使感光靶坐标系与前盾体坐标系的偏航、俯仰方向成一定角度,即将感光靶相对前盾体的俯仰方向、偏航方向同时旋转30°±5°;
进一步地,按照本发明要求,对所有传感器误差补偿,即在生成数据过程中,对输入数据施加高斯噪声干扰。即在反解出铰接油缸长度、旋转式感光靶上光斑坐标时,根据各个传感器测量精度,施加高斯噪声(均值为0,方差为1/3)添加到训练数据的输入参数上;
进一步地,按照本发明的要求,在数据的生成阶段,根据多盾体盾构机的实际施工参数(铰接油缸伸缩量0-2000mm,球铰接球转角≤3°),建立位姿传递数学模型,基于蒙特卡洛法生成大量数据,并将不符合施工参数数据剔除;
进一步地,按照本发明要求,在多盾体传动建模阶段和ANN模型训练阶段的多传感器信息融合技术,分别使用卡尔曼滤波和ANN模型对全站仪、直线位移传感器、感光靶、倾角仪等传感器进行信息融合,使用卡尔曼滤波对全站仪和倾角仪进行信息融合,提高测量标定感光靶的旋转角度精度,从而提高多盾体间相对位姿测量精度。使用ANN深度学习模型对多个直线位移传感器、感光靶、倾角仪进行信息融合,直接测量计算出多盾体间相对位姿;本发明创新性提出使用特殊结构的ANN深度学习模型,对拉绳式位移传感器、准直激光器、感光靶、倾角仪等传感器进行信息融合,直接测量计算出多盾体间相对位姿,进而求出前盾体的姿态,为多盾体智能导向提供准确依据;
总体而言,通过本发明所构思的以上技术方案与现有技术相比,本发明提供的基于ANN深度学习和多传感器信息融合的多盾体间相对位姿测量方法:通过对以SPS为支链关节的6自由度圆柱形并联机构进行分析研究,提出了基于ANN深度学习的多盾体间相对位姿测量方法,并将其应用于多盾体智能导向系统中的相对位姿解算框架中,有效地解决了多盾体间相对位姿计算过程繁琐复杂、需要传感器信息多、求解精度低等问题。本发明所提出的位姿解算算法,只需多根(≥4)铰接油缸长度、倾角仪所测量出的前后盾体的滚动角之差和感光靶上准直激光器的光斑坐标等多个传感器信息,便可快速、准确测量计算出多盾体间相对位姿,可适应于工业现场各种环境,并且易于施工人员及时准确控制,且易于集成,可提高多盾体导向精度和隧道成型精度。
实施例2
图2是按照本发明提出的ANN深度学习多盾体间相对位姿测量方法整体流程示意图,图4是多盾体间传动建模简化示意图,图5是本发明提出感光靶特殊的安装方式示意图,即将感光靶自身坐标系沿前盾体的俯仰、偏航方向旋转一定角度,即可增加对多盾体间平移变换的感知,又一定程度上削弱多盾体间旋转变换的感知,极大地提高多盾体间相对位姿测量精度。图6是ANN深度学习模型结构图,通过多盾体间传动机构运动学反解生成样本、标签数据集,通过误差向后传播智能算法,迭代更新模型内部参数,优化ANN深度学习的多盾体间相对位姿测量模型,获得误差最小的ANN深度学习模型,此模型即为所需的多盾体间相对位姿测量计算模型。
如图4所示,对于任一多盾体间传动机构,将其简化为一静平台(后盾体)与动平台(前盾体)大小尺寸相同,动、静平台之间布置有多个SPS支链的铰接油缸,通过铰接油缸关节伸缩传动,即初始状态(前盾体相对于后盾体未发生位姿旋转平移变化)为圆柱形的并联机构。以后盾体上铰接油缸铰接点平面为xoy平面、后盾体轴线为z轴、后盾体轴线与铰接平面的交点为坐标原点建立静坐标系XYZ;以前盾体上铰接油缸铰接点平面为xoy平面、前盾体轴线为z轴、前盾体轴线与铰接平面的交点为坐标原点建立动坐标系xyz。测量计算出多盾体间相对位姿,即求解出动坐标系xyz相对于静坐标系XYZ的位姿变换矩阵。所提测量方法的具体实施过程如下:
1.首先,当多护盾盾构机组装完成时,测绘出安装有位移传感器的多个(≥4,以下均以4根铰接油缸为例进行分析)铰接油缸上下铰接点在动静坐标系下的坐标。通过对圆柱形并联机构分析可知,上下铰接点在动静坐标系下的坐标相同,假设在静坐标系4个铰接点坐标为A(x1,y1,0)、B(x2,y2,0)、C(x3,y3,0)、D(x4,y4,0),这4根油缸所对应的在动坐标系下的铰接点坐标为a(x1,y1,0)、b(x2,y2,0)、c(x3,y3,0)、d(x4,y4,0),测绘出动坐标系中心到静坐标系中心的距离为1。准直激光器安装在静坐标系(后盾体)中,调整准直激光器安装位置,使其在感光靶上光斑坐标为感光靶上的坐标原点,通过全站仪测绘出此时准直激光器的安装位置在静坐标系的坐标为laser(xl,yl,zl),全站仪测绘出准直激光器发射出激光一点在静坐标系下坐标为(xl1,yl1,zl1);使用全站仪测绘出初始状态下(感光靶平面与动坐标系xoy平面平行)感光靶平面坐标原点ot(盾构机初始安装状态下,准直激光器发射出的激光投射到感光靶上的光斑即为感光靶的坐标原点)、x轴上一点xt、y轴上一点yt在静坐标下的坐标分别为(xot,yot,zot)、(xxt,yxt,zxt)、(xyt,yyt,zyt);调整感光靶安装架,使其沿其前盾体偏航、俯仰方向分别转动角度为ε、θ,再使用全站仪测出上述三点坐标为(xot1,yot1,zot1)、(xxt1,yxt1,zxt1)、(xyt1,yyt1,zyt1),在使用倾角仪测量出感光靶平面相对前盾体偏航、俯仰方向分别转动角度为ε1、θ1,且(xot,yot,zot)=(xot1,yot1,zot1),故使用(xot,yot,zot)、(xxt,yxt,zxt)、(xyt,yyt,zyt)、(xxt1,yxt1,zxt1)、(xyt1,yyt1,zyt1)五点,通过坐标变换计算出ε2、θ2,再使用卡尔曼滤波算法对倾角仪、全站仪进行信息融合,得出真实的ε、θ。并以此旋转变换固定安装此感光靶,其相对于静坐标系的初始旋转变换矩阵为M;
Figure BDA0003532835970000141
2.建立多盾体间传动机构运动学反解数学模型,基于刚体位姿齐次变换,假设动坐标系相对于静坐系x、y、z轴的旋转角度为α、β、γ平移距离为X、Y、Z。则动静平台之间的位姿齐次变换矩阵为R:
Figure BDA0003532835970000142
经位姿齐次变换后4根铰接油缸长度分别为L1、L2、L3、L4,即Aa/=L1、Bb/=L2、Cc/=L3、Dd/=L4,a/、b/、c/、d/为经位姿齐次变换后的a、b、c、d的前盾铰接点,则:
Li==‖R×[xi,yi,0,1]T-[xi,yi,0,1]T‖i=1,2,3,4 (1)
求解感光靶上光斑坐标信息算法如下,以下点坐标表示均取相对于后盾体静坐标系下的坐标:
(1)求解准直激光器直线方程:准直激光器在静坐标系下的安装位置坐标为(xl,yl,zl),准直激光器发射出激光一点为(xl1,yl1,zl1),其方向矢量为(m,n,s),则:m=xl-xl1、n=yl-yl1、s=zl-zl1,则准直激光器发射出的激光可表示为:
Figure BDA0003532835970000151
(2)求解感光靶靶平面方程:感光靶安装在前盾体上,随前盾体发生同样的刚体位姿变换,初始时感光靶经安装时旋转变换、随前盾体一起发生位姿齐次变换后靶原点o、靶平面x轴取一点p、靶平面y轴上取一点q在静坐标系下的坐标为(xa1,ya1,za1)、(xa2,ya2,za2)、(xa3,ya3,za3);则
[xai yai zai 1]T=R*M*[xjt yjt zjt 1]T,i=1,2,3,j=o、x、y。(2)
过此三点可确定一平面Ω,其法向量n可表示为:n=[r p q],
Figure BDA0003532835970000152
则靶平面上Ω方程为:
Figure BDA0003532835970000153
(3)求解线、面交点:经位姿齐次变换后,取准直激光上一点r,其坐标为(xl,yl,zl),o为感光靶平面上一点坐标为(xa1,ya1,za1),
Figure BDA0003532835970000154
为平面法向量,w为直线方向向量为(m,n,s)。
设:
Figure BDA0003532835970000155
Figure BDA0003532835970000156
Figure BDA0003532835970000157
则交点坐标为s(xn,yn,zn),
Figure BDA0003532835970000161
(4)求解感光靶上光斑坐标:求解激光标靶上准直激光器偏移量dis_x,dis_y方法如下,o为感光靶坐标原点,坐标(xa1,ya1,za1),q为靶平面y轴上一点,坐标为(xa3,ya3,za3),s为激光投射到靶平面在静坐标系下的坐标由上求得为(xn,yn,zn),
Figure BDA0003532835970000162
Figure BDA0003532835970000163
3.生成数据,使用蒙特卡洛法,在多盾体盾构机约束范围内(球转角≤3°、铰接油缸最大伸缩量为2m)随机生成位姿齐次变换矩阵中的旋转角度α、β、γ、平移距离X、Y、Z等符合实际盾构施工参数值,根据(2)中的所建立的数学模型,求解出四根铰接油缸长度L1、L2、L3、L4和准直激光器在感光靶上的坐标dis_x、dis_y等6个传感器信息,即可得出L1、L2、L3、L4、dis_x、dis_y、γ与α、β、X、Y、Z之间一一对应的数据集,从而得到大量的训练样本数据。
4.数据预处理,在生成数据阶段,对所有测量传感器的进行误差补偿。对步骤3中所生成的L1、L2、L3、L4、dis_x、dis_y、γ等数据,根据各个传感器测量精度和分辨率,采取去下处理:(1)首先,添加高斯随机干扰和椒盐脉冲干扰噪声(均值为0,方差为1/3);(2)其次,根据各传感器精度进行截断取整;(3)最后,归一化处理。得到ANN深度学习的训练样本数据,将训练样本分为训练集、验证集和测试集;
5.搭建ANN深度学习模型,使用特殊结构的ANN深度学习模型,对直线位移传感器、准直激光器、感光靶、倾角仪等传感器进行信息融合,直接测量计算出多盾体间相对位姿,进而求出前盾体的位姿,实现多护盾实时导向纠偏。所使用特殊结构的ANN深度学习模型如下:激活函数为ELU函数,
Figure BDA0003532835970000171
(参数a=1);权重初始化为He初始化;优化器为Adam算法优化,其动量衰减超参数β1初始化为0.9,缩放衰减超参数β2初始化为0.99;训练循环次数epoch为10000;采用分段恒定调度调整学习率大小,循环次数在0-2500时学习率为0.01,循环次数在2500-5000时学习率为0.005,循环次数在5000-10000时学习率为0.0001,采用l2正则化约束神经网络连接权重,避免过拟合,其正则因子为0.01;隐含层为12层,每层神经元个数为225。
6.训练ANN深度学习模型,ANN深度学习模型具有超强的非线性拟合能力,以L1、L2、L3、L4、dis_x、dis_y、γ等7个特征为输入,以其所对应的α、β、X、Y、Z为标签。将步骤4中预处理后的数据集分为训练集(Xtrain,Ytrain),验证集(Xvalidate,Yvalidate),测试集(Xtest,Ytest)三部分,X表示特征输入,Y标签输出。在服务器上使用python平台基于tensorflow框架,将训练集(Xtrain,Ytrain)输入步骤5中特殊结构的ANN深度学习模型中,使用误差向后传播智能算法,调整模型参数,训练ANN深度学习模型。其算法流程如下表所示:
表1神经网络训练阶段的算法流程
Figure BDA0003532835970000172
Figure BDA0003532835970000181
测试阶段的算法工作流程如下:
Figure BDA0003532835970000182
7.将位姿解算模型嵌入多护盾智能导向系统中,通过数据采集模块采集4根铰接油上的位移传感器、感光靶上光斑坐标和倾角仪测量出的滚动角等数据,再通过通信接口将采集的传感器数据输入到位姿解算模型中,实时迅速准确解算出盾体间相对位姿,从而计算出前盾的位姿,实现多护盾盾构机实时导向纠偏。
对于以上的整个工艺算法过程而言,建立仿真模型为:前后盾体油缸安装半径均为2500mm,前后盾体油缸安装中心之间为2000mm,在后盾体坐标系中的准直激光器安装位置坐标为(100,2000,-500),激光方向上一点坐标为(100,2000,900);感光靶中心、x轴、y轴坐标为(100,2000,3000)、(110,2000,3000)、(100,2500,300)。旋转角度选取-50—50mrad之间的整数,X、Y向平移距离选取-200—200mm之间的整数,Z向平移距离选取0—2000mm之间的整数。生成1000000组数据集,去除掉关节长度大于4000mm的数据集,总共可得937495组训练数据集,再将其按取出8%数据作为测试集,剩余数据按照4:1划分为训练集、验证集,训练集、验证集、测试集分别为689996、172499、75000组。最终ANN深度学习相对位姿测量模型,在测试集上的MSE、MAE分别为1.0885、0.1839,图7、图8展示了最终模型在测试集上预测误差及其分布图。其中,图7(a)X为水平偏移量误差分布散点图、图7(b)Y为竖直偏移量误差分布散点图、图7(c)Z为轴向偏移量误差分布散点图、图7(d)α为偏航角误差分布散点图、图7(e)β为俯仰角误差分布散点图。图8(a)为X为水平偏移量误差分布直方图及高斯拟合曲线、图8(b)Y为竖直偏移量误差分布直方图及高斯拟合曲线、图8(c)Z为轴向偏移量误差分布直方图及高斯拟合曲线、图8(d)α为偏航角误差分布直方图及高斯拟合曲线、图8(e)β为俯仰角误差分布直方图及高斯拟合曲线。
整个测试过程在服务器上进行,预加载模型后,预测速度可达131FPS。服务器站配置为:Intel Xeon(R)Gold 6242R CPU@3.10GHZ3.09GHz(双处理器)八核心CPU,256G内存,64位操作系统。
综上,本发明可以快速地通过铰接油缸长度、感光靶上光斑坐标和倾角仪等信息实时、迅速、准确测量计算出多盾体间相对位姿,为多护盾智能导向系统提供准确依据,有效提高多护盾盾构机施工效率。更进一步,本发明提供了一种求解圆柱形并联机构运动学正解的通用方法,所需传感器信息少,易于集成,可实现对其精确控制。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如软盘、硬盘、磁带)、光介质(例如DVD)、或者半导体介质(例如固态硬盘Solid StateDisk(SSD))等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。

Claims (7)

1.一种基于ANN深度学习的多盾体间相对位姿测量方法,其特征在于,所述基于ANN深度学习的多盾体间相对位姿测量方法包括:利用数字建模、仿真和人工智能建立ANN深度学习模型;利用铰接油缸长度、感光靶上光斑坐标信息、前后盾体上倾角仪测量出滚动角之差计算出多盾体间相对位姿;
所述基于ANN深度学习的多盾体间相对位姿测量方法具体包括:
步骤一,多盾体几何建模阶段;
步骤二,ANN深度学习模型训练阶段;
步骤三,多盾体间相对位姿测量阶段;
步骤一所述的多盾体几何建模阶段包括:
(1)多盾体间并联机构几何建模,剥离与多盾体间传动无关部件,将多盾体间传动机构简化为6自由度SPS链的圆柱形并联机构;
(2)多盾体几何分析,对多盾体间特殊的传动机构,基于刚体位姿齐次变换建立铰接油缸长度、感光靶上光斑坐标与多盾体间相对位姿之间的函数关系;
(3)确立多盾体间相对位姿测量方案,确定使用多个直线位移传感器测量出多根铰接油缸长度、感光靶上光斑坐标和倾角仪测量出的前后盾体滚动角之差与对应的盾体间相对位姿信息,训练ANN深度学习模型;
(4)标定多盾体间相对位姿测量方法中所用的传感器,使用全站仪标定出准直激光器的安装位置、激光方向,使用全站仪测量出感光靶初始安装和沿俯仰、偏航方向旋转一定角度安装时感光靶坐标系上的坐标原点、x、y轴上各一点的坐标,共五点的坐标,旋转前后感光靶坐标系原点坐标不变;使用倾角仪测量出感光靶沿俯仰、偏航方向的旋转角度;
步骤二所述的ANN深度学习模型训练阶段包括:
(1)数据确定及生成
1)确定ANN的输入参数和输出参数:将多盾体间的≥4的多根铰接油缸长度、前盾体上感光靶上的光斑坐标和倾角仪测量出的前、后盾体间滚动角的差值作为多盾体间相对位姿测量模型的输入参数;将多盾体间相对位姿包括盾体间水平偏移量、垂直偏移量、轴向偏移量、相对偏航角、相对俯仰角作为多盾体间相对位姿测量模型的输出参数;
2)生成数据:根据多盾体盾构机实际施工参数中的铰接油缸伸缩量0~2000mm和球铰接球转角≤3°,建立多盾体间相对位姿传递数学模型;基于蒙特卡洛法随机生成相对位姿信息,并反解求出所对应的多根铰接油缸长度、感光靶上光斑坐标信息;以求解的多根铰接油缸长度、旋转式感光靶上光斑位置坐标和对应的相对位姿为所生成数据,并将不符合施工参数数据剔除;
3)数据预处理:对所生成数据的输入部分进行数据预处理:①根据盾构实际施工情况去除不合理数据;②添加噪声干扰;③归一化处理;得到ANN深度学习样本数据,将样本数据分为训练集、验证集和测试集;
(2)将训练集中的输入参数作为输入、输出参数作为标签,输入ANN深度学习模型进行监督学习训练,并用验证集进行验证;
(3)利用测试集的输入参数和输出参数对训练好的ANN深度学习的多盾体间相对位姿测量模型进行测试,比较实际输出参数与测试集的输出参数之间的偏差,并计算平均绝对误差MAE和最大误差,若MAE和最大误差超出预设范围,则调节ANN深度学习模型结构并返回步骤(2);若偏差在预设范围内,训练完毕,得到基于ANN深度学习的多盾体间相对位姿测量模型;
步骤三所述多盾体间相对位姿测量阶段包括:
将直线位移传感器测量出的多根铰接油缸长度、感光靶上的光斑坐标和倾角仪测量出的前后盾体滚动角之差在内的多个变量作为输入,输入至多盾体间相对位姿测量模型中,测量得到多盾体间相对位姿,求得前盾体的位姿,实现多护盾实时导向;
步骤二中的ANN模型建立阶段采用如下的传感器误差补偿技术:在生成数据过程中,对输入数据施加高斯噪声干扰;在反解出铰接油缸长度、旋转式感光靶上光斑坐标时,根据各个传感器测量精度,施加高斯噪声,添加到训练数据的输入参数上;所述高斯噪声均值为0,方差为1/3。
2.权利要求1所述基于ANN深度学习的多盾体间相对位姿测量方法,其特征在于,测量多盾体间相对位姿的传感器包括直线位移传感器、准直激光器和感光靶和倾角仪在内的传感器,直线位移传感器安装在铰接油缸上,多个直线位移传感器测量出多根铰接油缸长度;倾角仪各安装在前后盾体上,测量前后盾体的滚动角;所述感光靶安装方式为:将感光靶相对前盾体的俯仰、偏航方向旋转一定角度安装,并接收后盾体上准直激光器发射出的光线;所述感光靶特殊的安装方式为:通过误差敏感性分析和实验验证,对感光靶安装中,使感光靶坐标系与前盾体坐标系的偏航、俯仰方向成一定角度,将感光靶相对前盾体的俯仰方向、偏航方向同时旋转30°±5°。
3.如权利要求2所述基于ANN深度学习的多盾体间相对位姿测量方法,其特征在于,对感光靶靶坐标系相对前盾体坐标系的旋转角度进行两次不同方法的标定:1)使用全站仪测量出感光靶未旋转时和沿相对前盾体的俯仰、偏航方向旋转一定角度时感光靶坐标系上的坐标原点、x、y轴各上一点的坐标,共五点的坐标,通过这五点坐标计算出感光靶坐标系相对前盾体坐标系的偏航角、俯仰角;2)使用倾角仪直接测量出感光靶相对前盾体的俯仰角、偏航角;对比两次计算、测量结果,使用卡尔曼滤波算法计算出感光靶坐标系相对前盾体坐标系真实的俯仰角、偏航角。
4.一种应用如权利要求1~3任意一项所述基于ANN深度学习的多盾体间相对位姿测量方法的基于ANN深度学习和多传感器融合的多盾体间相对位姿测量系统,其特征在于,所述基于ANN深度学习的多盾体间相对位姿测量系统包括:
多盾体几何建模模块,用于分别进行多盾体间并联机构几何建模、多盾体几何分析,确立多盾体间相对位姿测量方案,并标定传感器;
ANN模型建立模块,用于进行数据确定及生成,输入ANN深度学习模型进行监督学习训练,得到基于ANN深度学习的多盾体间相对位姿测量模型;
多盾体间相对位姿测量模块,用于将直线位移传感器、感光靶测量出的变量输入多盾体间相对位姿测量模型中进行多盾体间相对位姿测量。
5.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1~3任意一项所述基于ANN深度学习的多盾体间相对位姿测量方法。
6.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1~3任意一项所述基于ANN深度学习的多盾体间相对位姿测量方法。
7.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现如权利要求4所述基于ANN深度学习和多传感器融合的多盾体间相对位姿测量系统的功能。
CN202210213108.3A 2022-03-04 2022-03-04 基于ann深度学习的多盾体间相对位姿测量方法及系统 Active CN114636400B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210213108.3A CN114636400B (zh) 2022-03-04 2022-03-04 基于ann深度学习的多盾体间相对位姿测量方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210213108.3A CN114636400B (zh) 2022-03-04 2022-03-04 基于ann深度学习的多盾体间相对位姿测量方法及系统

Publications (2)

Publication Number Publication Date
CN114636400A CN114636400A (zh) 2022-06-17
CN114636400B true CN114636400B (zh) 2023-04-14

Family

ID=81948714

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210213108.3A Active CN114636400B (zh) 2022-03-04 2022-03-04 基于ann深度学习的多盾体间相对位姿测量方法及系统

Country Status (1)

Country Link
CN (1) CN114636400B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115781696B (zh) * 2023-01-18 2023-04-25 北京科技大学 一种强化学习型液压机械臂集成控制方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110195592B (zh) * 2019-04-30 2021-02-05 华中科技大学 基于混合深度学习的盾构掘进位姿智能预测方法及系统
CN110533065A (zh) * 2019-07-18 2019-12-03 西安电子科技大学 基于自编码特征和深度学习回归模型的盾构姿态预测方法
JP7307667B2 (ja) * 2019-12-03 2023-07-12 株式会社熊谷組 シールドトンネルの測量システムおよびシールドトンネルの測量方法
CN112762906B (zh) * 2020-12-30 2022-08-09 中国铁建重工集团股份有限公司 一种基于多传感器融合的导向系统及导向方法
CN113298220B (zh) * 2021-05-31 2023-08-04 中铁十六局集团北京轨道交通工程建设有限公司 一种基于神经网络优化的盾构机掘进速度预测方法
CN113431592B (zh) * 2021-08-02 2022-09-30 北京交通大学 一种盾构控制方法及其系统

Also Published As

Publication number Publication date
CN114636400A (zh) 2022-06-17

Similar Documents

Publication Publication Date Title
CN110695991B (zh) 基于变异粒子群优化的自动手眼标定方法
CN109323650B (zh) 测量系统中视觉图像传感器与光点测距传感器测量坐标系的统一方法
CN109163675B (zh) 一种基于激光跟踪仪检测角摆轴位置精度的方法
CN113681559B (zh) 一种基于标准圆柱的线激光扫描机器人手眼标定方法
CN114636400B (zh) 基于ann深度学习的多盾体间相对位姿测量方法及系统
CN113878581B (zh) 一种五自由度混联机器人误差预测及实时补偿方法
CN113134837A (zh) 一种基于六自由度串联机械臂提高绝对定位精度的方法
CN111982124B (zh) 基于深度学习的玻璃场景下三维激光雷达导航方法及设备
CN113609749A (zh) 适用于多场景的基于磁场信号的电流计算方法
Xu et al. A novel calibration method for robot kinematic parameters based on improved manta ray foraging optimization algorithm
Lu et al. Three-dimensional coordinate measurement algorithm by optimizing BP neural network based on GA
CN117034664A (zh) 一种盾构机推进系统液压油缸行程计算方法及装置
An et al. Application of combinatorial optimization algorithm in industrial robot hand eye calibration
CN115179323A (zh) 基于远心视觉约束的机器末位姿测量装置及精度提升方法
CN114485392B (zh) 基于激光跟踪仪的航天器大尺寸机械基准建立方法和系统
Zhang et al. On-site calibration of underwater stereo vision based on light field
Wang et al. Pose calibration of line structured light probe based on ball bar target in cylindrical coordinate measuring machines
Feng et al. A matrix-solving hand-eye calibration method considering robot kinematic errors
Deng et al. Hand-eye calibration of line structured-light sensor by scanning and reconstruction of a free-placed standard cylindrical target
CN113916128A (zh) 一种基于光笔式视觉测量系统的提高精度的方法
CN111553954A (zh) 一种基于直接法单目slam的在线光度标定方法
CN117359613A (zh) 基于自适应卡尔曼滤波与神经网络的机器人误差补偿方法
CN115675784B (zh) 一种基于数字化测量场的船舶总段对接系统和对接方法
Cui et al. Novel method of rocket nozzle motion parameters non-contact consistency measurement based on stereo vision
Chen et al. Kinematic calibration of a laser tracker based on nonlinear optimization of a refined geometric error model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant