CN113203419B - 基于神经网络的室内巡检机器人校正定位方法 - Google Patents

基于神经网络的室内巡检机器人校正定位方法 Download PDF

Info

Publication number
CN113203419B
CN113203419B CN202110448691.1A CN202110448691A CN113203419B CN 113203419 B CN113203419 B CN 113203419B CN 202110448691 A CN202110448691 A CN 202110448691A CN 113203419 B CN113203419 B CN 113203419B
Authority
CN
China
Prior art keywords
robot
follows
neural network
time
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110448691.1A
Other languages
English (en)
Other versions
CN113203419A (zh
Inventor
宋永端
张�杰
赖俊峰
刘欢
蒋自强
黄力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202110448691.1A priority Critical patent/CN113203419B/zh
Publication of CN113203419A publication Critical patent/CN113203419A/zh
Priority to US17/589,179 priority patent/US11953903B2/en
Application granted granted Critical
Publication of CN113203419B publication Critical patent/CN113203419B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/227Handing over between remote control and on-board control; Handing over between remote control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/644Optimisation of travel parameters, e.g. of energy consumption, journey time or distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • H04B17/318Received signal strength

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明涉及一种基于神经网络的室内巡检机器人校正定位方法。包括如下步骤:预设N个可发射射频信号的标签信号源位置;根据不同时刻接收到的信号标签数量计算机器人实际路径;计算机器人在t时刻的运动位置信息,并根据该位置信息计算t时刻的预测路径;利用神经网络建立里程误差模型并进行训练;将t时刻的预测路径输入到训练好的里程误差模型得到优化后的预测路径。本发明所使用的里程计校正方法,通过最大限度地减小里程计误差,进而最大限度地提高对室内机器人定位的精准度。

Description

基于神经网络的室内巡检机器人校正定位方法
技术领域
本发明涉及巡检机器人领域,特别涉及基于神经网络的室内巡检机器人校正定位方法。
背景技术
当前安全生产是企业稳定发展的前提和重要保证,安全事故不仅会造成人员伤亡,还会带来财产损失,严重制约着企业快速健康的发展,尤其是在核电站、钢铁厂、化工厂、油库、变电站等危险作业环境下,保障各个设备仪器安全平稳的运行,是企业安全生产的有效手段,定时、不间断的巡检工作是十分有必要的。目前,在变电站、油库等危险作业环境下,主要的巡检方式是人工巡检,依靠工人运动感官、抄表、记录以及使用一些相配套的检测仪器对工厂的仪器设备进行检查,但是这种人工巡检方式,由于各种外界因素的影响,导致其巡检质量难以得到保证,并且巡检效率很低。为了提高巡检工作效率,保证各个仪器设备安全可靠运行,使用自动巡检机器人部分替代人工巡检工作已经成为一种趋势。
然而在工厂中由于各种原因导致巡检机器人的定位成为难点,在如今普遍应用视觉的基础上,里程计作为机器人本体感受传感器,不可避免地存在随时间、距离增加而增加地累计航机误差,现有技术针对室内巡检机器人采用的里程计定位方法,由于受室内复杂环境因素条件的影响,以及系统和非系统因素的影响,造成了里程计在计算时会产生较大的误差。
发明内容
针对现有技术存在的上述问题,本发明要解决的技术问题是:现有技术中室内巡检机器人所采用的里程计定位方法,在室内环境因素较为复杂的条件下,里程计会产生较大误差的问题。
为解决上述技术问题,本发明采用如下技术方案:基于神经网络的室内巡检机器人校正定位方法,包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,α表示路径长度和路径损耗之间的比例因子,Xσ表示平均值为0的高斯分布随机变数,d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
其中,
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到I个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径;
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
作为优选,所述S230中计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
其中,A是非奇异矩阵,且M>2,则方程数大于未知量数目的超定方程组,将式(2-8)对求导,因为/>得到:
得到巡检机器人在读取到n个标签时的预测坐标为:
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
其中,t表示第t时刻,表示t-1时刻到t时刻的时间均值;
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点。
在某一个时刻,当机器人上的射频读写器获得不同的标签信号数量时,一般会使用不同的定位算法,这样可以更准确的采集到机器人运行的实际路径;一般情况下,当获得两个及其以下的标签信号时,采用概率定位法,当获得三个标签信号时使用三边定位法,当获得四个及其以上的标签信号时,则使用极大似然定位法。根据不同数量采用不同的定位算法,可以有效的减小因输入数据量不同而带来的误差影响。
作为优选,所述S300中计算机器人运动的位置信息的具体步骤为:
S310:计算理论上的里程计分辨率为:
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
作为优选,所述500中建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,1};
神经网络输出层的结果为:
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
该部分主要通过神经网络构建里程误差模型,神经网络的过程主要分为两个阶段:第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,神经网络利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,实现获得所有神经网络层的误差估计,并最终通过损失函数E依次得到神经网络的各个参数。
相对于现有技术,本发明至少具有如下优点:
1.本发明基于神经网络的室内巡检机器人里程计校正方法最大限度地减小里程计误差,从而最大限度地提高定位精度。
2.神经网络方法的主要优点是它可以适用于任何里程计模型和高速工作幻境,另一个优点是该方法与平台无关,在建模之前不需要配置里程计误差变量。
3.本发明适用于一般室内环境中的地图绘制等任务,在复杂的环境中也能很好的工作。
附图说明
图1为射频识别室内定位技术定位算法流程图。
图2为BP神经网络结构图。
图3-a为机器人在线性运动中机器人实际路径、广义线性模型处理的预测路径、神经网络训练中的优化路径1与神经网络训练后的优化路径2对比图。
图3-b为机器人在非线性运动中机器人实际路径、广义线性模型处理的预测路径、神经网络训练中的优化路径1与神经网络训练后的优化路径2对比图。
具体实施方式
下面对本发明作进一步详细说明。
由于环境复杂的因素,巡检机器人的定位是一个急需攻克的研究难点,在如今普遍应用视觉的基础上,里程计具有自包含的优点,它能够依据运动学模型来自我推测机器人的航机,在短距离、短时间内能获得较好的定位性能。所以可以通过优化里程计误差达到机器人的精确定位,而射频识别的室内定位技术具有无须人工干预,抗干扰性强的特点,可工作于各种恶劣环境,所以此方法将作为室内巡检机器人里程计优化的辅助定位设备。
参见图1,基于神经网络的室内巡检机器人校正定位方法,包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,每个标签发出的信号强度都是一个定值,但是当阅读器与标签的间距不同时,接受标签发送的信号强度也就不一样。这种强度的衰减,称为信号的传播损耗,利用理论和经验传播损耗模型,可将传输损耗转化为距离,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,所有标签的初始发送信号强度相同;α表示路径长度和路径损耗之间的比例因子,依赖于障碍物的结构和使用的材料;Xσ表示平均值为0的高斯分布随机变数,也就是信号穿过障碍物的衰减;d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;由式(2-2)可以看出常数P(d)和α的数值决定了接收信号强度和信号传输距离的关系,当使用环境确定后,它们都可以当作常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
其中,
其中,E、K、M、N表示计算过程参数,无实际意义。
具体实施时,计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
其中,A是非奇异矩阵,且M>2,则方程数大于未知量数目的超定方程组,将式(2-8)对求导,因为/>得到:
得到巡检机器人在读取到n个标签时的预测坐标为:
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
其中,t表示第t时刻,表示t-1时刻到t时刻的时间均值;因为机器人在实时行走的,而传感器获得无线信号和定位程序计算机器人位置需要有个Δt时间,所以在t时刻计算出来的位置实际上是t-1时刻传感器获得的信息计算出来的坐标(xt-1,yt-1),但实际上t时刻机器人的位置坐标是(xt,yt),所以在Δt时间内,机器人行走的距离就为移动机器人实时定位的定位误差;
在实际定位中,传感器所获得的定位信息存在一定波动,这种信号的变化主要是因为所处环境不同所导致的,为了减少无线信号波动带来的误差,采用在单位时间内取已获得的信号强度平均值的方法来提高精度,如下式:
其中,j表示单位时间内计算得到的坐标个数,即为单位平均时间内得到坐标点;
在机器人行走的过程中,由于采取了取平均值的方法,所以机器人在Δt时间内从P(t-1)点运动到P(t)点,定位系统计算位置坐标近似估计为时刻/>所对应的/>点;
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点;
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,该实际路径是根据射频定位技术得到的坐标点再经过建模得到的,是神经网络的目标集;RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到1个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
具体实施时,计算机器人运动的位置信息的具体步骤为:
S310:采用360PPR的增量式光电编码器,具有相差为90°的双路脉冲输出,可以通过双路脉冲的相位变化来判断车轮的旋转方向。光电编码器安装在驱动电动机的轴伸上,直接测量电动机的转动。电动机通过15倍的减速器驱动车轮,这意味着车轮旋转一周,电动机将旋转15周,采用车轮直径为250mm,计算理论上的里程计分辨率为:
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:机器人从t-1时刻的姿态St-1=(xt-1,yt-1,θt-1)运动到t时刻的St=(xt,yt,θt),通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络,神经网络为现有技术,建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径,即预测路径经过神经网络训练后,得到的优化输出结果;
参见图2,具体实施时,建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,1},本实例中的激励函数为sigmoid函数,具体表示为:
因为神经网络的隐含层节点数对最终得到的结果有一定影响,故给出隐含层节点数量的优化公式:
其中l表示隐含层中的神经元个数,对于本实例,隐含层节点数l=13会有最佳的性能;
神经网络输出层的结果为:
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;机器人的里程计误差模型是非线性的,神经网络作为一种非线性建模工具被广泛认可,将两层前馈神经网络应用于机器人里程误差模型,采用反向传播算法对这两层进行感知训练;反向传播的工作原理是将下降规则应用于前馈网络,并用于优化网络参数。
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
根据以上实施例可知,通过与广义线性模型处理得到的预测路径对比,参见图3-a和图3-b所示,可以发现用神经网络方法估计机器人的最终位置与用射频识别定位计算机器人的实际位置几乎相同,故通过神经网络对于室内巡检机器人里程计的校正方法能够最大限度地减小里程计误差。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.基于神经网络的室内巡检机器人校正定位方法,其特征在于:包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,α表示路径长度和路径损耗之间的比例因子,Xσ表示平均值为0的高斯分布随机变数,d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
其中,
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到I个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径;
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
2.如权利要求1所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述S230中计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
其中,A是非奇异矩阵,且M>2,则方程数大于未知量数目的超定方程组,
将式(2-8)对求导,因为/>得到:
得到巡检机器人在读取到n个标签时的预测坐标为:
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
其中,t表示第t时刻,表示t-1时刻到t时刻的时间均值;
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点。
3.如权利要求2所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述S300中计算机器人运动的位置信息的具体步骤为:
S310:计算理论上的里程计分辨率为:
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
4.如权利要求3所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述500中建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,l};
神经网络输出层的结果为:
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
CN202110448691.1A 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法 Active CN113203419B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110448691.1A CN113203419B (zh) 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法
US17/589,179 US11953903B2 (en) 2021-04-25 2022-01-31 Neural network-based method for calibration and localization of indoor inspection robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110448691.1A CN113203419B (zh) 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法

Publications (2)

Publication Number Publication Date
CN113203419A CN113203419A (zh) 2021-08-03
CN113203419B true CN113203419B (zh) 2023-11-10

Family

ID=77028584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110448691.1A Active CN113203419B (zh) 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法

Country Status (2)

Country Link
US (1) US11953903B2 (zh)
CN (1) CN113203419B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116026368B (zh) * 2023-03-29 2023-07-04 上海仙工智能科技有限公司 移动机器人的参数联合标定方法及系统、设备、存储介质
CN117241376B (zh) * 2023-09-14 2024-04-19 兰州理工大学 一种多策略改进bp神经网络的wsn节点定位方法
CN117498931B (zh) * 2023-10-31 2024-06-11 国网山东省电力公司德州供电公司 一种高效的光缆巡检核查系统

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017028653A1 (zh) * 2015-08-14 2017-02-23 北京进化者机器人科技有限公司 一种移动机器人室内自建地图的方法和系统
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN108036792A (zh) * 2017-12-11 2018-05-15 苏州中德睿博智能科技有限公司 一种用于移动机器人的里程计与测量位姿的数据融合方法
CN108549877A (zh) * 2018-04-23 2018-09-18 重庆大学 一种基于神经网络的循迹机器人轨迹识别方法
CN109444813A (zh) * 2018-10-26 2019-03-08 南京邮电大学 一种基于bp和dnn双神经网络的rfid室内定位方法
CN109540140A (zh) * 2018-11-23 2019-03-29 于兴虎 一种融合ssd目标识别和里程计信息的移动机器人定位方法
WO2019136613A1 (zh) * 2018-01-09 2019-07-18 深圳市沃特沃德股份有限公司 机器人室内定位的方法及装置
CN110285806A (zh) * 2019-07-05 2019-09-27 电子科技大学 基于多次位姿校正的移动机器人快速精确定位算法
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法
CN110702091A (zh) * 2019-07-24 2020-01-17 武汉大学 一种沿地铁轨道移动机器人的高精度定位方法
CN111624992A (zh) * 2020-04-28 2020-09-04 北京科技大学 一种基于神经网络的搬运机器人的路径跟踪控制方法
CN112113568A (zh) * 2020-08-21 2020-12-22 华南农业大学 一种畜禽养殖场巡检机器人的位姿校正方法
CN112129297A (zh) * 2020-09-25 2020-12-25 重庆大学 一种多传感器信息融合的自适应校正室内定位方法
CN112230243A (zh) * 2020-10-28 2021-01-15 西南科技大学 一种移动机器人室内地图构建方法
CN112450820A (zh) * 2020-11-23 2021-03-09 深圳市银星智能科技股份有限公司 位姿优化方法、移动机器人及存储介质
CN112454359A (zh) * 2020-11-18 2021-03-09 重庆大学 基于神经网络自适应的机器人关节跟踪控制方法
CN112528817A (zh) * 2020-12-04 2021-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4079792B2 (ja) * 2003-02-06 2008-04-23 松下電器産業株式会社 ロボットの教示方法と教示機能付きロボット
US9927814B2 (en) * 2016-03-28 2018-03-27 Fetch Robotics, Inc. System and method for localization of robots
CN109959381B (zh) * 2017-12-22 2021-06-04 深圳市优必选科技有限公司 一种定位方法、装置、机器人及计算机可读存储介质
WO2019241022A1 (en) * 2018-06-13 2019-12-19 Nvidia Corporation Path detection for autonomous machines using deep neural networks
US11592573B2 (en) * 2020-09-15 2023-02-28 Irobot Corporation Particle filters and WiFi robot localization and mapping

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017028653A1 (zh) * 2015-08-14 2017-02-23 北京进化者机器人科技有限公司 一种移动机器人室内自建地图的方法和系统
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN108036792A (zh) * 2017-12-11 2018-05-15 苏州中德睿博智能科技有限公司 一种用于移动机器人的里程计与测量位姿的数据融合方法
WO2019136613A1 (zh) * 2018-01-09 2019-07-18 深圳市沃特沃德股份有限公司 机器人室内定位的方法及装置
CN108549877A (zh) * 2018-04-23 2018-09-18 重庆大学 一种基于神经网络的循迹机器人轨迹识别方法
CN109444813A (zh) * 2018-10-26 2019-03-08 南京邮电大学 一种基于bp和dnn双神经网络的rfid室内定位方法
CN109540140A (zh) * 2018-11-23 2019-03-29 于兴虎 一种融合ssd目标识别和里程计信息的移动机器人定位方法
CN110285806A (zh) * 2019-07-05 2019-09-27 电子科技大学 基于多次位姿校正的移动机器人快速精确定位算法
CN110702091A (zh) * 2019-07-24 2020-01-17 武汉大学 一种沿地铁轨道移动机器人的高精度定位方法
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法
CN111624992A (zh) * 2020-04-28 2020-09-04 北京科技大学 一种基于神经网络的搬运机器人的路径跟踪控制方法
CN112113568A (zh) * 2020-08-21 2020-12-22 华南农业大学 一种畜禽养殖场巡检机器人的位姿校正方法
CN112129297A (zh) * 2020-09-25 2020-12-25 重庆大学 一种多传感器信息融合的自适应校正室内定位方法
CN112230243A (zh) * 2020-10-28 2021-01-15 西南科技大学 一种移动机器人室内地图构建方法
CN112454359A (zh) * 2020-11-18 2021-03-09 重庆大学 基于神经网络自适应的机器人关节跟踪控制方法
CN112450820A (zh) * 2020-11-23 2021-03-09 深圳市银星智能科技股份有限公司 位姿优化方法、移动机器人及存储介质
CN112528817A (zh) * 2020-12-04 2021-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Estimating the odometry error of a mobile robot by neural networks;Xu, H., & Collins, J. J;《2009 International Conference on Machine Learning and Applications》;378-385 *
Neural network based FastSLAM for autonomous robots in unknown environments;Li, Q. L., Song, Y., & Hou, Z. G;《Neurocomputing》(第165期);99-110 *
The application of adaptive extended Kalman filter in mobile robot localization;Yuzhen, P., Quande, Y., & Benfa, Z;《2016 Chinese Control and Decision Conference》;5337-5342 *
基于深度卷积神经网络的视觉里程计研究;苏健鹏;黄影平;赵柏淦;胡兴;;《光学仪器》(第04期);36-43 *
基于矩阵李群表示及容积卡尔曼滤波的视觉惯导里程计新方法;闫德立等;《控制与决策》;第35卷(第8期);1824-1827 *
移动机器人测程法定位误差分析与校正;刘振;陈万米;熊奇;《电子测量技术》(第12期);82-88 *

Also Published As

Publication number Publication date
US11953903B2 (en) 2024-04-09
US20220350329A1 (en) 2022-11-03
CN113203419A (zh) 2021-08-03

Similar Documents

Publication Publication Date Title
CN113203419B (zh) 基于神经网络的室内巡检机器人校正定位方法
CN109947119B (zh) 一种基于多传感器融合的移动机器人自主跟随方法
Ayawli et al. Mobile robot path planning in dynamic environment using Voronoi diagram and computation geometry technique
US5548512A (en) Autonomous navigation apparatus with neural network for a mobile vehicle
CN110702091B (zh) 一种沿地铁轨道移动机器人的高精度定位方法
CN108896050A (zh) 一种基于激光传感器的移动机器人长期定位系统及方法
Arras et al. Hybrid, high-precision localisation for the mail distributing mobile robot system MOPS
Basiuk et al. Mobile Robot Position Determining Using Odometry Method
CN114559992B (zh) 一种列车安全防护方法、模型训练方法、装置及电子设备
CN114474003A (zh) 一种基于参数辨识的车载建筑机器人误差补偿方法
CN114964213B (zh) 基于姿态感知和视觉扫描的建筑工程施工定位系统及方法
CN116337045A (zh) 一种基于karto和teb的高速建图导航方法
CN115903857A (zh) 基于rfid的粮面无人巡检装置及定位方法
KR101106265B1 (ko) Rfid를 이용한 이동 로봇의 위치측정 장치 및 위치측정 방법
Liu et al. Method for adaptive robust four-wheel localization and application in automatic parking systems
CN214846390U (zh) 基于自动导引小车的动态环境避障系统
CN114489036B (zh) 一种基于slam的室内机器人导航控制方法
CN115103299B (zh) 一种基于rfid的多传感器融合定位方法
Font et al. Mobile robot localization. Revisiting the triangulation methods
CN117032215A (zh) 一种基于双目视觉的移动机器人物体识别及定位方法
Xu et al. Estimating the odometry error of a mobile robot by neural networks
CN116466712A (zh) 基于cml-avg激光雷达小车的自主巡航方法及系统
CN108896049A (zh) 一种机器人室内运动定位方法
CN114415655A (zh) 一种基于改进slam的巡检机器人导航控制方法
Emharraf et al. Mobile Robot: SLAM Implementation for Unknown Indoor Environment Exploration.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant