CN111913484B - 一种变电站巡检机器人在未知环境下的路径规划方法 - Google Patents

一种变电站巡检机器人在未知环境下的路径规划方法 Download PDF

Info

Publication number
CN111913484B
CN111913484B CN202010749714.8A CN202010749714A CN111913484B CN 111913484 B CN111913484 B CN 111913484B CN 202010749714 A CN202010749714 A CN 202010749714A CN 111913484 B CN111913484 B CN 111913484B
Authority
CN
China
Prior art keywords
obstacle
robot
data
polar
moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010749714.8A
Other languages
English (en)
Other versions
CN111913484A (zh
Inventor
陈鑫哲
陈张平
那清权
王景源
童伟宇
张峰溪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010749714.8A priority Critical patent/CN111913484B/zh
Publication of CN111913484A publication Critical patent/CN111913484A/zh
Application granted granted Critical
Publication of CN111913484B publication Critical patent/CN111913484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Abstract

本发明涉及一种变电站巡检机器人在未知环境下的路径规划方法。本发明的主要构思:本方法首先在机器人行动过程中用激光雷达和摄像头采集周围的环境信息,得到其它机器人的当前位置,再根据构建的卡尔曼滤波器进行传感器融合且预测其它机器人的下一时刻位置,在每个时刻根据预测信息和机器人当前位置计算出机器人运动的期望方向角,重复多次,直到机器人到达目标位置。本发明将动态位置环境下的动态障碍物视为瞬间静止的静态障碍物,用卡尔曼滤波预测其下一个位置时刻,再用机器人的期望方向角来确定机器人的前进方向,预测速度快,更全面,预测效果好。

Description

一种变电站巡检机器人在未知环境下的路径规划方法
技术领域
本发明涉及机器人路径规划领域,具体涉及一种在变电站强电磁干扰以及存在其它运动机器人的环境下的路径规划的方法。
背景技术
在变电站强电磁干扰的环境下,依靠机器人身上激光雷达、摄像头以及电磁干扰测量仪等传感器,预测其它机器人的运动轨迹,将预测信息融入路径规划算法中,提前绕开其它机器人以及障碍物所在位置,成功到达目标地点,这是未来机器人在变电站巡检时需要解决的问题之一。随着现代机器人技术发展,变电站的巡检工作未来将由机器人代替人工完成,省时省力,所以机器人在巡检过程中选择较优的路径将会是一个重要的研究方向。
现有技术大部分是在知晓全局环境的情况下,对机器人的路径进行规划,但是现有方法限制条件较多,难以应用在大多数特殊环境下。
发明内容
本发明的目的是为了针对在变电站强电磁干扰环境下机器人路径规划的局限,采用了一种利用神经网络矫正受电磁干扰影响的传感器数据,并且在基于有专家先验策略的多数据融合预测的卡尔曼滤波器中来预测其它机器人位置并进行规避的路径规划方法。
本发明的主要构思:本方法首先在机器人行动过程中用激光雷达和摄像头采集周围的环境信息,得到其它机器人的当前位置,再根据构建的卡尔曼滤波器进行传感器融合且预测其它机器人的下一时刻位置,在每个时刻根据预测信息和机器人当前位置计算出机器人运动的期望方向角,重复多次,直到机器人到达目标位置。
本发明方法的步骤包括:
步骤一、为一个机器人规划路径时,将其余机器人视为障碍物,且所有机器人都处于匀速运动状态。将机器人出发点设为全局直角坐标系的原点O(0,0),需要到达的目标点设为G(xg,yg)。同时在机器人离开原点去往目标点路径上,以机器人的当前位置R(xr,yr)设为局部极坐标系的极点,R指向G的方向为极坐标系的极轴。机器人在行进过程中扫描到的障碍物以P(ρ,α)表示,其中ρ为机器人与障碍物之间的距离,α为机器人与障碍物之间的连线与极轴的夹角。
步骤二、通过坐标转换公式将障碍物的局部极坐标转为全局直角坐标系的位置L(xlf,ylf)。
步骤三、利用少量真实数据训练用来矫正受电磁干扰的激光雷达传感器数据的BP神经网络。
3.1采用一个三层BP神经网络来矫正受到电磁干扰影响的激光雷达传感器的数据。利用机器人上的电磁干扰测量仪测量当前时刻的电磁干扰强度,记为h。
3.2建立所述三层BP神经网络,一层输入层(三个神经元),一层隐藏层(三个神经元),一层输出层(两个神经元)。其输入为受到电磁干扰影响的障碍物的位置
Figure BDA0002609614590000021
输出为修正好的障碍物当前时刻的位置
Figure BDA0002609614590000022
3.3确定BP神经网络的输入层到隐藏层的前向传递公式和隐藏层到输出层的前向传递公式。
3.4计算BP神经网络的前向传播误差,其公式为:
Figure BDA0002609614590000023
其中
Figure BDA0002609614590000026
为训练数据的真实值,yi为训练数据神经网络的输出值。
Figure BDA0002609614590000024
其中N为训练数据个数。
3.5利用反向传播公式更新权重矩阵:
Figure BDA0002609614590000025
其中l的取值为2和3,W2为输入层到隐藏层权重矩阵,W3为隐藏层到输出层权重矩阵,Wlf,blf为未更新的参数,Wl,bl为更新后的参数。
3.6采用利用少量真实数据训练BP神经网络。所有数据都有一定的误差允许范围,在误差允许范围内将数据进行随机微小增减,不影响接下来的预测行为,将改动的数据和原数据进行随机打乱,组成新的数据集。其数据改动公式为:
(x,y)=(x±e,y±e)
其中(x,y)是位置数据,e为数据允许的误差范围。
3.7用准备好的包含电磁干扰强度的数据集进行BP神经网络的训练,直到网络的判断准确度超过95%,停止训练,得到训练好的BP神经网络。
步骤四、利用步骤三中的BP神经网络对电磁干扰下的激光雷达传感器数据进行矫正,矫正后位置数据为L1(xld,yld);摄像头传感器拍摄到有障碍物的图像,然后根据solvePNP算法得到障碍物位置L2(x,y)。
步骤五、利用基于专家先验策略的多数据融合卡尔曼滤波器预测动态障碍物下一时刻的位置,具体是:
5.1、专家根据其经验知识做出如下的判断:
对于多传感器融合的卡尔曼滤波器,根据传感器的固有特性以及多个传感器之间的相互作用确定在滤波器中所占的权重。根据专家知识可得:激光雷达传感器权重为:
Figure BDA0002609614590000031
其摄像头传感器权重为
Figure BDA0002609614590000032
其中K1(n)和K2(n)分别为其卡尔曼增益。
5.2、卡尔曼滤波通过系统输入输出观测数据对系统的状态进行最优估计,其动态障碍物位置预测的状态方程和激光雷达传感器与摄像头传感器观测方程为:
X(n+1)=A×X(n)+B×V1(n)
Y1(n)=C1×X(n)+I1×V2(n)
Y2(n)=C2×X(n)+I2×V3(n)
其中X(n)表示系统的状态向量;A表示状态转移矩阵,用于描述由前一时刻到当前时刻下的运动状态转移方式;B表示干扰转移矩阵;V1(n)、V2(n)和V3(n)为N×1阶系统的噪声向量,用于描述系统从一个状态转移到另一个状态的噪声或者误差;Y1(n)表示N×1阶动态系统的激光雷达传感器的观测向量,表示动态系统在n时刻被测量到的状态;Y2(n)表示N×1阶动态系统的摄像头传感器的观测向量,表示动态系统在n时刻被测量到的状态;C1、C2和I1、I2为已知的动态系统测量参数矩阵,且
Figure BDA0002609614590000033
5.3、假设障碍物在x方向上速度为vx和在y方向上的速度为vy,激光雷达传感器和摄像头传感器采样一次的时间设为T,障碍物在n时刻的直角坐标系坐标为L(xn,yn),将A和B初始化:
Figure BDA0002609614590000034
5.4、假设Vx(n),Vy(n)是均值为零,方差为σv 2的高斯白噪声V1(n)的两个正交向量,任意时刻Vx(n),Vy(n)相互独立;也假设Wx(n),Wy(n)是均值为零,方差为σw 2的高斯白噪声V2(n)和V3(n)的两个正交向量,任意时刻Wx(n),Wy(n)相互独立。其协方差分别为Q(n)和R1(n),R2(n)。其自相关矩阵分别为:
Figure BDA0002609614590000035
Figure BDA0002609614590000036
Figure BDA0002609614590000041
E(V1(n)V2 T(k))=O;E(V1(n)V3 T(k))=O;E(V2(n)V3 T(k))=O
将误差矩阵P初始化为0矩阵,由P(n)=AP(n-1)AT+Q(n-1)进行误差矩阵预测。
K1(n)为n时刻激光雷达传感器数据的卡尔曼增益,其公式为:
K1(n)=P(n)C1 T(C1P(n)C1 T+R1)-1
K2(n)为n时刻摄像头传感器数据的卡尔曼增益,其公式为:
K2(n)=P(n)C2 T(C2P(n)C2 T+R2)-1
5.5、激光雷达传感器局部滤波器位置预测
Figure BDA0002609614590000042
和更新估计误差矩阵
Figure BDA0002609614590000043
为:
Figure BDA0002609614590000044
Figure BDA0002609614590000045
摄像头传感器局部滤波器位置预测
Figure BDA00026096145900000411
和更新估计误差矩阵
Figure BDA00026096145900000410
为:
Figure BDA0002609614590000046
Figure BDA0002609614590000047
5.6、下一时刻障碍物的位置预测X(n+1)和更新估计误差矩阵P(n+1)由两个传感器局部滤波器按一定的权值融合得到:
Figure BDA0002609614590000048
Figure BDA0002609614590000049
在第n个时刻利用步骤五预测的障碍物下一时刻的位置。
步骤六、机器人在规划路径时将动态障碍物视为瞬时静止的障碍物,其规划方向将步骤五经过卡尔曼滤波预测的动态障碍物下一时刻的位置,通过步骤二中的逆向公式计算出极坐标系下的动态障碍物的坐标P(ρt+1,αt+1)。同时假设就障碍物的模型为圆形,半径为R。
步骤七、将机器人的运动方向角设为
Figure BDA00026096145900000412
其与极坐标系的极轴方向之间的夹角为期望方向角
Figure BDA00026096145900000413
优化目标为在避开障碍物的情况下,让机器人的运动方向角与当前极坐标系的极轴方向之间的夹角的绝对值最小,即
Figure BDA00026096145900000414
其中αg为极坐标下目标点G的极角。
步骤八、假设只考虑单障碍物的情形,同时由于步骤六中将动态障碍物视为瞬间静止的障碍物,所以对于确定期望方向角没有影响。对于期望方向角有三种情形:
(1):机器人在极坐标系的极轴方向上没有障碍物,机器人将直接沿着极轴方向运动,此时期望方向角
Figure BDA0002609614590000052
(2):机器人在极坐标系的极轴方向上有障碍物,以极轴方向为基准线,记为df,分别计算出障碍物圆的左右两侧切线dl,dr与基准线df间的夹角βl,βr。设障碍物的坐标为T(ρT,αT),βl,βr的计算方法为:
Figure BDA0002609614590000051
Figure BDA0002609614590000053
时,βl=β+αT,βr=β-αT
Figure BDA0002609614590000054
时,βl=β+αT-2π,βr=β-αT+2π;
当βl<βr,机器人沿着dl方向运动,期望方向角
Figure BDA0002609614590000055
当βl>βr,机器人沿着dr方向运动,期望方向角
Figure BDA0002609614590000056
(3):当βl=βr时(情形(2)的特例),则规定机器人沿dr方向运动,即期望方向角
Figure BDA0002609614590000057
然后机器人跟着期望方向角运动单位时间的长度。
不断重复步骤四到步骤八,直到机器人到达目标点。
本发明相对于现有技术所具有的有益效果:本发明将动态位置环境下的动态障碍物视为瞬间静止的静态障碍物,用卡尔曼滤波预测其下一个位置时刻,再用机器人的期望方向角来确定机器人的前进方向,预测速度快,更全面,预测效果好。
附图说明
图1是本发明的流程图;
图2是机器人,障碍物和目标点的坐标示意图;
图3是机器人的期望方向角确定示意图。
具体实施方式
以下结合附图对本发明作进一步说明。
如图1所示,一种变电站巡检机器人在未知环境下的路径规划方法,该方法具体包括以下步骤:
步骤一、为一个机器人规划路径时,将其余机器人视为障碍物,且所有机器人都处于匀速运动状态。将机器人出发点设为全局直角坐标系的原点O(0,0),需要到达的目标点设为G(xg,yg)。同时在机器人离开原点去往目标点路径上,以机器人的当前位置R(xr,yr)设为局部极坐标系的极点,R指向G的方向为极坐标系的极轴。机器人在行进过程中扫描到的障碍物以P(ρ,α)表示,其中ρ为机器人与障碍物之间的距离,α为机器人与障碍物之间的连线与极轴的夹角,见图2。
步骤二、通过坐标转换公式将障碍物的局部极坐标转为全局直角坐标系的位置L(xlf,ylf)。
步骤三、利用少量真实数据训练用来矫正受电磁干扰的激光雷达传感器数据的BP神经网络。
3.1采用一个三层BP神经网络来矫正受到电磁干扰影响的激光雷达传感器的数据。利用机器人上的电磁干扰测量仪测量当前时刻的电磁干扰强度,记为h。
3.2建立所述三层BP神经网络,一层输入层(三个神经元),一层隐藏层(三个神经元),一层输出层(两个神经元)。其输入为受到电磁干扰影响的障碍物的位置
Figure BDA0002609614590000061
输出为修正好的障碍物当前时刻的位置
Figure BDA0002609614590000062
3.3确定BP神经网络的输入层到隐藏层的前向传递公式和隐藏层到输出层的前向传递公式。
3.4计算BP神经网络的前向传播误差,其公式为:
Figure BDA0002609614590000063
其中
Figure BDA0002609614590000066
为训练数据的真实值,yi为训练数据神经网络的输出值。
Figure BDA0002609614590000064
其中N为训练数据个数。
3.5利用反向传播公式更新权重矩阵:
Figure BDA0002609614590000065
其中l的取值为2和3,Wlf,blf为未更新的参数,Wl,bl为更新后的参数。
3.6采用利用少量真实数据训练BP神经网络。所有数据都有一定的误差允许范围,在误差允许范围内将数据进行随机微小增减,不影响接下来的预测行为,将改动的数据和原数据进行随机打乱,组成新的数据集。其数据改动公式为:
(x,y)=(x±e,y±e)
其中(x,y)是位置数据,e为数据允许的误差范围。
3.67用准备好的包含电磁干扰强度的数据集进行BP神经网络的训练,直到网络的判断准确度超过95%,停止训练,得到训练好的BP神经网络。
步骤四、利用步骤三中的BP神经网络对电磁干扰下的激光雷达传感器数据进行矫正,矫正后位置数据为L1(xld,yla);摄像头传感器拍摄到有障碍物的图像,然后根据solvePNP算法得到障碍物位置L2(x,y)。
步骤五、利用基于专家先验策略的多数据融合卡尔曼滤波器预测动态障碍物下一时刻的位置,具体是:
5.1、专家根据其经验知识做出如下的判断:
对于多传感器融合的卡尔曼滤波器,根据传感器的固有特性以及多个传感器之间的相互作用确定在滤波器中所占的权重。根据专家知识可得:激光雷达传感器权重为:
Figure BDA0002609614590000071
其摄像头传感器权重为
Figure BDA0002609614590000072
其中K1(n)和K2(n)分别为其卡尔曼增益。
5.2、卡尔曼滤波通过系统输入输出观测数据对系统的状态进行最优估计,其动态障碍物位置预测的状态方程和激光雷达传感器与摄像头传感器观测方程为:
X(n+1)=A×X(n)+B×V1(n)
Y1(n)=C1×X(n)+I1×V2(n)
Y2(n)=C2×X(n)+I2×V3(n)
其中X(n)表示系统的状态向量;A表示状态转移矩阵,用于描述由前一时刻到当前时刻下的运动状态转移方式;s表示干扰转移矩阵;V1(n)、V2(n)和V3(n)为N×1阶系统的噪声向量,用于描述系统从一个状态转移到另一个状态的噪声或者误差;Y1(n)表示N×1阶动态系统的激光雷达传感器的观测向量,表示动态系统在n时刻被测量到的状态;Y2(n)表示N×1阶动态系统的摄像头传感器的观测向量,表示动态系统在n时刻被测量到的状态;C1、C2和I1、I2为已知的动态系统测量参数矩阵,且
Figure BDA0002609614590000073
5.3、假设障碍物在x方向上速度为vx和在y方向上的速度为vy,激光雷达传感器和摄像头传感器采样一次的时间设为T,障碍物在n时刻的直角坐标系坐标为L(xn,yn),将A和B初始化:
Figure BDA0002609614590000074
5.4、假设Vx(n),Vy(n)是均值为零,方差为σv 2的高斯白噪声V1(n)的两个正交向量,任意时刻Vx(n),Vy(n)相互独立;也假设Wx(n),Wy(n)是均值为零,方差为σw 2的高斯白噪声V2(n)和V3(n)的两个正交向量,任意时刻Wx(n),Wy(n)相互独立。其协方差分别为Q(n)和R1(n),R2(n)。其自相关矩阵分别为:
Figure BDA0002609614590000081
Figure BDA0002609614590000082
Figure BDA0002609614590000083
E(V1(n)V2 T(k))=o;E(V1(n)V3 T(k))=o;E(V2(n)V3 T(k))=O
将误差矩阵P初始化为0矩阵,由P(n)=AP(n-1)AT+Q(n-1)进行误差矩阵预测。
K1(n)为n时刻激光雷达传感器数据的卡尔曼增益,其公式为:
K1(n)=P(n)C1 T(C1P(n)C1 T+R1)-1
K2(n)为n时刻摄像头传感器数据的卡尔曼增益,其公式为:
K2(n)=P(n)C2 T(C2P(n)C2 T+R2)-1
5.5、激光雷达传感器局部滤波器位置预测
Figure BDA0002609614590000084
和更新估计误差矩阵
Figure BDA0002609614590000085
为:
Figure BDA0002609614590000086
Figure BDA0002609614590000087
摄像头传感器局部滤波器位置预测
Figure BDA0002609614590000088
和更新估计误差矩阵
Figure BDA0002609614590000089
为:
Figure BDA00026096145900000810
Figure BDA00026096145900000811
5.6、下一时刻障碍物的位置预测X(n+1)和更新估计误差矩阵P(n+1)由两个传感器局部滤波器按一定的权值融合得到:
Figure BDA00026096145900000812
Figure BDA00026096145900000813
在第n个时刻利用步骤五预测的障碍物下一时刻的位置。
步骤六、机器人在规划路径时将动态障碍物视为瞬时静止的障碍物,其规划方向将步骤五经过卡尔曼滤波预测的动态障碍物下一时刻的位置,通过步骤二中的逆向公式计算出极坐标系下的动态障碍物的坐标P(ρt+1,αt+1)。同时假设就障碍物的模型为圆形,半径为R。
步骤七、将机器人的运动方向角设为
Figure BDA00026096145900000814
其与极坐标系的极轴方向之间的夹角为期望方向角
Figure BDA00026096145900000815
优化目标为在避开障碍物的情况下,让机器人的运动方向角与当前极坐标系的极轴方向之间的夹角的绝对值最小,即
Figure BDA0002609614590000093
其中αg为极坐标下目标点G的极角。
步骤八、在机器人前进过程中,只考虑朝向目标点G的方向上有没有障碍物,如果有则只关心第一个障碍物。若在朝向目标点的运动方向上有间隔小于d长度的障碍物,则将密集障碍物归为一个团块,视为一个障碍物,障碍物直径为2r+d。设两个障碍物的极坐标系的坐标点为P11,α1),P22,α2),则d的长度为:
Figure BDA0002609614590000091
步骤九、假设只考虑单障碍物的情形,同时由于步骤六中将动态障碍物视为瞬间静止的障碍物,所以对于确定期望方向角没有影响。对于期望方向角有三种情形,如图3所示:
(1):机器人在极坐标系的极轴方向上没有障碍物,机器人将直接沿着极轴方向运动,此时期望方向角
Figure BDA0002609614590000094
(2):机器人在极坐标系的极轴方向上有障碍物,以极轴方向为基准线,记为df,分别计算出障碍物圆的左右两侧切线dl,dr与基准线df间的夹角βl,βr。设障碍物的坐标为T(ρT,αT),βl,βr的计算方法为:
Figure BDA0002609614590000092
Figure BDA0002609614590000095
时,βl=β+αT,βr=β-αT
Figure BDA0002609614590000096
时,βl=β+αT-2π,βr=β-αT+2π;
当βl<βr,机器人沿着dl方向运动,期望方向角
Figure BDA0002609614590000097
当βl>βr,机器人沿着dr方向运动,期望方向角
Figure BDA0002609614590000098
(3):当βl=βr时(情形(2)的特例),则规定机器人沿dr方向运动,即期望方向角
Figure BDA0002609614590000099
然后机器人跟着期望方向角运动单位时间的长度。
不断重复步骤四到步骤九,直到机器人到达目标点。

Claims (4)

1.一种变电站巡检机器人在未知环境下的路径规划方法,其特征在于包括以下步骤:
步骤一、为一个机器人规划路径时,将其余机器人视为障碍物,且所有机器人都处于匀速运动状态;
将机器人出发点设为全局直角坐标系的原点O(0,0),需要到达的目标点设为G(xg,yg);同时在机器人离开原点去往目标点路径上,以机器人的当前位置R(xr,yr)设为局部极坐标系的极点,R指向G的方向为极坐标系的极轴;机器人在行进过程中扫描到的障碍物以P(ρ,α)表示,其中ρ为机器人与障碍物之间的距离,α为机器人与障碍物之间的连线与极轴的夹角;
步骤二、通过坐标转换公式将障碍物的局部极坐标转为全局直角坐标系的位置L(xlf,ylf);
步骤三、利用少量真实数据训练用来矫正受电磁干扰的激光雷达传感器数据的BP神经网络;
步骤四、利用步骤三中的BP神经网络对电磁干扰下的激光雷达传感器数据进行矫正,矫正后位置数据为L1(xld,yld);摄像头传感器拍摄到有障碍物的图像,然后根据solvePNP算法得到障碍物位置L2(x,y);
步骤五、利用基于专家先验策略的多数据融合卡尔曼滤波器预测动态障碍物下一时刻的位置;
步骤六、机器人在规划路径时将动态障碍物视为瞬时静止的障碍物,其规划方向是:将步骤五经过卡尔曼滤波预测的动态障碍物下一时刻的位置,通过步骤二中的逆向公式计算出极坐标系下的动态障碍物的坐标P(ρt+1,αt+1);同时假设障碍物的模型为圆形,半径为R;
步骤七、将机器人的运动方向角设为
Figure FDA0002609614580000011
其与极坐标系的极轴方向之间的夹角为期望方向角
Figure FDA0002609614580000012
Figure FDA0002609614580000013
优化目标为在避开障碍物的情况下,让机器人的运动方向角与当前极坐标系的极轴方向之间的夹角的绝对值最小,即
Figure FDA0002609614580000014
其中αg为极坐标下目标点G的极角;
步骤八、假设只考虑单障碍物的情形,同时由于步骤六中将动态障碍物视为瞬间静止的障碍物,所以对于确定期望方向角没有影响;对于期望方向角有三种情形:
(1):机器人在极坐标系的极轴方向上没有障碍物,机器人将直接沿着极轴方向运动,此时期望方向角
Figure FDA0002609614580000015
(2):机器人在极坐标系的极轴方向上有障碍物,以极轴方向为基准线,记为df,分别计算出障碍物圆的左右两侧切线dl,dr与基准线df间的夹角βl,βr;设障碍物的坐标为T(ρT,αT),βl,βr的计算方法为:
Figure FDA0002609614580000021
Figure FDA0002609614580000022
时,βl=β+αT,βr=β-αT
Figure FDA0002609614580000023
时,βl=β+αT-2π,βr=β-αT+2π;
当βl<βr,机器人沿着dl方向运动,期望方向角
Figure FDA0002609614580000024
当βl>βr,机器人沿着dr方向运动,期望方向角
Figure FDA0002609614580000025
(3):当βl=βr时,则规定机器人沿dr方向运动,即期望方向角
Figure FDA0002609614580000026
然后机器人跟着期望方向角运动单位时间的长度;
不断重复步骤四到步骤八,直到机器人到达目标点。
2.根据权利要求1所述的一种变电站巡检机器人在未知环境下的路径规划方法,其特征在于:步骤三具体是:
3.1采用一个三层BP神经网络来矫正受到电磁干扰影响的激光雷达传感器的数据;利用机器人上的电磁干扰测量仪测量当前时刻的电磁干扰强度,记为h;
3.2建立所述三层BP神经网络,一层输入层,一层隐藏层,一层输出层;其输入为受到电磁干扰影响的障碍物的位置
Figure FDA0002609614580000027
输出为修正好的障碍物当前时刻的位置
Figure FDA0002609614580000028
3.3确定BP神经网络的输入层到隐藏层的前向传递公式和隐藏层到输出层的前向传递公式;
3.4计算BP神经网络的前向传播误差:
Figure FDA0002609614580000029
其中
Figure FDA00026096145800000210
为训练数据的真实值,yi为训练数据神经网络的输出值;
Figure FDA00026096145800000211
其中N为训练数据个数;
3.5利用反向传播公式更新权重;
3.6采用利用少量真实数据训练BP神经网络;
所有数据都有一定的误差允许范围,在误差允许范围内将数据进行随机微小增减,不影响接下来的预测行为,将改动的数据和原数据进行随机打乱,组成新的数据集;其数据改动公式为:
(x,y)=(x±e,y±e)
其中(x,y)是位置数据,e为数据允许的误差范围;
3.7用准备好的包含电磁干扰强度的数据集进行BP神经网络的训练,直到网络的判断准确度超过95%,停止训练,得到训练好的BP神经网络。
3.根据权利要求1所述的一种变电站巡检机器人在未知环境下的路径规划方法,其特征在于:步骤五具体是:
5.1、专家根据其经验知识做出如下的判断:
根据专家知识可得:激光雷达传感器权重为:
Figure FDA0002609614580000031
摄像头传感器权重为
Figure FDA0002609614580000032
其中K1(n)和K2(n)分别为卡尔曼增益;
5.2、卡尔曼滤波通过系统输入输出观测数据对系统的状态进行最优估计,其动态障碍物位置预测的状态方程和激光雷达传感器与摄像头传感器观测方程为:
X(n+1)=A×X(n)+B×V1(n)
Y1(n)=C1×X(n)+I1×V2(n)
Y2(n)=C2×X(n)+I2×V3(n)
其中X(n)表示系统的状态向量;A表示状态转移矩阵,用于描述由前一时刻到当前时刻下的运动状态转移方式;B表示干扰转移矩阵;V1(n)、V2(n)和V3(n)为N×1阶系统的噪声向量,用于描述系统从一个状态转移到另一个状态的噪声或者误差;Y1(n)表示N×1阶动态系统的激光雷达传感器的观测向量,表示动态系统在n时刻被测量到的状态;Y2(n)表示N×1阶动态系统的摄像头传感器的观测向量,表示动态系统在n时刻被测量到的状态;C1、C2和I1、I2为已知的动态系统测量参数矩阵,且
Figure FDA0002609614580000033
5.3、假设障碍物在x方向上速度为vx和在y方向上的速度为vy,激光雷达传感器和摄像头传感器采样一次的时间设为T,障碍物在n时刻的直角坐标系坐标为L(xn,yn),将A和B初始化:
Figure FDA0002609614580000034
5.4、假设Vx(n),Vy(n)是均值为零,方差为σv 2的高斯白噪声V1(n)的两个正交向量,任意时刻Vx(n),Vy(n)相互独立;也假设Wx(n),Wy(n)是均值为零,方差为σw 2的高斯白噪声V2(n)和V3(n)的两个正交向量,任意时刻Wx(n),Wy(n)相互独立;其协方差分别为Q(n)和R1(n),R2(n);其自相关矩阵分别为:
Figure FDA0002609614580000041
Figure FDA0002609614580000042
Figure FDA0002609614580000043
E(V1(n)V2 T(k))=O;E(V1(n)V3 T(k))=O;E(V2(n)V3 T(k))=O
将误差矩阵P初始化为0矩阵,由P(n)=AP(n-1)AT+Q(n-1)进行误差矩阵预测;
K1(n)为n时刻激光雷达传感器数据的卡尔曼增益,其公式为:
K1(n)=P(n)C1 T(C1P(n)C1 T+R1)-1
K2(n)为n时刻摄像头传感器数据的卡尔曼增益,其公式为:
K2(n)=P(n)C2 T(C2P(n)C2 T+R2)-1
5.5、激光雷达传感器局部滤波器位置预测
Figure FDA0002609614580000044
和更新估计误差矩阵
Figure FDA0002609614580000045
为:
Figure FDA0002609614580000046
Figure FDA0002609614580000047
摄像头传感器局部滤波器位置预测
Figure FDA0002609614580000048
和更新估计误差矩阵
Figure FDA0002609614580000049
为:
Figure FDA00026096145800000410
Figure FDA00026096145800000411
5.6、下一时刻障碍物的位置预测X(n+1)和更新估计误差矩阵P(n+1)由两个传感器局部滤波器按一定的权值融合得到:
Figure FDA00026096145800000412
Figure FDA00026096145800000413
在第n个时刻利用步骤五预测得障碍物下一时刻的位置。
4.根据权利要求1所述的一种变电站巡检机器人在未知环境下的路径规划方法,其特征在于:在机器人前进过程中,只考虑朝向目标点G的方向上有没有障碍物,如果有则只关心第一个障碍物;若在朝向目标点的运动方向上有间隔小于d长度的障碍物,则将密集障碍物归为一个团块,视为一个障碍物。
CN202010749714.8A 2020-07-30 2020-07-30 一种变电站巡检机器人在未知环境下的路径规划方法 Active CN111913484B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010749714.8A CN111913484B (zh) 2020-07-30 2020-07-30 一种变电站巡检机器人在未知环境下的路径规划方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010749714.8A CN111913484B (zh) 2020-07-30 2020-07-30 一种变电站巡检机器人在未知环境下的路径规划方法

Publications (2)

Publication Number Publication Date
CN111913484A CN111913484A (zh) 2020-11-10
CN111913484B true CN111913484B (zh) 2022-08-12

Family

ID=73286822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010749714.8A Active CN111913484B (zh) 2020-07-30 2020-07-30 一种变电站巡检机器人在未知环境下的路径规划方法

Country Status (1)

Country Link
CN (1) CN111913484B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112578389B (zh) * 2020-12-08 2021-09-24 浙江景奕智能控制技术有限公司 一种多源融合的rov实时路径规划方法
CN112528979B (zh) * 2021-02-10 2021-05-11 成都信息工程大学 变电站巡检机器人障碍物判别方法及系统
CN113469037A (zh) * 2021-06-30 2021-10-01 广州大学 一种基于机器视觉的水下无人机智能避障方法和系统
CN114440882B (zh) * 2022-02-07 2023-10-31 电子科技大学 一种多智能家居移动设备及其协作寻路防撞方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101943916A (zh) * 2010-09-07 2011-01-12 陕西科技大学 一种基于卡尔曼滤波器预测的机器人避障方法
CN103983263A (zh) * 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
CN106679672A (zh) * 2017-01-15 2017-05-17 吉林大学 一种基于dbn和卡尔曼滤波算法的agv定位算法
CN109579825A (zh) * 2018-11-26 2019-04-05 江苏科技大学 基于双目视觉和卷积神经网络的机器人定位系统及方法
CN109900280A (zh) * 2019-03-27 2019-06-18 浙江大学 一种基于自主导航的畜禽信息感知机器人与地图构建方法
CN111148058A (zh) * 2019-12-31 2020-05-12 武汉工程大学 室内环境下移动目标的定位方法、系统及移动机器人
CN111275015A (zh) * 2020-02-28 2020-06-12 广东电网有限责任公司 一种基于无人机的电力巡线电塔检测识别方法及系统
CN111366156A (zh) * 2020-04-17 2020-07-03 云南电网有限责任公司电力科学研究院 基于神经网络辅助的变电站巡检机器人导航方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101943916A (zh) * 2010-09-07 2011-01-12 陕西科技大学 一种基于卡尔曼滤波器预测的机器人避障方法
CN103983263A (zh) * 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
CN106679672A (zh) * 2017-01-15 2017-05-17 吉林大学 一种基于dbn和卡尔曼滤波算法的agv定位算法
CN109579825A (zh) * 2018-11-26 2019-04-05 江苏科技大学 基于双目视觉和卷积神经网络的机器人定位系统及方法
CN109900280A (zh) * 2019-03-27 2019-06-18 浙江大学 一种基于自主导航的畜禽信息感知机器人与地图构建方法
CN111148058A (zh) * 2019-12-31 2020-05-12 武汉工程大学 室内环境下移动目标的定位方法、系统及移动机器人
CN111275015A (zh) * 2020-02-28 2020-06-12 广东电网有限责任公司 一种基于无人机的电力巡线电塔检测识别方法及系统
CN111366156A (zh) * 2020-04-17 2020-07-03 云南电网有限责任公司电力科学研究院 基于神经网络辅助的变电站巡检机器人导航方法及系统

Also Published As

Publication number Publication date
CN111913484A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN111913484B (zh) 一种变电站巡检机器人在未知环境下的路径规划方法
CN108709562B (zh) 一种移动机器人滚动栅格地图构建方法
CN107885209B (zh) 一种基于动态窗口与虚拟目标点的避障方法
CN109597864B (zh) 椭球边界卡尔曼滤波的即时定位与地图构建方法及系统
CN103776453B (zh) 一种多模型水下航行器组合导航滤波方法
CN112882053B (zh) 一种主动标定激光雷达和编码器外参的方法
CN111027692A (zh) 一种目标运动态势预测方法及装置
CN109765928A (zh) 基于移动多智能体编队的协作式控制与目标跟踪方法
Mallick et al. Out-of-sequence measurement processing for tracking ground target using particle filters
CN110362081B (zh) 一种移动机器人路径规划方法
JP3750859B2 (ja) レーダ追尾装置及びレーダ追尾処理方法
CN113433828B (zh) 一种多机器人动态目标跟踪协同控制方法
CN113534164B (zh) 一种基于主被动联合声纳阵列的目标路径跟踪方法
CN116243717A (zh) 考虑海流不确定性的水下机器人时间最优路径规划方法
CN113392884B (zh) 基于lstm网络和注意力机制的坐标融合方法
Aburime et al. Compensation for time delays in the navigation of unmanned aerial vehicles
CN114565020A (zh) 一种基于深度置信网络和扩展卡尔曼滤波的飞行器传感器信号融合方法
CN113625703A (zh) 一种动态路径跟踪方法
He et al. Research on an Obstacle Avoidance Method for UAV
Fan et al. A modified tetrahedron shape measure and its application for 3D trilateration localization in mobile cluster networks
CN112285697A (zh) 一种多传感器多目标空时偏差校准与融合方法
Cheng et al. Development of an indoor positioning platform for iRobot create 2
CN115128597B (zh) 基于imm-stekf的非高斯噪声下机动目标跟踪方法
CN113093730B (zh) 一种基于状态策略知识库指导的智能体自主避障方法
Bacha et al. A new robust cooperative-reactive Filter for vehicle localization: The Extended Kalman Particle Swarm ‘EKPS’

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant