CN100568144C - 一种未知环境下移动机器人多行为融合自动导航方法 - Google Patents
一种未知环境下移动机器人多行为融合自动导航方法 Download PDFInfo
- Publication number
- CN100568144C CN100568144C CNB2008101431343A CN200810143134A CN100568144C CN 100568144 C CN100568144 C CN 100568144C CN B2008101431343 A CNB2008101431343 A CN B2008101431343A CN 200810143134 A CN200810143134 A CN 200810143134A CN 100568144 C CN100568144 C CN 100568144C
- Authority
- CN
- China
- Prior art keywords
- support vector
- vector machine
- obs
- sub
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种未知环境下移动机器人多行为融合自动导航方法,其特征在于,包括以下步骤:1)根据目标和移动机器人的相对位置实时获取当前的方位角,根据移动机器人周围障碍物状况实时获取多个距离参数;2)多输出支持向量机模糊控制器根据获取的方位角和多个距离参数输出转角值θi和速度值vi,i=1,2,3;3)多输出支持向量机环境辨识控制器根据方位角和多个距离参数输入信号,输出三个子行为的权重参数wi,i=1,2,3;4)按照下式计算移动机器人当前用于导航的转角值θ和速度值v:。本发明采用智能控制策略,自适应强,导航可靠性高,效果优良。
Description
技术领域
本发明属于机器人导航以及智能控制领域,涉及一种未知环境下移动机器人多行为融合自动导航方法。
背景技术
近20年来,人工智能技术和计算机技术的飞速发展,自主智能移动机器人研究取得了重大关注。目前智能移动机器人广泛应用于工农业、交通运输、军事、医疗卫生等行业,以解决危险环境下工作问题和取代人类繁重工作。为提高移动机器人在未知环境下的工作能力和应用范围,移动机器人自主导航的研究是急需解决的关键难题。
对于移动机器人而言,导航能力是其最重要的功能之一,机器人首先要求避免危险情况如碰撞等,将机器人停留于安全的操作环境下;其次需具备完成到环境中某一特定位置执行特定任务的能力。目前常见的导航控制方法主要分为两大类:行为控制和势场导航方法。行为导航控制通常假定已知机器人的起始位置和期望目标位置,机器人根据当前局部范围内获取的传感器信息(红外、声纳、激光等测距信息、视觉信息等)进行决策,改变转向角和运动速度以避免向期望目标方向行驶过程中与障碍物发生碰撞。该类探索方法简单有效,得到广泛应用。
目前,为实现复杂环境下的高效机器人控制,模糊控制、神经网络、遗传算法等理论被引入子行为控制器的设计和子行为之间协调、融合策略的研究,但是仍缺乏可靠性高、自适应性强的解决方案。
发明内容
本发明所要解决的技术问题在于克服现有技术的不足,提供一种未知环境下移动机器人多行为融合自动导航方法,移动机器人利用声纳、电子罗盘传感器获取环境信息,完成环境建模、理解环境,从而提高移动机器人的自主导航能力。
本发明的技术解决方案如下:
一种未知环境下移动机器人多行为融合自动导航方法,其特征在于,包括以下步骤:
1)根据目标和移动机器人的相对位置实时获取当前的方位角,根据移动机器人周围障碍物状况实时获取多个距离参数;
2)基于奔向目标、沿墙走和避障三个子行为的多输出支持向量机模糊控制器根据获取的方位角和多个距离参数输出转角值θi和速度值vi,i=1,2,3;
3)基于奔向目标、沿墙走和避障三个子行为的多输出支持向量机环境辨识控制器根据方位角和多个距离参数输入信号,输出三个子行为的权重参数wi,i=1,2,3;
4)按照下式计算移动机器人当前用于导航的转角值θ和速度值v:
所述的步骤2)中,采用电子罗盘获取移动机器人与目标点之间的方位角ω,采用8个环状配置的超声波测距传感器获取8个距离参数d1~d8;其中{d1,d2,d3}为左向距离,{d4,d5}为前向距离,{d6,d7,d8}为右向距离;
所述的多输出支持向量机模糊控制器的障碍信号左向障碍Left_obs,前向障碍Front_obs和右向障碍Right_obs定义为:
Left_obs=Min{d1,d2,d3};Front_obs=Min{d4,d5};Right_obs=Min{d6,d7,d8}。
对于所述的多输出支持向量机模糊控制器,沿墙走和避障子行为的输入为左向障碍Left_obs、前向障碍Front_obs和右向障碍Right_obs,奔向目标子行为的输入为方位角ω;多输出支持向量机模糊控制器的输出为两个,转角值θi和速度值vi,i=1,2,3,i为1、2、3分别对应奔向目标、沿墙走和避障三个子行为;左向障碍Left_obs,前向障碍Front_obs,右向障碍Right_obs采用{远,近,很近}即{Far,Near,Very near}三个模糊语言变量组成的模糊集合表示,方位角ω采用{大左,中左,左,向前,右,中右,大右}即{far-left,medium-left,left,head-on,right,medium-right,far-right}七个模糊语言变量表示;多输出支持向量机模糊控制器的输出模糊集合转角θi用模糊集合{负大,负中,负小,零,正小,正中,正大}即{NB,NM,NS,ZE,PS,PM,PB}表示,速度vi用模糊集合{快,中,慢}即{Fast,Medium,Slow}表示。
对于所述的多输出支持向量机模糊控制器,利用多输出支持向量机回归,将模糊专家知识确定的规则作为样本,在允许误差范围内进行函数逼近,选出成为支持向量的样本,从而剔除掉规则库中的冗余规则,得到拟合函数。
所述的多输出支持向量机环境辨识控制器的输入为距离参数{d1,d2,d3,d4,d5,d6,d7,d8}和方位角ω;输出层为当前环境分别与三个子行为的匹配度fn(n=1,2,3),匹配度之和等于1,训练时首先获取环境信息作为输入,并根据专家经验为每个子行为分配的与当前环境的匹配度的值作为多输出支持向量机环境辨识控制器的期望输出,由此得到一系列的训练样本并对该多输出支持向量机环境辨识控制器进行训练;训练完成所得到的网络结构即为所述的多输出支持向量机环境辨识控制器;则三个子行为的权重参数wi,i=1,2,3为:
[w1,…,w3]T=[f1,…,f3]T, wn∈[0,1]。
有益效果:
与现有技术相比,本发明的优点就在于:
1、采用多输出支持向量机模糊控制器,能有效地减少冗余规则,省略反模糊化过程,简化了计算,优化了模糊控制器。
2、利用多输出支持向量机辨识环境,根据实际环境动态确定子行为与当前所处环境的匹配程度,从而确定子行为输出在整个导航行为输出中所占的权重,提高了导航行为输出的可信度。提出多行为的融合策略,进一步优化了导航权值参数。
3、模块化结构,方便添加其它子行为,提高了系统的自适应性。
实验结果(见实施例)也验证了本发明能可靠的实现移动机器人的导航。
附图说明
图1为本发明的未知环境下移动机器人多行为融合导航方法总体流程图;
图2为移动机器人前向声纳环(超声波测距传感器)配置示意图;
图3为子行为模糊控制器结构示意图;
图4为输入输出模糊隶属度函数;
图5为离线训练多输出支持向量机程序流程图;
图6为当前环境与子行为匹配度训练样本;
图7为理想地图示意图;
图8为环境1中对目标(goal)的导航控制实验对比结果((a)A*算法的规划路径(b)本方法对规划路径的跟踪轨迹(c)本方法自主导航路径);
图9为环境1中对目标(goal)的导航控制实验对比结果((a)A*算法的规划路径(b)本方法对规划路径的跟踪轨迹(c)本方法自主导航路径);
图10为环境2中对目标(goal)的导航控制实验对比结果((a)A*算法的规划路径(b)本方法对规划路径的跟踪轨迹(c)本方法自主导航路径);
具体实施方式
下面参照附图和实施例对本发明的实施进行说明。
以下将结合附图和具体实施过程对本发明做进一步详细说明:
实施例1:
本发明的系统结构图如图1所示(图1中FSVM是模糊支持向量机),输入信号为方位角和8个距离参数,将导航行为划分为奔向目标、沿墙走、避障三个子行为,传感器获取信息分别送入子行为控制器和环境辨识控制器。子行为控制器的输出均为机器人的转角θ和运动速度v,环境辨识控制器的输出为子行为与当前环境的匹配度。子行为控制器输出与对应的环境辨识控制器输出乘积之和为整个导航系统的输出,控制移动机器人的转向和速度。转角θ和运动速度v用来实现导航行为,其中转角θ用于改变机器人的运动方向。移动机器人采用超声波测距传感器、电子罗盘来完成环境建模及导航子行为,其前端安装有八个声纳测距传感器。图2中移动机器人声纳传感器的位置为:±10°、±30°、±50°和±90°,用于探测各自方向上障碍物的信息。声纳的测距信息分为左、前、右三个扇区,分别记为Left_obs,Front_obs,Right_obs,用于探测这三个方向的障碍物信息。
1、多输出支持向量机子行为模糊控制器
首先针对子行为设计设计模糊控制器,然后多输出支持向量机回归原理,采用多输出支持向量机提取控制规则。
1)子行为
说明:导航行为划分为奔向目标、沿墙走、避障三个子行为。其中奔向目标行为是指不考虑前方是否能通行,只朝向目标所在方向行进;沿墙走行为是指沿走廊、墙等有较长直线边缘行进,而忽略目标所在方向;避障行为是指绕开前方静态的障碍物继续朝前行进,而忽略目标所在方向。
2)子行为模糊控制器
说明:利用模糊理论为设计子行为模糊控制器。
算法:
通常电子罗盘获取机器人与目标点之间方位角ω;移动机器人的8个声纳测量障碍物与机器人之间的距离,{d1,d2,d3,d4,d5,d6,d7,d8}按照式(1)分为Left_obs,Front_obs,Right_obs三组,其中Min()表示从多个值当中取最小值。
Left_obs=Min{d1,d2,d3};Front_obs=Min{d4,d5};Right_obs=Min{d6,d7,d8} (1)
本发明采用的模糊控制器根据子行为的功能确定输入,为Left_obs,、Front_obs、Right_obs与ω的搭配。一般需要确定距离信息的子行为其输入必须包括Left_obs,、Front_obs、Right_obs,需要确定机器人与目标点之间方位的其输入必须包括ω,即沿墙走、避障行为的输入为Left_obs,、Front_obs、Right_obs,奔向目标行为的输入为ω。控制器的输出为两个,即转角θ和速度v。其结构如图3所示,图中输入采用虚线,表示根据子行为功能的需要进行选择输入。三组距离信息均可用{Far,Near,Very near}三个模糊语言变量组成的模糊集合表示,方位信息ω可用{far-left,medium-left,left,head-on,right,medium-right,far-right}七个模糊语言变量表示;行为模糊控制器的输出模糊集合转角θ用模糊集合{NB,NM,NS,ZE,PS,PM,PB}表示,速度v用模糊集合{Fast,Medium,Slow}表示。输入输出的模糊隶属度函数如图4所示。
然后针对每个行为设计模糊控制规则,奔向目标行为、沿墙走行为和避障行为的模糊控制规则分别如表1、表2、表3所示。
表1奔向目标行为模糊规则库
测量数据阵列情况 | 规则编号 | ω | θ<sub>1</sub> | v<sub>1</sub> |
1 | 1 | far-left | NB | Fast |
2 | 2 | medium-left | NM | Medium |
3 | 3 | left | NS | Medium |
4 | 4 | head-on | ZE | Fast |
5 | 5 | right | PS | Medium |
6 | 6 | medium-right | PM | Medium |
7 | 7 | far-right | PB | Fast |
表2沿墙走行为模糊规则库
测量数据阵列情况 | 规则编号 | Left_obs | Front_obs | Right_obs | θ<sub>2</sub> | v<sub>2</sub> |
1 | 1 | Very near | Very near | Very near | NB | Slow |
2 | 2 | Very near | Very near | near | PM | Slow |
3 | 3 | Very near | Very near | Far | PS | Slow |
4 | 4 | Very near | near | Very near | ZE | Slow |
5 | 5 | Very near | near | near | ZE | Slow |
6 | 6 | Very near | near | Far | PS | Medium |
7 | 7 | Very near | Far | Very near | ZE | Fast |
8 | 8 | Very near | Far | near | ZE | Fast |
9 | 9 | Very near | Far | Far | ZE | Fast |
10 | 10 | near | Very near | Very near | NS | Slow |
11 | 11 | near | Very near | near | NS | Slow |
12 | 12 | near | Very near | Far | PM | Medium |
13 | 13 | near | near | Very near | ZE | Slow |
14 | 14 | near | near | near | ZE | Slow |
15 | 15 | near | near | Far | PM | Medium |
16 | 16 | near | Far | Very near | ZE | Fast |
17 | 17 | near | Far | near | ZE | Fast |
18 | 18 | near | Far | Far | ZE | Fast |
19 | 19 | Far | Very near | Very near | NM | Medium |
20 | 20 | Far | Very near | near | NM | Medium |
21 | 21 | Far | Very near | Far | NM | Medium |
22 | 22 | Far | near | Very near | ZE | Medium |
23 | 23 | Far | near | near | ZE | Medium |
24 | 24 | Far | near | Far | ZE | Medium |
25 | 25 | Far | Far | Very near | ZE | Fast |
26 | 26 | Far | Far | near | ZE | Fast |
27 | 27 | Far | Far | Far | ZE | Fast |
表3避障行为模糊规则库
测量数据阵列情况 | 规则编号 | Left_obs | Front_obs | Right_obs | θ<sub>3</sub> | v<sub>3</sub> |
1 | 1 | Very near | Very near | Very near | NB | Slow |
2 | 2 | Very near | Very near | near | PM | Slow |
3 | 3 | Very near | Very near | Far | PM | Slow |
4 | 4 | Very near | near | Very near | NB | Slow |
5 | 5 | Very near | near | near | PM | Medium |
6 | 6 | Very near | near | Far | PS | Fast |
7 | 7 | Very near | Far | Very near | ZE | Medium |
8 | 8 | Very near | Far | near | ZE | Fast |
9 | 9 | Very near | Far | Far | PS | Fast |
10 | 10 | near | Very near | Very near | NM | Slow |
11 | 11 | near | Very near | near | NM | Slow |
12 | 12 | near | Very near | Far | PM | Slow |
13 | 13 | near | near | Very near | NM | Medium |
14 | 14 | near | near | near | NM | Medium |
15 | 15 | near | near | Far | PS | Medium |
16 | 16 | near | Far | Very near | NS | Medium |
17 | 17 | near | Far | near | ZE | Fast |
18 | 18 | near | Far | Far | PS | Fast |
19 | 19 | Far | Very near | Very near | NM | Slow |
20 | 20 | Far | Very near | near | NM | Slow |
21 | 21 | Far | Very near | Far | NM | Slow |
22 | 22 | Far | near | Very near | NS | Medium |
23 | 23 | Far | near | near | NS | Medium |
24 | 24 | Far | near | Far | NS | Medium |
25 | 25 | Far | Far | Very near | NS | Fast |
26 | 26 | Far | Far | near | NS | Fast |
27 | 27 | Far | Far | Far | ZE | Fast |
3)多输出支持向量机抽取控制规则
说明:利用多输出支持向量机回归,将模糊专家知识确定的规则作为样本,在一定允许误差范围内进行函数逼近,选出成为支持向量的样本,从而剔除掉规则库中的冗余规则,并得到具有较好学习能力的拟合函数,即基于多输出支持向量机的模糊控制器。算法:
根据子行为模糊控制器的输入输出数量,确定支持向量机的输入与输出数量。即支持向量机的输入节点数量等于子行为模糊控制器的输入数量;支持向量机的输出节点数量等于子行为模糊控制器的输出数量,均为转角θi和速度vi。子行为模糊控制器包含一系列由IF THEN组成的控制规则,规则库中的一条控制规则对应于一个样本中心点,规则库中有N条规则,就会得到N个样本点。然后对这N个样本点采用支持向量机回归方法,在适当精度ε下无误差地用非线性回归函数拟合这N个样本,求解二次规划最优问题,找到样本中的支持向量(s个),其所对应的控制规则即为有用的规则,而非支持向量的样本所对应的控制规则即为规则库中的冗余规则,同时也得到拟合函数,即支持向量机子行为模糊控制器。
以支持向量机抽取奔向目标行为模糊控制规则为例说明其过程。
如表1所示的奔向目标行为模糊规则库中的一条控制规则对应于一个样本中心点,该规则库中有7条规则,就会得到7个样本点,如表4所示。
表4奔向目标行为样本
样本阵列情况 | 输入 | 输出 |
ω | (θ<sub>1</sub>,v<sub>1</sub>) | |
1 | far-left | (NB,Fast) |
2 | medium-left | (NM,Medium) |
3 | left | (NS,Medium) |
4 | head-on | (ZE,Fast) |
5 | right | (PS,Medium) |
6 | medium-right | (PS,Medium) |
7 | far-right | (PB,Fast) |
然后对这7个样本点采用支持向量机回归方法(一个输入,两个输出),在适当精度ε>0(根据经验调整,此处选择ε=0.3)下用非线性回归函数拟合这7个样本,训练的程序流程图如图5所示,图中参数c为支持向量机的惩罚因子且c>0。本方法采用RBF核函数即K(xi,x)=exp(-g|x-xi|2),xi为要求解的支持向量,式中及图5中的参数g为核函数的参数且g>0。
2、基于多输出支持向量机的环境辨识
说明:移动机器人导航任务分解为三个子行为,如何确定移动机器人所处环境与子行为的匹配程度,最终确定子行为在导航系统输出中的权重,关系到导航系统的性能。本发明采用多输出支持向量机来辨识环境与子行为的匹配程度,提高系统的可靠性。
算法:
多输出支持向量机环境辨识控制器的输入有九个,即反映移动机器人周围障碍物信息的声纳测距信息{d1,d2,d3,d4,d5,d6,d7,d8}和移动机器人与目标之间的夹角ω;输出层为环境与子行为的匹配度fn(n=1,2,3),匹配度之和等于1,输出节点的数量与子行为数量一致。训练时首先获取环境信息作为输入,并根据专家经验为设计的每个子行为分配与当前环境的匹配程度值作为多输出支持向量机环境辨识控制器的期望输出,这样可得到一系列的训练样本。移动机器人导航任务分解为奔向目标行为、避障行为和沿墙走行为,分配子行为与当前环境匹配度的部分训练样本示例如图6所示:
图6(a)中,声纳传感器探测到移动机器人周边无障碍物,奔向目标行为与当前环境的匹配度为1,其它子行为与当前环境的匹配度为0;
图6(b)中,声纳传感器探测到移动机器人右边有障碍物,且目标在其左前方,奔向目标行为与当前环境的匹配度为1,其它子行为与当前环境的匹配度为0;
图6(c)中,声纳传感器探测到移动机器人右边有障碍物,且目标在其右后方,沿墙走行为与当前环境的匹配度为1,其它子行为与当前环境的匹配度为0;
图6(d)中,声纳传感器探测到移动机器人正前方有障碍物,且目标也在其正前方,奔向目标行为与当前环境的匹配度为0.1,避障行为与当前环境的匹配度为0.9,沿墙走行为与当前环境的匹配度为0。
图6所抽象的环境,可搭建如图7所示的实际环境和如图8所示的理想环境,机器人置于此已知环境中获取训练样本。对于图6(a)把目标置于机器人周围不同的位置(方位角ω∈[-90°,90°],声纳测距范围为0~3米),根据障碍物、目标点、墙的不同分布可以得到不同的测量样本点,其中一部分样本如表5所示。
表5环境与子行为匹配度训练部分样本
按照图5(可以把支持向量机理解为一个类似于神经网络的结构,只要根据样本,知道输入、输出,送入支持向量机训练即可。之前是把模糊规则作为训练样本,现在是把环境信息与权值作为样本送入支持向量机训练。)所示的支持向量机训练流程图对支持向量机进行训练,得到的网络结构即为多输出支持向量机环境辨识控制器。
3、行为融合
由于导航系统的输出是所有子行为输出的融合,环境与某个子行为的匹配程度(f1,f2,f3)越高,对应子行为输出的权值就越大,权值计算如下所示:
[w1,…,w3]T=[f1,…,f3]T, wn∈[0,1] (2)
因此最后导航系统实际输出到移动机器人的控制量转角θ和运动速度v为:
其中θ1,v1表示所设计的多输出支持向量机奔向目标子行为模糊控制器输出,θ2,v2表示所设计的多输出支持向量避障子行为模糊控制器的输出,θ3,v3表示所设计的多输出支持向量沿墙走子行为模糊控制器的输出。
实验结果与分析
为验证本发明提出的导航控制方法的有效性,以Pioneer 2-DXE移动机器人为对象,对两个不同环境下3个目标位置进行了导航控制实验,其中图8至图10中,图(a)中机器人的运动轨迹为A*算法的标准规划路径;图(b)为对标准规划路径分成若干子目标后的跟踪实验结果(即此时环境为已知);图(c)为假定环境未知,不依赖于规划路径,直接根据初始位置和目标位置信息情况下,本发明方法的导航控制轨迹,以验证方法的可靠性和自适应性(A*算法是一种经典的路径搜索方法,在起始节点和目标节点之间人为的设置很多节点(在程序里给出节点位置信息)起到路标作用,也就是很多个子目标,子目标越多,表明告诉机器人的信息就越多,这样可以认为环境就为已知了,可以通过给定子目标的方位和坐标来实现;而未知环境即只给出起始点和目标节点,不给出中间节点的位置,因此,对于机器人来说,是一个未知环境)。
从实验结果看,本导航方法对已知路径具有很高的精度和可靠性,三种情况均能够精确逼近标准规划路径。在未知环境下,本导航方法也表现出了非常好的准确度和对环境的适应性,均能够最终达到目标位置,在环境2中,由于通往目标位置过程中回形区域的出现,造成机器人出现回退行为,路径优化性较差,但是本导航方法最终仍能摆脱局部陷阱影响,最终达到目标位置,因此本导航方法对不同环境具有很好的适应能力和可靠性。
Claims (2)
1.一种未知环境下移动机器人多行为融合自动导航方法,其特征在于,包括以下步骤:
1)根据目标和移动机器人的相对位置实时获取当前的方位角,根据移动机器人周围障碍物状况实时获取多个距离参数;
2)基于奔向目标、沿墙走和避障三个子行为的多输出支持向量机模糊控制器根据获取的方位角和多个距离参数输出转角值θi和速度值vi,i=1,2,3;
3)基于奔向目标、沿墙走和避障三个子行为的多输出支持向量机环境辨识控制器根据方位角和多个距离参数输入信号,输出三个子行为的权重参数wi,i=1,2,3;
4)按照下式计算移动机器人当前用于导航的转角值θ和速度值v:
所述的步骤2)中,采用电子罗盘获取移动机器人与目标点之间的方位角ω,采用8个环状配置的超声波测距传感器获取8个距离参数d1~d8;其中{d1,d2,d3}为左向距离,{d4,d5}为前向距离,{d6,d7,d8}为右向距离;
所述的多输出支持向量机模糊控制器的障碍信号左向障碍Left_obs,前向障碍Front_obs和右向障碍Right_obs定义为:
Left_obs=Min{d1,d2,d3};Front_obs=Min{d4,d5};Right_obs=Min{d6,d7,d8};
对于所述的多输出支持向量机模糊控制器,沿墙走和避障子行为的输入为左向障碍Left_obs、前向障碍Front_obs和右向障碍Right_obs,奔向目标子行为的输入为方位角ω;多输出支持向量机模糊控制器的输出为两个,转角值θi和速度值vi,i=1,2,3,i为1、2、3分别对应奔向目标、沿墙走和避障三个子行为;左向障碍Left_obs,前向障碍Front_obs,右向障碍Right_obs采用{远,近,很近}三个模糊语言变量组成的模糊集合表示,方位角ω采用{大左,中左,左,向前,右,中右,大右}七个模糊语言变量表示;多输出支持向量机模糊控制器的输出模糊集合转角θi用模糊集合{负大,负中,负小,零,正小,正中,正大}表示,速度vi用模糊集合{快,中,慢}表示;
对于所述的多输出支持向量机模糊控制器,利用多输出支持向量机回归,将模糊专家知识确定的规则作为样本,在允许误差范围内进行函数逼近,选出成为支持向量的样本,从而剔除掉规则库中的冗余规则,得到拟合函数。
2.根据权利要求1所述的未知环境下移动机器人多行为融合自动导航方法,其特征在于,所述的多输出支持向量机环境辨识控制器的输入为距离参数{d1,d2,d3,d4,d5,d6,d7,d8}和方位角ω;输出层为当前环境分别与三个子行为的匹配度fn(n=1,2,3),匹配度之和等于1,训练时首先获取环境信息作为输入,并根据专家经验为每个子行为分配的与当前环境的匹配度的值作为多输出支持向量机环境辨识控制器的期望输出,由此得到一系列的训练样本并对该多输出支持向量机环境辨识控制器进行训练;训练完成所得到的网络结构即为所述的多输出支持向量机环境辨识控制器;则三个子行为的权重参数wi,i=1,2,3为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2008101431343A CN100568144C (zh) | 2008-09-04 | 2008-09-04 | 一种未知环境下移动机器人多行为融合自动导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2008101431343A CN100568144C (zh) | 2008-09-04 | 2008-09-04 | 一种未知环境下移动机器人多行为融合自动导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101354587A CN101354587A (zh) | 2009-01-28 |
CN100568144C true CN100568144C (zh) | 2009-12-09 |
Family
ID=40307423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2008101431343A Expired - Fee Related CN100568144C (zh) | 2008-09-04 | 2008-09-04 | 一种未知环境下移动机器人多行为融合自动导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN100568144C (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI621834B (zh) * | 2016-05-23 | 2018-04-21 | 華碩電腦股份有限公司 | 導航系統及導航方法 |
US10353400B2 (en) | 2016-05-23 | 2019-07-16 | Asustek Computer Inc. | Navigation system and navigation method |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101630162B (zh) * | 2008-07-16 | 2011-06-08 | 中国科学院自动化研究所 | 多移动机器人局部跟随控制方法 |
CN101833333B (zh) * | 2009-12-23 | 2011-09-14 | 湖南大学 | 水下清洗作业机器人未知环境路径规划方法 |
CN101907891B (zh) * | 2010-06-02 | 2012-09-05 | 武汉普尔惠科技有限公司 | 机器人巡逻路径控制方法 |
CN102176119B (zh) * | 2011-02-18 | 2012-12-26 | 杭州电子科技大学 | 一种基于信息融合机制的多机器人危险气味源定位方法 |
CN102288176B (zh) * | 2011-07-07 | 2013-01-30 | 中国矿业大学(北京) | 基于信息融合的煤矿救灾机器人导航系统及方法 |
CN102323819B (zh) * | 2011-07-26 | 2013-06-19 | 重庆邮电大学 | 一种基于协调控制的智能轮椅室外导航方法 |
CN102540894B (zh) * | 2012-02-17 | 2014-04-09 | 南京电力设备质量性能检验中心 | 一种基于遗传算法的带有未知负载的机械手参数辨识方法 |
CN102788591B (zh) * | 2012-08-07 | 2015-05-13 | 郭磊 | 基于视觉信息的机器人沿引导线巡线导航方法 |
CN103324196A (zh) * | 2013-06-17 | 2013-09-25 | 南京邮电大学 | 基于模糊逻辑的多机器人路径规划与协调避碰方法 |
CN104013513B (zh) * | 2014-06-05 | 2016-08-17 | 电子科技大学 | 康复机器人感知系统及其方法 |
CN104765368B (zh) * | 2015-04-10 | 2017-11-28 | 中国人民解放军海军工程大学 | 一种基于模糊自适应算法的无人艇航向航速协同控制方法 |
CN104834308A (zh) * | 2015-04-10 | 2015-08-12 | 浙江工业大学 | 满足复杂需求的最优巡回控制方法 |
CN106226774B (zh) * | 2016-08-26 | 2019-02-12 | 涂超 | 一种基于多传感器融合的机器人测距方法 |
CN106527153B (zh) * | 2017-01-12 | 2019-02-05 | 南京七宝机器人技术有限公司 | 一种变电站巡检机器人集群管控系统 |
CN106842956B (zh) * | 2017-03-17 | 2018-02-23 | 葛辰雨 | 机器人避障方法及系统 |
CN107065890B (zh) * | 2017-06-02 | 2020-09-15 | 北京航空航天大学 | 一种无人车智能避障方法及系统 |
CN107272705B (zh) * | 2017-07-31 | 2018-02-23 | 中南大学 | 一种智能环境下机器人路径的多神经网络控制规划方法 |
EP3683730A4 (en) | 2017-09-12 | 2020-09-23 | Cloudminds (Shenzhen) Robotics Systems Co., Ltd. | DYNAMIC ROBOT, ROBOT AND CLOUD SERVER LEARNING PROCESS AND SYSTEM |
JP7107658B2 (ja) * | 2017-10-11 | 2022-07-27 | 日立グローバルライフソリューションズ株式会社 | 自律走行型掃除機及び自律走行型掃除機システム並びに移動体 |
CN108247630B (zh) * | 2017-12-01 | 2021-01-05 | 西安电子科技大学 | 基于贝叶斯网络模型的移动机器人避障方法 |
CN108490968B (zh) * | 2018-03-17 | 2020-10-27 | 西北工业大学 | 一种基于反馈融合结构的自主水下航行器控制行为融合方法 |
CN108563119B (zh) * | 2018-03-26 | 2021-06-15 | 哈尔滨工程大学 | 一种基于模糊支持向量机算法的无人艇运动控制方法 |
CN109186463B (zh) * | 2018-09-04 | 2021-12-07 | 浙江梧斯源通信科技股份有限公司 | 应用于可移动机器人的防跌落方法 |
CN109164812B (zh) * | 2018-10-23 | 2020-04-07 | 西南交通大学 | 一种未知环境下移动机器人多行为融合酶数值膜控制方法 |
CN109213174B (zh) * | 2018-10-24 | 2021-10-01 | 北京工业大学 | 一种基于模糊神经网络的污水处理厂智能巡检避障方法 |
CN109460727B (zh) * | 2018-10-31 | 2021-04-06 | 中国矿业大学 | 一种基于人体行为识别的考场监控系统及方法 |
CN109358511B (zh) * | 2018-12-12 | 2022-04-19 | 哈尔滨工业大学 | 一种数据驱动的系统关键性能指标自适应调节方法 |
CN109947115A (zh) * | 2019-04-17 | 2019-06-28 | 河北农业大学 | 一种割草机控制系统及其控制方法 |
CN110196596B (zh) * | 2019-06-04 | 2022-05-27 | 南阳理工学院 | 一种基于碰撞风险分析的四轮移动机器人模糊避障方法 |
CN110262497A (zh) * | 2019-06-27 | 2019-09-20 | 北京物资学院 | 一种半结构化环境机器人导航控制方法及装置 |
CN110262512B (zh) * | 2019-07-12 | 2022-03-29 | 北京机械设备研究所 | 一种移动机器人脱离u形障碍陷阱的避障方法及系统 |
CN110488835B (zh) * | 2019-08-28 | 2020-12-08 | 北京航空航天大学 | 一种基于双反向传播神经网络的无人系统智能局部路径规划方法 |
CN111203873B (zh) * | 2019-12-25 | 2022-07-29 | 深圳深岚视觉科技有限公司 | 移动机器人控制方法及移动机器人 |
CN111443603B (zh) * | 2020-03-31 | 2021-07-06 | 东华大学 | 基于自适应模糊神经网络系统的机器人共享控制方法 |
CN113273927B (zh) * | 2021-04-01 | 2022-04-15 | 浙江大学 | 一种基于多传感器融合的差动轮式机器人及沿墙导航方法 |
-
2008
- 2008-09-04 CN CNB2008101431343A patent/CN100568144C/zh not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
基于模糊神经网络的机器人自学习控制. 王耀南,孙炜.电机与控制学报,第5卷第2期. 2001 |
基于模糊神经网络的机器人自学习控制. 王耀南,孙炜.电机与控制学报,第5卷第2期. 2001 * |
多传感器信息融合机器应用概述. 王耀南,李树涛.控制与决策,第16卷第5期. 2001 |
多传感器信息融合机器应用概述. 王耀南,李树涛.控制与决策,第16卷第5期. 2001 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI621834B (zh) * | 2016-05-23 | 2018-04-21 | 華碩電腦股份有限公司 | 導航系統及導航方法 |
US10353400B2 (en) | 2016-05-23 | 2019-07-16 | Asustek Computer Inc. | Navigation system and navigation method |
Also Published As
Publication number | Publication date |
---|---|
CN101354587A (zh) | 2009-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100568144C (zh) | 一种未知环境下移动机器人多行为融合自动导航方法 | |
Chatterjee et al. | A neuro-fuzzy assisted extended Kalman filter-based approach for simultaneous localization and mapping (SLAM) problems | |
Wu et al. | Autonomous obstacle avoidance of an unmanned surface vehicle based on cooperative manoeuvring | |
CN103324196A (zh) | 基于模糊逻辑的多机器人路径规划与协调避碰方法 | |
Al-Jarrah et al. | Path planning and motion coordination for multi-robots system using probabilistic neuro-fuzzy | |
Ren et al. | A new fuzzy intelligent obstacle avoidance control strategy for wheeled mobile robot | |
CN108759839A (zh) | 一种基于态势空间的无人飞行器路径规划方法 | |
Xue et al. | Fuzzy controller for autonomous vehicle based on rough sets | |
Sisto et al. | A fuzzy leader-follower approach to formation control of multiple mobile robots | |
Sun et al. | Safe and smooth motion planning for Mecanum-Wheeled robot using improved RRT and cubic spline | |
Xie et al. | A novel method of unmanned surface vehicle autonomous cruise | |
CN113848974A (zh) | 一种基于深度强化学习的飞行器轨迹规划方法及系统 | |
Chen et al. | Path Planning for Autonomous Vehicle Based on a Two‐Layered Planning Model in Complex Environment | |
Mac et al. | Hybrid SLAM-based exploration of a mobile robot for 3D scenario reconstruction and autonomous navigation | |
Yang et al. | Mobile robot motion control and autonomous navigation in GPS-denied outdoor environments using 3D laser scanning | |
Che et al. | Research on improved ACO algorithm-based multi-robot odor source localization | |
CN112857370A (zh) | 一种基于时序信息建模的机器人无地图导航方法 | |
Juang et al. | Navigation of a fuzzy-controlled wheeled robot through the combination of expert knowledge and data-driven multiobjective evolutionary learning | |
Yan | Positioning of logistics and warehousing automated guided vehicle based on improved LSTM network | |
Fu et al. | Collision-free and kinematically feasible path planning along a reference path for autonomous vehicle | |
Hoshino et al. | Discrete motion planner based on deep recurrent neural network for mobile robot obstacle avoidance in dead-end environments | |
Kashyap et al. | Modified type-2 fuzzy controller for intercollision avoidance of single and multi-humanoid robots in complex terrains | |
Saranya et al. | Real time evaluation of grid based path planning algorithms: A comparative study | |
Gómez | Map-building and planning for autonomous navigation of a mobile robot | |
Chand et al. | Development of a navigation system for heterogeneous mobile robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20091209 Termination date: 20200904 |
|
CF01 | Termination of patent right due to non-payment of annual fee |