CN113093730A - 一种基于状态策略知识库指导的智能体自主避障方法 - Google Patents

一种基于状态策略知识库指导的智能体自主避障方法 Download PDF

Info

Publication number
CN113093730A
CN113093730A CN202110264968.5A CN202110264968A CN113093730A CN 113093730 A CN113093730 A CN 113093730A CN 202110264968 A CN202110264968 A CN 202110264968A CN 113093730 A CN113093730 A CN 113093730A
Authority
CN
China
Prior art keywords
obstacle avoidance
obstacle
state
intelligent
knowledge base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110264968.5A
Other languages
English (en)
Other versions
CN113093730B (zh
Inventor
向隆刚
李雅丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110264968.5A priority Critical patent/CN113093730B/zh
Publication of CN113093730A publication Critical patent/CN113093730A/zh
Application granted granted Critical
Publication of CN113093730B publication Critical patent/CN113093730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Abstract

本发明公开了一种基于状态策略知识库指导的智能体自主避障方法,为智能体赋予障碍物认知和避障能力。方法包括五个步骤,步骤一感知避障环境,判断是对于障碍物是否需要采取避障措施,若需要避障,则构建避障环境状态;步骤二将感知的避障环境状态与状态‑决策知识库匹配,匹配不成功,进入步骤三,匹配成功,则应用知识库输出决策;步骤三基于模糊神经网络对新状态在线输出策略,并将该状态‑策略添加到知识库;步骤五判断智能体是否到达目标点,若没有到达,则重复步骤一,反之则结束。本发明的特点在于应用离线状态策略知识库和在线模糊神经网络解决避障问题,知识库可在避障过程中实现增量式发育,适用于快速解决各类避障问题。

Description

一种基于状态策略知识库指导的智能体自主避障方法
技术领域
本发明属于移动智能避障技术领域,尤其涉及一种基于状态策略知识库指导的智能体自主避障方法。
背景技术
随着科技的发展,移动智能体可在运输领域代替人类劳动,在运输过程中虽然以事先具备了路径规划,但环境通常复杂多变,存在静态障碍物与动态障碍物的干扰,因此智能体自主避障能力是确保其顺利到达目的地的关键。智能体自主避障主要分为两步,第一步:根据感知范围内获取的障碍物信息判断是否需要避障;第二步,指定相应的策略,顺利避开障碍物。现有智能体的避障方法可分为基于人工势场合向量直方图的路径规划法,以及基于蚁群算法、神经网络的智能控制法。但这些方法主要基于在线实时计算,没有利用离线的知识库,面对存在动态障碍物的复杂场景时,存在计算量大、时效性较差的问题。同时在避障过程中未考虑智能体完整行径过程的最优路线,会产生大量的冗余路径甚至发生碰撞。
发明内容
本发明所要解决的技术问题在于克服现有技术的不足,在已有路径规划的前提下,提供了一种基于状态策略知识库指导的智能体自主避障方法,在自主避障过程中通过设置避障子目标点,避免了冗余路径产生,同时引入了用于避障的状态策略知识库,能够高效利用已有的策略,快速高效的指导避障。
避障系统包括:主控制机、超宽带系统、高精度转角仪、车速传感器以及第一激光雷达传感器、第二激光雷达传感器、第三激光雷达传感器;
所述主控制机分别与所述的超宽带系统、高精度转角仪、车速传感器、第一激光雷达传感器、第二激光雷达传感器、第三激光雷达传感器通过有线方式依次连接,所述避障系统放置于智能体上;
所述超宽带系统用于获取智能体的位置;
所述高精度转角仪用于获取智能体的姿态;
所述车速传感器用于获取智能体的速度;
所述第一激光雷达传感器、第二激光雷达传感器、第三激光雷达传感器均用于采集障碍物的位置;
本发明具体采用以下技术方案解决上述技术问题:
一种基于状态策略知识库指导的智能体自主避障方法,其特征在于,包括以下步骤:
步骤1:感知避障环境。智能体在按照已有路径规划前进的前提下,感知障碍物信息,判断是否需要采取避障措施;若需要避障,则构建避障环境状态,进行步骤2,反之则不做避障处理;
步骤2:将步骤1中所述的避障环境状态与状态策略知识库中已知状态策略进行匹配;若匹配不成功表示步骤1中所述的避障环境状态为未知的新状态,则进入步骤3;若匹配成功表示步骤1中所述的避障环境状态为已知状态,则进入步骤4;
步骤3:将未知的新状态通过模糊神经网络预测输出避障执行速度、避障执行转向角,将避障执行速度、避障执行转向角作为避障策略以指导智能体避障,并将未知的新状态、避障策略以状态策略形式添加至步骤2所述状态策略知识库;
步骤4:在状态策略知识库中搜索已知状态对应的策略作为避障策略,用于指导智能体避障;
步骤5:通过所述超宽带系统判断智能体是否到达此次避障目标点,若已到达目标点,则结束避障,并退出;否则,重复执行步骤1至步骤2直至智能体到达避障目标点。
作为优选,步骤1所述感知障碍物信息的具体步骤为:
步骤1.1:基于三个激光雷达传感器,分别获取检测到的障碍物直线距离和扫描角度,以减少单个激光雷达传感器的广角误差;
步骤1.2:根据当前周期T下,障碍物与智能体的直线距离D,以及上个周期T-△t下,障碍物与智能体的直线距离信息D′,应用坐标转换模型,计算在障碍物以智能体为原点,智能体朝向为Y轴方向的坐标系下的位置;
所述坐标转换模型如下:
Figure BDA0002966321270000021
式中,dx为当前周期下障碍物与智能体在X轴方向上的距离;dy为当前周期下障碍物与智能体在Y轴方向上的距离;d’x为上一个周期下障碍物与智能体在X轴方向上的距离;d’y为上一个周期下障碍物与智能体在X轴方向上的距离;D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,θ1表示第一激光雷达传感器的扫描角度,θ2表示第二激光雷达传感器的扫描角度,θ3表示第三激光雷达传感器的扫描角度;
然后根据避障判断模型进行避障判断,若满足条件则无需避障,直接退出;否则判断为需要避障进入步骤1.3;
所述避障判断模型为:
dy-dy'-vΔt<0
式中,v是智能体速度,通过所述车速传感器获取;△t为激光雷达传感器仪检测周期;
步骤1.3:根据障碍物与智能体之间的直线距离和角度,计算障碍物相对于智能体的运动方向to,具体如下:
Figure BDA0002966321270000031
式中,to为障碍物相对于智能体的运动方向;ε为距离阈值;to=-1表示障碍物相对智能体向左运动;to=1表示障碍物相对智能体向右运动;
步骤1.4:上述单次避障是指智能体从检测到障碍物开始,到智能体行驶至此次避障的目标点的过程。首先计算目标点与智能体的坐标差值,具体如下:
Figure BDA0002966321270000032
式中,Ro为障碍物半径,统一设定为0.3米;Ra为智能体半径,统一设定为0.3米;
然后基于目标点与智能体的坐标差值,和上述1.3步骤中计算的障碍物相对运动方向to,计算智能体与目标点的航向角:
Figure BDA0002966321270000033
此时,目标角度ta的计算公式为:ta=θa-α,式中α为智能体的航向角,通过所述高精度转角仪测得;
步骤1.5:通过第一激光雷达传感器获取的距离信息、第二激光雷达传感器获取的距离信息、第三激光雷达传感器获取的距离信息、障碍物相对运动方向、目标角度构建避障环境状态;
所述避障环境状态为:
S=[D1,D2,D3,to,ta];
其中,D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,to为障碍物相对于智能体的运动方向,ta表示目标角度;
作为优选,步骤2所述状态策略知识库用于存储已知的避障环境状态和已知的避障环境状态对应的策略;
步骤2所述状态策略知识库的定义为:
KBS=[R1,R2,…,Rm]
其中,KBS表示状态策略知识库,m表示状态策略知识库中已知状态策略的数量,Ri表示状态策略知识库中第i条已知状态策略,具体定义为:
Figure BDA0002966321270000041
其中,
Figure BDA0002966321270000042
表示状态策略知识库中第i条已知状态策略中状态,
Figure BDA0002966321270000043
表示状态策略知识库中第i条已知状态策略中策略,
Figure BDA0002966321270000044
表示已知的第一激光雷达传感器获取的距离信息,
Figure BDA0002966321270000045
表示已知的第二激光雷达传感器获取的距离信息,
Figure BDA0002966321270000046
表示已知的第三激光雷达传感器获取的距离信息,
Figure BDA0002966321270000047
为已知的障碍物相对于智能体的运动方向,
Figure BDA0002966321270000048
已知的表示目标角度,
Figure BDA0002966321270000049
为已知的避障执行速度,
Figure BDA00029663212700000410
为已知的避障执行转向角;
步骤2所述与状态策略知识库中已知状态策略进行匹配为:
根据绝对值指数法度量感知的避障环境状态S中的每一项与状态策略知识库中的已知状态策略R中的状态
Figure BDA00029663212700000411
之间的相似度sim(S,R)
Figure BDA00029663212700000412
式中,Sf代表避障环境状态中第f个属性值,
Figure BDA00029663212700000413
代表
Figure BDA00029663212700000414
中的第f个属性值,wf是第f个属性对应的权重,C为设定阈值:
若sim(S,R)>C为步骤2所述匹配成功;
若sim(S,R)<=C为步骤2所述匹配不成功;
作为优选,步骤3所述未知的新状态为:
S=[D1,D2,D3,to,ta];
其中,D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,to为障碍物相对于智能体的运动方向,ta表示目标角度;
步骤3所述的模糊神经网络结构由输入层、变量隶属度转换层、模糊规则适应度层、归一化层、输出层依次级联构成;
所述输入层,输入状态S中的5个特征值,节点n=5;
所述变量隶属度转换层,设定3个距离变量D分为{“远”,“近”}两个等级,1个障碍物运动方向to分为{“左”,“右”}两个等级,1个智能体目标角度ta分为{“偏左大”,“偏左小”,“无偏”,“偏右小”,“偏右大”}五个等级;
所述变量隶属度转换层的节点数量为各变量的模糊分割个数之和;
所述变量隶属度转换层根据矩形函数计算各变量的隶属度,具体如下:
Figure BDA0002966321270000051
式中,β为模糊分割的阈值;
所述模糊规则适应度层,用来匹配模糊规则的前件,每个节点代表一条模糊规则,该层节点数为各变量的模糊分割个数之积;
所述归一化层,节点数与第三层相同;
所述输出层,通过加权平均法去模糊化,输出的变量为智能体的避障执行速度和智能体的避障执行转向角。
作为优选,步骤4所述避障策略由避障执行速度v、避障执行转向角w构成;
相比于现有技术,本发明方案具有以下有益效果:
本发明技术方案中采用了知识库与深度模糊模型相结合的思想,已知避障状态可通过知识库匹配,快速输出智能体避障策略,包括控制速度和控制方向角,未知避障状态则通过强化学习在线输出,同时添加到知识库,实现其增量式发育,从而保证智能体能有效、快速应对新场景。
本发明方案中,进行实时避障解算,需要避障时,基于全局规划路径计算子目标点,实现全局路径规划和局部避障相结合,避免了路径冗余。
附图说明
图1:为本发明的总体流程图。
图2:为本发明的状态策略知识库结构示意图。
图3:为本发明的模糊神经网络结构图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
在实施本发明提出的自主避障方法之前,假定智能体本身具备全局路径规划能力,并按照路径规划以恒定速度前进。本专利提出的方法应用于单次避障,即智能体在正常前进的过程中,通过传感器的感知数据判断出需要避障后,设置避障子目标,应用该专利的方法避开障碍物。
避障系统包括:主控制机、超宽带系统、高精度转角仪、车速传感器以及第一激光雷达传感器、第二激光雷达传感器、第三激光雷达传感器;
所述主控制机选型为TurtleBot 2;
所述超宽带系统选型为JR3401;
所述高精度转角仪选型为TL735G;
所述车速传感器选型为WHT 003 859;
所述第一激光雷达传感器选型为Hokuyo UTM-30LX lidar;
所述第二激光雷达传感器选型为Hokuyo UTM-30LX lidar;
所述第三激光雷达传感器选型为Hokuyo UTM-30LX lidar;
所述主控制机分别与所述的超宽带系统、高精度转角仪、车速传感器、第一激光雷达传感器、第二激光雷达传感器、第三激光雷达传感器通过有线方式依次连接,所述避障系统放置于智能体上;
所述超宽带系统用于获取智能体的位置;
所述高精度转角仪用于获取智能体的姿态;
所述车速传感器用于获取智能体的速度;
所述第一激光雷达传感器、第二激光雷达传感器、第三激光雷达传感器均用于采集障碍物的位置。
如图1所示,本发明的一种基于状态策略知识库指导的智能体自主避障方法,包括以下步骤:
步骤1:感知避障环境。智能体在按照已有路径规划前进的前提下,感知障碍物信息,判断是否需要采取避障措施;若需要避障,则构建避障环境状态,进行步骤2,反之则不做避障处理;
步骤1所述感知障碍物信息的具体步骤为:
步骤1.1:基于三个激光雷达传感器,分别获取检测到的障碍物直线距离和扫描角度,以减少单个激光雷达传感器的广角误差;
步骤1.2:根据当前周期T下,障碍物与智能体的直线距离D,以及上个周期T-△t下,障碍物与智能体的直线距离信息D′,应用坐标转换模型,计算在障碍物以智能体为原点,智能体朝向为Y轴方向的坐标系下的位置;
所述坐标转换模型如下:
Figure BDA0002966321270000071
式中,dx为当前周期下障碍物与智能体在X轴方向上的距离;dy为当前周期下障碍物与智能体在Y轴方向上的距离;d’x为上一个周期下障碍物与智能体在X轴方向上的距离;d’y为上一个周期下障碍物与智能体在X轴方向上的距离;D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,θ1表示第一激光雷达传感器的扫描角度,θ2表示第二激光雷达传感器的扫描角度,θ3表示第三激光雷达传感器的扫描角度;
然后根据避障判断模型进行避障判断,若满足条件则无需避障,直接退出;否则判断为需要避障进入步骤1.3;
所述避障判断模型为:
dy-dy'-vΔt<0
式中,v是智能体速度,通过所述车速传感器获取;△t=0.25s为激光雷达传感器仪检测周期;
步骤1.3:根据障碍物与智能体之间的直线距离和角度,计算障碍物相对于智能体的运动方向to,具体如下:
Figure BDA0002966321270000081
式中,to为障碍物相对于智能体的运动方向;ε=0.3米为距离阈值;to=-1表示障碍物相对智能体向左运动;to=1表示障碍物相对智能体向右运动;
步骤1.4:上述单次避障是指智能体从检测到障碍物开始,到智能体行驶至此次避障的目标点的过程。首先计算目标点与智能体的坐标差值,具体如下:
Figure BDA0002966321270000082
式中,Ro为障碍物半径,统一设定为0.3米;Ra为智能体半径,统一设定为0.3米;
然后基于目标点与智能体的坐标差值,和上述1.3步骤中计算的障碍物相对运动方向to,计算智能体与目标点的航向角:
Figure BDA0002966321270000083
此时,目标角度ta的计算公式为:ta=θa-α,式中α为智能体的航向角,通过所述高精度转角仪测得;
步骤1.5:通过第一激光雷达传感器获取的距离信息、第二激光雷达传感器获取的距离信息、第三激光雷达传感器获取的距离信息、障碍物相对运动方向、目标角度构建避障环境状态;
所述避障环境状态为:
S=[D1,D2,D3,to,ta];
其中,D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,to为障碍物相对于智能体的运动方向,ta表示目标角度;
步骤2:将步骤1中所述的避障环境状态与状态策略知识库中已知状态策略进行匹配;若匹配不成功表示步骤1中所述的避障环境状态为未知的新状态,则进入步骤3;若匹配成功表示步骤1中所述的避障环境状态为已知状态,则进入步骤4;
步骤2所述状态策略知识库用于存储已知的避障环境状态和已知的避障环境状态对应的策略;
如图2所示,步骤2所述状态策略知识库的定义为:
KBS=[R1,R2,…,Rm]
其中,KBS表示状态策略知识库,m表示状态策略知识库中已知状态策略的数量,Ri表示状态策略知识库中第i条已知状态策略,具体定义为:
Figure BDA0002966321270000091
其中,
Figure BDA0002966321270000092
表示状态策略知识库中第i条已知状态策略中状态,
Figure BDA0002966321270000093
表示状态策略知识库中第i条已知状态策略中策略,
Figure BDA0002966321270000094
表示已知的第一激光雷达传感器获取的距离信息,
Figure BDA0002966321270000095
表示已知的第二激光雷达传感器获取的距离信息,
Figure BDA0002966321270000096
表示已知的第三激光雷达传感器获取的距离信息,
Figure BDA0002966321270000097
为已知的障碍物相对于智能体的运动方向,
Figure BDA0002966321270000098
已知的表示目标角度,
Figure BDA0002966321270000099
为已知的避障执行速度,
Figure BDA00029663212700000910
为已知的避障执行转向角;
步骤2所述与状态策略知识库中已知状态策略进行匹配为:
根据绝对值指数法度量感知的避障环境状态S中的每一项与状态策略知识库中的已知状态策略R中的状态
Figure BDA00029663212700000911
之间的相似度sim(S,R)
Figure BDA00029663212700000912
式中,Sf代表避障环境状态中第f个属性值,
Figure BDA00029663212700000913
代表
Figure BDA00029663212700000914
中的第f个属性值,wf是第f个属性对应的权重,C=0.8为设定阈值:
若sim(S,R)>C为步骤2所述匹配成功;
若sim(S,R)<=C为步骤2所述匹配不成功;
步骤3:将未知的新状态通过模糊神经网络预测输出避障执行速度、避障执行转向角,将避障执行速度、避障执行转向角作为避障策略以指导智能体避障,并将未知的新状态、避障策略以状态策略形式添加至步骤2所述状态策略知识库;
步骤3所述未知的新状态为:
S=[D1,D2,D3,to,ta];
其中,D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,to为障碍物相对于智能体的运动方向,ta表示目标角度;
如图3所示,步骤3所述的模糊神经网络结构由输入层、变量隶属度转换层、模糊规则适应度层、归一化层、输出层依次级联构成;
所述输入层,输入状态S中的5个特征值,节点n=5;
所述变量隶属度转换层,设定3个距离变量D分为{“远”,“近”}两个等级,1个障碍物运动方向to分为{“左”,“右”}两个等级,1个智能体目标角度ta分为{“偏左大”,“偏左小”,“无偏”,“偏右小”,“偏右大”}五个等级;
所述变量隶属度转换层的节点数量为各变量的模糊分割个数之和;
所述变量隶属度转换层根据矩形函数计算各变量的隶属度,具体如下:
Figure BDA0002966321270000101
式中,β为模糊分割的阈值;
所述模糊规则适应度层,用来匹配模糊规则的前件,每个节点代表一条模糊规则,该层节点数为各变量的模糊分割个数之积;
所述归一化层,节点数与第三层相同;
所述输出层,通过加权平均法去模糊化,输出的变量为智能体的避障执行速度和智能体的避障执行转向角。
步骤4:在状态策略知识库中搜索已知状态对应的策略作为避障策略,用于指导智能体避障;
步骤4所述避障策略由避障执行速度v、避障执行转向角w构成;
步骤5:通过所述超宽带系统判断智能体是否到达此次避障目标点,若已到达目标点,则结束避障,并退出;否则,重复执行步骤1至步骤2直至智能体到达避障目标点。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (5)

1.一种基于状态策略知识库指导的智能体自主避障方法,其特征在于,包括以下步骤:
步骤1:感知避障环境,智能体在按照已有路径规划前进的前提下,感知障碍物信息,判断是否需要采取避障措施;若需要避障,则构建避障环境状态,进行步骤2,反之则不做避障处理;
步骤2:将步骤1中所述的避障环境状态与状态策略知识库中已知状态策略进行匹配;若匹配不成功表示步骤1中所述的避障环境状态为未知的新状态,则进入步骤3;若匹配成功表示步骤1中所述的避障环境状态为已知状态,则进入步骤4;
步骤3:将未知的新状态通过模糊神经网络预测输出避障执行速度、避障执行转向角,将避障执行速度、避障执行转向角作为避障策略以指导智能体避障,并将未知的新状态、避障策略以状态策略形式添加至步骤2所述状态策略知识库;
步骤4:在状态策略知识库中搜索已知状态对应的策略作为避障策略,用于指导智能体避障;
步骤5:通过所述超宽带系统判断智能体是否到达此次避障目标点,若已到达目标点,则结束避障,并退出;否则,重复执行步骤1至步骤2直至智能体到达避障目标点。
2.根据权利要求1所述的基于状态策略知识库指导的智能体自主避障方法,其特征在于,
步骤1所述感知障碍物信息的具体步骤为:
步骤1.1:基于三个激光雷达传感器,分别获取检测到的障碍物直线距离和扫描角度,以减少单个激光雷达传感器的广角误差;
步骤1.2:根据当前周期T下,障碍物与智能体的直线距离D,以及上个周期T-△t下,障碍物与智能体的直线距离信息D′,应用坐标转换模型,计算在障碍物以智能体为原点,智能体朝向为Y轴方向的坐标系下的位置;
所述坐标转换模型如下:
Figure FDA0002966321260000011
式中,dx为当前周期下障碍物与智能体在X轴方向上的距离;dy为当前周期下障碍物与智能体在Y轴方向上的距离;d’x为上一个周期下障碍物与智能体在X轴方向上的距离;d’y为上一个周期下障碍物与智能体在X轴方向上的距离;D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,θ1表示第一激光雷达传感器的扫描角度,θ2表示第二激光雷达传感器的扫描角度,θ3表示第三激光雷达传感器的扫描角度;
然后根据避障判断模型进行避障判断,若满足条件则无需避障,直接退出;否则判断为需要避障进入步骤1.3;
所述避障判断模型为:
dy-dy'-vΔt<0
式中,v是智能体速度,通过所述车速传感器获取;△t为激光雷达传感器仪检测周期;
步骤1.3:根据障碍物与智能体之间的直线距离和角度,计算障碍物相对于智能体的运动方向to,具体如下:
Figure FDA0002966321260000021
式中,to为障碍物相对于智能体的运动方向;ε为距离阈值;to=-1表示障碍物相对智能体向左运动;to=1表示障碍物相对智能体向右运动;
步骤1.4:上述单次避障是指智能体从检测到障碍物开始,到智能体行驶至此次避障的目标点的过程;首先计算目标点与智能体的坐标差值,具体如下:
Figure FDA0002966321260000022
式中,Ro为障碍物半径,统一设定为0.3米;Ra为智能体半径,统一设定为0.3米;
然后基于目标点与智能体的坐标差值,和上述1.3步骤中计算的障碍物相对运动方向to,计算智能体与目标点的航向角:
Figure FDA0002966321260000023
此时,目标角度ta的计算公式为:ta=θa-α,式中α为智能体的航向角,通过所述高精度转角仪测得;
步骤1.5:通过第一激光雷达传感器获取的距离信息、第二激光雷达传感器获取的距离信息、第三激光雷达传感器获取的距离信息、障碍物相对运动方向、目标角度构建避障环境状态;
所述避障环境状态为:
S=[D1,D2,D3,to,ta];
其中,D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,to为障碍物相对于智能体的运动方向,ta表示目标角度。
3.根据权利要求1所述的基于状态策略知识库指导的智能体自主避障方法,其特征在于,
步骤2所述状态策略知识库用于存储已知的避障环境状态和已知的避障环境状态对应的策略;
步骤2所述状态策略知识库的定义为:
KBS=[R1,R2,…,Rm]
其中,KBS表示状态策略知识库,m表示状态策略知识库中已知状态策略的数量,Ri表示状态策略知识库中第i条已知状态策略,具体定义为:
Figure FDA0002966321260000031
其中,
Figure FDA0002966321260000032
表示状态策略知识库中第i条已知状态策略中状态,
Figure FDA0002966321260000033
表示状态策略知识库中第i条已知状态策略中策略,
Figure FDA0002966321260000034
表示已知的第一激光雷达传感器获取的距离信息,
Figure FDA0002966321260000035
表示已知的第二激光雷达传感器获取的距离信息,
Figure FDA0002966321260000036
表示已知的第三激光雷达传感器获取的距离信息,
Figure FDA0002966321260000037
为已知的障碍物相对于智能体的运动方向,
Figure FDA0002966321260000038
已知的表示目标角度,
Figure FDA0002966321260000039
为已知的避障执行速度,
Figure FDA00029663212600000310
为已知的避障执行转向角;
步骤2所述与状态策略知识库中已知状态策略进行匹配为:
根据绝对值指数法度量感知的避障环境状态S中的每一项与状态策略知识库中的已知状态策略R中的状态
Figure FDA00029663212600000311
之间的相似度sim(S,R)
Figure FDA00029663212600000312
式中,Sf代表避障环境状态中第f个属性值,
Figure FDA00029663212600000313
代表
Figure FDA00029663212600000314
中的第f个属性值,wf是第f个属性对应的权重,C为设定阈值:
若sim(S,R)>C为步骤2所述匹配成功;
若sim(S,R)<=C为步骤2所述匹配不成功。
4.根据权利要求1所述的基于状态策略知识库指导的智能体自主避障方法,其特征在于,
步骤3所述未知的新状态为:
S=[D1,D2,D3,to,ta];
其中,D1表示第一激光雷达传感器获取的距离信息,D2表示第二激光雷达传感器获取的距离信息,D3表示第三激光雷达传感器获取的距离信息,to为障碍物相对于智能体的运动方向,ta表示目标角度;
步骤3所述的模糊神经网络结构由输入层、变量隶属度转换层、模糊规则适应度层、归一化层、输出层依次级联构成;
所述输入层,输入状态S中的5个特征值,节点n=5;
所述变量隶属度转换层,设定3个距离变量D分为{“远”,“近”}两个等级,1个障碍物运动方向to分为{“左”,“右”}两个等级,1个智能体目标角度ta分为{“偏左大”,“偏左小”,“无偏”,“偏右小”,“偏右大”}五个等级;
所述变量隶属度转换层的节点数量为各变量的模糊分割个数之和;
所述变量隶属度转换层根据矩形函数计算各变量的隶属度,具体如下:
Figure FDA0002966321260000041
式中,β为模糊分割的阈值;
所述模糊规则适应度层,用来匹配模糊规则的前件,每个节点代表一条模糊规则,该层节点数为各变量的模糊分割个数之积;
所述归一化层,节点数与第三层相同;
所述输出层,通过加权平均法去模糊化,输出的变量为智能体的避障执行速度和智能体的避障执行转向角。
5.根据权利要求1所述的基于状态策略知识库指导的智能体自主避障方法,其特征在于,
步骤4所述避障策略由避障执行速度v、避障执行转向角w构。
CN202110264968.5A 2021-03-08 2021-03-08 一种基于状态策略知识库指导的智能体自主避障方法 Active CN113093730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110264968.5A CN113093730B (zh) 2021-03-08 2021-03-08 一种基于状态策略知识库指导的智能体自主避障方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110264968.5A CN113093730B (zh) 2021-03-08 2021-03-08 一种基于状态策略知识库指导的智能体自主避障方法

Publications (2)

Publication Number Publication Date
CN113093730A true CN113093730A (zh) 2021-07-09
CN113093730B CN113093730B (zh) 2022-04-26

Family

ID=76666865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110264968.5A Active CN113093730B (zh) 2021-03-08 2021-03-08 一种基于状态策略知识库指导的智能体自主避障方法

Country Status (1)

Country Link
CN (1) CN113093730B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5545960A (en) * 1991-04-09 1996-08-13 International Business Machines Corporation Autonomous mobile machine, and system and method for controlling a mobile machine
CN101833333A (zh) * 2009-12-23 2010-09-15 湖南大学 水下清洗作业机器人未知环境路径规划方法
CN102339019A (zh) * 2011-07-26 2012-02-01 重庆邮电大学 一种基于模糊神经网络的智能轮椅避障方法
CN104049634A (zh) * 2014-07-02 2014-09-17 燕山大学 基于Camshift算法的智能体模糊动态避障方法
CN104850120A (zh) * 2015-03-19 2015-08-19 武汉科技大学 基于ihdr自主学习框架的轮式移动机器人导航方法
US20170024877A1 (en) * 2014-03-19 2017-01-26 Neurala, Inc. Methods and Apparatus for Autonomous Robotic Control
WO2017041730A1 (zh) * 2015-09-09 2017-03-16 北京进化者机器人科技有限公司 一种移动机器人避障导航的方法和系统
CN106840141A (zh) * 2017-02-02 2017-06-13 王恒升 一种移动机器人室内导航的语义地图
CN108427415A (zh) * 2018-04-02 2018-08-21 济南大学 一种现代物流中自动导引避障机器人小车及其控制方法
CN108458706A (zh) * 2017-12-25 2018-08-28 达闼科技(北京)有限公司 一种导航方法、装置、云端服务器及计算机程序产品
CN110083155A (zh) * 2019-04-19 2019-08-02 集美大学 一种实现船舶拟人智能避碰决策的机器学习方法
US20200096598A1 (en) * 2018-09-20 2020-03-26 International Business Machines Corporation Dynamic, cognitive hybrid method and system for indoor sensing and positioning

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5545960A (en) * 1991-04-09 1996-08-13 International Business Machines Corporation Autonomous mobile machine, and system and method for controlling a mobile machine
CN101833333A (zh) * 2009-12-23 2010-09-15 湖南大学 水下清洗作业机器人未知环境路径规划方法
CN102339019A (zh) * 2011-07-26 2012-02-01 重庆邮电大学 一种基于模糊神经网络的智能轮椅避障方法
US20170024877A1 (en) * 2014-03-19 2017-01-26 Neurala, Inc. Methods and Apparatus for Autonomous Robotic Control
CN104049634A (zh) * 2014-07-02 2014-09-17 燕山大学 基于Camshift算法的智能体模糊动态避障方法
CN104850120A (zh) * 2015-03-19 2015-08-19 武汉科技大学 基于ihdr自主学习框架的轮式移动机器人导航方法
WO2017041730A1 (zh) * 2015-09-09 2017-03-16 北京进化者机器人科技有限公司 一种移动机器人避障导航的方法和系统
CN106840141A (zh) * 2017-02-02 2017-06-13 王恒升 一种移动机器人室内导航的语义地图
CN108458706A (zh) * 2017-12-25 2018-08-28 达闼科技(北京)有限公司 一种导航方法、装置、云端服务器及计算机程序产品
CN108427415A (zh) * 2018-04-02 2018-08-21 济南大学 一种现代物流中自动导引避障机器人小车及其控制方法
US20200096598A1 (en) * 2018-09-20 2020-03-26 International Business Machines Corporation Dynamic, cognitive hybrid method and system for indoor sensing and positioning
CN110083155A (zh) * 2019-04-19 2019-08-02 集美大学 一种实现船舶拟人智能避碰决策的机器学习方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
MAULIN M. JOSHI; MUKESH A. ZAVERI: "Fuzzy Based Autonomous Robot Navigation System", 《2009 ANNUAL IEEE INDIA CONFERENCE》 *
MIHAI DUGULEANAGHEORGHE MOGAN: "Neural networks based reinforcement learning for mobile robots obstacle avoidance", 《EXPERT SYSTEMS WITH APPLICATIONS》 *
TAO WU; PENGFEI ZHANG; JIANXIN QIN; DI WU; LONGGANG XIANG;: "A Flood-Discharge-Based Spatio-Temporal Diffusion Method for Multi-Target Traffic Hotness Construction From Trajectory Data", 《IEEE ACCESS》 *
王哲: "无人艇自动避碰策略的研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *
陈巧敏: "专家系统在核电站智能机器人中的应用研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *
陈洋; 张道辉; 赵新刚; 韩建达: "基于IHDR自主学习框架的无人机3维路径规划", 《机器人》 *

Also Published As

Publication number Publication date
CN113093730B (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
CN109782763B (zh) 一种动态环境下的移动机器人路径规划方法
Ayawli et al. Mobile robot path planning in dynamic environment using Voronoi diagram and computation geometry technique
CN100568144C (zh) 一种未知环境下移动机器人多行为融合自动导航方法
CN109885883A (zh) 一种基于gk聚类算法模型预测的无人车横向运动的控制方法
CN111694364A (zh) 一种应用于智能车路径规划的基于改进蚁群算法与动态窗口法的混合算法
CN112356830A (zh) 一种基于模型强化学习的智能泊车方法
Chen et al. Robot navigation with map-based deep reinforcement learning
Kazem et al. Modified vector field histogram with a neural network learning model for mobile robot path planning and obstacle avoidance.
CN112651456B (zh) 基于rbf神经网络的无人车控制方法
Li et al. A behavior-based mobile robot navigation method with deep reinforcement learning
JP7047576B2 (ja) 地図作成装置
Hamad et al. Path Planning of Mobile Robot Based on Modification of Vector Field Histogram using Neuro-Fuzzy Algorithm.
CN114384916A (zh) 一种越野车路径规划的自适应决策方法及系统
CN113093730B (zh) 一种基于状态策略知识库指导的智能体自主避障方法
Li et al. Safe motion planning for autonomous vehicles by quantifying uncertainties of deep learning-enabled environment perception
CN116953692A (zh) 一种主动雷达和被动雷达协同跟踪下的航迹关联方法
CN116872915A (zh) 一种基于遗传算法的自动泊车多目标自适应轨迹优化方法
Yan et al. Study on the local path planning for intelligent vehicles based on an improved VFH method
CN116225007A (zh) 一种基于新型蚁群优化算法的自主路径规划及避障系统
Wang et al. Research on intelligent obstacle avoidance control method for mobile robot in multi-barrier environment
CN115373383A (zh) 一种垃圾回收无人艇的自主避障方法、装置及相关设备
Zhou et al. Deep reinforcement learning with long-time memory capability for robot mapless navigation
He et al. Intelligent navigation of indoor robot based on improved DDPG algorithm
Huang et al. Study on obstacle avoidance of AGV based on fuzzy neural network
CN113959446A (zh) 一种基于神经网络的机器人自主物流运输导航方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant