CN107932508B - 基于态势评估技术的移动机器人行为选择方法 - Google Patents
基于态势评估技术的移动机器人行为选择方法 Download PDFInfo
- Publication number
- CN107932508B CN107932508B CN201711144615.1A CN201711144615A CN107932508B CN 107932508 B CN107932508 B CN 107932508B CN 201711144615 A CN201711144615 A CN 201711144615A CN 107932508 B CN107932508 B CN 107932508B
- Authority
- CN
- China
- Prior art keywords
- barrier
- mobile robot
- node
- evidence
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于态势评估技术的移动机器人行为选择方法,其实现步骤为:(1)建立移动机器人坐标系;(2)获取目标数据;(3)提取环境态势要素;(4)建立贝叶斯网络模型;(5)进行贝叶斯网络模型的推理;(6)输出结果。本发明利用态势评估技术提取移动机器人的环境态势要素,能够使移动机器人对其周围环境获得一定的认知,自主选择下一步的行为。本发明在建立贝叶斯网络模型时表现的更为明显,使一些移动机器人行为选择的经验知识融入到贝叶斯网络中,使得移动机器人行为的选择更加准确。
Description
技术领域
本发明属于计算机技术领域,更进一步涉及机器人技术领域中的一种基于态势评估技术的移动机器人行为选择方法。本发明可用于实际应用中移动机器人在未知环境局部路径规划过程中的行为选择。
背景技术
以前的移动机器人行为选择方法都是基于一些对应场景苛刻的条件下的,例如单一的激活条件和采用特定的神经网络。但这在现实世界中是很难满足的。目前,实现移动机器人局部路径规划过程中的行为选择方法主要是:定义移动机器人的基本行为单元,并给出不同的基本行为单元之间的切换条件,在有移动机器人传感器获得的局部环境信息符合某种切换条件时,就可以进行行为的选择。现实世界的场景中,几乎很难准确给出与切换条件对应的所有预定义行为,因为行为的选择与具体的问题高度依赖,且移动机器人行为选择的切换条件具有多样性。而态势评估技术作为信息融合过程中的关键步骤,是当今科学研究中的一个重要课题,它可以紧密结合规则知识,改进多级网络模型,降低了网络模型的复杂度,提高了规则匹配效率。该优点在进行贝叶斯网络推理时表现的更为明显,使一些移动机器人行为选择的经验知识融入到贝叶斯网络精确推理算法中。
张琦在其发表的论文“移动机器人的路径规划与定位技术研究”(哈尔滨工业大学,博士学位论文,2014.6)中提出了采用激活条件来选择移动机器人行为的方法。该方法建立了移动机器人行为选择的若干个激活条件,依据由移动机器人传感器获得的障碍物目标信息与激活条件进行匹配判断,在满足了某个行为的激活条件后,移动机器人将进行行为的切换,即完成行为选择。该方法存在的不足之处是:所给的行为激活条件较为单一,智能化水平较低,很难实现移动机器人在未知的复杂环境中具有智能选择的功能。
钟云胜等人在其发表的论文“基于MLP和SPSO的机器人行为选择与运动控制方法”(计算机应用研究,2017,35(8))中提出了一种基于多层感知前馈神经网络和简化粒子群算法的选择方法。该方法根据机器人配置的图像和红外传感器获得目标位置和障碍物位置,通过MLP前馈神经网络从预定义行为中选择所需执行的行为。该方法采用了一种简化粒子群算法实时地计算神经网络的权重参数,具有实时的特点,但是,该方法存在的不足之处是:很难将一些机器人行为选择的经验知识融入到MLP前馈神经网络中。
发明内容
本发明的目的在于克服上述已有技术的不足,提出一种基于态势评估技术的移动机器人行为选择方法。本发明通过采用态势评估技术解决移动机器人行为的选择问题。将态势评估技术用于机器人局部路径规划。该技术可以紧密结合行为选择的规则知识,提取移动机器人正前方、偏右方、偏左方、正左方、正右方的环境态势要素,以获得多个行为选择的激活条件。
为实现上述目的,本发明具体实现步骤包括如下:
(1)建立移动机器人坐标系:
以移动机器人的中心为坐标原点,移动机器人的正前方向为X轴正向,移动机器人的正后方向为X轴负向,移动机器人的正右方向为Y轴正向,移动机器人的正左方向为Y轴负向,移动机器人的正下方向为Z轴正向,移动机器人的正上方向为Z轴负向,建立一个三维移动机器人坐标系;
(2)获取目标数据:
(2a)采用平面标定法,获取移动机器人配置的单目相机的焦距、相机主点坐标两个内部参数;
(2b)分别利用移动机器人配置的二维激光测距数据仪和单目相机,测量和识别同一障碍对象的不同角度的测距数据和图像数据,通过该障碍对象下的测距数据和图像数据之间的几何关系,获取移动机器人的二维激光测距坐标系与单目相机坐标系之间的旋转矩阵、平移向量两个转换参数;
(2c)将二维激光测距数据仪测量的二维激光测距坐标系下的测距数据,转换为单目相机坐标系下的图像数据;
(2d)将转换后的数据映射到对应的图像数据,并对映射前后的两种数据进行融合,得到测距数据与图像数据的融合后的A、D两个目标数据,其中,A表示单目相机识别的目标与机器人坐标系Y轴正向的夹角,单位为度,D表示单目相机识别的目标与移动机器人中心的距离,单位为厘米;
(3)获取障碍物:
将满足取值范围的单目相机识别的目标,添加到与取值范围对应的移动机器人的环境态势要素集合中,得到正右方障碍物、偏右方障碍物、正前方障碍物、偏左方障碍物和正左方障碍物;
(4)建立贝叶斯网络模型:
(4a)提取直线行走、避障和逃离U型陷阱三种子行为的判别准则中的关于障碍物的下述描述:正前方、偏右方、偏左方、正左方、正右方障碍物,障碍物与移动机器人行进方向平行,正前方障碍物,偏左方障碍物,偏右方障碍物,正左方障碍物,正右方障碍物作为征兆节点;
(4b)将移动机器人的直线行走、避障和逃离U型陷阱独立的三种子行为,作为结果节点;
(4c)利用诊断式贝叶斯网络建模方式,将征兆节点作为结果节点的父节点,组成贝叶斯网络模型结构;
(4d)将贝叶斯网络模型中所有征兆节点和结果节点均设置为二值离散节点;将征兆节点存在障碍物状态下的参数值设置为0.5,不存在障碍物状态下的参数值设置为0.5;将结果节点在满足判别准则条件下的参数值设置为1,不满足判别准则条件下的参数值设置为0;
(5)进行贝叶斯网络模型的推理:
(5a)将征兆节点作为证据节点,将证据节点在不同状态下的证据值,分别输入到贝叶斯网络模型中;
(5b)采用贝叶斯网络精确推理算法,对输入证据值后的贝叶斯网络模型进行推理,计算各结果节点的后验概率值;
(6)确定移动机器人的子行为:
在满足判别准则条件下的后验概率值中选择一个最大的结果节点,将该结果节点所表示的子行为,作为移动机器人选择下一步移动时的子行为类型。
本发明与现有技术相比具有以下优点:
第一,本发明通过态势评估技术提取移动机器人正前方、偏右方、偏左方、正左方、正右方的环境态势要素,获得多个行为选择的激活条件,利用态势评估技术提取环境态势要素,克服了现有技术中激活条件过于单一,智能化水平较低的不足,使得本发明在未知的复杂环境中的激活条件更全面,提高了移动机器人行为选择的智能性。
第二,本发明利用态势评估技术构造移动机器人行为选择的贝叶斯网络模型,这个模型可以紧密结合规则知识,克服了现有技术中很难将一些机器人行为选择的经验知识融入到复杂网络中的不足,使得本发明降低了模型的复杂度,提高了规则匹配效率。
附图说明
图1为本发明的流程图;
图2为本发明贝叶斯网络的结构图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步详细的描述。
结合附图1对本发明的具体步骤描述如下:
步骤1,建立移动机器人坐标系。
以移动机器人的几何中心为坐标原点,移动机器人的正前方向为X轴正向,移动机器人的正后方向为X轴负向,移动机器人的正右方向为Y轴正向,移动机器人的正左方向为Y轴负向,移动机器人的正下方向为Z轴正向,移动机器人的正上方向为Z轴负向,建立一个三维移动机器人坐标系。
步骤2,获取目标数据。
采用平面标定法,从不同角度对放置在移动机器人配置的单目相机前的棋盘标定板拍摄多幅图像,检测出每张图像中包含线段的终点、线段的转折点的特征点,利用拍摄多幅图像中的特征点与棋盘标定板间的位置对应关系,分别计算移动机器人配置的单目相机的焦距、相机主点坐标两个内部参数。
分别利用移动机器人配置的二维激光测距数据仪和单目相机,测量和识别同一障碍对象的不同角度的测距数据和图像数据,通过该障碍对象下的测距数据和图像数据之间的几何关系,获取移动机器人的二维激光测距坐标系与单目相机坐标系之间的旋转矩阵、平移向量两个转换参数。
根据旋转矩阵、平移向量两个转换参数,将二维激光测距数据仪测量的二维激光测距坐标系下的测距数据,转换为单目相机坐标系下的图像数据。
将转换后的数据映射到对应的图像数据,并对映射前后的两种数据进行融合,得到测距数据与图像数据的融合后的A、D两个目标数据,其中,A表示单目相机识别的图像目标与机器人坐标系Y轴正向的夹角,即单目相机识别的图像目标到移动机器人坐标原点的向量与移动机器人坐标系Y轴正向的夹角,单位为度,取值范围为[0°,180°],D表示单目相机识别的图像目标与移动机器人几何中心的距离,单位为厘米。
步骤3,获取障碍物。
将满足取值范围的单目相机识别的目标,添加到与取值范围对应的移动机器人的环境态势要素集合中,得到正右方障碍物、偏右方障碍物、正前方障碍物、偏左方障碍物和正左方障碍物,具体操作方式如下:
a.将满足10°≤A≤20°且0cm≤D≤160cm的单目相机识别的目标,添加到移动机器人正右方的环境态势要素集合中,得到正右方障碍物。
b.将满足20°<A≤60°且0cm≤D≤226cm的单目相机识别的目标,添加到移动机器人偏右方的环境态势要素集合中,得到偏右方障碍物。
c.将满足60°<A<120°且0cm≤D≤160cm的单目相机识别的目标,添加到移动机器人正前方的环境态势要素集合中,得到正前方障碍物。
d.将满足120°≤A<160°且0cm≤D≤226cm的单目相机识别的目标,添加到移动机器人偏左方的环境态势要素集合中,得到偏左方障碍物。
e.将满足160°≤A≤170°且0cm≤D≤160cm的单目相机识别的目标,添加到移动机器人正左方的环境态势要素集合中,得到正左方障碍物。
其中,A表示单目相机识别的目标与机器人坐标系Y轴正向的夹角,单位为度,D表示单目相机识别的目标与移动机器人中心的距离,单位为厘米。
步骤4,建立贝叶斯网络模型。
提取直线行走、避障和逃离U型陷阱三种子行为的判别准则中的关于障碍物的下述描述:正前方、偏右方、偏左方、正左方、正右方障碍物,障碍物与移动机器人行进方向平行,正前方障碍物,偏左方障碍物,偏右方障碍物,正左方障碍物,正右方障碍物作为征兆节点,具体操作步骤如下:
将移动机器人的局部路径规划问题分解为独立的三种子行为:直线行走子行为、避障子行为和逃离U型陷阱子行为;其中,直线行走子行为是移动机器人沿着当前行进方向直线移动的行为;避障子行为是移动机器人绕开其正前方、偏右方、偏左方、正左方、正右方的障碍物的行为;逃离U型陷阱子行为是移动机器人已进入U型陷阱中,旋转180°离开的行为;其中,移动机器人已进入U型陷阱中,是指移动机器人当前位置的正前方、正左方、正右方均有障碍物存在。
直线行走、避障和逃离U型陷阱三种子行为的判别准则为:
a.若移动机器人的正前方、偏右方、偏左方、正左方、正右方没有障碍物,则移动机器人选择直线行走。
b.若移动机器人的偏右方、偏左方、正左方、正右方有障碍物,但与移动机器人行进方向平行,则移动机器人选择直线行走。
c.若移动机器人的正前方有障碍物,则移动机器人选择避障。
d.若移动机器人的偏左方有障碍物,则移动机器人选择避障。
e.若移动机器人的偏右方有障碍物,则移动机器人选择避障。
f.若移动机器人的正前方、偏左方均有障碍物,则移动机器人选择避障。
g.若移动机器人的正前方、偏右方均有障碍物,则移动机器人选择避障。
h.若移动机器人的偏右方、偏左方均有障碍物,则移动机器人选择避障。
i.若移动机器人的正前方、偏左方、偏右方均有障碍物,则移动机器人选择避障。
j.若移动机器人的正前方、正左方、正右方均有障碍物,则移动机器人选择逃离U型陷阱。
征兆节点包括,正前方、偏右方、偏左方、正左方、正右方的障碍物节点,与移动机器人行进方向平行的障碍物节点,正前方的障碍物节点,偏左方的障碍物节点,偏右方的障碍物节点,正左方的障碍物节点,正右方的障碍物节点。
将移动机器人的直线行走、避障和逃离U型陷阱独立的三种子行为,作为结果节点。结果节点包括,直线行走的节点,避障的节点,逃离U型陷阱的节点。
利用诊断式贝叶斯网络建模方式,将征兆节点作为结果节点的父节点,结果节点作为征兆节点的子节点,组成贝叶斯网络模型结构。
参照附图2,建立的贝叶斯网络模型结构具体为:直线行走的节点(S1)的父节点为正前方、偏右方、偏左方、正左方、正右方的障碍物节点(T1),与机器人行进方向平行的障碍物节点(T2);避障的节点(S2)的父节点为偏右方的障碍物节点(T3),偏左方的障碍物节点(T4),正前方的障碍物节点(T5);逃离U型陷阱的节点(S3)的父节点为正前方的障碍物节点(T5),正右方的障碍物节点(T6),正左方的障碍物节点(T7);增加一个行为选择的节点(C),将结果节点:直线行走的节点(S1)、避障的节点(S2)、逃离U型陷阱的节点(S3),作为行为选择节点的父节点。
根据直线行走、避障和逃离U型陷阱三种子行为的判别准则,将贝叶斯网络模型中所有征兆节点和结果节点均设置为二值离散节点;将征兆节点存在障碍物状态下的参数值设置为0.5,不存在障碍物状态下的参数值设置为0.5,用N表示;将结果节点在满足判别准则条件下的参数值设置为1,不满足判别准则条件下的参数值设置为0;将行为选择节点设置为四值离散节点,取值状态为:s0、s1、s2、s3,其中,s0表示错误,s1表示直线行走,s2表示避障,s3表示逃离U型陷阱;
将行为选择节点在直线行走节点在满足判别准则条件下的s0参数值设置为1,在直线行走节点在不满足判别准则条件下的s0参数值设置为0;将行为选择节点在避障节点在满足判别准则条件下的s1参数值设置为1,在避障节点在不满足判别准则条件下的s1参数值设置为0;将行为选择节点在逃离U型陷阱节点在满足判别准则条件下的s2参数值设置为1,在逃离U型陷阱节点在不满足判别准则条件下的情况下的s2参数值设置为0;将行为选择节点在直线行走节点满足判别准则、避障节点满足判别准则、逃离U型陷阱节点满足判别准则条件下的s3参数值设置为1,其余情况下的s3参数值设置为0。
步骤5,进行贝叶斯网络模型的推理。
将征兆节点作为证据节点,将证据节点在不同状态下的证据值,分别输入到贝叶斯网络模型中。
证据节点在不同状态下的证据值具体为:
a.将正右方、正左方、正前方、偏右方、偏左方的环境态势要素集合,均为空时的正前方、偏右方、偏左方、正左方、正右方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1,其余情况下的正前方、偏右方、偏左方、正左方、正右方的障碍物证据节点,在存在障碍物状态下的证据值设置为1。
b.将正右方、正左方、正前方、偏右方、偏左方的环境态势要素集合,均为空时的与机器人行进方向平行的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的与机器人行进方向平行的障碍物证据节点,在不存在障碍物状态下的证据值设置为1。
c.将正前方的环境态势要素集合不为空时的正前方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的正前方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1。
d.将偏左方的环境态势要素集合不为空时的偏左方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的偏左方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1。
e.将偏右方的环境态势要素集合不为空时的偏右方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的偏右方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1。
f.将正左方的环境态势要素集合不为空时的正左方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的正左方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1。
g.将正右方的环境态势要素集合不为空时的正右方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的正右方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1。
h.将正右方或正左方的环境态势要素集合不为空,正前方、偏右方、偏左方的环境态势要素集合,均为空时的与机器人行进方向平行的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的与机器人行进方向平行的障碍物证据节点,在不存在障碍物状态下的证据值为1。
采用贝叶斯网络精确推理算法,在已确定的移动机器人行为选择贝叶斯网络模型的基础上,分别输入7个征兆节点:正前方、偏右方、偏左方、正左方、正右方障碍物节点(T1),障碍物与移动机器人行进方向平行节点(T2),偏右方障碍物节点(T3),偏左方障碍物节点(T4),正前方障碍物节点(T5),正右方障碍物节点(T6),正左方障碍物节点(T7)的证据值,证据值分别用e1,e2,...,e7表示,则构成证据集:E={e1,e2,...,e7},以输入的证据集E为后验条件,精确计算直线行走节点(S1)、避障节点(S2)和逃离U型陷阱节点(S3)的后验概率值:P(S1=Y/E),P(S2=Y/E),P(S3=Y/E),在满足判别准则条件下的后验概率值P(S1=Y/E),P(S2=Y/E),P(S3=Y/E)中选择一个最大的结果节点,将该结果节点所表示的子行为,作为移动机器人选择下一步移动时的子行为类型。
下面以P(S1=Y/E)的计算过程为例,说明各结果节点的后验概率值的具体计算步骤如下:
其中,α表示比例因子,P(e1),P(e2),P(e3),P(e4),P(e5),P(e6),P(e7),P(S1=Y/e1,e2)可以从该贝叶斯网络的参数中直接获取,可以依据贝叶斯网络参数求和计算给出。为了消掉比例因子α,依照上式过程同样计算:P(S1=N/E)=αP(S1=N,E),因为计算是同一节点的后验概率,比例因子α相同。则P(S1/E)=α<P(S1=Y/E),P(S1=N/E)>,进一步进行归一化处理:
即得到P(S1=Y/E)的精确值。
步骤6,确定移动机器人的子行为。
在满足判别准则条件下的后验概率值中选择一个最大的结果节点,将该结果节点所表示的子行为,作为移动机器人选择下一步移动时的子行为类型,具体操作方式如下:
从行为选择节点中,选择一个后验概率值最大的取值状态:若后验概率值最大的取值状态为s1,则移动机器人下一步选择的行为:直线行走;若后验概率值最大的取值状态为s2,则移动机器人下一步选择的行为:避障;若后验概率值最大的取值状态为s3,则移动机器人下一步选择的行为:逃离U型陷阱;若后验概率值最大的取值状态为s0,则移动机器人下一步选择行为发生错误。
Claims (9)
1.一种基于态势评估技术的移动机器人行为选择方法,其特征在于,包括如下步骤:
(1)建立移动机器人坐标系:
以移动机器人的中心为坐标原点,移动机器人的正前方向为X轴正向,移动机器人的正后方向为X轴负向,移动机器人的正右方向为Y轴正向,移动机器人的正左方向为Y轴负向,移动机器人的正下方向为Z轴正向,移动机器人的正上方向为Z轴负向,建立一个三维移动机器人坐标系;
(2)获取目标数据:
(2a)采用平面标定法,获取移动机器人配置的单目相机的焦距、相机主点坐标两个内部参数;
(2b)分别利用移动机器人配置的二维激光测距数据仪和单目相机,测量和识别同一障碍对象的不同角度的测距数据和图像数据,通过该障碍对象下的测距数据和图像数据之间的几何关系,获取移动机器人的二维激光测距坐标系与单目相机坐标系之间的旋转矩阵、平移向量两个转换参数;
(2c)将二维激光测距数据仪测量的二维激光测距坐标系下的测距数据,转换为单目相机坐标系下的图像数据;
(2d)将转换后的数据映射到对应的图像数据,并对映射前后的两种数据进行融合,得到测距数据与图像数据的融合后的A、D两个目标数据,其中,A表示单目相机识别的目标与机器人坐标系Y轴正向的夹角,单位为度,D表示单目相机识别的目标与移动机器人中心的距离,单位为厘米;
(3)获取障碍物:
将满足取值范围的单目相机识别的目标,添加到与取值范围对应的移动机器人的环境态势要素集合中,得到正右方障碍物、偏右方障碍物、正前方障碍物、偏左方障碍物和正左方障碍物;
(4)建立贝叶斯网络模型:
(4a)提取直线行走、避障和逃离U型陷阱三种子行为的判别准则中的关于障碍物的下述描述:正前方、偏右方、偏左方、正左方、正右方障碍物,障碍物与移动机器人行进方向平行,正前方障碍物,偏左方障碍物,偏右方障碍物,正左方障碍物,正右方障碍物作为征兆节点;
(4b)将移动机器人的直线行走、避障和逃离U型陷阱独立的三种子行为,作为结果节点;
(4c)利用诊断式贝叶斯网络建模方式,将征兆节点作为结果节点的父节点,组成贝叶斯网络模型结构;
(4d)将贝叶斯网络模型中所有征兆节点和结果节点均设置为二值离散节点;将征兆节点存在障碍物状态下的参数值设置为0.5,不存在障碍物状态下的参数值设置为0.5;将结果节点在满足判别准则条件下的参数值设置为1,不满足判别准则条件下的参数值设置为0;
(5)进行贝叶斯网络模型的推理:
(5a)将征兆节点作为证据节点,将证据节点在不同状态下的证据值,分别输入到贝叶斯网络模型中;
(5b)采用贝叶斯网络精确推理算法,对输入证据值后的贝叶斯网络模型进行推理,计算各结果节点的后验概率值;
(6)确定移动机器人的子行为:
在满足判别准则条件下的后验概率值中选择一个最大的结果节点,将该结果节点所表示的子行为,作为移动机器人选择下一步移动时的子行为类型。
2.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(2a)中所述的平面标定法是指,从不同角度对放置在移动机器人配置的单目相机前的棋盘标定板拍摄多幅图像,检测出每张图像中包含线段的终点、线段的转折点的特征点,利用拍摄多幅图像中的特征点与棋盘标定板间的位置对应关系,分别计算移动机器人配置的单目相机的焦距、相机主点坐标两个内部参数。
3.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(3)中所述的将满足取值范围的单目相机识别的目标,添加到与取值范围对应的移动机器人的环境态势要素集合中,作为对应的障碍物是指:
A.将满足10°≤A≤20°且0cm≤D≤160cm的单目相机识别的目标,添加到移动机器人正右方的环境态势要素集合中,得到正右方障碍物;
B.将满足20°<A≤60°且0cm≤D≤226cm的单目相机识别的目标,添加到移动机器人偏右方的环境态势要素集合中,得到偏右方障碍物;
C.将满足60°<A<120°且0cm≤D≤160cm的单目相机识别的目标,添加到移动机器人正前方的环境态势要素集合中,得到正前方障碍物;
D.将满足120°≤A<160°且0cm≤D≤226cm的单目相机识别的目标,添加到移动机器人偏左方的环境态势要素集合中,得到偏左方障碍物;
E.将满足160°≤A≤170°且0cm≤D≤160cm的单目相机识别的目标,添加到移动机器人正左方的环境态势要素集合中,得到正左方障碍物;
其中,A表示单目相机识别的目标与机器人坐标系Y轴正向的夹角,单位为度,D表示单目相机识别的目标与移动机器人中心的距离,单位为厘米。
4.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(4a)中所述的直线行走、避障和逃离U型陷阱三种子行为是指,直线行走子行为是移动机器人沿着当前行进方向直线移动的行为;避障子行为是移动机器人绕开其正前方、偏右方、偏左方、正左方、正右方的障碍物的行为;逃离U型陷阱子行为是移动机器人已进入U型陷阱中,旋转1800离开的行为;其中,移动机器人已进入U型陷阱中,是指移动机器人当前位置的正前方、正左方、正右方均有障碍物存在。
5.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(4a)中所述的直线行走、避障和逃离U型陷阱三种子行为的判别准则是指:
A.若移动机器人的正前方、偏右方、偏左方、正左方、正右方没有障碍物,则移动机器人选择直线行走;
B.若移动机器人的偏右方、偏左方、正左方、正右方有障碍物,但与移动机器人行进方向平行,则移动机器人选择直线行走;
C.若移动机器人的正前方有障碍物,则移动机器人选择避障;
D.若移动机器人的偏左方有障碍物,则移动机器人选择避障;
E.若移动机器人的偏右方有障碍物,则移动机器人选择避障;
F.若移动机器人的正前方、偏左方均有障碍物,则移动机器人选择避障;
G.若移动机器人的正前方、偏右方均有障碍物,则移动机器人选择避障;
H.若移动机器人的偏右方、偏左方均有障碍物,则移动机器人选择避障;
I.若移动机器人的正前方、偏左方、偏右方均有障碍物,则移动机器人选择避障;
J.若移动机器人的正前方、正左方、正右方均有障碍物,则移动机器人选择逃离U型陷阱。
6.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(4a)中所述的征兆节点包括,正前方、偏右方、偏左方、正左方、正右方的障碍物节点,与移动机器人行进方向平行的障碍物节点,正前方的障碍物节点,偏左方的障碍物节点,偏右方的障碍物节点,正左方的障碍物节点,正右方的障碍物节点。
7.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(4b)中所述的结果节点包括,直线行走的节点,避障的节点,逃离U型陷阱的节点。
8.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(5a)中所述证据节点在不同状态下的证据值是指:
A.将正右方、正左方、正前方、偏右方、偏左方的环境态势要素集合,均为空时的正前方、偏右方、偏左方、正左方、正右方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1,其余情况下的正前方、偏右方、偏左方、正左方、正右方的障碍物证据节点,在存在障碍物状态下的证据值设置为1;
B.将正右方、正左方、正前方、偏右方、偏左方的环境态势要素集合,均为空时的与机器人行进方向平行的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的与机器人行进方向平行的障碍物证据节点,在不存在障碍物状态下的证据值设置为1;
C.将正前方的环境态势要素集合不为空时的正前方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的正前方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1;
D.将偏左方的环境态势要素集合不为空时的偏左方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的偏左方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1;
E.将偏右方的环境态势要素集合不为空时的偏右方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的偏右方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1;
F.将正左方的环境态势要素集合不为空时的正左方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的正左方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1;
G.将正右方的环境态势要素集合不为空时的正右方的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的正右方的障碍物证据节点,在不存在障碍物状态下的证据值设置为1;
H.将正右方或正左方的环境态势要素集合不为空,正前方、偏右方、偏左方的环境态势要素集合,均为空时的与机器人行进方向平行的障碍物证据节点,在存在障碍物状态下的证据值设置为1,其余情况下的与机器人行进方向平行的障碍物证据节点,在不存在障碍物状态下的证据值为1。
9.根据权利要求1所述的基于态势评估技术的移动机器人行为选择方法,其特征在于,步骤(5b)中所述的贝叶斯网络精确推理算法是指,根据设置的征兆节点的参数值、结果节点的参数值和证据值,通过概率推理,计算出结果节点的后验概率值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711144615.1A CN107932508B (zh) | 2017-11-17 | 2017-11-17 | 基于态势评估技术的移动机器人行为选择方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711144615.1A CN107932508B (zh) | 2017-11-17 | 2017-11-17 | 基于态势评估技术的移动机器人行为选择方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107932508A CN107932508A (zh) | 2018-04-20 |
CN107932508B true CN107932508B (zh) | 2019-10-11 |
Family
ID=61932794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711144615.1A Active CN107932508B (zh) | 2017-11-17 | 2017-11-17 | 基于态势评估技术的移动机器人行为选择方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107932508B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111136648B (zh) * | 2019-12-27 | 2021-08-27 | 深圳市优必选科技股份有限公司 | 一种移动机器人的定位方法、定位装置及移动机器人 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104267728A (zh) * | 2014-10-16 | 2015-01-07 | 哈尔滨工业大学 | 一种基于可达区域质心矢量的移动机器人避障方法 |
CN105324792A (zh) * | 2013-04-11 | 2016-02-10 | 奥尔德巴伦机器人公司 | 用于估计移动元件相对于参考方向的角偏差的方法 |
CN106956282A (zh) * | 2017-05-18 | 2017-07-18 | 广州视源电子科技股份有限公司 | 角加速度确定方法、装置、机器人及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014130854A1 (en) * | 2013-02-21 | 2014-08-28 | Regents Of The Univesity Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
US9807292B2 (en) * | 2015-06-30 | 2017-10-31 | Abb Schweiz Ag | Technologies for pan tilt unit calibration |
-
2017
- 2017-11-17 CN CN201711144615.1A patent/CN107932508B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105324792A (zh) * | 2013-04-11 | 2016-02-10 | 奥尔德巴伦机器人公司 | 用于估计移动元件相对于参考方向的角偏差的方法 |
CN104267728A (zh) * | 2014-10-16 | 2015-01-07 | 哈尔滨工业大学 | 一种基于可达区域质心矢量的移动机器人避障方法 |
CN106956282A (zh) * | 2017-05-18 | 2017-07-18 | 广州视源电子科技股份有限公司 | 角加速度确定方法、装置、机器人及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107932508A (zh) | 2018-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108496127B (zh) | 集中于对象的有效三维重构 | |
CN103712617B (zh) | 一种基于视觉内容的多层语义地图的创建方法 | |
CN108415032A (zh) | 一种基于深度学习与激光雷达的点云语义地图构建方法 | |
CN107945265A (zh) | 基于在线学习深度预测网络的实时稠密单目slam方法与系统 | |
CN108090958A (zh) | 一种机器人同步定位和地图构建方法和系统 | |
CN109447121A (zh) | 一种视觉传感器网络多目标跟踪方法、装置及系统 | |
CN111210518A (zh) | 基于视觉融合地标的拓扑地图生成方法 | |
CN103413352A (zh) | 基于rgbd多传感器融合的场景三维重建方法 | |
JP4016180B2 (ja) | 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置 | |
JP4535096B2 (ja) | 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置 | |
CN106792540A (zh) | 一种基于路径匹配的改进DV‑Hop定位方法 | |
CN109947093A (zh) | 一种基于双目视觉的智能避障算法 | |
CN109285180A (zh) | 一种3d的道路车辆跟踪方法 | |
CN107363834B (zh) | 一种基于认知地图的机械臂抓取方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN107932508B (zh) | 基于态势评估技术的移动机器人行为选择方法 | |
Jiang et al. | Intelligent plant cultivation robot based on key marker algorithm using visual and laser sensors | |
CN106127119A (zh) | 基于彩色图像和深度图像多特征的联合数据关联方法 | |
Yao et al. | Research of camera calibration based on genetic algorithm BP neural network | |
Zhao et al. | 3D indoor map building with monte carlo localization in 2D map | |
Badalkhani et al. | Multi-robot SLAM in dynamic environments with parallel maps | |
CN112212828A (zh) | 一种基于双目视觉的定位器坡度测量方法 | |
Weerakoon et al. | Vapor: Holonomic legged robot navigation in outdoor vegetation using offline reinforcement learning | |
Qi et al. | 3D human pose tracking approach based on double Kinect sensors | |
Saldaña González et al. | Vision system for the navigation of a mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |