CN111258311A - 一种基于智能视觉的井下移动机器人避障方法 - Google Patents

一种基于智能视觉的井下移动机器人避障方法 Download PDF

Info

Publication number
CN111258311A
CN111258311A CN202010053921.XA CN202010053921A CN111258311A CN 111258311 A CN111258311 A CN 111258311A CN 202010053921 A CN202010053921 A CN 202010053921A CN 111258311 A CN111258311 A CN 111258311A
Authority
CN
China
Prior art keywords
mobile robot
obstacle
binocular
image
obstacle avoidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010053921.XA
Other languages
English (en)
Inventor
刘坤
彭继国
张波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Beidou Tiandi Technology Co Ltd
Yankuang Group Corp Ltd
Original Assignee
Qingdao Beidou Tiandi Technology Co Ltd
Yankuang Group Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Beidou Tiandi Technology Co Ltd, Yankuang Group Corp Ltd filed Critical Qingdao Beidou Tiandi Technology Co Ltd
Priority to CN202010053921.XA priority Critical patent/CN111258311A/zh
Publication of CN111258311A publication Critical patent/CN111258311A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/0275Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using fuzzy logic only
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Abstract

本发明一种基于智能视觉的井下移动机器人避障方法,包括如下步骤:步骤1,双目相机采集工作场景的图像信息,根据双目相机的标定参数对得到的双目图像进行畸变校正;步骤2,对双目图像进行立体匹配,计算双目视差图,并对双目视差图进行视差优化;步骤3,根据视差优化后的双目视差图计算工作场景的三维点云数据;步骤4,在二维图像感兴趣区域中,利用二维图像中像素对应的三维点云数据,根据预先设置的阈值,判断障碍物是否存在;步骤5,如果障碍物存在,则根据人工势场法进行避障路径规划,并移动机器人进行避障,否则移动机器人按照预先规划的路线继续行进。本发明提高了障碍物检测精度,使算法对光环境的适应性更强。

Description

一种基于智能视觉的井下移动机器人避障方法
技术领域
本发明属于移动机器人井下避障技术领域,涉及一种基于智能视觉的井下移动机器人避障方法。
背景技术
煤矿井下环境大多数都是非结构的,而且具有复杂性、多样性和随机性等特征,移动机器人需要具备较高的环境辨识、路径规划和避障能力,才能准确完成预期任务。当井下移动机器人面对完全未知或者部分未知的环境时,避障、越障是其完成任务的首要工作。目前大多数的井下移动机器人都是基于人工远程操控进行作业,智能性和移动性较差,不具备自主控制以及智能避障功能,遇到较为复杂的井下环境需依靠操作人员的经验进行判断,智能化程度较低。
随着移动机器人系统研究,机器人测出行进过程中的障碍物,一种是采用主动发送探测信号,接收场景中物体反射的回波,通过测量发射信号和返回信号获取场景信息,如超声、激光等避障,只具备局部空间避障特点,在检测范围和检测距离上有较大局限性。另一种是采用双目立体视觉的方法进行避障,利用双目视差计算三维场景信息,然后进行障碍物检测。双目采集的图像易受井下复杂环境的影响,如阴影、亮光等,另外障碍物的检测精度取决于双目图像匹配的准确性,增加双目图像匹配的准确性使匹配算法的计算复杂度增加,耗时增加,影响障碍物检测的实时性。
发明内容
本发明的目的是提供一种基于智能视觉的井下移动机器人避障方法,提高了障碍物的检测精度,同时不额外增加算法的复杂度,使算法对光环境的适应性更强。
本发明是通过以下技术方案来实现:
一种基于智能视觉的井下移动机器人避障方法,包括如下步骤:
步骤1,双目相机采集工作场景的图像信息,得到双目图像,根据双目相机的标定参数对双目图像进行畸变校正;
步骤2,对畸变校正后的双目图像进行立体匹配,计算双目视差图,并对双目视差图进行视差优化;其中,立体匹配采用的立体匹配算法通过自适应窗口结合梯度代价函数实现;
步骤3,根据视差优化后的双目视差图计算工作场景的三维点云数据;
步骤4,在二维图像感兴趣区域中,利用二维图像中像素对应的三维点云数据,根据预先设置的阈值,判断障碍物是否存在;
步骤5,如果障碍物存在,则根据人工势场法进行避障路径规划,并执行步骤6,否则执行步骤7;
步骤6,移动机器人进行避障;
步骤7,移动机器人按照预先规划的路线继续行进。
优选的,步骤2中,立体匹配采用的立体匹配算法具体如下:
定义图像梯度为图像沿x和y方向的一阶偏导数:
Figure BDA0002372149220000021
其中,I为图像灰度,得到左右相机采集图像的图像梯度图:GL=(GLx+GLy)、GR=(GRx+GRy),设左图中一点pl(x,y)对应右图的匹配点pr(x-d,y),定义匹配代价函数如下:
Figure BDA0002372149220000031
进一步的,步骤2中,具体方法如下:
步骤21,得到畸变校正过后的双目图像之后,计算图像梯度在x方向和y方向幅值和相位;
步骤22,利用快速超像素预分割方法得到相邻像素颜色空间之间的邻接矩阵,根据该邻接矩阵设计不同尺度的匹配窗口,适应不同的纹理密度;
步骤23,得到不同区域的匹配窗口之后,将左图像素点作为参照源,根据匹配代价函数在右图中搜索对应点区域,得到双目视差图;
步骤24,根据像素块区域设计局部视差直方图视差精化方法并采用左右一致性检测方法对双目视差图中误配点进行去除;
步骤25,调用视差图去除白斑噪声算法、去除断层噪声算法和孔洞填充算法进一步去除双目视差图的噪声以及误配区域,最终得到视差优化后的双目视差图。
优选的,步骤5中,所述人工势场法为改进人工势场法,具体如下:将移动机器人位置、目标点和障碍物位置归一化为点坐标到地图中,目标点对移动机器人产生引力,障碍物对移动机器人产生斥力,根据两者的合力规划移动机器人的行进路径;
移动机器人势场函数表示为:U(X)=Uatt(X)+Urep(X)
移动机器人受到的合力为:F=Fatt+Frep
目标点引力势场函数为:Uatt(X)=kd2(X,Xg)
目标点产生的引力为:
Figure BDA0002372149220000041
其中,k为引力势场中增益系数;
障碍物斥力场函数为:
Figure BDA0002372149220000042
障碍物产生的斥力为:
Figure BDA0002372149220000043
其中,η为斥力势场中的增益系数;
其中,U(X)为移动机器人势场函数,Uatt(X)为目标点引力势场,Urep(X)为障碍物斥力势场;F为移动机器人受到的合力,Fatt为目标点产生的引力,Frep为障碍物产生的斥力;X为移动机器人在地图中的位置,Xg为目标点在地图中的位置,Xo为障碍物在地图中的位置;D(X,Xg)为移动机器人与目标点之间距离的绝对值,d(X,Xo)为移动机器人与障碍物之间距离的绝对值。
进一步的,步骤5中,具体方法如下:
步骤51,计算障碍物相对移动机器人的距离和角度,判断当前时刻前方障碍物是否阻挡移动机器人运行,若不阻挡移动机器人运行,则继续按照当前路径前进,若阻碍移动机器人运动,则执行步骤52;
步骤52,将移动机器人、障碍物、目标点归一化为点坐标到地图中;
步骤53,由障碍物产生的斥力场和目标点的引力场计算移动机器人当前时刻受力情况;
步骤54,根据障碍物分布情况以及移动机器人在各点的受力情况规划移动机器人行进路径。
优选的,步骤6中,采用模糊控制避障策略进行避障。
进一步的,采用模糊控制避障策略进行避障具体为:
步骤61,将不同区域障碍物相对移动机器人的距离和当前时刻移动机器人的速度作为输入变量输入模糊控制系统;
步骤62,构建障碍物相对移动机器人的距离和当前时刻移动机器人的速度的模糊控制隶属度函数,将输入变量障碍物相对移动机器人的距离和当前时刻移动机器人的速度进行模糊化,得到模糊控制变量;
步骤63,设计模糊控制规则,输入模糊控制变量,利用模糊控制规则进行模糊推理得到移动机器人下一时刻运行速度和运行方向(转向角度)的模糊输出量;
步骤64,对移动机器人下一时刻的运行速度和运行方向的模糊输出量去模糊化,即可得到移动机器人控制量,控制移动机器人进行避障操作。
与现有技术相比,本发明具有以下有益的技术效果:
本发明采用双目立体视觉的方法进行避障,对立体匹配算法进行改进,采用自适应窗口结合梯度代价函数的方法实现立体匹配,提高算法对光环境的抗干扰能力,并且在低纹理区也具有良好的匹配效果;通过立体匹配算法获得初始视差后,对初始视差进行视差优化,提高了匹配精度,提高了障碍物的检测精度,同时不额外增加算法的复杂度,使算法对光环境的适应性更强。
进一步的,目前,检测到障碍物移动机器人通过避障控制策略躲避障碍物,常用的方法栅格法存在有环境分辨率与环境信息存储量大的矛盾,人工势法的主要弊端是移动机器人在到达目标点前由于陷入局部最小点,从而无法到达目标点。本发明通过改进人工势场函数,消除人工势场局部最小点问题。
进一步的,采用模糊控制避障策略,提高移动机器人的避障系统性能。
附图说明
图1是井下移动机器人视觉避障系统框图;
图2是井下移动机器人视觉避障过程框图;
图3是视差计算及视差优化过程框图;
图4是人工势场规划机器人避障路径过程框图;
图5是模糊控制避障策略计算机器人动作过程框图;
图6是双目立体视觉模型图;
图7是模糊控制系统结构图。
具体实施方式
下面结合具体的实施例对本发明做进一步的详细说明,所述是对本发明的解释而不是限定。
本发明采用的井下移动机器人视觉避障系统框图如图1所示。
如图2,本发明给出了一种所述基于智能视觉的井下移动机器人避障方法,包括如下步骤:
步骤1,采用双目立体视觉检测障碍物:移动机器人控制双目相机采集工作场景的图像信息,得到双目图像,根据双目相机的标定参数对双目图像进行畸变校正;
步骤2,对畸变校正后的双目图像进行立体匹配,计算双目视差图,并对双目视差图进行视差优化;
步骤3,根据视差优化后的双目视差图计算工作场景的三维点云数据;
步骤4,在二维图像感兴趣区域中,利用二维图像中像素对应的三维点云数据,根据预先设置的阈值,判断障碍物是否存在;
步骤5,如果障碍物存在,则根据人工势场法进行避障路径规划,并执行步骤6,否则执行步骤7;
步骤6,将障碍物的分布情况及当前移动机器人行进速度输入模糊控制系统,输出为下一时刻机器人转向的角度及加速度,进行避障;
步骤7,移动机器人按照预先规划的路线继续行进。
步骤1中,双目立体视觉障碍物检测,采用的双目立体视觉模型(图6)具体如下:
在双目立体视觉模型中,世界坐标系对应双目立体视觉模型的左相机,分别以左右相机像面左上角为原点建立图像像素坐标系,分别为:ul-vl和ur-vr,物理坐标系以左右像面的中心点分别为原点:xl-yl和xr-yr,左右相机光心点分别为Ol和Or。设空间任意一点P在左右相机成像面的投影点分别为Pl和Pr,其中(ul0,vl0)和(ur0,vr0)均为光轴与像面的交点称为像面的主点,T为左右相机光心的距离称为基线距,建立双目立体视觉模型,利用三角测量原理计算空间中点P(X,Y,Z),计算公式如下:
Figure BDA0002372149220000071
其中,xl、xr、yl为物理尺寸,进一步转换物理坐标到像素坐标如下:
Figure BDA0002372149220000072
dx和dy是每个像素在x和y方向上实际物理大小,计算可得:
Figure BDA0002372149220000073
本发明对立体匹配算法进行改进,设计自适应匹配窗口结合梯度代价函数提高匹配算法的适应性,图像梯度定义为图像沿x和y方向的一阶偏导数:
Figure BDA0002372149220000081
其中I为图像灰度,即可得到左右相机采集图像的图像梯度图:GL=(GLx+GLy)、GR=(GRx+GRy),设左图中一点pl(x,y)对应右图的匹配点pr(x-d,y),即可定义匹配代价函数:
Figure BDA0002372149220000082
如图3,步骤2中进行双目图像立体匹配,并进行视差优化的具体方法如下:
步骤21,得到畸变校正过后的双目图像之后,计算图像梯度在x方向和y方向幅值和相位;
步骤22,利用快速超像素预分割方法得到相邻像素颜色空间之间的邻接矩阵,根据该邻接矩阵设计不同尺度的匹配窗口,适应不同的纹理密度;
步骤23,得到不同区域的匹配窗口之后,将左图像素点作为参照源,根据匹配代价函数在右图中搜索对应点区域,得到双目视差图;
步骤24,根据像素块区域设计局部视差直方图视差精化方法并采用左右一致性检测方法对双目视差图中误配点进行去除;
步骤25,调用视差图去除白斑噪声算法、去除断层噪声算法和孔洞填充算法进一步去除双目视差图的噪声以及误配区域,最终得到视差优化后的双目视差图。
步骤5中,采用改进人工势场法进行路径规划。
利用障碍物检测算法得到障碍物的分布情况,将移动机器人位置、目标点和障碍物位置归一化为点坐标到地图中。移动机器人要到达目标点,需要不断向目标点移动,这一过程可以用势力场描述,目标点对机器人产生引力,障碍物对机器人产生斥力,根据她们的合力规划机器人的行进路径。
移动机器人势场函数表示为:U(X)=Uatt(X)+Urep(X)
移动机器人受到的合力为:F=Fatt+Frep
其中,U(X)为移动机器人势场函数,Uatt(X)为目标点引力势场,Urep(X)为障碍物斥力势场;F为移动机器人受到的合力,Fatt为目标点产生的引力,Frep为障碍物产生的斥力。在地图中X为移动机器人的位置,Xg为目标点的位置,Xo为障碍物的位置。D(X,Xg)为移动机器人与目标点之间距离的绝对值,d(X,Xo)为移动机器人与障碍物之间距离的绝对值。
目标点引力势场函数为:Uatt(X)=kd2(X,Xg)
目标点产生的引力为:
Figure BDA0002372149220000091
其中,k为引力势场中增益系数。
障碍物斥力场函数为:
Figure BDA0002372149220000092
障碍物产生的斥力为:
Figure BDA0002372149220000093
其中,η为斥力势场中的增益系数。
如图4,步骤5中,当检测到存在障碍物时,移动机器人避障路径规划方法具体如下:
步骤51,计算障碍物相对移动机器人的距离和角度,判断当前时刻前方障碍物是否阻挡移动机器人运行,若不阻挡移动机器人运行,则继续按照当前路径前进,若阻碍移动机器人运动,则执行步骤52;
步骤52,将移动机器人、障碍物、目标点归一化为点坐标到地图中;
步骤53,由障碍物产生的斥力场和目标点的引力场计算移动机器人当前时刻所受到的总场强大小和方向;
步骤54,根据障碍物分布情况以及移动机器人在各点的受力情况规划移动机器人行进路径,具体是计算总的势场函数的梯度,接近目标时总的势力场最小,解出移动机器人的方向。
步骤6中,采用模糊控制系统实现机器人避障控制,将检测到的障碍物分布情况和机器人运行速度作为模糊控制器的输入变量,通过模糊控制系统计算下一时刻机器人的转向角度和加速度。模糊控制系统是基于规则的控制系统,其整体结构设计如下图7所示,由输入变量、隶属度函数模糊化、模糊控制规则、去模糊化、输出量构成。利用模糊控制的不确定性质来描述采集工作环境中障碍物分布的不确定性,根据障碍物与机器人之间模糊的距离关系运用模糊语言(如障碍物距离机器人远,近)并引入人类驾驶技术先验知识来设计移动机器人的避障策略。
如图5,步骤6中,获得当前时刻障碍物分布情况后,机器人的避障策略具体如下:
步骤61,获取障碍物检测算法中的障碍物分布情况,将不同区域障碍物相对移动机器人的距离和当前时刻移动机器人的速度作为输入变量输入模糊控制系统;
步骤62,构建障碍物相对移动机器人的距离和当前时刻移动机器人的速度的模糊控制隶属度函数,将输入变量障碍物相对移动机器人的距离和当前时刻移动机器人的速度进行模糊化,得到模糊控制变量;
步骤63,设计模糊控制规则,输入模糊控制变量,利用模糊控制规则进行模糊推理得到移动机器人下一时刻运行速度和运行方向(转向角度)的模糊输出量;
步骤64,对移动机器人下一时刻的运行速度和运行方向的模糊输出量去模糊化,即可得到移动机器人控制量,控制移动机器人进行避障操作。

Claims (7)

1.一种基于智能视觉的井下移动机器人避障方法,其特征在于,包括如下步骤:
步骤1,双目相机采集工作场景的图像信息,得到双目图像,根据双目相机的标定参数对双目图像进行畸变校正;
步骤2,对畸变校正后的双目图像进行立体匹配,计算双目视差图,并对双目视差图进行视差优化;其中,立体匹配采用的立体匹配算法通过自适应窗口结合梯度代价函数实现;
步骤3,根据视差优化后的双目视差图计算工作场景的三维点云数据;
步骤4,在二维图像感兴趣区域中,利用二维图像中像素对应的三维点云数据,根据预先设置的阈值,判断障碍物是否存在;
步骤5,如果障碍物存在,则根据人工势场法进行避障路径规划,并执行步骤6,否则执行步骤7;
步骤6,移动机器人进行避障;
步骤7,移动机器人按照预先规划的路线继续行进。
2.根据权利要求1所示的基于智能视觉的井下移动机器人避障方法,其特征在于,步骤2中,立体匹配采用的立体匹配算法具体如下:
定义图像梯度为图像沿x和y方向的一阶偏导数:
Figure FDA0002372149210000011
其中,I为图像灰度,得到左右相机采集图像的图像梯度图:GL=(GLx+GLy)、GR=(GRx+GRy),设左图中一点pl(x,y)对应右图的匹配点pr(x-d,y),定义匹配代价函数如下:
Figure FDA0002372149210000021
3.根据权利要求2所示的基于智能视觉的井下移动机器人避障方法,其特征在于,步骤2中,具体方法如下:
步骤21,得到畸变校正过后的双目图像之后,计算图像梯度在x方向和y方向幅值和相位;
步骤22,利用快速超像素预分割方法得到相邻像素颜色空间之间的邻接矩阵,根据该邻接矩阵设计不同尺度的匹配窗口,适应不同的纹理密度;
步骤23,得到不同区域的匹配窗口之后,将左图像素点作为参照源,根据匹配代价函数在右图中搜索对应点区域,得到双目视差图;
步骤24,根据像素块区域设计局部视差直方图视差精化方法并采用左右一致性检测方法对双目视差图中误配点进行去除;
步骤25,调用视差图去除白斑噪声算法、去除断层噪声算法和孔洞填充算法进一步去除双目视差图的噪声以及误配区域,最终得到视差优化后的双目视差图。
4.根据权利要求1所示的基于智能视觉的井下移动机器人避障方法,其特征在于,步骤5中,所述人工势场法为改进人工势场法,具体如下:将移动机器人位置、目标点和障碍物位置归一化为点坐标到地图中,目标点对移动机器人产生引力,障碍物对移动机器人产生斥力,根据两者的合力规划移动机器人的行进路径;
移动机器人势场函数表示为:U(X)=Uatt(X)+Urep(X)
移动机器人受到的合力为:F=Fatt+Frep
目标点引力势场函数为:Uatt(X)=kd2(X,Xg)
目标点产生的引力为:
Figure FDA0002372149210000031
其中,k为引力势场中增益系数;
障碍物斥力场函数为:
Figure FDA0002372149210000032
障碍物产生的斥力为:
Figure FDA0002372149210000033
其中,η为斥力势场中的增益系数;
其中,U(X)为移动机器人势场函数,Uatt(X)为目标点引力势场,Urep(X)为障碍物斥力势场;F为移动机器人受到的合力,Fatt为目标点产生的引力,Frep为障碍物产生的斥力;X为移动机器人在地图中的位置,Xg为目标点在地图中的位置,Xo为障碍物在地图中的位置;D(X,Xg)为移动机器人与目标点之间距离的绝对值,d(X,Xo)为移动机器人与障碍物之间距离的绝对值。
5.根据权利要求4所示的基于智能视觉的井下移动机器人避障方法,其特征在于,步骤5中,具体方法如下:
步骤51,计算障碍物相对移动机器人的距离和角度,判断当前时刻前方障碍物是否阻挡移动机器人运行,若不阻挡移动机器人运行,则继续按照当前路径前进,若阻碍移动机器人运动,则执行步骤52;
步骤52,将移动机器人、障碍物、目标点归一化为点坐标到地图中;
步骤53,由障碍物产生的斥力场和目标点的引力场计算移动机器人当前时刻受力情况;
步骤54,根据障碍物分布情况以及移动机器人在各点的受力情况规划移动机器人行进路径。
6.根据权利要求1所示的基于智能视觉的井下移动机器人避障方法,其特征在于,步骤6中,采用模糊控制避障策略进行避障。
7.根据权利要求6所示的基于智能视觉的井下移动机器人避障方法,其特征在于,采用模糊控制避障策略进行避障具体为:
步骤61,将不同区域障碍物相对移动机器人的距离和当前时刻移动机器人的速度作为输入变量输入模糊控制系统;
步骤62,构建障碍物相对移动机器人的距离和当前时刻移动机器人的速度的模糊控制隶属度函数,将输入变量障碍物相对移动机器人的距离和当前时刻移动机器人的速度进行模糊化,得到模糊控制变量;
步骤63,设计模糊控制规则,输入模糊控制变量,利用模糊控制规则进行模糊推理得到移动机器人下一时刻运行速度和运行方向(转向角度)的模糊输出量;
步骤64,对移动机器人下一时刻的运行速度和运行方向的模糊输出量去模糊化,即可得到移动机器人控制量,控制移动机器人进行避障操作。
CN202010053921.XA 2020-01-17 2020-01-17 一种基于智能视觉的井下移动机器人避障方法 Withdrawn CN111258311A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010053921.XA CN111258311A (zh) 2020-01-17 2020-01-17 一种基于智能视觉的井下移动机器人避障方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010053921.XA CN111258311A (zh) 2020-01-17 2020-01-17 一种基于智能视觉的井下移动机器人避障方法

Publications (1)

Publication Number Publication Date
CN111258311A true CN111258311A (zh) 2020-06-09

Family

ID=70947579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010053921.XA Withdrawn CN111258311A (zh) 2020-01-17 2020-01-17 一种基于智能视觉的井下移动机器人避障方法

Country Status (1)

Country Link
CN (1) CN111258311A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111897349A (zh) * 2020-07-08 2020-11-06 南京工程学院 一种基于双目视觉的水下机器人自主避障方法
CN112297011A (zh) * 2020-10-29 2021-02-02 久瓴(上海)智能科技有限公司 农林机器人避障方法、装置、计算机设备和存储介质
CN112589809A (zh) * 2020-12-03 2021-04-02 武汉理工大学 基于机器双目视觉和人工势场避障法的倒茶机器人
CN114046796A (zh) * 2021-11-04 2022-02-15 南京理工大学 一种智能轮椅自主行走算法、装置及介质
CN117237242A (zh) * 2023-11-16 2023-12-15 深圳爱递医药科技有限公司 基于结构光数据的口腔颌面外科术后护理系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111897349A (zh) * 2020-07-08 2020-11-06 南京工程学院 一种基于双目视觉的水下机器人自主避障方法
CN112297011A (zh) * 2020-10-29 2021-02-02 久瓴(上海)智能科技有限公司 农林机器人避障方法、装置、计算机设备和存储介质
CN112589809A (zh) * 2020-12-03 2021-04-02 武汉理工大学 基于机器双目视觉和人工势场避障法的倒茶机器人
CN114046796A (zh) * 2021-11-04 2022-02-15 南京理工大学 一种智能轮椅自主行走算法、装置及介质
CN117237242A (zh) * 2023-11-16 2023-12-15 深圳爱递医药科技有限公司 基于结构光数据的口腔颌面外科术后护理系统
CN117237242B (zh) * 2023-11-16 2024-02-27 深圳爱递医药科技有限公司 基于结构光数据的口腔颌面外科术后护理系统

Similar Documents

Publication Publication Date Title
CN111258311A (zh) 一种基于智能视觉的井下移动机器人避障方法
CN110097553B (zh) 基于即时定位建图与三维语义分割的语义建图系统
CA2950791C (en) Binocular visual navigation system and method based on power robot
AU2022325172B2 (en) Method for drivable area detection and autonomous obstacle avoidance of unmanned haulage equipment in deep confined spaces
CN108303096B (zh) 一种视觉辅助激光定位系统及方法
CN112734765B (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN110488811B (zh) 一种基于社交网络模型的机器人对行人轨迹预测的方法
Samal et al. Task-driven rgb-lidar fusion for object tracking in resource-efficient autonomous system
CN112097769A (zh) 仿信鸽脑-海马的无人机同时定位与建图导航系统及方法
CN109947093A (zh) 一种基于双目视觉的智能避障算法
CN115468567A (zh) 一种面向越野环境的激光视觉融合slam方法
CN112115889B (zh) 基于视觉的智能车运动目标检测方法
CN111612823A (zh) 一种基于视觉的机器人自主跟踪方法
Jun et al. Autonomous driving system design for formula student driverless racecar
CN109164802A (zh) 一种机器人迷宫行走方法、装置及机器人
Mason et al. Textured occupancy grids for monocular localization without features
Soto et al. Cyber-ATVs: Dynamic and Distributed Reconnaissance and Surveillance Using All-Terrain UGVs
CN117612135A (zh) 一种基于transform的点云和图像融合的行驶区域判断方法
Choi et al. Navigation of a mobile robot using mono-vision and mono-audition
Asami et al. Visual navigation system based on evolutionary computation on FPGA for patrol service robot
Chavan et al. Obstacle detection and avoidance for automated vehicle: A review
Klaser et al. Simulation of an autonomous vehicle with a vision-based navigation system in unstructured terrains using OctoMap
Mishra et al. Perception engine using a multi-sensor head to enable high-level humanoid robot behaviors
Souza et al. Occupancy-elevation grid mapping from stereo vision
Wu et al. Research progress of obstacle detection based on monocular vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200609

WW01 Invention patent application withdrawn after publication