CN111026121A - 智能清扫车多层次立体避障控制方法及装置 - Google Patents
智能清扫车多层次立体避障控制方法及装置 Download PDFInfo
- Publication number
- CN111026121A CN111026121A CN201911330406.5A CN201911330406A CN111026121A CN 111026121 A CN111026121 A CN 111026121A CN 201911330406 A CN201911330406 A CN 201911330406A CN 111026121 A CN111026121 A CN 111026121A
- Authority
- CN
- China
- Prior art keywords
- intelligent sweeper
- fuzzy
- different
- intelligent
- sweeper
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241001417527 Pempheridae Species 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000007781 pre-processing Methods 0.000 claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 17
- 238000003062 neural network model Methods 0.000 claims abstract description 15
- 230000014509 gene expression Effects 0.000 claims description 10
- 230000004888 barrier function Effects 0.000 claims description 9
- 230000005484 gravity Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 3
- 239000007787 solid Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 23
- 230000008447 perception Effects 0.000 description 22
- 230000003068 static effect Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于多传感器信息融合的智能清扫车多层次立体避障控制方法及装置,其中,所述方法包括:在智能清扫车上部署配置多个不同传感器采集不同传感信息,并基于所述不同传感信息进行数据预处理;基于不同传感器的感知范围将预处理后的不同传感信息进行感知区域划分处理,获得划分感知区域;按照所述划分感知区域的预处理后的不同传感信息输入收敛模糊神经网络模型进行控制预测,输出所述智能清扫车的速度和旋转方向;所述智能清扫车基于所述速度和旋转方向进行障碍物规避。在本发明实施例中,同时结合不同传感器感知范围,提高智能清扫车在复杂环境下自主导航具有显著效果,可有效提高智能清扫车的运行时的安全性。
Description
技术领域
本发明涉及智能控制技术领域,尤其涉及一种基于多传感器信息融合的智能清扫车多层次立体避障控制方法及装置。
背景技术
在科技进步和市场竞争加快的背景下,环卫设备企业也在不断进行技术升级。创新型的智能清扫车等科技含量高的新型产品陆续出现,使得“智能化”成为环卫技术变革的趋势所向。智能无人清扫车是智能移动机器人的一种,但其作业环境更为为复杂,设备障碍物等较多,更不易于背景环境区分,现有的移动机器人采用单一视觉slam方式或激光slam方式等避障模式,都难以实现在复杂多动态环境下实现智能避障。
专利CN 108303986 A公布了一种激光SLAM导航的临时障碍物处理方法,该方法仅基于2D激光传感器环境感知建模,在导入的已定位的先验静态地图基础上,利用激光传感器感知数据精确,不易受干扰等特点,设置不同等级的告警区域,求出固定障碍物还是临时障碍物,在不同告警区域内,对待临时障碍物和固定障碍物采用不同的避障控制策略,从而实现避障。该发明的方法直接利用激光采集数据精度高、不易受环境影响的特点,同时对行驶区域进行简单的平面层次划分,设置不同告警区域,在不同区域采用不同避障控制算法,具有一定的实效性和安全性,但专利CN 108303986 A采用的是单一激光传感器进行避障控制,感知的是2D的某一层面数据,感知具有单一性和遗漏性,本发明提出的多传感器信息融合技术将融合超声传感器、视觉传感器的信息及激光传感器感知的信息,充分利用不同传感器的特点,构建层次化的立体避障模型,多传感器协同配合工作,将具有更安全、感知更全面丰富,实现智能清扫车的安全自主智能的能力。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于多传感器信息融合的智能清扫车多层次立体避障控制方法及装置,同时结合不同传感器感知范围,提高智能清扫车在复杂环境下自主导航具有显著效果,可有效提高智能清扫车的运行时的安全性。
为了解决上述至少一个技术问题,本发明实施例提供了一种基于多传感器信息融合的智能清扫车多层次立体避障控制方法,所述方法包括:
在智能清扫车上部署配置多个不同传感器采集不同传感信息,并基于所述不同传感信息进行数据预处理;
基于不同传感器的感知范围将预处理后的不同传感信息进行感知区域划分处理,获得划分感知区域;
按照所述划分感知区域的预处理后的不同传感信息输入收敛模糊神经网络模型进行控制预测,输出所述智能清扫车的速度和旋转方向;
所述智能清扫车基于所述速度和旋转方向进行障碍物规避。
可选的,所述在智能清扫车上部署配置多个不同传感器采集不同传感信息,包括:
在所述智能清扫车的最底层的正前方设置4个超声波雷达和左右两侧面各设置2个超声波雷达;以及,
在所述智能清扫车的中层的正前方设置高精度激光传感器;以及
在所述智能清扫车的最上层的正前方设置双目视觉摄像头;
基于所述超声波雷达、所述高精度激光传感器和所述双目视觉摄像头采集不同传感信息。
可选的,所述基于所述不同传感信息进行数据预处理,包括:
将所述智能清扫车本体作为基准坐标系,并将所述不同传感信息转换至所述基准坐标系上进行数据预处理。
可选的,所述收敛模糊神经网络模型,包括:
第一层作为输入层,将所述智能清扫车按照所述划分感知区域的预处理后的不同传感信息输入作为所述收敛模糊神经网络模型的控制输入;
第二层,表示输入变量的模糊隶属度函数;
第三层,表示规则库;
第四层,作为输出变量的模糊隶属度函数;
第五层,作为控制器的输出,用于输入所述智能清扫车的速度和旋转方向。
可选的,所述输入变量的模糊隶属度函数的构建,包括:
对模糊控制其的输入距离信息{dL,dF,dR}用两个模糊言语变量{Fast,Near}表示,并且对输入的方向角θt用五个模糊语言变量{LB,LS,Z,RS,RB}表示,以及对输入速度vc用两个模糊语言变量{Fast,Slow}表示;
控制输出速度v由三个模糊语言变量{Fast,Middle,Slow}表示,输出方向角βd由五个模糊语言变量{LB,LS,Z,RS,RB}表示。
可选的,所述模糊隶属度函数的表达式如下:
其中,式中i=1,2,3,4,5为第i个输入变量,j=1,2,3,4,5表示输入变量的语言变量数目;Pij对应于第i个输入变量的第j个语言变量的隶属度,mij和σij分别为该函数的中心和宽度;ui为模糊控制器的第i个输入变量,其中{u1,u2,u3,u4,u5}={dL,dF,dR,θt,vc}。
可选的,所述规则库用于所述智能清扫车附近存在障碍物时,放弃原有前进方向依照所述规则库进行绕开所述障碍物。
可选的,所述控制器的输出还包括:
采用重心法确定模糊量中能反映出整个模糊量信息的精确值,控制其输出所述智能清扫车的速度和旋转方向。
可选的,所述智能清扫车的速度和旋转方向的表达式如下:
其中,ak,1和ak,2为第k条规则的输出,p1,k为第i个输入变量用于第k条规则的隶属度。
另外,本发明实施例还提供了一种基于多传感器信息融合的智能清扫车多层次立体避障控制装置,所述装置包括:
数据采集预处理模块:用于在智能清扫车上部署配置多个不同传感器采集不同传感信息,并基于所述不同传感信息进行数据预处理;
区域划分模块:用于基于不同传感器的感知范围将预处理后的不同传感信息进行感知区域划分处理,获得划分感知区域;
控制预测模块:用于按照所述划分感知区域的预处理后的不同传感信息输入收敛模糊神经网络模型进行控制预测,输出所述智能清扫车的速度和旋转方向;
障碍物规避模块:用于所述智能清扫车基于所述速度和旋转方向进行障碍物规避。
在本发明实施例中,采用多传感器信息融合的智能避障系统,避免了单一传感器采集信息量局限单一的情况,同时结合不同传感器感知范围,对区域进行不同安全层级划分,具有较好的安全性、实时性的优势;可用于不同结构参数的移动机器人在复杂环境下导航,若做少量更改其应用范围也可扩大到其他类型智能移动机器人;对于提高智能清扫车在复杂环境下自主导航具有显著效果,可有效提高智能清扫车的运行时的安全性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于多传感器信息融合的智能清扫车多层次立体避障控制方法的流程示意图;
图2是本发明实施例中的基于多传感器信息融合的智能清扫车多层次立体避障控制装置的结构组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
请参阅图1,图1是本发明实施例中的基于多传感器信息融合的智能清扫车多层次立体避障控制方法的流程示意图。
如图1所示,一种基于多传感器信息融合的智能清扫车多层次立体避障控制方法,所述方法包括:
S11:在智能清扫车上部署配置多个不同传感器采集不同传感信息,并基于所述不同传感信息进行数据预处理;
在本发明具体实施过程中,所述在智能清扫车上部署配置多个不同传感器采集不同传感信息,包括:在所述智能清扫车的最底层的正前方设置4个超声波雷达和左右两侧面各设置2个超声波雷达;以及,在所述智能清扫车的中层的正前方设置高精度激光传感器;以及,在所述智能清扫车的最上层的正前方设置双目视觉摄像头;基于所述超声波雷达、所述高精度激光传感器和所述双目视觉摄像头采集不同传感信息。
进一步的,所述基于所述不同传感信息进行数据预处理,包括:
将所述智能清扫车本体作为基准坐标系,并将所述不同传感信息转换至所述基准坐标系上进行数据预处理。
具体的,其中安装在最底层的是环车身周围的超声波雷达,前面4个,左右侧面各两个,共8个,其感知范围最短,但可形成环绕车身安全碰撞检测;中间位置布置的是高精度激光传感器,其测距量程最远,可形成最早感知预测;最高层布置的是双目视觉摄像头,其测量范围介于激光及超声波感知范围之间,同时双目视觉摄像头可通过立体视差匹配算法,可得出测量范围内物体的三维信息。通过物理层面上的对超声波雷达—激光雷达—双目视觉这三种不同传感器由低到高的进行布置,形成立体层次感知;同时结合三种不同传感器感知范围的不同,可形成远—中—近等不同区域层次感知,从而使得感知范围更加广阔、信息更加丰富、更具立体层次感。
传感器配置部署可形成不同传感器在立体层次不同区域的感知检测,首先将三种不同传感器采集数据,均以机器人本体坐标作为基准坐标,将不同传感器采集的数据转换到基准坐标系下,实现坐标的统一,即感知的数据空间上统一;同时由于三种不同传感器工作时感知数据时的采样频率不一,本方法中以高频的激光雷达频率为基准,进行时序上的对齐,从而实现感知到的数据在时间上的统一。
S12:基于不同传感器的感知范围将预处理后的不同传感信息进行感知区域划分处理,获得划分感知区域;
在本发明具体实施过程中,根据不同传感器感知范围,将感知区域进行划分;将10m以外,单激光测距能测到的区域设定为第一层感知区域,这一区域范围较大、感知到的动、静态障碍物会不断调整;在视觉和激光重合区域内设定为第二层感知区域,随着机器人的移动,第一层感知到的动静态障碍物逐渐进入第二层感知区域,结合这一段时间内,对第一层感知区域内检测到的动静态障碍物进行轨迹预测,分析区别出动静态障碍物及初步预计出动态障碍物的运动方向,从而实时进行机器人速度和方向调整;在激光、视觉和超声感知的范围内定义为三级感知区域,在这一区域内,超声能感知障碍物,说明障碍物已经很近,处理等级最高,机器人进行避障转向或停止等待。
S13:按照所述划分感知区域的预处理后的不同传感信息输入收敛模糊神经网络模型进行控制预测,输出所述智能清扫车的速度和旋转方向;
在本发明具体实施过程中,所述收敛模糊神经网络模型,包括:第一层作为输入层,将所述智能清扫车按照所述划分感知区域的预处理后的不同传感信息输入作为所述收敛模糊神经网络模型的控制输入;第二层,表示输入变量的模糊隶属度函数;第三层,表示规则库;第四层,作为输出变量的模糊隶属度函数;第五层,作为控制器的输出,用于输入所述智能清扫车的速度和旋转方向。
进一步的,所述输入变量的模糊隶属度函数的构建,包括:对模糊控制其的输入距离信息{dL,dF,dR}用两个模糊言语变量{Fast,Near}表示,并且对输入的方向角θt用五个模糊语言变量{LB,LS,Z,RS,RB}表示,以及对输入速度vc用两个模糊语言变量{Fast,Slow}表示;控制输出速度v由三个模糊语言变量{Fast,Middle,Slow}表示,输出方向角βd由五个模糊语言变量{LB,LS,Z,RS,RB}表示。
进一步的,所述模糊隶属度函数的表达式如下:
其中,式中i=1,2,3,4,5为第i个输入变量,j=1,2,3,4,5表示输入变量的语言变量数目;Pij对应于第i个输入变量的第j个语言变量的隶属度,mij和σij分别为该函数的中心和宽度;ui为模糊控制器的第i个输入变量,其中{u1,u2,u3,u4,u5}={dL,dF,dR,θt,vc}。
进一步的,所述规则库用于所述智能清扫车附近存在障碍物时,放弃原有前进方向依照所述规则库进行绕开所述障碍物。
进一步的,所述控制器的输出还包括:采用重心法确定模糊量中能反映出整个模糊量信息的精确值,控制其输出所述智能清扫车的速度和旋转方向。
进一步的,所述智能清扫车的速度和旋转方向的表达式如下:
其中,ak,1和ak,2为第k条规则的输出,p1,k为第i个输入变量用于第k条规则的隶属度。
具体的,模糊逻辑提供了处理不确定性、不精确性问题的有效解决办法,用以语言规则的形式充分利用人类的知识;神经网络与模糊推理系统相结合,可以较好的提供系统的精确性和智能性;糊神经网络的简单示意结构图包括:第一层为输入层,将机器人的左侧、前方、右侧三个方向的障碍物距离信息、目标方向角度作为模糊神经网络的的控制输入;第二层表示输入变量的模糊隶属度函数;第三层表示为规则库;第四层为输出变量的模糊隶属度函数;第五层为控制器的输出,即智能清扫车的速度和旋转方向;其中输入和输出的如下:
u=[dL,dF,dR,θt,yc];
y=[v,βd];
其中,u表示模糊神经网络的控制输入,包含智能清扫车的左侧、前方、右侧三个方向的障碍物距离信息、目标方向角度,及自身速度等物理信息;控制器的输出y,包含智能清扫车的速度和旋转方向。
首先进行模糊化设计,对控制器的输入距离信息{dL,dF,dR}用两个模糊言语变量{Fast,Near}表示,并且对输入的方向角θt用五个模糊语言变量{LB,LS,Z,RS,RB}表示,以及对输入速度vc用两个模糊语言变量{Fast,Slow}表示;控制输出速度v由三个模糊语言变量{Fast,Middle,Slow}表示,输出方向角βd由五个模糊语言变量{LB,LS,Z,RS,RB}表示。
依次定义的隶属度函数如下式:
其中,式中i=1,2,3,4,5为第i个输入变量,j=1,2,3,4,5表示输入变量的语言变量数目;Pij对应于第i个输入变量的第j个语言变量的隶属度,mij和σij分别为该函数的中心和宽度;ui为模糊控制器的第i个输入变量,其中{u1,u2,u3,u4,u5}={dL,dF,dR,θt,vc}。
智能避障行为用于移动机器人附近有障碍物的情况,放弃原有前进方向而绕开障碍物;制定的规则表如下所示:
表1规则表
采用重心法确定模糊量中能反映出整个模糊量信息的精确值,控制器输出,智能清扫车的速度和旋转方向的表达式如下:
其中,ak,1和ak,2为第k条规则的输出,p1,k为第i个输入变量用于第k条规则的隶属度。
S14:所述智能清扫车基于所述速度和旋转方向进行障碍物规避。
在本发明具体实施过程中,该智能清扫车根据输出的速度和旋转方向控制该智能清扫车进行障碍物规避。
在本发明实施例中,采用多传感器信息融合的智能避障系统,避免了单一传感器采集信息量局限单一的情况,同时结合不同传感器感知范围,对区域进行不同安全层级划分,具有较好的安全性、实时性的优势;可用于不同结构参数的移动机器人在复杂环境下导航,若做少量更改其应用范围也可扩大到其他类型智能移动机器人;对于提高智能清扫车在复杂环境下自主导航具有显著效果,可有效提高智能清扫车的运行时的安全性。
实施例
请参阅图2,图2是本发明实施例中的基于多传感器信息融合的智能清扫车多层次立体避障控制装置的结构组成示意图。
如图2所示,一种基于多传感器信息融合的智能清扫车多层次立体避障控制装置,所述装置包括:
数据采集预处理模块21:用于在智能清扫车上部署配置多个不同传感器采集不同传感信息,并基于所述不同传感信息进行数据预处理;
在本发明具体实施过程中,所述在智能清扫车上部署配置多个不同传感器采集不同传感信息,包括:在所述智能清扫车的最底层的正前方设置4个超声波雷达和左右两侧面各设置2个超声波雷达;以及,在所述智能清扫车的中层的正前方设置高精度激光传感器;以及,在所述智能清扫车的最上层的正前方设置双目视觉摄像头;基于所述超声波雷达、所述高精度激光传感器和所述双目视觉摄像头采集不同传感信息。
进一步的,所述基于所述不同传感信息进行数据预处理,包括:
将所述智能清扫车本体作为基准坐标系,并将所述不同传感信息转换至所述基准坐标系上进行数据预处理。
具体的,其中安装在最底层的是环车身周围的超声波雷达,前面4个,左右侧面各两个,共8个,其感知范围最短,但可形成环绕车身安全碰撞检测;中间位置布置的是高精度激光传感器,其测距量程最远,可形成最早感知预测;最高层布置的是双目视觉摄像头,其测量范围介于激光及超声波感知范围之间,同时双目视觉摄像头可通过立体视差匹配算法,可得出测量范围内物体的三维信息。通过物理层面上的对超声波雷达—激光雷达—双目视觉这三种不同传感器由低到高的进行布置,形成立体层次感知;同时结合三种不同传感器感知范围的不同,可形成远—中—近等不同区域层次感知,从而使得感知范围更加广阔、信息更加丰富、更具立体层次感。
传感器配置部署可形成不同传感器在立体层次不同区域的感知检测,首先将三种不同传感器采集数据,均以机器人本体坐标作为基准坐标,将不同传感器采集的数据转换到基准坐标系下,实现坐标的统一,即感知的数据空间上统一;同时由于三种不同传感器工作时感知数据时的采样频率不一,本方法中以高频的激光雷达频率为基准,进行时序上的对齐,从而实现感知到的数据在时间上的统一。
区域划分模块22:用于基于不同传感器的感知范围将预处理后的不同传感信息进行感知区域划分处理,获得划分感知区域;
在本发明具体实施过程中,根据不同传感器感知范围,将感知区域进行划分;将10m以外,单激光测距能测到的区域设定为第一层感知区域,这一区域范围较大、感知到的动、静态障碍物会不断调整;在视觉和激光重合区域内设定为第二层感知区域,随着机器人的移动,第一层感知到的动静态障碍物逐渐进入第二层感知区域,结合这一段时间内,对第一层感知区域内检测到的动静态障碍物进行轨迹预测,分析区别出动静态障碍物及初步预计出动态障碍物的运动方向,从而实时进行机器人速度和方向调整;在激光、视觉和超声感知的范围内定义为三级感知区域,在这一区域内,超声能感知障碍物,说明障碍物已经很近,处理等级最高,机器人进行避障转向或停止等待。
控制预测模块23:用于按照所述划分感知区域的预处理后的不同传感信息输入收敛模糊神经网络模型进行控制预测,输出所述智能清扫车的速度和旋转方向;
在本发明具体实施过程中,所述收敛模糊神经网络模型,包括:第一层作为输入层,将所述智能清扫车按照所述划分感知区域的预处理后的不同传感信息输入作为所述收敛模糊神经网络模型的控制输入;第二层,表示输入变量的模糊隶属度函数;第三层,表示规则库;第四层,作为输出变量的模糊隶属度函数;第五层,作为控制器的输出,用于输入所述智能清扫车的速度和旋转方向。
进一步的,所述输入变量的模糊隶属度函数的构建,包括:对模糊控制其的输入距离信息{dL,dF,dR}用两个模糊言语变量{Fast,Near}表示,并且对输入的方向角θt用五个模糊语言变量{LB,LS,Z,RS,RB}表示,以及对输入速度vc用两个模糊语言变量{Fast,Slow}表示;控制输出速度v由三个模糊语言变量{Fast,Middle,Slow}表示,输出方向角βd由五个模糊语言变量{LB,LS,Z,RS,RB}表示。
进一步的,所述模糊隶属度函数的表达式如下:
其中,式中i=1,2,3,4,5为第i个输入变量,j=1,2,3,4,5表示输入变量的语言变量数目;Pij对应于第i个输入变量的第j个语言变量的隶属度,mij和σij分别为该函数的中心和宽度;ui为模糊控制器的第i个输入变量,其中{u1,u2,u3,u4,u5}={dL,dF,dR,θt,vc}。
进一步的,所述规则库用于所述智能清扫车附近存在障碍物时,放弃原有前进方向依照所述规则库进行绕开所述障碍物。
进一步的,所述控制器的输出还包括:采用重心法确定模糊量中能反映出整个模糊量信息的精确值,控制其输出所述智能清扫车的速度和旋转方向。
进一步的,所述智能清扫车的速度和旋转方向的表达式如下:
其中,ak,1和ak,2为第k条规则的输出,p1,k为第i个输入变量用于第k条规则的隶属度。
具体的,模糊逻辑提供了处理不确定性、不精确性问题的有效解决办法,用以语言规则的形式充分利用人类的知识;神经网络与模糊推理系统相结合,可以较好的提供系统的精确性和智能性;糊神经网络的简单示意结构图包括:第一层为输入层,将机器人的左侧、前方、右侧三个方向的障碍物距离信息、目标方向角度作为模糊神经网络的的控制输入;第二层表示输入变量的模糊隶属度函数;第三层表示为规则库;第四层为输出变量的模糊隶属度函数;第五层为控制器的输出,即智能清扫车的速度和旋转方向;其中输入和输出的如下:
u=[dL,dF,dR,θt,vc];
y=[v,βd];
其中,u表示模糊神经网络的控制输入,包含智能清扫车的左侧、前方、右侧三个方向的障碍物距离信息、目标方向角度,及自身速度等物理信息;控制器的输出y,包含智能清扫车的速度和旋转方向。
首先进行模糊化设计,对控制器的输入距离信息{dL,dF,dR}用两个模糊言语变量{Fast,Near}表示,并且对输入的方向角θt用五个模糊语言变量{LB,LS,Z,RS,RB}表示,以及对输入速度vc用两个模糊语言变量{Fast,Slow}表示;控制输出速度v由三个模糊语言变量{Fast,Middle,Slow}表示,输出方向角βd由五个模糊语言变量{LB,LS,Z,RS,RB}表示。
依次定义的隶属度函数如下式:
其中,式中i=1,2,3,4,5为第i个输入变量,j=1,2,3,4,5表示输入变量的语言变量数目;Pij对应于第i个输入变量的第j个语言变量的隶属度,mij和σij分别为该函数的中心和宽度;ui为模糊控制器的第i个输入变量,其中{u1,u2,u3,u4,u5}={dL,dF,dR,θt,vc}。
智能避障行为用于移动机器人附近有障碍物的情况,放弃原有前进方向而绕开障碍物;制定的规则表如下所示:
表1规则表
采用重心法确定模糊量中能反映出整个模糊量信息的精确值,控制器输出,智能清扫车的速度和旋转方向的表达式如下:
其中,ak,1和ak,2为第k条规则的输出,p1,k为第i个输入变量用于第k条规则的隶属度。
障碍物规避模块24:用于所述智能清扫车基于所述速度和旋转方向进行障碍物规避。
在本发明具体实施过程中,该智能清扫车根据输出的速度和旋转方向控制该智能清扫车进行障碍物规避。
在本发明实施例中,采用多传感器信息融合的智能避障系统,避免了单一传感器采集信息量局限单一的情况,同时结合不同传感器感知范围,对区域进行不同安全层级划分,具有较好的安全性、实时性的优势;可用于不同结构参数的移动机器人在复杂环境下导航,若做少量更改其应用范围也可扩大到其他类型智能移动机器人;对于提高智能清扫车在复杂环境下自主导航具有显著效果,可有效提高智能清扫车的运行时的安全性。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的一种基于多传感器信息融合的智能清扫车多层次立体避障控制方法及装置进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于多传感器信息融合的智能清扫车多层次立体避障控制方法,其特征在于,所述方法包括:
在智能清扫车上部署配置多个不同传感器采集不同传感信息,并基于所述不同传感信息进行数据预处理;
基于不同传感器的感知范围将预处理后的不同传感信息进行感知区域划分处理,获得划分感知区域;
按照所述划分感知区域的预处理后的不同传感信息输入收敛模糊神经网络模型进行控制预测,输出所述智能清扫车的速度和旋转方向;
所述智能清扫车基于所述速度和旋转方向进行障碍物规避。
2.根据权利要求1所述的智能清扫车多层次立体避障控制方法,其特征在于,所述在智能清扫车上部署配置多个不同传感器采集不同传感信息,包括:
在所述智能清扫车的最底层的正前方设置4个超声波雷达和左右两侧面各设置2个超声波雷达;以及,
在所述智能清扫车的中层的正前方设置高精度激光传感器;以及
在所述智能清扫车的最上层的正前方设置双目视觉摄像头;
基于所述超声波雷达、所述高精度激光传感器和所述双目视觉摄像头采集不同传感信息。
3.根据权利要求1所述的智能清扫车多层次立体避障控制方法,其特征在于,所述基于所述不同传感信息进行数据预处理,包括:
将所述智能清扫车本体作为基准坐标系,并将所述不同传感信息转换至所述基准坐标系上进行数据预处理。
4.根据权利要求1所述的智能清扫车多层次立体避障控制方法,其特征在于,所述收敛模糊神经网络模型,包括:
第一层作为输入层,将所述智能清扫车按照所述划分感知区域的预处理后的不同传感信息输入作为所述收敛模糊神经网络模型的控制输入;
第二层,表示输入变量的模糊隶属度函数;
第三层,表示规则库;
第四层,作为输出变量的模糊隶属度函数;
第五层,作为控制器的输出,用于输入所述智能清扫车的速度和旋转方向。
5.根据权利要求4所述的智能清扫车多层次立体避障控制方法,其特征在于,所述输入变量的模糊隶属度函数的构建,包括:
对模糊控制其的输入距离信息{dL,dF,dR}用两个模糊言语变量{Fast,Near}表示,并且对输入的方向角θt用五个模糊语言变量{LB,LS,Z,RS,RB}表示,以及对输入速度vc用两个模糊语言变量{Fast,Slow}表示;
控制输出速度v由三个模糊语言变量{Fast,Middle,Slow}表示,输出方向角βd由五个模糊语言变量{LB,LS,Z,RS,RB}表示。
7.根据权利要求4所述的智能清扫车多层次立体避障控制方法,其特征在于,所述规则库用于所述智能清扫车附近存在障碍物时,放弃原有前进方向依照所述规则库进行绕开所述障碍物。
8.根据权利要求4所述的智能清扫车多层次立体避障控制方法,其特征在于,所述控制器的输出还包括:
采用重心法确定模糊量中能反映出整个模糊量信息的精确值,控制其输出所述智能清扫车的速度和旋转方向。
10.一种基于多传感器信息融合的智能清扫车多层次立体避障控制装置,其特征在于,所述装置包括:
数据采集预处理模块:用于在智能清扫车上部署配置多个不同传感器采集不同传感信息,并基于所述不同传感信息进行数据预处理;
区域划分模块:用于基于不同传感器的感知范围将预处理后的不同传感信息进行感知区域划分处理,获得划分感知区域;
控制预测模块:用于按照所述划分感知区域的预处理后的不同传感信息输入收敛模糊神经网络模型进行控制预测,输出所述智能清扫车的速度和旋转方向;
障碍物规避模块:用于所述智能清扫车基于所述速度和旋转方向进行障碍物规避。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330406.5A CN111026121A (zh) | 2019-12-20 | 2019-12-20 | 智能清扫车多层次立体避障控制方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330406.5A CN111026121A (zh) | 2019-12-20 | 2019-12-20 | 智能清扫车多层次立体避障控制方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111026121A true CN111026121A (zh) | 2020-04-17 |
Family
ID=70212414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911330406.5A Pending CN111026121A (zh) | 2019-12-20 | 2019-12-20 | 智能清扫车多层次立体避障控制方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111026121A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112015178A (zh) * | 2020-08-20 | 2020-12-01 | 中国第一汽车股份有限公司 | 一种控制方法、装置、设备及存储介质 |
US20220342421A1 (en) * | 2021-04-23 | 2022-10-27 | Irobot Corporation | Navigational control of autonomous cleaning robots |
CN115576328A (zh) * | 2022-11-15 | 2023-01-06 | 之江实验室 | 基于模糊控制器的机器人导航避障方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050134440A1 (en) * | 1997-10-22 | 2005-06-23 | Intelligent Technolgies Int'l, Inc. | Method and system for detecting objects external to a vehicle |
CN102339019A (zh) * | 2011-07-26 | 2012-02-01 | 重庆邮电大学 | 一种基于模糊神经网络的智能轮椅避障方法 |
CN103699124A (zh) * | 2013-12-04 | 2014-04-02 | 北京工业大学 | 一种用于全向智能轮椅避障的模糊神经网络控制方法 |
CN108646739A (zh) * | 2018-05-14 | 2018-10-12 | 北京智行者科技有限公司 | 一种传感信息融合方法 |
-
2019
- 2019-12-20 CN CN201911330406.5A patent/CN111026121A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050134440A1 (en) * | 1997-10-22 | 2005-06-23 | Intelligent Technolgies Int'l, Inc. | Method and system for detecting objects external to a vehicle |
CN102339019A (zh) * | 2011-07-26 | 2012-02-01 | 重庆邮电大学 | 一种基于模糊神经网络的智能轮椅避障方法 |
CN103699124A (zh) * | 2013-12-04 | 2014-04-02 | 北京工业大学 | 一种用于全向智能轮椅避障的模糊神经网络控制方法 |
CN108646739A (zh) * | 2018-05-14 | 2018-10-12 | 北京智行者科技有限公司 | 一种传感信息融合方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112015178A (zh) * | 2020-08-20 | 2020-12-01 | 中国第一汽车股份有限公司 | 一种控制方法、装置、设备及存储介质 |
US20220342421A1 (en) * | 2021-04-23 | 2022-10-27 | Irobot Corporation | Navigational control of autonomous cleaning robots |
US11940800B2 (en) * | 2021-04-23 | 2024-03-26 | Irobot Corporation | Navigational control of autonomous cleaning robots |
CN115576328A (zh) * | 2022-11-15 | 2023-01-06 | 之江实验室 | 基于模糊控制器的机器人导航避障方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114384920B (zh) | 一种基于局部栅格地图实时构建的动态避障方法 | |
Rohan et al. | Convolutional neural network-based real-time object detection and tracking for parrot AR drone 2 | |
CN107562048B (zh) | 一种基于激光雷达的动态避障控制方法 | |
Borenstein et al. | The vector field histogram-fast obstacle avoidance for mobile robots | |
US20190217857A1 (en) | Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects | |
CN111026121A (zh) | 智能清扫车多层次立体避障控制方法及装置 | |
CN114474061B (zh) | 基于云服务的机器人多传感器融合定位导航系统及方法 | |
AU2021266203B2 (en) | Semantic laser-based multilevel obstacle avoidance system and method for mobile robot | |
CN110703804A (zh) | 一种固定翼无人机集群的分层防撞控制方法 | |
CN112577506B (zh) | 一种自动驾驶局部路径规划方法和系统 | |
CN112198901B (zh) | 一种基于三维动态碰撞区的无人机自主避撞决策方法 | |
CN106680832A (zh) | 一种移动机器人的障碍物检测方法、装置和移动机器人 | |
Sun et al. | A novel fuzzy control algorithm for three-dimensional AUV path planning based on sonar model | |
CN112857370A (zh) | 一种基于时序信息建模的机器人无地图导航方法 | |
Zeng et al. | Mobile robot exploration based on rapidly-exploring random trees and dynamic window approach | |
Chinag et al. | Robot navigation in dynamic environments using fuzzy logic and trajectory prediction table | |
Zhang et al. | An embedded real-time neuro-fuzzy controller for mobile robot navigation | |
WO2022126396A1 (zh) | 状态信息确定方法、装置、平台及计算机可读存储介质 | |
Wang et al. | Research on autonomous planning method based on improved quantum Particle Swarm Optimization for Autonomous Underwater Vehicle | |
Borenstein et al. | Real-time map building for fast mobile robot obstacle avoidance | |
Dongyue et al. | The investigation of the obstacle avoidance for mobile robot based on the multi sensor information fusion technology | |
Wang et al. | A vector polar histogram method based obstacle avoidance planning for AUV | |
CN215954140U (zh) | 一种移动机器人自动避障导航系统 | |
Parasuraman | Sensor fusion for mobile robot navigation: Fuzzy Associative Memory | |
CN115690343A (zh) | 一种基于视觉跟随的机器人激光雷达扫描建图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |