CN102339019B - 一种基于模糊神经网络的智能轮椅避障方法 - Google Patents
一种基于模糊神经网络的智能轮椅避障方法 Download PDFInfo
- Publication number
- CN102339019B CN102339019B CN 201110210600 CN201110210600A CN102339019B CN 102339019 B CN102339019 B CN 102339019B CN 201110210600 CN201110210600 CN 201110210600 CN 201110210600 A CN201110210600 A CN 201110210600A CN 102339019 B CN102339019 B CN 102339019B
- Authority
- CN
- China
- Prior art keywords
- barrier
- wheelchair
- information
- wheel chair
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
一种基于模糊神经网络的智能轮椅避障方法,它包括有位于轮椅前端的两个声纳传感器和一个摄像头,摄像头多次采集障碍物信息,两个声纳传感器好采集障碍物的位置信息,通过处理,用模糊神经网络的方法融合两个声纳传感器和摄像头采集到的实时信息,时刻计算轮椅与障碍物的实时位置,根据设计的模糊神经网络控制规则,从而规划轮椅的轮速和转角信息,完成轮椅的动态避障。以一定的方法将这些互补或冗余的传感器信息进行融合,获得最佳的、可靠的信息,为导航决策和定位提供依据,使移智能轮椅具有完成避障过程中所需的有效完整的信息,从而达到避障策略的正确性和控制的鲁棒性的目的。
Description
技术领域
本发明涉及自动控制领域,特别是一种轮椅的动态避障方法。
背景技术
智能轮椅属于移动机器人的一种,移动机器人又是机器人的重要分支,移动机器人可以用自身的多种传感器对周围的环境和自身的状态进行感知,通过对环境状况的判断可以实现趋向目标的自主运动,并在自主运动中避开环境中的障碍物,而且可以根据需要完成一定作业功能。
如何选择传感器来感知智能轮椅所处的外部环境,是智能轮椅的避障过程中要解决的首要问题。 为了更好的为之后的工作提供信息来指导后续工作,首先要解决的就是传感器这一瓶颈问题。伴随现代科学技术的飞速发展,各种新型的传感器和敏感材料也应运而生,传感器的种类也随之越来越多,其性能和结构也在很大程度上得到了提高和发展。因此各种传感器采集的信息数量也随之增加,为了更好的处理大量的信息,对信息的处理和管理工作有了更高层次的要求。对各种传感器采集的信息进行处理,一方面要把各种传感器的信息联系在一起,如果对单个传感器采集的信息进行单独孤立的处理就有可能丢失环境的整体特征,导致信息资源的浪费,割断各个传感器之间的内部联系;另一方面,通常多个传感器是处于相同的环境中,对相同的环境进行信息采集,所以采集的信息一般是同一环境的不同侧面信息,依据上面的描述对多传感器系统进行信息融合,协调各传感器之间的工作,可以使各传感器的工作效率提高,从而得的到更加准确的环境描述信息。为了更加有效地处理多传感器系统中各种传感器的信息,信息融合理论应运而生并且逐步发展成为一个新的研究方向。
目前,常用的传感器主要有超声传感器、红外传感器、CCD摄像头、编码器、GPS等。但是每种单一的传感器各都有各自的点和局限性,如超声波传感器虽然价格比较低廉且使用方便,但探测波束角过大,方向性比较差,往往只能测得目标的距离信息,不能提供目标具体的边界信息;而红外传感器探测视角小,方向性也要强一些,测量精度也较超声传感器高;CCD摄像机虽然可以精确的估计目标景物的信息,但它的计算量较大,会导致响应时间较长,控制效果变差。由于各种传感器具有局限性,使用单个传感器采集的信息进行环境特征的描述是不完整的或者是有缺陷的,所以在实际研究中我们通常会采用多传感器信息融合技术,对多种(多个)传感器信息进行融合,这样就能获得更准确、更完整的环境信息了。
发明内容
本发明的目的就是提供一种基于模糊神经网络的智能轮椅避障方法,它对多个传感器的信息进行融合,使移智能轮椅具有完成避障过程中所需的有效完整的信息,从而达到避障策略的正确性和控制的鲁棒性的目的。
本发明的目的是通过这样的技术方案实现的,它包括有位于轮椅前端的两个声纳传感器和一个摄像头,其步骤如下:
1)摄像头多次采集障碍物信息,选用Haar-like矩形特征表述障碍物,同时两个声纳传感器好采集障碍物的位置信息;
2)用Adaboost算法对摄像头多次采集到的信息进行训练,得到障碍物的分类器和障碍物在摄像头坐标里的坐标位置;
3)将摄像头坐标系与轮椅所在的空间坐标系进行统一,将摄像头获取的图像坐标和轮椅的坐标在同一坐标系内表述;
4)判断轮椅与障碍物的相对位置关系;
5)用模糊神经网络的方法融合两个声纳传感器和摄像头采集到的实时信息,时刻计算轮椅与障碍物的实时位置,根据设计的模糊神经网络控制规则,从而规划轮椅的轮速和转角信息,完成轮椅的动态避障。
进一步,步骤3)中将摄像头坐标系转换为轮椅所在的空间坐标系;
当然,步骤3)中轮椅所在的空间坐标系转换也可以为摄像头坐标系;
进一步,步骤5)中所述模糊神经网络的控制规则为,将的模糊分割数定为3,即{远,中,近} = {F,M,N},轮椅速度为,轮椅转角为的,的模糊分割数为2,即{左,右}=,其中两个声纳测量数据和摄像头的信息作为输入,即,设计模糊控制规则,得到对应的轮速v和转角的信息。
由于采用了上述技术方案,本发明具有如下的优点:配备有多个传感器,它们提供的信息有冗余信息也有互补信息,以一定的方法将这些互补或冗余的传感器信息进行融合,从而更加充分有效地利用传感器提供的信息,获得最佳的、可靠的信息,进一步更加准确全面地反映出外界环境的特征,为导航决策和定位提供依据;采用单个传感器具一定的局限性也会产生误差,采用多传感器信息融合技术可以增加各类传感器信息的互补性以及对环境变化的适应性,使移智能轮椅具有完成避障过程中所需的有效完整的信息,从而达到避障策略的正确性和控制的鲁棒性的目的。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书和权利要求书来实现和获得。
附图说明
本发明的附图说明如下。
图1用于障碍物识别的矩形特征。
图2障碍物检测示意图。
图3智能轮椅的物理模型。
图4计算机图像坐标系。
图5焦距与视角关系。
图6可合并的识别矩形框的位置范围。
图7智能轮椅避障控制器原理图。
图8仅使用声纳的智能轮椅避障仿真路线。
图9经信息融合后的智能轮椅避障仿真路线。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
一种基于模糊神经网络的智能轮椅避障方法,它包括有位于轮椅前端的两个声纳传感器和一个摄像头,其步骤如下:
1)摄像头多次采集障碍物信息,选用Haar-like矩形特征表述障碍物,同时两个声纳传感器好采集障碍物的位置信息;
2)用Adaboost算法对摄像头多次采集到的信息进行训练,得到障碍物的分类器和障碍物在摄像头坐标里的坐标位置;
3)将摄像头坐标系与轮椅所在的空间坐标系进行统一,将摄像头获取的图像坐标和轮椅的坐标在同一坐标系内表述;
4)判断轮椅与障碍物的相对位置关系;
5)用模糊神经网络的方法融合两个声纳传感器和摄像头采集到的实时信息,时刻计算轮椅与障碍物的实时位置,根据设计的模糊神经网络控制规则,从而规划轮椅的轮速和转角信息,完成轮椅的动态避障。
步骤1)和步骤2)所述过程的主要目的是为了障碍物精确定位,通过多次采集和迭代运算,得出的障碍物形状和距离信息更加准确,并且对障碍物进行分类,对体积大于某一预设值的物体判断为障碍物,需要进行避障,反之则不需要避障,步骤3)所述过程实现了轮椅和障碍物在同一坐标系的位置定位,从而准确的为轮椅与障碍物的相对位置进行定位,根据轮椅与障碍物的大小形状和障碍物的实时位置信息,用模糊神经网络的方法的控制规则,规划轮椅的转速和转角信息,绕过障碍物,完成准确的动态避障。
为了统一坐标系,步骤3)中将摄像头坐标系转换为轮椅所在的空间坐标系,也可以将轮椅所在的空间坐标系转换也可以为摄像头坐标系。
步骤5)中所述模糊神经网络的控制规则为,将的模糊分割数定为3,即{远,中,近} = {F,M,N},轮椅速度为,轮椅转角为的,的模糊分割数为2,即{左,右}=,其中两个声纳测量数据和摄像头的信息作为输入,即,设计模糊控制规则,得到对应的轮速v和转角的信息如下:
实施例一:
首先选用Haar-like矩形特征来描述障碍物,这是是因为这种特征表示的形式简单,计算速度快,形式多样,这些矩形特征原型可以派生出丰富的矩形特征。本发明采用的矩形特征有11种,如图1所示。 用Adaboost算法将摄像头采集的障碍物样本进行训练,得到障碍物的分类器,确定障碍物。
首先要将计算机的图像变换为摄像机空间的像坐标,其变换关系为:
根据图5可以得到如下公式
再将摄像机空间坐标变换为智能轮椅坐标系坐标:
其中:
得到
设,则,
如果落在如图6所示的两个虚线矩形框的范围之间,我们就可以认为和是可以合并的。障碍物目标合并的方法是:通过计算可合并的障碍物目标矩形框的平均位置,然后将原始的识别结果进行一个平均并将这个平均位置作为最终的识别结果,通过这样的平均可以起到滤除孤立出现的矩形框,消除一部分障碍物误识别的作用,从而使得识别结果将会更加精确。
得到障碍物坐标后需要判断障碍物的位置,即这个障碍物是在智能轮椅的左侧还是右侧。如图2所示,表示障碍物左边缘距离智能轮椅中心线的距离,则表示右边缘距离智能轮椅中轴线的距离。当>时,如图2(a)所示,表明障碍物在轮椅左侧。当<时,如图2(b)所示,表明障碍物在轮椅右侧。在障碍物识别过程中,要将图像空间中的信息转换智能轮椅坐标系中的信息,以便于进行运动控制,实现智能轮椅的避障功能。
在智能轮椅自主行走的过程中,为使其能够实时、准确地避开障碍物,必须获得障碍物的基本信息,如距离、位置等,由智能轮椅的声纳传感器测量到距离信息,摄像头获得位置信息。智能轮椅避障控制器模型如图7所示,模糊神经网络控制器有三个输入,两个输出。两个声纳传感器是在智能轮椅前,位于两个轮椅两侧。摄像头也设置在前面。两个声纳测量数据和摄像头的信息作为控制器的输入,即。轮椅的速度和轮椅的转角作为控制器的输出,即。轮椅右转弯时,转角定义为正,当轮椅左转弯时,转角定义为负,选择高斯型隶属函数。
考虑到模糊神经网络的特点和智能轮椅的性能和避障要求,将的模糊分割数定为3,即{远,中,近} = {F,M,N},论域为。是指4米或4米以上,是1米〜2.5米,指小于1米的。根据轮椅行驶的特点,取智能轮椅速度的论域为,智能轮椅转角的论域为[-45°,45°]。的模糊分割数为2,即{左,右}=论域为。设计的18条模糊控制规则如下所示:
v1至v18, 至均为预设值,为智能轮椅设计避障实验,其避障路线如图8所示,其中带有方向指示的圆形区域为智能轮椅,黑色矩形部分为障碍物,对只用声纳传感器进行避障的智能轮椅进行了四次重复实验,该实验的智能轮椅行驶路线图如下所示,四次实验的完成时间分别为243s、247s、256s和253s。如图所示只使用声纳时智能轮椅不能根据障碍物的信息自动调整自身的轮速和转角,仅设定了智能轮椅以0.2m/s的速度行驶,智能轮椅的避障方式是当声纳测试到障碍物时智能轮椅转动15°角,这样就造成智能轮椅的避障行为智能性较低,整个避障过程所需时间较长,避障的路线不够平滑。
根据模糊神经网络规则,将声纳传感器和摄像头的信息融合后,智能轮椅的避障的路线如图9所示,在同样的环境中用信息融合的避障方法同样也进行四次实验,路线分别如下所示,采用该方法的智能轮椅避障时间分别为195s、203s、197s和208s。由图可以看出经过信息融合后的智能轮椅可以根据障碍物的距离信息自主调整自身的轮速和转角进行自主避障,相较上面仅使用声纳进行避障的路线,后者的避障行为智能性比较高,整个避障过程所需时间较短,避障路线也更加平滑。
通过对比两种避障方法的路线和运行时间可以看出在实验室的环境中,融合智能轮椅采集的声纳和摄像头的信息,可以使智能轮椅以更加合理的避障方式进行避障,得到更加理想的避障路线,从而缩短了整个避障过程所用的时间,有效的提高了避障的效率。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (3)
1.一种基于模糊神经网络的智能轮椅避障方法,它包括有位于轮椅前端的两个声纳传感器和一个摄像头,其步骤如下:
1)摄像头多次采集障碍物信息,选用Haar-like矩形特征表述障碍物,同时两个声纳传感器采集障碍物的位置信息;
2)用Adaboost算法对摄像头多次采集到的信息进行训练,得到障碍物的分类器和障碍物在摄像头坐标里的坐标位置;
3)将摄像头坐标系与轮椅所在的空间坐标系进行统一,将摄像头获取的图像坐标和轮椅的坐标在同一坐标系内表述;
4)判断轮椅与障碍物的相对位置关系;
5)用模糊神经网络的方法融合两个声纳传感器和摄像头采集到的实时信息,时刻计算轮椅与障碍物的实时位置,根据设计的模糊神经网络控制规则,从而规划轮椅的轮速和转角信息,完成轮椅的动态避障;
2.如权利要求1所述的一种基于模糊神经网络的智能轮椅避障方法,其特征在于:步骤3)中将摄像头坐标系转换为轮椅所在的空间坐标系。
3.如权利要求1所述的一种基于模糊神经网络的智能轮椅避障方法,其特征在于:步骤3)中轮椅所在的空间坐标系转换为摄像头坐标系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110210600 CN102339019B (zh) | 2011-07-26 | 2011-07-26 | 一种基于模糊神经网络的智能轮椅避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110210600 CN102339019B (zh) | 2011-07-26 | 2011-07-26 | 一种基于模糊神经网络的智能轮椅避障方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102339019A CN102339019A (zh) | 2012-02-01 |
CN102339019B true CN102339019B (zh) | 2013-05-15 |
Family
ID=45514806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110210600 Active CN102339019B (zh) | 2011-07-26 | 2011-07-26 | 一种基于模糊神经网络的智能轮椅避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102339019B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103064283B (zh) * | 2012-12-14 | 2015-12-09 | 北京工业大学 | 一种基于人体重心变化的自学习轮椅控制方法 |
CN103699124A (zh) * | 2013-12-04 | 2014-04-02 | 北京工业大学 | 一种用于全向智能轮椅避障的模糊神经网络控制方法 |
CN104390645B (zh) * | 2014-12-09 | 2017-11-07 | 重庆邮电大学 | 一种基于视觉信息的智能轮椅室内导航方法 |
CN104777839B (zh) * | 2015-04-16 | 2017-06-16 | 北京工业大学 | 基于bp神经网络和距离信息的机器人自主避障方法 |
CN105287122A (zh) * | 2015-11-13 | 2016-02-03 | 长春大学 | 一种轮椅自动壁障控制系统 |
CN107391450A (zh) * | 2017-06-30 | 2017-11-24 | 上海德衡数据科技有限公司 | 一种基于gpb算法的运维多模态决策系统原型 |
CN110895409B (zh) * | 2018-08-23 | 2020-11-27 | 珠海格力电器股份有限公司 | 避让障碍物的控制方法 |
CN109062215A (zh) * | 2018-08-24 | 2018-12-21 | 北京京东尚科信息技术有限公司 | 机器人及基于其的目标跟随避障方法、系统、设备和介质 |
CN109213174B (zh) * | 2018-10-24 | 2021-10-01 | 北京工业大学 | 一种基于模糊神经网络的污水处理厂智能巡检避障方法 |
CN110108282B (zh) * | 2019-05-09 | 2023-11-07 | 仲恺农业工程学院 | 多源信息避障装置及避障系统 |
CN110782033A (zh) * | 2019-10-28 | 2020-02-11 | 玲睿(上海)医疗科技有限公司 | 一种基于模糊神经网络的agv车定位方法 |
CN111026121A (zh) * | 2019-12-20 | 2020-04-17 | 华南智能机器人创新研究院 | 智能清扫车多层次立体避障控制方法及装置 |
CN111220988B (zh) * | 2020-01-07 | 2023-07-14 | 上海钛米机器人科技有限公司 | 一种地图数据处理方法、装置、设备和介质 |
EP3967285A1 (fr) | 2020-09-14 | 2022-03-16 | Tridon de Rey, Hubert | Appareillage mobile pour handicapes moteurs et systeme de guidage impliquant un tel appareillage |
TWI825374B (zh) * | 2020-12-22 | 2023-12-11 | 緯創資通股份有限公司 | 移動式輔具及其障礙克服方法 |
CN113093730B (zh) * | 2021-03-08 | 2022-04-26 | 武汉大学 | 一种基于状态策略知识库指导的智能体自主避障方法 |
CN114046796A (zh) * | 2021-11-04 | 2022-02-15 | 南京理工大学 | 一种智能轮椅自主行走算法、装置及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101667037A (zh) * | 2008-09-03 | 2010-03-10 | 中国科学院自动化研究所 | 一种基于可行通道的机器人目标追踪方法 |
CN101691037A (zh) * | 2009-10-09 | 2010-04-07 | 南京航空航天大学 | 一种基于主动视觉感知和混沌演化的移动机器人定位方法 |
CN101758827A (zh) * | 2010-01-15 | 2010-06-30 | 南京航空航天大学 | 一种未知环境下基于行为融合的智能探测车自主避障方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7219087B2 (en) * | 2003-07-25 | 2007-05-15 | Yamaha Hatsudoki Kabushiki Kaisha | Soft computing optimizer of intelligent control system structures |
-
2011
- 2011-07-26 CN CN 201110210600 patent/CN102339019B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101667037A (zh) * | 2008-09-03 | 2010-03-10 | 中国科学院自动化研究所 | 一种基于可行通道的机器人目标追踪方法 |
CN101691037A (zh) * | 2009-10-09 | 2010-04-07 | 南京航空航天大学 | 一种基于主动视觉感知和混沌演化的移动机器人定位方法 |
CN101758827A (zh) * | 2010-01-15 | 2010-06-30 | 南京航空航天大学 | 一种未知环境下基于行为融合的智能探测车自主避障方法 |
Non-Patent Citations (2)
Title |
---|
宋瑞菊.基于AdaBoost算法的智能轮椅避障研究.《工业控制计算机》.2011,第24卷(第7期),34,35,37. * |
牛景丽 * |
Also Published As
Publication number | Publication date |
---|---|
CN102339019A (zh) | 2012-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102339019B (zh) | 一种基于模糊神经网络的智能轮椅避障方法 | |
CN111583337B (zh) | 一种基于多传感器融合的全方位障碍物检测方法 | |
US11130238B2 (en) | Mobile control method, mobile robot and computer storage medium | |
WO2017028653A1 (zh) | 一种移动机器人室内自建地图的方法和系统 | |
CN104898660B (zh) | 一种提高机器人路径规划效率的室内地图构建方法 | |
CN102915039B (zh) | 一种仿动物空间认知的多机器人联合目标搜寻方法 | |
CN102368158B (zh) | 一种果园机械导航定位方法 | |
CN112149550B (zh) | 一种基于多传感器融合的自动驾驶车辆3d目标检测方法 | |
WO2021052403A1 (zh) | 一种移动机器人感知障碍信息的方法、装置 | |
CN107065872A (zh) | 智能机器人的栅格地图创建方法 | |
US20210255638A1 (en) | Area Division and Path Forming Method and Apparatus for Self-Moving Device and Automatic Working System | |
CN101814185A (zh) | 用于微小尺寸测量的线结构光视觉传感器标定方法 | |
CN106969770A (zh) | 一种机器人及其导航方法、计算机可读存储介质 | |
CN107315410A (zh) | 一种机器人自动排障方法 | |
CN103198477A (zh) | 一种苹果套袋机器人视觉定位方法 | |
TWI611961B (zh) | 車道線影像分析方法、影像分析裝置及其電腦可讀取式媒體 | |
CN110610130A (zh) | 一种多传感器信息融合的输电线路机器人导航方法及系统 | |
CN103309351A (zh) | 一种检修机器人避碰规划方法 | |
Zeng et al. | Mobile robot exploration based on rapidly-exploring random trees and dynamic window approach | |
Hu et al. | Robot-assisted mobile scanning for automated 3D reconstruction and point cloud semantic segmentation of building interiors | |
CN104238558A (zh) | 一种基于单摄像头的循迹机器人直角转弯检测方法及装置 | |
CN106873601A (zh) | 栅格地图构建中的地图平移控制方法 | |
CN107015565A (zh) | 一种agv磁组合导航方法 | |
CN208937705U (zh) | 一种多源异构传感器特征深度融合的装置 | |
CN116330347A (zh) | 一种基于视觉分析的全自动机器人测试方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |