CN111142536A - 一种室内导盲机器人 - Google Patents
一种室内导盲机器人 Download PDFInfo
- Publication number
- CN111142536A CN111142536A CN202010010012.8A CN202010010012A CN111142536A CN 111142536 A CN111142536 A CN 111142536A CN 202010010012 A CN202010010012 A CN 202010010012A CN 111142536 A CN111142536 A CN 111142536A
- Authority
- CN
- China
- Prior art keywords
- blind
- robot
- data
- blind guiding
- guiding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 claims abstract description 19
- 230000006870 function Effects 0.000 claims abstract description 16
- 230000000694 effects Effects 0.000 claims abstract description 4
- 238000001914 filtration Methods 0.000 claims description 12
- 239000002245 particle Substances 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000009987 spinning Methods 0.000 claims description 7
- 241001166076 Diapheromera femorata Species 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 241000209140 Triticum Species 0.000 claims description 3
- 235000021307 Triticum Nutrition 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 241001114813 Macna Species 0.000 claims description 2
- 238000010276 construction Methods 0.000 abstract description 2
- 238000011160 research Methods 0.000 description 4
- 230000001771 impaired effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 208000010415 Low Vision Diseases 0.000 description 1
- 241000253999 Phasmatodea Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000004303 low vision Effects 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Abstract
本发明公开了一种室内导盲机器人,机器人终端采集激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据,并将采集到的激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据上传至导盲决策层,并根据导盲决策层的控制信息进行响应,进行机器人的移动来为盲人的行进提供引导作用;导盲决策层包括自主建图、自主定位、智能导盲、人机交互四大功能。本发明引入了ROS和SLAM;同时加入了语音交互及震动助杖改善用户体验,它既能通过构图、重定位、路径规划和运动控制协助盲人更快更好地到达目的地;融入的震动交互把手和语音交互功能,使得人机交互体验更好。
Description
技术领域
本发明涉及服务机器人技术领域,具体涉及一种室内导盲机器人。
背景技术
在我国有500万人的盲人群体,低视力者也有数百万之多,这组数字高居世界之首,并且每年都在增长。视觉障碍群体的扩大,带来了导盲设施市场的需求增长;不仅如此,随着城市建设的不断提升,人们的居住环境也在发生着变化,传统的导盲设备已经无法满足这种改变。目前,全球各国关于导盲辅助方面的研究工作已经展开,研究重点集中在手杖类行进辅具研究、穿戴式行进辅具研究,以及移动式行进辅具三方面。
早在2010年日本就研发出了电子导盲杖,利用超声波感应器让视障人群感受到障碍物,并通过震动手柄对用户进行有效提醒。而美国开发的腰带式行动辅具,则是借助超声波为用户营造出区域全景地图,让视障人士“重获双眼”。此外,国外对于智能手推车、智能轮椅等的研发,也为移动式导盲辅具研发提供基础和帮助。
但是,上述公司产品要么只能针对单一环境进行引导,要么在人机交互方面体验极差。
发明内容
有鉴于此,为了解决现有技术中的上述问题,本发明提出一种室内导盲机器人。
本发明通过以下技术手段解决上述问题:
一种室内导盲机器人,包括:
机器人终端,用于采集激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据,并将采集到的激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据上传至导盲决策层,并根据导盲决策层的控制信息进行响应,进行机器人的移动来为盲人的行进提供引导作用;
导盲决策层,用于在构图阶段将收取到的激光测距数据转换为栅格地图,进而构造了实际场景的全局地图;在定位阶段,利用粒子滤波的思想对接收到的激光测距数据和位姿数据进行融合,进而估算出机器人及盲人当前最可能处于的位置,为导盲决策层提供位置参考;将接收到地点数据进行语音识别API服务对语音信息进行识别处理得到用户需要前往的地点,并通过Voice_send节点发布信息到导盲任务栈;并实时播报前进路况信息给盲人供盲人对紧急情况提前做好应对措施;利用粒子滤波的思想将激光测距数据、里程计数据、位姿数据进行融合,对导盲机器人的位置及航向角进行估算,通过move_base包获取周围信息生成全局与局部代价地图,使用A*算法完成路径全局规划,规划出躲避障碍物引导盲人走向目标地点的最优路线;最优路线将通过base_control包将运动期望线速度和自旋速度下发到机器人终端。
进一步地,所述机器人终端包括:
激光雷达,用于采集激光测距数据,并将采集到的激光测距数据上传至导盲决策层;
语音传感器,用于用户进行语音输入告知机器人其要前往的地点,并将前往地点数据上传至导盲决策层;
陀螺仪,用于采集位姿数据,并将采集到的位姿数据上传至导盲决策层;
摄像头,用于采集周围信息数据,并将采集到的周围信息数据上传至导盲决策层;
运动平台,用于采集里程计原始信息,根据采集到的里程计原始信息估算机器人状态,将机器人状态数据上传至导盲决策层作为里程计数据,并根据导盲决策层的控制信息进行响应,进行机器人的移动来为盲人的行进提供引导作用。
进一步地,所述运动平台包括:
单片机,用于通过电机状态得到里程计原始信息,估算机器人状态,并将机器人状态数据上传至导盲决策层作为里程计数据,并根据导盲决策层的控制信息进行响应,完成机器人的运动控制;
电机,用于根据单片机的相应控制进行麦克纳母轮的移动来为盲人的行进提供引导作用;
麦克纳母轮,用于根据电机的相应控制进行移动来为盲人的行进提供引导作用;
机器人底盘,与麦克纳母轮滚动连接,用于固定麦克纳母轮。
进一步地,所述机器人终端还包括助盲扶杖,助盲扶杖包括底端、中部和顶端;底端与机器人底盘进行刚性连接,其能够实现保证扶杖整体跟随机器人进行移动;中部连接体由可伸缩弹簧构成,使用弹簧结构,在机械上能满足不同身高群体的需求,另一方面,中部与顶部连接处嵌套的弹簧拉伸量传感器矩阵能够实时捕获盲人跟随状况并反馈给导盲决策层便于其调整引导步伐;顶端由一个震动频率和幅度可控的交互把手组成:1)当导盲机器人处于空闲状态时,交互把手按照一定的频率和幅度进行震动,便于盲人找到把手位置;2)当导盲机器人处于引导行人行进阶段时,如果需要进行转弯或避障,除上述语音播报外,交互把手将按照指定的震动方式进行震动,使用户提前做好准备。
进一步地,所述导盲决策层包括:
自主建图模块,用于在构图阶段将收取到的激光测距数据转换为栅格地图,进而构造了实际场景的全局地图;
自主定位模块,用于在定位阶段,利用粒子滤波的思想对接收到的激光测距数据和位姿数据进行融合,进而估算出机器人及盲人当前最可能处于的位置,为导盲决策层提供位置参考;
语音交互模块,用于将接收到地点数据进行语音识别API服务对语音信息进行识别处理得到用户需要前往的地点,并通过Voice_send节点发布信息到导盲任务栈;并实时播报前进路况信息给盲人供盲人对紧急情况提前做好应对措施;
智能导航模块,用于利用粒子滤波的思想将激光测距数据、里程计数据、位姿数据进行融合,对导盲机器人的位置及航向角进行估算,通过move_base包获取周围信息生成全局与局部代价地图,使用A*算法完成路径全局规划,规划出躲避障碍物引导盲人走向目标地点的最优路线;最优路线将通过base_control包将运动期望线速度和自旋速度下发到单片机。
进一步地,所述单片机具体用于:
一、对导盲决策层的控制信息进行响应
1)、导盲决策层的速度控制节点以一定的频率将期望平移速度(Vx、Vy)和自旋速度(ω)下发给单片机,单片机将该期望速度根据麦克纳母轮逆运动学模型解算为各轮子的期望转速;
麦克纳母轮逆运动学公式如下:
V1=Vx-Vy-ω(a+b)
V2=Vx+Vy-ω(a+b)
V3=-Vx+Vy-ω(a+b)
V4=-Vx-Vy-ω(a+b)
其中,a和b分别表示机器人的长度和宽度,以电机转轴为测量点;
Vx表示X轴运动的速度,即左右方向,向左移动为正;
Vy表示Y轴运动的速度,即前后方向,向前移动为正;
ω表示机器人自旋的速度,逆时针为正方向;
弧长l=2πr=πd≈37.68,其中r、d分别为麦轮半径和直径;
转速N(n)=V(n)/37.68*15*Dt n=1,2,3,4
特别地,对单位统一如下:
A、平移速度单位为:cm/s;
B、旋转速度:rad/s;
C、a、b单位为:cm;
D、线速度V1、V2、V3、V4的单位为:cm/s;
E、弧长l单位为:cm;
F、转速单位为:rpm;
2)单片机以10ms的定时器中断对电机霍尔传感器脉冲进行计数n,通过公式换算出电机转速:N rpm(转/分钟)
换算公式为:N=n*100;
3)单片机经由PID控制算法对转速进行控制,以PWM为输出,完成底盘运动控制;
二、通过电机状态得到里程计原始信息,估算机器人状态
1)单片机以10ms的定时器中断对电机霍尔传感器脉冲进行计数n,通过公式换算出电机转速:N rpm(转/分钟)
2)单片机利用上述测量得到的电机转速N,经由麦克纳母轮正运动模型进行实际运动信息解算,并将此数据上报给导盲决策层作为里程计数据
正运动学解算公式为
FΩr=V,F=(RTR)-1RT
其中,F为旋转变换矩阵;
Ω为导盲小车实际旋转角速度;
V为导盲小车的实际平移速度。
进一步地,所述麦克纳母轮为4个。
进一步地,机器人终端和导盲决策层之间通过串口连接。
与现有技术相比,本发明的有益效果至少包括:
本发明是一种基于SLAM的新型室内导盲机器人,它既能通过构图、重定位、路径规划和运动控制协助盲人更快更好地到达目的地;融入的震动交互把手和语音交互功能,使得人机交互体验更好。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明室内导盲机器人的整体框架图;
图2是本发明室内导盲机器人的硬件摆放图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面将结合附图和具体的实施例对本发明的技术方案进行详细说明。需要指出的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本发明解决的问题有三个:其一是在复杂室内环境下为盲人提供实时定位及为他们规划出发点到终点的最优路线;其二是通过机器人的移动来为盲人的行进提供引导作用;其三是通过加入震动交互把手及语音交互功能增强人机交互体验感。
其主要特征如下:
基于上述第一个问题“在复杂室内环境下为盲人提供实时定位及为他们规划出发点到终点的最优路线”;本发明在机器人上面搭载Jeston Nano处理器(导盲决策层)、单线激光雷达、IMU;其中Jeston Nano上部署了ROS控制框架,其主要包括SLAM服务体系、导盲服务栈。
基于上述第二个问题“引导盲人行进”,本发明在导盲机器人中搭配麦克纳母轮和霍尔电机作为动力系统,并配套单片机和电机驱动模块对麦克纳母轮状态进行控制和解算。
基于上述第三个问题“增强人机交互体验感”:本发明在机器人上搭载语音输入和语音输出模块、搭载了一根底端与机器人刚性连接、顶端交互把手能够按照一定规律震动的助盲扶杖。
如图1-2所示,本发明提供一种室内导盲机器人,包括:
机器人终端,用于采集激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据,并将采集到的激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据上传至导盲决策层,并根据导盲决策层的控制信息进行响应,进行机器人的移动来为盲人的行进提供引导作用;
导盲决策层,用于在构图阶段将收取到的激光测距数据转换为栅格地图,进而构造了实际场景的全局地图;在定位阶段,利用粒子滤波的思想对接收到的激光测距数据和位姿数据进行融合,进而估算出机器人及盲人当前最可能处于的位置,为导盲决策层提供位置参考;将接收到地点数据进行语音识别API服务对语音信息进行识别处理得到用户需要前往的地点,并通过Voice_send节点发布信息到导盲任务栈;并实时播报前进路况信息给盲人供盲人对紧急情况提前做好应对措施;利用粒子滤波的思想将激光测距数据、里程计数据、位姿数据进行融合,对导盲机器人的位置及航向角进行估算,通过move_base包获取周围信息生成全局与局部代价地图,使用A*算法完成路径全局规划,规划出躲避障碍物引导盲人走向目标地点的最优路线;最优路线将通过base_control包将运动期望线速度和自旋速度下发到机器人终端。
具体地,所述机器人终端包括:
激光雷达,用于采集激光测距数据,并将采集到的激光测距数据上传至导盲决策层;
语音传感器,用于用户进行语音输入告知机器人其要前往的地点,并将前往地点数据上传至导盲决策层;
陀螺仪,用于采集位姿数据,并将采集到的位姿数据上传至导盲决策层;
摄像头,用于采集周围信息数据,并将采集到的周围信息数据上传至导盲决策层;
运动平台,用于采集里程计原始信息,根据采集到的里程计原始信息估算机器人状态,将机器人状态数据上传至导盲决策层作为里程计数据,并根据导盲决策层的控制信息进行响应,进行机器人的移动来为盲人的行进提供引导作用。
具体地,所述运动平台包括:
单片机,用于通过电机状态得到里程计原始信息,估算机器人状态,并将机器人状态数据上传至导盲决策层作为里程计数据,并根据导盲决策层的控制信息进行响应,完成机器人的运动控制;
电机,用于根据单片机的相应控制进行麦克纳母轮的移动来为盲人的行进提供引导作用;
麦克纳母轮,用于根据电机的相应控制进行移动来为盲人的行进提供引导作用;
机器人底盘,与麦克纳母轮滚动连接,用于固定麦克纳母轮。
单线激光雷达和IMU分别通过串口方式向Jseton Nano处理器反馈实时激光数据和位姿情况,Jeston Nano处理器:1)自主建图模块在构图阶段将收取到的激光测距数据转换为栅格地图,进而构造了实际场景的全局地图;2)自主定位模块在定位阶段,利用粒子滤波的思想对接收到的激光测距数据和位姿数据进行融合,进而估算出机器人及盲人当前最可能处于的位置,为导盲决策层提供位置参考;
所述导盲决策层主要由SLAM框架中的导盲服务栈完成,其通过利用单片机采用SPI方式从MPU6500获取原始数据并以串口方式回馈到Nano并由imu节点接收及完成解算;Nano的智能导航模块利用粒子滤波的思想将激光数据,里程计数据、陀螺仪数据进行融合,对导盲机器人的位置及航向角进行估算。
通过move_base包获取周围信息生成全局与局部代价地图,使用A*算法完成路径全局规划,使导盲机器人能够规划出一条更快更有效地躲避障碍物引导盲人走向目标地点的最优路线;
所述最优路线将通过base_control包将运动期望线速度和自旋速度通过串口方式下发到上述单片机;单片机作用如下:
一、对Nano的控制信息进行响应
1)、Nano速度控制节点以一定的频率将期望平移速度(Vx、Vy)和自旋速度(ω)下发给单片机,单片机将该期望速度根据麦克纳母轮逆运动学模型解算为各轮子的期望转速;
麦克纳母轮逆运动学公式如下:
V1=Vx-Vy-ω(a+b)
V2=Vx+Vy-ω(a+b)
V3=-Vx+Vy-ω(a+b)
V4=-Vx-Vy-ω(a+b)
其中,a和b分别表示机器人的长度和宽度(以电机转轴为测量点);
Vx表示X轴运动的速度,即左右方向,向左移动为正;
Vy表示Y轴运动的速度,即前后方向,向前移动为正;
ω表示机器人自旋的速度,逆时针为正方向;
弧长l=2πr=πd≈37.68(r、d分别为麦轮半径和直径)
转速N(n)=V(n)/37.68*15*Dt n=1,2,3,4
特别地,对单位统一如下:
A、平移速度单位为:cm/s;
B、旋转速度:rad/s;
C、a、b单位为:cm;
D、线速度V1、V2、V3、V4的单位为:cm/s;
E、弧长l单位为:cm;
F、转速单位为rpm;
2)单片机以10ms的定时器中断对电机霍尔传感器脉冲进行计数n,通过公式换算出电机转速:N rpm(转/分钟);
换算公式为:N=n*100;
3)单片机经由PID控制算法对转速进行控制,以PWM为输出,完成底盘运动控制;
二、通过电机状态得到里程计信息,估算机器人状态
1)单片机以10ms的定时器中断对电机霍尔传感器脉冲进行计数n,通过公式换算出电机转速:N rpm(转/分钟);
2)单片机利用上述测量得到的电机转速N,经由麦克纳母轮正运动模型进行实际运动信息解算,并将此数据上报给Nano作为里程计原始数据
正运动学解算公式为
FΩr=V,F=(RTR)-1RT
其中,F为旋转变换矩阵,
Ω为导盲小车实际旋转角速度,
V为导盲小车的实际平移速度。
所述麦克纳母轮在本发明中采用的使O-长方形的安装方式(见附图2);与传统的导盲小车相比,选用麦克纳母轮使小车具有了全向移动能力,能使小车更好更顺滑地带领盲人绕行躲避障碍物。
在机器人上搭载语音输入和语音输出模块分别为麦克风和小音箱;麦克风主要供用户进行语音输入告知机器人其要前往的地点;Jeston Nano的语音交互模块使用科大讯飞提供的语音识别API服务对语音信息进行识别处理得到用户需要前往的地点,并通过Voice_send节点发布信息到导盲任务栈;小音箱将实时播报前进路况信息给盲人供盲人对紧急情况提前做好应对措施;
机器人终端还包括助盲扶杖,助盲扶杖由底端、中部和顶端三部分构成;底端与机器人底盘进行刚性连接,其能够实现保证扶杖整体跟随机器人进行移动;中部连接体由可伸缩弹簧构成,使用弹簧结构,在机械上能满足不同身高群体的需求,另一方面,中部与顶部连接处嵌套的弹簧拉伸量传感器矩阵能够实时捕获盲人跟随状况并反馈给Jeston Nano便于其调整引导步伐;顶端由一个震动频率和幅度可控的交互把手祖成:1)当导盲机器人处于空闲状态时,交互把手按照一定的频率和幅度进行震动,便于盲人找到把手位置;2)当导盲机器人处于引导行人行进阶段时,如果需要进行转弯或避障,除上述语音播报外,交互把手将按照指定的震动方式进行震动,使用户提前做好准备。
本发明是一种基于SLAM的新型室内导盲机器人,它既能通过构图、重定位、路径规划和运动控制协助盲人更快更好地到达目的地;融入的震动交互把手和语音交互功能,使得人机交互体验更好。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种室内导盲机器人,其特征在于,包括:
机器人终端,用于采集激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据,并将采集到的激光测距数据、前往地点数据、位姿数据、周围信息数据和里程计数据上传至导盲决策层,并根据导盲决策层的控制信息进行响应,进行机器人的移动来为盲人的行进提供引导作用;
导盲决策层,用于在构图阶段将收取到的激光测距数据转换为栅格地图,进而构造了实际场景的全局地图;在定位阶段,利用粒子滤波的思想对接收到的激光测距数据和位姿数据进行融合,进而估算出机器人及盲人当前最可能处于的位置,为导盲决策层提供位置参考;将接收到地点数据进行语音识别API服务对语音信息进行识别处理得到用户需要前往的地点,并通过Voice_send节点发布信息到导盲任务栈;并实时播报前进路况信息给盲人供盲人对紧急情况提前做好应对措施;利用粒子滤波的思想将激光测距数据、里程计数据、位姿数据进行融合,对导盲机器人的位置及航向角进行估算,通过move_base包获取周围信息生成全局与局部代价地图,使用A*算法完成路径全局规划,规划出躲避障碍物引导盲人走向目标地点的最优路线;最优路线将通过base_control包将运动期望线速度和自旋速度下发到机器人终端。
2.根据权利要求1所述的室内导盲机器人,其特征在于,所述机器人终端包括:
激光雷达,用于采集激光测距数据,并将采集到的激光测距数据上传至导盲决策层;
语音传感器,用于用户进行语音输入告知机器人其要前往的地点,并将前往地点数据上传至导盲决策层;
陀螺仪,用于采集位姿数据,并将采集到的位姿数据上传至导盲决策层;
摄像头,用于采集周围信息数据,并将采集到的周围信息数据上传至导盲决策层;
运动平台,用于采集里程计原始信息,根据采集到的里程计原始信息估算机器人状态,将机器人状态数据上传至导盲决策层作为里程计数据,并根据导盲决策层的控制信息进行响应,进行机器人的移动来为盲人的行进提供引导作用。
3.根据权利要求2所述的室内导盲机器人,其特征在于,所述运动平台包括:
单片机,用于通过电机状态得到里程计原始信息,估算机器人状态,并将机器人状态数据上传至导盲决策层作为里程计数据,并根据导盲决策层的控制信息进行响应,完成机器人的运动控制;
电机,用于根据单片机的相应控制进行麦克纳母轮的移动来为盲人的行进提供引导作用;
麦克纳母轮,用于根据电机的相应控制进行移动来为盲人的行进提供引导作用;
机器人底盘,与麦克纳母轮滚动连接,用于固定麦克纳母轮。
4.根据权利要求3所述的室内导盲机器人,其特征在于,所述机器人终端还包括助盲扶杖,助盲扶杖包括底端、中部和顶端;底端与机器人底盘进行刚性连接,其能够实现保证扶杖整体跟随机器人进行移动;中部连接体由可伸缩弹簧构成,使用弹簧结构,在机械上能满足不同身高群体的需求,另一方面,中部与顶部连接处嵌套的弹簧拉伸量传感器矩阵能够实时捕获盲人跟随状况并反馈给导盲决策层便于其调整引导步伐;顶端由一个震动频率和幅度可控的交互把手组成:1)当导盲机器人处于空闲状态时,交互把手按照一定的频率和幅度进行震动,便于盲人找到把手位置;2)当导盲机器人处于引导行人行进阶段时,如果需要进行转弯或避障,除上述语音播报外,交互把手将按照指定的震动方式进行震动,使用户提前做好准备。
5.根据权利要求3所述的室内导盲机器人,其特征在于,所述导盲决策层包括:
自主建图模块,用于在构图阶段将收取到的激光测距数据转换为栅格地图,进而构造了实际场景的全局地图;
自主定位模块,用于在定位阶段,利用粒子滤波的思想对接收到的激光测距数据和位姿数据进行融合,进而估算出机器人及盲人当前最可能处于的位置,为导盲决策层提供位置参考;
语音交互模块,用于将接收到地点数据进行语音识别API服务对语音信息进行识别处理得到用户需要前往的地点,并通过Voice_send节点发布信息到导盲任务栈;并实时播报前进路况信息给盲人供盲人对紧急情况提前做好应对措施;
智能导航模块,用于利用粒子滤波的思想将激光测距数据、里程计数据、位姿数据进行融合,对导盲机器人的位置及航向角进行估算,通过move_base包获取周围信息生成全局与局部代价地图,使用A*算法完成路径全局规划,规划出躲避障碍物引导盲人走向目标地点的最优路线;最优路线将通过base_control包将运动期望线速度和自旋速度下发到单片机。
6.根据权利要求3所述的室内导盲机器人,其特征在于,所述单片机具体用于:
一、对导盲决策层的控制信息进行响应
1)、导盲决策层的速度控制节点以一定的频率将期望平移速度(Vx、Vy)和自旋速度(ω)下发给单片机,单片机将该期望速度根据麦克纳母轮逆运动学模型解算为各轮子的期望转速;
麦克纳母轮逆运动学公式如下:
V1=Vx-Vy-ω(a+b)
V2=Vx+Vy-ω(a+b)
V3=-Vx+Vy-ω(a+b)
V4=-Vx-Vy-ω(a+b)
其中,a和b分别表示机器人的长度和宽度,以电机转轴为测量点;
Vx表示X轴运动的速度,即左右方向,向左移动为正;
Vy表示Y轴运动的速度,即前后方向,向前移动为正;
ω表示机器人自旋的速度,逆时针为正方向;
弧长l=2πr=πd≈37.68,其中r、d分别为麦轮半径和直径;
转速N(n)=V(n)/37.68*15*Dt n=1,2,3,4
特别地,对单位统一如下:
A、平移速度单位为:cm/s;
B、旋转速度:rad/s;
C、a、b单位为:cm;
D、线速度V1、V2、V3、V4的单位为:cm/s;
E、弧长l单位为:cm;
F、转速单位为:rpm;
2)单片机以10ms的定时器中断对电机霍尔传感器脉冲进行计数n,通过公式换算出电机转速:N rpm(转/分钟)
换算公式为:N=n*100;
3)单片机经由PID控制算法对转速进行控制,以PWM为输出,完成底盘运动控制;
二、通过电机状态得到里程计原始信息,估算机器人状态
1)单片机以10ms的定时器中断对电机霍尔传感器脉冲进行计数n,通过公式换算出电机转速:N rpm(转/分钟)
2)单片机利用上述测量得到的电机转速N,经由麦克纳母轮正运动模型进行实际运动信息解算,并将此数据上报给导盲决策层作为里程计数据
正运动学解算公式为
FΩr=V,F=(RTR)-1RT
其中,F为旋转变换矩阵;
Ω为导盲小车实际旋转角速度;
V为导盲小车的实际平移速度。
7.根据权利要求3所述的室内导盲机器人,其特征在于,所述麦克纳母轮为4个。
8.根据权利要求1所述的室内导盲机器人,其特征在于,机器人终端和导盲决策层之间通过串口连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010010012.8A CN111142536B (zh) | 2020-01-06 | 2020-01-06 | 一种室内导盲机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010010012.8A CN111142536B (zh) | 2020-01-06 | 2020-01-06 | 一种室内导盲机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111142536A true CN111142536A (zh) | 2020-05-12 |
CN111142536B CN111142536B (zh) | 2021-01-26 |
Family
ID=70523750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010010012.8A Active CN111142536B (zh) | 2020-01-06 | 2020-01-06 | 一种室内导盲机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111142536B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112130570A (zh) * | 2020-09-27 | 2020-12-25 | 重庆大学 | 一种基于强化学习的最优输出反馈控制器的导盲机器人 |
CN112902963A (zh) * | 2021-01-21 | 2021-06-04 | 西安交通大学 | 一种智能轮椅的路径规划避障方法 |
CN113934205A (zh) * | 2020-06-29 | 2022-01-14 | 百度(美国)有限责任公司 | 用于控制引导机器人的方法、装置、设备以及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120005890A (ko) * | 2010-07-09 | 2012-01-17 | 경희대학교 산학협력단 | 시각 장애인용 보행 가이드 로봇 |
CN107145153A (zh) * | 2017-07-03 | 2017-09-08 | 北京海风智能科技有限责任公司 | 一种基于ros的服务机器人及其室内导航方法 |
CN107374921A (zh) * | 2017-07-20 | 2017-11-24 | 安顺学院 | 一种基于互联网的盲人导航助手装置 |
CN107390703A (zh) * | 2017-09-12 | 2017-11-24 | 北京创享高科科技有限公司 | 一种智能化导盲机器人及其导盲方法 |
CN108710375A (zh) * | 2018-06-12 | 2018-10-26 | 芜湖乐创电子科技有限公司 | 一种基于导航分析及传感监测的导盲机器人控制系统 |
CN109144057A (zh) * | 2018-08-07 | 2019-01-04 | 上海大学 | 一种基于实时环境建模和自主路径规划的导盲车 |
CN110368275A (zh) * | 2019-08-12 | 2019-10-25 | 广州大学 | 一种导盲机器人及导盲系统、导盲方法 |
-
2020
- 2020-01-06 CN CN202010010012.8A patent/CN111142536B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120005890A (ko) * | 2010-07-09 | 2012-01-17 | 경희대학교 산학협력단 | 시각 장애인용 보행 가이드 로봇 |
CN107145153A (zh) * | 2017-07-03 | 2017-09-08 | 北京海风智能科技有限责任公司 | 一种基于ros的服务机器人及其室内导航方法 |
CN107374921A (zh) * | 2017-07-20 | 2017-11-24 | 安顺学院 | 一种基于互联网的盲人导航助手装置 |
CN107390703A (zh) * | 2017-09-12 | 2017-11-24 | 北京创享高科科技有限公司 | 一种智能化导盲机器人及其导盲方法 |
CN108710375A (zh) * | 2018-06-12 | 2018-10-26 | 芜湖乐创电子科技有限公司 | 一种基于导航分析及传感监测的导盲机器人控制系统 |
CN109144057A (zh) * | 2018-08-07 | 2019-01-04 | 上海大学 | 一种基于实时环境建模和自主路径规划的导盲车 |
CN110368275A (zh) * | 2019-08-12 | 2019-10-25 | 广州大学 | 一种导盲机器人及导盲系统、导盲方法 |
Non-Patent Citations (3)
Title |
---|
M. SERRÃOB等: "Indoor localization and navigation for blind persons using visual landmarks and a GIS", 《SCIVERSE SCIENCEDIRECT》 * |
李强: "基于异质传感器信息融合的导盲机器人同步定位与构图研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
陈超 等: "基于无线RFID的新型室内语音导盲机器人的整体设计", 《江苏科技大学学报( 自然科学版)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113934205A (zh) * | 2020-06-29 | 2022-01-14 | 百度(美国)有限责任公司 | 用于控制引导机器人的方法、装置、设备以及存储介质 |
CN112130570A (zh) * | 2020-09-27 | 2020-12-25 | 重庆大学 | 一种基于强化学习的最优输出反馈控制器的导盲机器人 |
CN112130570B (zh) * | 2020-09-27 | 2023-03-28 | 重庆大学 | 一种基于强化学习的最优输出反馈控制器的导盲机器人 |
CN112902963A (zh) * | 2021-01-21 | 2021-06-04 | 西安交通大学 | 一种智能轮椅的路径规划避障方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111142536B (zh) | 2021-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111142536B (zh) | 一种室内导盲机器人 | |
Bousbia-Salah et al. | A navigation aid for blind people | |
Chen et al. | An implementation of an intelligent assistance system for visually impaired/blind people | |
CN102699914B (zh) | 一种机器人 | |
CN103786061B (zh) | 一种车载机器人装置及系统 | |
CN201242685Y (zh) | 向导机器人 | |
CN104772748A (zh) | 一种社交机器人 | |
CN105816303B (zh) | 一种基于gps和视觉导航的导盲系统及其方法 | |
CN109223346A (zh) | 一种语音控制导航的盲人轮椅及其控制方法 | |
CN205166946U (zh) | 多功能家庭服务机器人 | |
JP2017170584A (ja) | ロボットの行動シミュレーション装置 | |
CN101450260A (zh) | 迎宾机器人 | |
CN115416047A (zh) | 一种基于多传感器四足机器人的助盲系统和方法 | |
Romlay et al. | Methodologies and evaluation of electronic travel aids for the visually impaired people: a review | |
CN109044753A (zh) | 一种人机体感交互导盲机器人及工作方法 | |
CN113499229B (zh) | 康复机构的控制方法、康复机构的控制系统及康复设备 | |
CN105997447A (zh) | 一种轮腿结构的导盲机器人及其使用方法 | |
TW201525419A (zh) | 利用影像辨識提供避障路線的方法及行動輔具 | |
JP5891553B2 (ja) | ルートパースペクティブモデル構築方法およびロボット | |
CN113425079A (zh) | 一种智能演讲台机器人 | |
Lee et al. | Novel design of a social mobile robot for the blind disabilities | |
CN111134974B (zh) | 一种基于增强现实和多模态生物信号的轮椅机器人系统 | |
Básaca-Preciado et al. | Intelligent transportation scheme for autonomous vehicle in smart campus | |
US20230266140A1 (en) | Mobility assistance device and method of providing mobility assistance | |
Sessner et al. | Path segmentation with artificial neural networks in low structured environments for the navigation of visually impaired people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |