CN103901888A - 一种基于红外声纳传感器的机器人自主运动控制方法 - Google Patents

一种基于红外声纳传感器的机器人自主运动控制方法 Download PDF

Info

Publication number
CN103901888A
CN103901888A CN201410099441.1A CN201410099441A CN103901888A CN 103901888 A CN103901888 A CN 103901888A CN 201410099441 A CN201410099441 A CN 201410099441A CN 103901888 A CN103901888 A CN 103901888A
Authority
CN
China
Prior art keywords
robot
infrared
sensor
motion
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410099441.1A
Other languages
English (en)
Other versions
CN103901888B (zh
Inventor
李玉鑑
李江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410099441.1A priority Critical patent/CN103901888B/zh
Publication of CN103901888A publication Critical patent/CN103901888A/zh
Application granted granted Critical
Publication of CN103901888B publication Critical patent/CN103901888B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

一种基于红外声纳传感器的机器人自主运动方法,属于机器人自主移动领域。该方法包括遥控操作、自主运动两部分,操作机器人从起始位置运动到目的位置,其间记录红外声纳传感器实时采集距离数据,控制机器人运动,根据采集到的数据和控制信息的类别(前进、停止、左转、右转)进行自动标记;之后进行自主运动,实现将机器人放到路径中任意一处,机器人自动移动到目的地点,自主运动过程主要是根据已标记的传感器数据样本,对实时采集的未标记的传感器数据进行分类,并用分类结果指导机器人的运动。本发明使用的数据分类方法为K近邻方法,该方法正确率高,训练样本的时间短,所使用的红外、声纳传感器,在满足需求的情况下,成本较低。

Description

一种基于红外声纳传感器的机器人自主运动控制方法
技术领域
本发明属于机器人自主运动领域,是一种基于红外声纳传感器的机器人自主运动方法。 
背景技术
移动机器人的研究开始于二十世纪六十年代,随着社会的发展和科技的进步,服务机器人技术得到了迅速的发展。服务机器人已经广泛的应用于医疗卫生、教育、安全监控等许多领域。应用服务机器人不但可以减少劳动力,而且可以使人们从繁杂枯燥的工作中解脱出来。 
目前,自主运动机器人主要控制方法基本是基于视觉的控制方法,其存在主要问题在于:首先,视觉方法的处理对象为图片或视频数据,维数过高,虽然精度高了,但是增加了模型训练时间和数据处理时间。其次,基于视觉的方法,其算法模型大多较为复杂,时间复杂度较高。 
由于室内环境具有自己的特点,环境简单,稳定性高,针对这种情况下,服务机器人自主运动控制,是不需要多高的精度,在满足需求的情况下,需要尽可能的降低成本,降低计算复杂度。 
发明内容
针对以上问题,本发明提供了一种基于红外声纳传感器的机器人自主运动方法。 
本发明中数据分类使用的K近邻方法,是实例学习方法中的一种,只是简单的把训练样例存储起来,从这些实例中泛化的工作被推迟到必须分类新实例的时候。每当学习器遇到一个新的查询实例,它分析这个新实例与以前存储的实例的关系,并据此把一个目标函数值赋给新实例。该方法逻辑简单,易于实现,降低了训练模型的复杂度。 
本发明采用的距离传感器为一个红外传感器,两个声纳传感器。在满足功能的情况下,成本较视觉传感器低,同样比其他的距离传感器成本低。数据维度为三维,计算量小,数据处理速度快,可以在低配置的机器人上实现。 
本发明的应用价值体现在以下几个方面:首先,可以用来实现教学工作,教师可以用本发明的方法作为一个教学例子进行讲解;其次,具有一定的商业价值,可以将此发明作为机器人产品的演示功能,为机器人本身增加吸引力;第三,可以实现室内的运送文件任务,只要人工操作一次后,之后机器人可以自动识别环境,达到目的地,可以节省人力。 
本发明包括遥控操作、自主运动两部分,首先进行遥控操作,遥控操作需要操作机器人从起始位置运动到目的位置,其间红外声纳传感器实时采集距离数据,控制机器人运动,根据采集到的数据和控制信息的类别(前进、停止、左转、右转)进行自动标记;之后进行自主运动,实现将机器人放到路径中任意一处,机器人自动移动到目的地点,自主运动过程主要是根据已标记的传感器数据样本,对实时采集的未标记的传感器数据进行分类,并用分类结果指导机器人的运动,从而实现自主运动。 
一种基于红外声纳传感器的机器人自主运动方法,其特征在于包括以下步骤: 
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度,传感器的采样频率; 
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由p个红外传感器测量的距离和q个声纳传感器测量距离构成,表示为
Figure BDA0000478128410000021
同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束; 
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度、传感器采样频率,机器人根据设定的采样频率,把实时记录的p个红外传感器测量的距离和q个声纳传感器测量距离数据表示为 
x r = { x 1 r , x 2 r , . . . , x p r , x p + 1 r , x p + 2 r , . . . , x p + q r } ;
步骤四:计算xr与所有训练样本xi之间的距离
Figure BDA0000478128410000031
同时把dr1,dr2,........,drn从小到大排序,选择K为1至50之间的某个整数值,把其中最小的K个距离记为 
Figure BDA0000478128410000032
步骤五:把自主运动控制信息vr选择为在
Figure BDA0000478128410000033
中出现次数最多的运动控制信息,如多个运动控制信息出现次数相同则随机选择一种运动控制信息即可;机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频率下执行相应的运动控制操作; 
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。 
具体的,基于红外声纳传感器的机器人自主运动方法,包括以下步骤: 
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这里搭载的传感器为机器人中间的一个红外传感器、左前方的声纳传感器以及右前方的声纳传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度0.1m/s,传感器的采样频率1次/秒; 
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由1个红外传感器测量的距离和2个声纳传感器测量距离构成,表示为
Figure BDA0000478128410000034
Figure BDA0000478128410000035
表示左声纳数据,表示红外数据,
Figure BDA0000478128410000037
表示右声纳数据,同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束; 
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度0.1m/s、传感器采样频率1次/秒,机器人根据设定的采样频率,把实时记录的1个红外传感器测量的距离和2个声纳传感器测量距离数据表示为
Figure BDA0000478128410000038
Figure BDA0000478128410000042
步骤五:把自主运动控制信息vr选择为在
Figure BDA0000478128410000043
中出现次数最多的运动控制信息,机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频率下执行相应的运动控制操作; 
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。 
本发明的有益效果在于: 
1.本发明使用的K近邻方法,是实例学习方法中的一种,只是简单的把训练样例存储起来,从这些实例中泛化的工作被推迟到必须分类新实例的时候。每当学习器遇到一个新的查询实例,它分析这个新实例与以前存储的实例的关系,并据此把一个目标函数值赋给新实例。该方法逻辑简单,易于实现,降低了训练模型的复杂度。 
2.本发明采用的距离传感器为一个红外传感器,两个声纳传感器。在满足功能的情况下,成本较视觉传感器低,同样比其他的距离传感器成本低。数据维度为三维,计算量小,数据处理速度快,可以在低配置的机器人上实现。 
附图说明
图1为基于实例学习的机器人自主运动控制方法流程图 
图2为本发明实施例中的机器人简图; 
图3为本发明实施例实验环境平面图。 
(箭头代表本次实验的路径,圆圈表示起始位置,叉表示目的位置) 
具体实施方式
一种基于红外声纳传感器的机器人自主运动方法: 
本发明的目的是:实现机器人自主完成指定任务,如完成从室内环境中一个地点传送文件到另一地点,只需人工操控一次机器人执行任务,完成对机器人的训练,机器人之后 便可自主实现从路径中任意地点到目的地点的运送任务。 
机器人中部搭载了三个传感器,分别为左前方的声纳传感器,正前方的红外传感器以及右前方的声纳传感器。 
下面结合相关附图及实例对本发明进行更加详细的解释和阐述: 
图1是自主运动机器人从初始化到完成自主运动的流程图,包括以下步骤: 
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这里搭载的传感器为机器人中间的一个红外传感器、左前方的声纳传感器以及右前方的声纳传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度0.1m/s,传感器的采样频率1次/秒; 
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由1个红外传感器测量的距离和2个声纳传感器测量距离构成,表示为
Figure BDA0000478128410000051
Figure BDA0000478128410000052
表示左声纳数据,
Figure BDA0000478128410000053
表示红外数据,表示右声纳数据,同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束; 
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度0.1m/s、传感器采样频率1次/秒,机器人根据设定的采样频率,把实时记录的1个红外传感器测量的距离和2个声纳传感器测量距离数据表示为
Figure BDA0000478128410000055
步骤四:计算xr与所有训练样本xi之间的距离
Figure BDA0000478128410000056
同时把dr1,dr2,........,drn从小到大排序,选择K为1至50之间的某个整数值,把其中最小的K个距离记为 
步骤五:把自主运动控制信息vr选择为在中出现次数最多的运动控制信息,机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频 率下执行相应的运动控制操作; 
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。 
实验配置如表1所示: 
表1机器人自主运动实验配置 
Figure BDA0000478128410000061
本发明在室内环境进行自主运动实验,室内测试环境的平面分布图如图3所示,实验结果如下表2所示: 
Figure BDA0000478128410000062
由表2可知,成功率可以达到90%,实验表现,该方法依靠简单的红外声纳传感器,使用简单的K近邻算法,在基本的实验室环境下,可以使机器人具备一定的自主运动能力。 

Claims (1)

1.一种基于红外声纳传感器的机器人自主运动方法,其特征在于包括以下步骤:
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度,传感器的采样频率;
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由p个红外传感器测量的距离和q个声纳传感器测量距离构成,表示为
Figure FDA0000478128400000011
同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束;
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度、传感器采样频率,机器人根据设定的采样频率,把实时记录的p个红外传感器测量的距离和q个声纳传感器测量距离数据表示为
x r = { x 1 r , x 2 r , . . . , x p r , x p + 1 r , x p + 2 r , . . . , x p + q r } ;
步骤四:计算xr与所有训练样本xi之间的距离
Figure FDA0000478128400000013
同时把dr1,dr2,........,drn从小到大排序,选择K为1至50之间的某个整数值,把其中最小的K个距离记为
Figure FDA0000478128400000014
步骤五:把自主运动控制信息vr选择为在
Figure FDA0000478128400000015
中出现次数最多的运动控制信息,如多个运动控制信息出现次数相同则随机选择一种运动控制信息即可;机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频率下执行相应的运动控制操作;
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。
CN201410099441.1A 2014-03-18 2014-03-18 一种基于红外声纳传感器的机器人自主运动控制方法 Expired - Fee Related CN103901888B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410099441.1A CN103901888B (zh) 2014-03-18 2014-03-18 一种基于红外声纳传感器的机器人自主运动控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410099441.1A CN103901888B (zh) 2014-03-18 2014-03-18 一种基于红外声纳传感器的机器人自主运动控制方法

Publications (2)

Publication Number Publication Date
CN103901888A true CN103901888A (zh) 2014-07-02
CN103901888B CN103901888B (zh) 2017-01-25

Family

ID=50993276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410099441.1A Expired - Fee Related CN103901888B (zh) 2014-03-18 2014-03-18 一种基于红外声纳传感器的机器人自主运动控制方法

Country Status (1)

Country Link
CN (1) CN103901888B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901589A (zh) * 2019-03-29 2019-06-18 北京易达图灵科技有限公司 移动机器人控制方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010121975A (ja) * 2008-11-17 2010-06-03 Advanced Telecommunication Research Institute International 音源定位装置
WO2012140601A1 (en) * 2011-04-13 2012-10-18 Bar-Ilan University Anomaly detection methods, devices and systems
CN102929281A (zh) * 2012-11-05 2013-02-13 西南科技大学 一种不完全感知环境下的机器人kNN路径规划方法
CN103207893A (zh) * 2013-03-13 2013-07-17 北京工业大学 基于向量组映射的两类文本的分类方法
CN103203753A (zh) * 2012-01-12 2013-07-17 三星电子株式会社 用于识别和处理异常情况的机器人和方法
CN103558856A (zh) * 2013-11-21 2014-02-05 东南大学 动态环境下服务动机器人导航方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010121975A (ja) * 2008-11-17 2010-06-03 Advanced Telecommunication Research Institute International 音源定位装置
WO2012140601A1 (en) * 2011-04-13 2012-10-18 Bar-Ilan University Anomaly detection methods, devices and systems
CN103203753A (zh) * 2012-01-12 2013-07-17 三星电子株式会社 用于识别和处理异常情况的机器人和方法
CN102929281A (zh) * 2012-11-05 2013-02-13 西南科技大学 一种不完全感知环境下的机器人kNN路径规划方法
CN103207893A (zh) * 2013-03-13 2013-07-17 北京工业大学 基于向量组映射的两类文本的分类方法
CN103558856A (zh) * 2013-11-21 2014-02-05 东南大学 动态环境下服务动机器人导航方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
桑应宾: "基于K近邻的分类算法研究", 《中国优秀硕士学位论文全文数据库》, 15 December 2009 (2009-12-15) *
陈晋音: "AS_R移动机器人的动态避障与路径规划研究", 《计算机科学》, vol. 39, no. 3, 31 March 2013 (2013-03-31) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901589A (zh) * 2019-03-29 2019-06-18 北京易达图灵科技有限公司 移动机器人控制方法和装置
CN109901589B (zh) * 2019-03-29 2022-06-07 北京易达图灵科技有限公司 移动机器人控制方法和装置

Also Published As

Publication number Publication date
CN103901888B (zh) 2017-01-25

Similar Documents

Publication Publication Date Title
CN110202583B (zh) 一种基于深度学习的仿人机械手控制系统及其控制方法
Sahbani et al. An overview of 3D object grasp synthesis algorithms
Boudjit et al. Human detection based on deep learning YOLO-v2 for real-time UAV applications
CN111226237A (zh) 用于稳健抓取和瞄准物体的机器人系统和方法
Coupeté et al. Gesture recognition using a depth camera for human robot collaboration on assembly line
CN105022406B (zh) 基于改进细菌觅食算法的多机器人协作气味源定位方法
Costa et al. Simulator for teaching robotics, ROS and autonomous driving in a competitive mindset
Gao et al. Multi-mobile robot autonomous navigation system for intelligent logistics
CN112365580B (zh) 一种面向人机技能传授的虚拟作业演示系统
Liu et al. Understanding multi-modal perception using behavioral cloning for peg-in-a-hole insertion tasks
Yang et al. Pave the way to grasp anything: Transferring foundation models for universal pick-place robots
Martinez-Hernandez et al. Active haptic shape recognition by intrinsic motivation with a robot hand
CN103901888A (zh) 一种基于红外声纳传感器的机器人自主运动控制方法
Aleotti et al. Trajectory reconstruction with nurbs curves for robot programming by demonstration
Chow et al. Learning human navigational skill for smart wheelchair in a static cluttered route
Ben Amor et al. Special issue on autonomous grasping and manipulation
Sturm et al. RGB-D SLAM dataset and benchmark
Prabowo et al. Utilizing a rapidly exploring random tree for hazardous gas exploration in a large unknown area
Ouyang et al. Robot grasp with multi-object detection based on RGB-D image
Gomes et al. Deep Reinforcement learning applied to a robotic pick-and-place application
Daniušis et al. Topological navigation graph framework
Kang et al. Team Tidyboy at the WRS 2020: A modular software framework for home service robots
CN103792943B (zh) 基于距离信息和实例学习的机器人自主运动控制方法
Wei et al. Multi-Robot gas-source localization based on reinforcement learning
Singh et al. CHARM: A platform for algorithmic robotics education & research

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170125

Termination date: 20200318

CF01 Termination of patent right due to non-payment of annual fee