CN103901888B - 一种基于红外声纳传感器的机器人自主运动控制方法 - Google Patents
一种基于红外声纳传感器的机器人自主运动控制方法 Download PDFInfo
- Publication number
- CN103901888B CN103901888B CN201410099441.1A CN201410099441A CN103901888B CN 103901888 B CN103901888 B CN 103901888B CN 201410099441 A CN201410099441 A CN 201410099441A CN 103901888 B CN103901888 B CN 103901888B
- Authority
- CN
- China
- Prior art keywords
- robot
- infrared
- distance
- motion
- sonar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
一种基于红外声纳传感器的机器人自主运动方法,属于机器人自主移动领域。该方法包括遥控操作、自主运动两部分,操作机器人从起始位置运动到目的位置,其间记录红外声纳传感器实时采集距离数据,控制机器人运动,根据采集到的数据和控制信息的类别(前进、停止、左转、右转)进行自动标记;之后进行自主运动,实现将机器人放到路径中任意一处,机器人自动移动到目的地点,自主运动过程主要是根据已标记的传感器数据样本,对实时采集的未标记的传感器数据进行分类,并用分类结果指导机器人的运动。本发明使用的数据分类方法为K近邻方法,该方法正确率高,训练样本的时间短,所使用的红外、声纳传感器,在满足需求的情况下,成本较低。
Description
技术领域
本发明属于机器人自主运动领域,是一种基于红外声纳传感器的机器人自主运动方法。
背景技术
移动机器人的研究开始于二十世纪六十年代,随着社会的发展和科技的进步,服务机器人技术得到了迅速的发展。服务机器人已经广泛的应用于医疗卫生、教育、安全监控等许多领域。应用服务机器人不但可以减少劳动力,而且可以使人们从繁杂枯燥的工作中解脱出来。
目前,自主运动机器人主要控制方法基本是基于视觉的控制方法,其存在主要问题在于:首先,视觉方法的处理对象为图片或视频数据,维数过高,虽然精度高了,但是增加了模型训练时间和数据处理时间。其次,基于视觉的方法,其算法模型大多较为复杂,时间复杂度较高。
由于室内环境具有自己的特点,环境简单,稳定性高,针对这种情况下,服务机器人自主运动控制,是不需要多高的精度,在满足需求的情况下,需要尽可能的降低成本,降低计算复杂度。
发明内容
针对以上问题,本发明提供了一种基于红外声纳传感器的机器人自主运动方法。
本发明中数据分类使用的K近邻方法,是实例学习方法中的一种,只是简单的把训练样例存储起来,从这些实例中泛化的工作被推迟到必须分类新实例的时候。每当学习器遇到一个新的查询实例,它分析这个新实例与以前存储的实例的关系,并据此把一个目标函数值赋给新实例。该方法逻辑简单,易于实现,降低了训练模型的复杂度。
本发明采用的距离传感器为一个红外传感器,两个声纳传感器。在满足功能的情况下,成本较视觉传感器低,同样比其他的距离传感器成本低。数据维度为三维,计算量小,数据处理速度快,可以在低配置的机器人上实现。
本发明的应用价值体现在以下几个方面:首先,可以用来实现教学工作,教师可以用本发明的方法作为一个教学例子进行讲解;其次,具有一定的商业价值,可以将此发明作为机器人产品的演示功能,为机器人本身增加吸引力;第三,可以实现室内的运送文件任务,只要人工操作一次后,之后机器人可以自动识别环境,达到目的地,可以节省人力。
本发明包括遥控操作、自主运动两部分,首先进行遥控操作,遥控操作需要操作机器人从起始位置运动到目的位置,其间红外声纳传感器实时采集距离数据,控制机器人运动,根据采集到的数据和控制信息的类别(前进、停止、左转、右转)进行自动标记;之后进行自主运动,实现将机器人放到路径中任意一处,机器人自动移动到目的地点,自主运动过程主要是根据已标记的传感器数据样本,对实时采集的未标记的传感器数据进行分类,并用分类结果指导机器人的运动,从而实现自主运动。
一种基于红外声纳传感器的机器人自主运动方法,其特征在于包括以下步骤:
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度,传感器的采样频率;
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由p个红外传感器测量的距离和q个声纳传感器测量距离构成,表示为同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束;
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度、传感器采样频率,机器人根据设定的采样频率,把实时记录的p个红外传感器测量的距离和q个声纳传感器测量距离数据表示为
步骤四:计算xr与所有训练样本xi之间的距离同时把dr1,dr2,........,drn从小到大排序,选择K为1至50之间的某个整数值,把其中最小的K个距离记为
步骤五:把自主运动控制信息vr选择为在中出现次数最多的运动控制信息,如多个运动控制信息出现次数相同则随机选择一种运动控制信息即可;机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频率下执行相应的运动控制操作;
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。
具体的,基于红外声纳传感器的机器人自主运动方法,包括以下步骤:
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这里搭载的传感器为机器人中间的一个红外传感器、左前方的声纳传感器以及右前方的声纳传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度0.1m/s,传感器的采样频率1次/秒;
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由1个红外传感器测量的距离和2个声纳传感器测量距离构成,表示为 表示左声纳数据,表示红外数据,表示右声纳数据,同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束;
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度0.1m/s、传感器采样频率1次/秒,机器人根据设定的采样频率,把实时记录的1个红外传感器测量的距离和2个声纳传感器测量距离数据表示为
步骤四:计算xr与所有训练样本xi之间的距离,同时把dr1,dr2,......,drn从小到大排序,选择K为1至50之间的某个整数值,把其中最小的K个距离记为
步骤五:把自主运动控制信息vr选择为在中出现次数最多的运动控制信息,机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频率下执行相应的运动控制操作;
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。
本发明的有益效果在于:
1.本发明使用的K近邻方法,是实例学习方法中的一种,只是简单的把训练样例存储起来,从这些实例中泛化的工作被推迟到必须分类新实例的时候。每当学习器遇到一个新的查询实例,它分析这个新实例与以前存储的实例的关系,并据此把一个目标函数值赋给新实例。该方法逻辑简单,易于实现,降低了训练模型的复杂度。
2.本发明采用的距离传感器为一个红外传感器,两个声纳传感器。在满足功能的情况下,成本较视觉传感器低,同样比其他的距离传感器成本低。数据维度为三维,计算量小,数据处理速度快,可以在低配置的机器人上实现。
附图说明
图1为基于实例学习的机器人自主运动控制方法流程图
图2为本发明实施例中的机器人简图;
图3为本发明实施例实验环境平面图。
(箭头代表本次实验的路径,圆圈表示起始位置,叉表示目的位置)
具体实施方式
一种基于红外声纳传感器的机器人自主运动方法:
本发明的目的是:实现机器人自主完成指定任务,如完成从室内环境中一个地点传送文件到另一地点,只需人工操控一次机器人执行任务,完成对机器人的训练,机器人之后便可自主实现从路径中任意地点到目的地点的运送任务。
机器人中部搭载了三个传感器,分别为左前方的声纳传感器,正前方的红外传感器以及右前方的声纳传感器。
下面结合相关附图及实例对本发明进行更加详细的解释和阐述:
图1是自主运动机器人从初始化到完成自主运动的流程图,包括以下步骤:
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这里搭载的传感器为机器人中间的一个红外传感器、左前方的声纳传感器以及右前方的声纳传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度0.1m/s,传感器的采样频率1次/秒;
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由1个红外传感器测量的距离和2个声纳传感器测量距离构成,表示为 表示左声纳数据,表示红外数据,表示右声纳数据,同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束;
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度0.1m/s、传感器采样频率1次/秒,机器人根据设定的采样频率,把实时记录的1个红外传感器测量的距离和2个声纳传感器测量距离数据表示为
步骤四:计算xr与所有训练样本xi之间的距离同时把dr1,dr2,........,drn从小到大排序,选择K为1至50之间的某个整数值,把其中最小的K个距离记为
步骤五:把自主运动控制信息vr选择为在中出现次数最多的运动控制信息,机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频率下执行相应的运动控制操作;
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。
实验配置如表1所示:
表1机器人自主运动实验配置
本发明在室内环境进行自主运动实验,室内测试环境的平面分布图如图3所示,实验结果如下表2所示:
由表2可知,成功率可以达到90%,实验表现,该方法依靠简单的红外声纳传感器,使用简单的K近邻算法,在基本的实验室环境下,可以使机器人具备一定的自主运动能力。
Claims (1)
1.一种基于红外声纳传感器的机器人自主运动方法,其特征在于包括以下步骤:
步骤一:启动程序,开启机器人搭载的声纳传感器和红外传感器,这两种传感器用来测量自身到前方障碍物的距离,红外传感器测量距离为10cm-80cm,声纳传感器测量距离为41cm-7m,开启机器人运动系统;设置机器人运动速度,传感器的采样频率;
步骤二:开始遥控操作,遥控机器人从起始位置运动到目的位置,在遥控操作过程中通过键盘控制机器人运动,键盘动作的上、左、右、不操作分别对应机器人的运动控制信息前进、左转、右转、停止,根据频率读取传感器数据,构建包含n个训练样本的集合X,n=机器人运动时间/采样频率;每个X中的训练样本xi(i=1,2,......,n),由p个红外传感器测量的距离和q个声纳传感器测量距离构成,表示为同时把与xi相对应的运动控制信息标记为vi,vi的取值为“前进”、“停止”、“左转”或“右转”;机器人到达目的地后停止,人工遥控过程结束;
步骤三:开始机器人自主运动过程,将机器人放入遥控过程中路径下的任意一点,设定速度、传感器采样频率,机器人根据设定的采样频率,把实时记录的p个红外传感器测量的距离和q个声纳传感器测量距离数据表示为
其中p至少为1,q至少为2;
步骤四:计算xr与所有训练样本xi之间的距离同时把dr1,dr2,........,drn从小到大排序,选择K为1至50之间的某个整数值,把其中最小的K个距离记为
步骤五:把自主运动控制信息vr选择为在中出现次数最多的运动控制信息,机器人分别根据vr=“前进”、“停止”、“左转”和“右转”,自动在设定的采样频率下执行相应的运动控制操作;
步骤六:判断机器人是否到达目的地,否的话,继续执行步骤三。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410099441.1A CN103901888B (zh) | 2014-03-18 | 2014-03-18 | 一种基于红外声纳传感器的机器人自主运动控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410099441.1A CN103901888B (zh) | 2014-03-18 | 2014-03-18 | 一种基于红外声纳传感器的机器人自主运动控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103901888A CN103901888A (zh) | 2014-07-02 |
CN103901888B true CN103901888B (zh) | 2017-01-25 |
Family
ID=50993276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410099441.1A Expired - Fee Related CN103901888B (zh) | 2014-03-18 | 2014-03-18 | 一种基于红外声纳传感器的机器人自主运动控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103901888B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109901589B (zh) * | 2019-03-29 | 2022-06-07 | 北京易达图灵科技有限公司 | 移动机器人控制方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102929281A (zh) * | 2012-11-05 | 2013-02-13 | 西南科技大学 | 一种不完全感知环境下的机器人kNN路径规划方法 |
CN103203753A (zh) * | 2012-01-12 | 2013-07-17 | 三星电子株式会社 | 用于识别和处理异常情况的机器人和方法 |
CN103207893A (zh) * | 2013-03-13 | 2013-07-17 | 北京工业大学 | 基于向量组映射的两类文本的分类方法 |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010121975A (ja) * | 2008-11-17 | 2010-06-03 | Advanced Telecommunication Research Institute International | 音源定位装置 |
US9218232B2 (en) * | 2011-04-13 | 2015-12-22 | Bar-Ilan University | Anomaly detection methods, devices and systems |
-
2014
- 2014-03-18 CN CN201410099441.1A patent/CN103901888B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103203753A (zh) * | 2012-01-12 | 2013-07-17 | 三星电子株式会社 | 用于识别和处理异常情况的机器人和方法 |
CN102929281A (zh) * | 2012-11-05 | 2013-02-13 | 西南科技大学 | 一种不完全感知环境下的机器人kNN路径规划方法 |
CN103207893A (zh) * | 2013-03-13 | 2013-07-17 | 北京工业大学 | 基于向量组映射的两类文本的分类方法 |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
Non-Patent Citations (2)
Title |
---|
AS_R移动机器人的动态避障与路径规划研究;陈晋音;《计算机科学》;20130331;第39卷(第3期);第222-225页 * |
基于K近邻的分类算法研究;桑应宾;《中国优秀硕士学位论文全文数据库》;20091215;正文第10-15页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103901888A (zh) | 2014-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109947119A (zh) | 一种基于多传感器融合的移动机器人自主跟随系统及方法 | |
CN109800689A (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN109531584A (zh) | 一种基于深度学习的机械臂控制方法和装置 | |
Farias et al. | Development of an easy-to-use multi-agent platform for teaching mobile robotics | |
Huang et al. | A case study of cyber-physical system design: Autonomous pick-and-place robot | |
CN112365580B (zh) | 一种面向人机技能传授的虚拟作业演示系统 | |
El Zaatari et al. | iTP-LfD: Improved task parametrised learning from demonstration for adaptive path generation of cobot | |
Costa et al. | Simulator for teaching robotics, ROS and autonomous driving in a competitive mindset | |
CN103630698A (zh) | 一种模仿动物嗅觉器官结构的立体电子鼻 | |
Liu et al. | Understanding multi-modal perception using behavioral cloning for peg-in-a-hole insertion tasks | |
CN109739235A (zh) | 一种仿雌蚊的移动传感器泄漏气体自动追踪方法 | |
CN103901888B (zh) | 一种基于红外声纳传感器的机器人自主运动控制方法 | |
Sundaresan et al. | Kite: Keypoint-conditioned policies for semantic manipulation | |
Corke et al. | What can robotics research learn from computer vision research? | |
CN205123920U (zh) | 一种机器视觉实验平台 | |
van Orden et al. | End-to-end imitation learning for autonomous vehicle steering on a single-camera stream | |
Sedlar et al. | Imitrob: Imitation learning dataset for training and evaluating 6d object pose estimators | |
Naso et al. | Autonomous flight insurance method of unmanned aerial vehicles Parot Mambo using semantic segmentation data | |
Mikhaylov et al. | Control and navigation of forest robot | |
Greenwald et al. | Using educational robotics to motivate complete AI solutions | |
CN103792943B (zh) | 基于距离信息和实例学习的机器人自主运动控制方法 | |
Huang et al. | Periodic action temporal localization method based on two-path architecture for product counting in sewing video | |
Kleinhans et al. | G3DB: A database of successful and failed grasps with RGB-D images, point clouds, mesh models and gripper parameters | |
Brandenburg et al. | Object classification for robotic platforms | |
Yan et al. | A Novel Odor Source Localization Method via a Deep Neural Network-Based Odor Compass |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170125 Termination date: 20200318 |