CN103792943A - 基于距离信息和实例学习的机器人自主运动控制方法 - Google Patents
基于距离信息和实例学习的机器人自主运动控制方法 Download PDFInfo
- Publication number
- CN103792943A CN103792943A CN201410056523.8A CN201410056523A CN103792943A CN 103792943 A CN103792943 A CN 103792943A CN 201410056523 A CN201410056523 A CN 201410056523A CN 103792943 A CN103792943 A CN 103792943A
- Authority
- CN
- China
- Prior art keywords
- robot
- data
- motion
- sensor
- control method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及基于距离信息和实例学习的机器人自主运动控制方法,所述方法包括人工训练和自主运动两部分:人工训练过程主要通过机器人上的人机交互设备完成对机器人运动控制参数的设置,控制传感器采集数据并按照控制信息的类别进行自动标记;自主运动过程主要是据根据已标记的传感器数据样本,对实时采集的未标记的传感器数据进行分类,并使用分类结果指导机器人的运动,从而实现自主运动。本发明采用单一的距离传感器取代传统方法中的摄像机或组合传感器,利用机器学习方法中的实例学习方法,通过数据采集和样本标记完成对机器人的人工训练,使机器人具备一定的自主运动能力。大大降低了机器人自主运动所需的数据量及数据采集和处理的复杂程度。
Description
技术领域
本发明属于机器人自主运动领域,涉及一种基于激光距离传感器及实例学习的机器人自主运动的控制方法。
背景技术
自主移动机器人是一种能够在工作环境中完成预定任务的智能系统,在移动机器人不断发展和智能化的前提下,移动机器人在军事、农业和工业等领域开始发挥越来越重要的作用。随着机器学习理论的不断成熟,传感器性能的不断提高,基于各种传感器数据以及机器学习算法以及模型的自主运动机器人也开始引起人们的关注。
目前,自主运动机器人主要控制方法基本是基于视觉的控制方法,如2001年J.Weng在Science上发表的“Autonomous mental development by robot s and animals”中提出的三种算法模型:CCIPCA+HDR树模型,分层模型以及Schema模型。基于视觉控制方法存在的主要问题有:首先,视觉方法主要基于对图像数据或者视频数据的处理,数据量远远大于基于距离信息的数据;其次,算法模型复杂,时间复杂度也较高;另外,不同精度的图像视频采集设备对于机器人的自主运动效果影响巨大。
相对于基于视觉的控制方法,基于单一距离信息的机器人控制方法,算法模型复杂度和时间复杂度都可以大大降低。如果能设计一种基于单一距离信息的控制方法,将会大大降低计算模型和时间的复杂度。
发明内容
针对现有技术中存在的数据采取和处理量大、算法复杂等问题,本发明提供一种基于实例学习的机器人自主运动的控制方法,通过人工训练使机器人具备一定的自主运动能力。本发明提出的控制方法,不仅数据量较小,时间复杂度也可以很好地满足机器人自主运动的要求。本发明的应用价值还体现在以下三个方面:首先,可以作为教学机器人的典型实例,可作为机器学习分类算法及分类模型的实用测试平台;其次,具有一定的商业价值,可以将此发明作为机器人产品的演示功能,为机器人本身增加吸引力;第三,可以实现室内定点的取货任务,可操控机器人前往取货地,返回时可根据遥控过程中采集的样本实现自主运动返回。重复执行取货任务时,也可以节省人力。
本发明主要由移动机器人和激光距离传感器组成。激光距离传感器可进行扇形扫描,用于测量机器人与障碍物之间的距离。本发明所述方法包括人工训练和自主运动两部分。人工训练过程主要通过连接到机器人上的人机交互设备(如键盘)完成对机器人运动控制参数的设置,控制传感器采集数据,并按照控制信息的类别进行自动标记;自主运动过程主要是根据人工训练过程中已标记的传感器数据样本,对实时采集的未标记的传感器数据进行分类,并使用分类结果指导机器人的运动。
基于距离信息和实例学习的机器人自主运动控制方法,包括以下步骤:
步骤1,选定作业任务,通过键盘完成串口选择、运动控制参数等系统参数的设定。开始人工训练过程。
步骤2,开启相应线程,激光距离传感器采集数据,并且完成数据的自动标记。
步骤3,重新选择设定运动控制参数,开始自主运动过程。
步骤4,实时采集传感器数据,并且根据实例学习算法及人工训练过程采集的训练数据对新数据进行分类。
步骤5,根据运动信息判断是否到达指定地点,若到达指定地点结束运动;若未到达指定地点,重复执行步骤4。
所述步骤1设定的运动控制参数主要包括传感器设备选择、运动方式、运动速度、运动加速度和控制设备等。运动机器人的运动方向设定为传感器数据的分类类别,标记为C=(C1,C2,C3,C4),其中C1代表运动方向为向前运动,C2代表运动方向为向后运动,C3代表运动方向为左转,C4代表运动方向为右转。
所述步骤2传感器采集到的数据按照控制信息的类别自动标记为(A1,A2,……,Ad,Ci),A1,A2,……,Ad为传感器采集到的数据,d为数据维度;Ci为采集到的样本对应的分类类别,i=1,2,3,4。传感器属性值d的计算公式为:
d=[(L+R)/θ] (1)
式中,“[]”表示取整运算;L、R分别为激光距离传感器向左和向右扫描偏离正前方的最大偏角;θ为相邻两条激光射线之间的夹角。L、R和θ的值由激光扫描密度参数调整命令设定。
所述步骤2传感器的采样频率及采样数可通过编写相应函数来控制。对于关键点,比如转弯处,采样频率可设定为较大值,而机器人运动速度则设定为较小值,以确保关键点采样数据的准确性。
所述步骤2多次重复进行,以增加训练样本提高人工训练效果。
所述步骤4实时采集的传感器数据标记为Y(y1,y2,……,yd),采用K近邻方法对以距离值为属性值的数据进行分类。K为距Y最近的样本点的个数,K的值可通过实验选取。设(ZY1,ZY2,...,ZYK)为选出的距Y最近的K个样本点,Y与第m个样本点之间的距离dYm为:
统计(ZY1,ZY2,...,ZYK)中分别属于(C1,C2,C3,C4)的样本数(n1,n2,n3,n4)。Max(n1,n2,n3,n4)所对应的下标即为Y的分类类别,也就是当前时刻控制机器人自主运动要执行的动作指令。
本发明的有益效果在于:
1.本发明利用机器学习方法中的实例学习方法,通过数据采集和样本标记完成对机器人的人工训练,大大缩短了训练过程,同时增加了训练的有效性。
2.本发明采用单一的距离传感器取代传统方法中的摄像机或组合传感器,通过人工训练使机器人具备一定的自主运动能力。不仅降低了成本,而且大大降低了机器人自主运动所需的数据量及数据采集和处理的复杂程度,提高了数据处理速度。
附图说明
图1为基于实例学习的机器人自主运动控制方法流程图;
图2为激光距离传感器距离扫描示意图;
图3为本发明实施例中的机器人及激光距离传感器;
图4为本发明实施例实验环境平面图。
具体实施方式
自主运动机器人主要依靠自身所搭载的距离传感器,通过一定的学习模型和学习算法完成对周围环境的认知,根据认知结果指导自己的动作。由于环境的复杂性和传感器种类多样性和性能的差异性以及学习模型的变化性等因素,使得机器人对于同一环境的认知结果也存在很大的差异性,从而使自主运动的实现变得复杂多样。本发明旨在提出一种可以利用简单的距离传感器以及实例学习方法来实现自主机器人的简单自主运动。
下面结合相关附图及实例对本发明进行更加详细的解释和阐述:
图1是自主运动机器人从数据采集到完成自主运动的流程图,包括以下步骤:
步骤一:选定机器人自主运动的目标环境,对于不同的目标环境要分别进行数据采集工作,并对采集的数据进行自动标记和存储。
步骤二:将机器人位于选定环境中的起点处,检查机器人控制设备及传感器设备连接状态是否正常。
步骤三:打开数据采集系统,选定人工训练方式,选择激光距离传感器所连接的串口标示,开始人工训练过程。通过连接到机器人的键盘控制机器人从起点到终点的人工训练过程,该过程可以重复多次,以增加训练样本和分类的准确性。
步骤四:机器人回到起点或选择人工训练过程路径中的任何一点作为起点。
步骤五:设定自主运动所需参数,选定自主运动方式。重新打开传感器采集开关,开始自主运动过程。
步骤六:实时采集当前传感器数据标记为Y,根据系统提供的K紧邻分类方法以及上述人工遥控过程采集的已标记样本集,对Y进行分类,分类结果指导机器人的自主运动过程。
步骤七:判断是否到达终点位置,未到达,继续重复步骤六;若到达终点,停止运动。
下面给出本发明的一个应用实例。
实验配置如表1所示。
表1机器人自主运动实验配置
实例中所采用的AS-RF机器人及搭载的激光距离传感器如图3所示。
AS_RF机器人主要由两部分构成,运动系统和控制系统。两部分的动力系统是分开单独供电的,控制系统负责向下传递控制信息以及发送运动指令,运动系统主要执行相应的运动指令。
激光距离传感器为HOKUYO公司生产的URG-04LX-UG012D激光扫描测距仪,最远测距范围为5.6m,测量角度为240度,实验中使用的扫描角度为180度。激光扫描密度的参数调整命令格式为:
GetDataByGD(384-L,384+R,θ,MoveCategory)
其中,384代表的为机器人正前方的线,L与R分别代表正前方左右两侧扩展一定角度的线。θ为可变参数,代表每两条探测激光之间的角度值。传感器数据的维度值d根据公式(1)计算。MoveCategory为运动方式控制信息。
如命令GetDataByGD(384-288,384+288,20,MoveCategory)中,L=R=288代表以正前方384为中心线分别向左右扩展90度;G=20代表每两条激光射线之间的角度,传感器数据属性维度值为:[(288+288)/20]=28。MoveCategory为控制系统传递的运动方式控制信息,MoveCategory为1,2,3,4时代表遥控运动中的控制信息,当为-1时代表自主运动方式。
实例所用数据采集及运动控制软件主要采用VC++在Windows XP环境下编写。激光雷达测距仪的通信方式采用多线程串口通信。
Ci代表训练样本所对应的标记类别,是由系统自动标记的。标记方法为:将控制信息与实时所采集的传感器数据进行一一对应,在t时刻控制设备按下控制键Kt,Kt所对应信息为Ct,Ct则作为t时刻所记录样本的标记类别。
遥控过程完成后,要根据采集到的传感器数据建立样本集,用作自主运动阶段新样本分类的训练集。自主运动过程运动指令的产生主要依靠采用一定的分类算法对实时采集的传感器数据进行分类来产生,分类结果与运动指令是一一对应的。
本发明选择在室内环境进行自主运动实验,室内测试环境的平面分布图如图4所示,是一个反方向巨型区域。实验结果如下表2所示:
表2实验测试结果
数据维度 | 测试总次数 | 成功次数 | 失败次数 | 成功率 |
7 | 10 | 7 | 3 | 70% |
10 | 10 | 8 | 2 | 80% |
15 | 10 | 9 | 1 | 90% |
19 | 10 | 9 | 1 | 90% |
由表2可知,数据维度为7时,成功率已达到70%;数据维度提高到15时,成功率提高到90%。实验表明,本发明可以使机器人在仅依靠单一的距离传感器和一定的机器学习算法的情况下可以具备一定的自主运动能力。
Claims (6)
1.基于距离信息和实例学习的机器人自主运动控制方法,其特征在于包括以下步骤:
步骤1,选定作业任务,通过键盘完成串口选择、运动控制参数等系统参数的设定;开始人工训练过程;
步骤2,开启相应线程,激光距离传感器采集数据,并且完成数据的自动标记;
步骤3,重新选择设定运动控制参数,开始自主运动过程;
步骤4,实时采集传感器数据,并且根据实例学习算法及人工训练过程采集的训练数据对新数据进行分类;
步骤5,根据运动信息判断是否到达指定地点,若到达指定地点结束运动;若未到达指定地点,重复执行步骤4。
2.根据权利要求1所述的基于距离信息和实例学习的机器人自主运动控制方法,其特征在于,所述步骤1设定的运动控制参数主要包括传感器设备选择、运动方式、运动速度、运动加速度和控制设备;运动机器人的运动方向设定为传感器数据的分类类别,标记为C=(C1,C2,C3,C4),其中C1代表运动方向为向前运动,C2代表运动方向为向后运动,C3代表运动方向为左转,C4代表运动方向为右转。
3.根据权利要求1所述的基于距离信息和实例学习的机器人自主运动控制方法,其特征在于,所述步骤2传感器采集到的数据按照控制信息的类别自动标记为(A1,A2,……,Ad,Ci),A1,A2,……,Ad为传感器采集到的数据,d为数据维度;Ci为采集到的样本对应的分类类别,i=1,2,3,4;传感器属性值d的计算公式为:
d=[(L+R)/θ]
式中,“[]”表示取整运算;L、R分别为激光距离传感器向左和向右扫描偏离正前方的最大偏角;θ为相邻两条激光射线之间的夹角;L、R和θ的值由激光扫描密度参数调整命令设定。
4.根据权利要求1所述的基于距离信息和实例学习的机器人自主运动控制方法,其特征在于,所述步骤2传感器的采样频率及采样数可通过编写相应函数来控制;对于关键点,比如转弯处,采样频率可设定为较大值,而机器人运动速度则设定为较小值,以确保关键点采样数据的准确性。
5.根据权利要求1所述的基于距离信息和实例学习的机器人自主运动控制方法,其特征在于,所述步骤2多次重复进行,以增加训练样本提高人工训练效果。
6.根据权利要求1所述的基于距离信息和实例学习的机器人自主运动控制方法,其特征在于,所述步骤4实时采集的传感器数据标记为Y(y1,y2,……,yd),采用K近邻方法对以距 离值为属性值的数据进行分类;K为距Y最近的样本点的个数,K的值可通过实验选取;设(ZY1,ZY2,...,ZYK)为选出的距Y最近的K个样本点,Y与第m个样本点之间的距离dYm为:
统计(ZY1,ZY2,...,ZYK)中分别属于(C1,C2,C3,C4)的样本数(n1,n2,n3,n4);Max(n1,n2,n3,n4)所对应的下标即为Y的分类类别,也就是当前时刻控制机器人自主运动要执行的动作指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410056523.8A CN103792943B (zh) | 2014-02-19 | 2014-02-19 | 基于距离信息和实例学习的机器人自主运动控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410056523.8A CN103792943B (zh) | 2014-02-19 | 2014-02-19 | 基于距离信息和实例学习的机器人自主运动控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103792943A true CN103792943A (zh) | 2014-05-14 |
CN103792943B CN103792943B (zh) | 2017-01-11 |
Family
ID=50668727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410056523.8A Expired - Fee Related CN103792943B (zh) | 2014-02-19 | 2014-02-19 | 基于距离信息和实例学习的机器人自主运动控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103792943B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104777839A (zh) * | 2015-04-16 | 2015-07-15 | 北京工业大学 | 基于bp神经网络和距离信息的机器人自主避障方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1380846A (zh) * | 2000-03-31 | 2002-11-20 | 索尼公司 | 机器人设备、控制机器人设备动作的方法、以及外力检测设备和方法 |
KR100433444B1 (ko) * | 2001-11-23 | 2004-05-27 | (주)로보티즈 | 학습에 의한 로보트의 진화 방법 |
CN101612733A (zh) * | 2008-06-25 | 2009-12-30 | 中国科学院自动化研究所 | 一种分布式多传感器移动机器人系统 |
KR100979629B1 (ko) * | 2008-05-19 | 2010-09-01 | 성균관대학교산학협력단 | 센서 데이터 실시간 모폴로지 처리 장치 및 이를 이용한지능형 이동 로봇용 실시간 환경 지도 작성 시스템 및 방법 |
CN202825840U (zh) * | 2012-10-14 | 2013-03-27 | 北京工业大学 | 一种无线网络环境下的视觉化机器人 |
CN103192413A (zh) * | 2012-01-06 | 2013-07-10 | 沈阳新松机器人自动化股份有限公司 | 一种无传感器的机器人碰撞检测保护装置及方法 |
US20130184867A1 (en) * | 2012-01-12 | 2013-07-18 | Samsung Electronics Co., Ltd. | Robot and method to recognize and handle exceptional situations |
US20130343600A1 (en) * | 2012-06-22 | 2013-12-26 | Microsoft Corporation | Self learning face recognition using depth based tracking for database generation and update |
-
2014
- 2014-02-19 CN CN201410056523.8A patent/CN103792943B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1380846A (zh) * | 2000-03-31 | 2002-11-20 | 索尼公司 | 机器人设备、控制机器人设备动作的方法、以及外力检测设备和方法 |
KR100433444B1 (ko) * | 2001-11-23 | 2004-05-27 | (주)로보티즈 | 학습에 의한 로보트의 진화 방법 |
KR100979629B1 (ko) * | 2008-05-19 | 2010-09-01 | 성균관대학교산학협력단 | 센서 데이터 실시간 모폴로지 처리 장치 및 이를 이용한지능형 이동 로봇용 실시간 환경 지도 작성 시스템 및 방법 |
CN101612733A (zh) * | 2008-06-25 | 2009-12-30 | 中国科学院自动化研究所 | 一种分布式多传感器移动机器人系统 |
CN103192413A (zh) * | 2012-01-06 | 2013-07-10 | 沈阳新松机器人自动化股份有限公司 | 一种无传感器的机器人碰撞检测保护装置及方法 |
US20130184867A1 (en) * | 2012-01-12 | 2013-07-18 | Samsung Electronics Co., Ltd. | Robot and method to recognize and handle exceptional situations |
US20130343600A1 (en) * | 2012-06-22 | 2013-12-26 | Microsoft Corporation | Self learning face recognition using depth based tracking for database generation and update |
CN202825840U (zh) * | 2012-10-14 | 2013-03-27 | 北京工业大学 | 一种无线网络环境下的视觉化机器人 |
Non-Patent Citations (2)
Title |
---|
TINGTING LIU 等: "A Laser Radar Based Mobile Robot Localization Method", 《PROCEEDING OF THE IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETICS》, 31 December 2013 (2013-12-31), pages 2511 - 2514, XP032579790, DOI: doi:10.1109/ROBIO.2013.6739849 * |
杨明 等: "基于激光雷达的移动机器人实时位姿估计方法研究", 《自动化学报》, vol. 30, no. 5, 30 September 2004 (2004-09-30), pages 679 - 687 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104777839A (zh) * | 2015-04-16 | 2015-07-15 | 北京工业大学 | 基于bp神经网络和距离信息的机器人自主避障方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103792943B (zh) | 2017-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ruan et al. | Mobile robot navigation based on deep reinforcement learning | |
Wang et al. | Validating USARsim for use in HRI research | |
CN106169188A (zh) | 一种基于蒙特卡洛树搜索的对象跟踪方法 | |
CN108053714A (zh) | 基于输电线路巡检的多旋翼无人机巡视作业仿真培训系统 | |
CN104732835B (zh) | 一种体育场智能缩微车辆教学装置 | |
CN104777839B (zh) | 基于bp神经网络和距离信息的机器人自主避障方法 | |
CN102500094A (zh) | 一种基于kinect的动作训练方法 | |
CN103324937A (zh) | 标注目标的方法和装置 | |
CN108764054A (zh) | 基于生成式对抗网络的机器人书写书法的方法 | |
CN109978012A (zh) | 一种基于结合反馈的改进贝叶斯逆强化学习方法 | |
Li et al. | Oil: Observational imitation learning | |
CN106612495B (zh) | 一种基于传播损耗学习的室内定位方法及系统 | |
Muller et al. | Teaching uavs to race: End-to-end regression of agile controls in simulation | |
CN102156992A (zh) | 两站多目标无源定位与跟踪的智能仿生方法 | |
CN104850120A (zh) | 基于ihdr自主学习框架的轮式移动机器人导航方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
Zhao et al. | Grasp prediction and evaluation of multi-fingered dexterous hands using deep learning | |
CN107621880A (zh) | 一种基于改进头姿估计方法的机器人轮椅交互控制方法 | |
CN104156068A (zh) | 一种基于虚拟手交互特征层模型的虚拟维修交互操作方法 | |
CN108762249B (zh) | 基于近似模型多步优化的清洁机器人最优路径规划方法 | |
CN106127161A (zh) | 基于级联多层检测器的快速目标检测方法 | |
CN104461000A (zh) | 一种基于少量缺失信号的在线连续人体运动识别方法 | |
CN102722716B (zh) | 河蟹单目标行为分析方法 | |
CN112785721A (zh) | 基于LeapMotion手势识别的VR电工电子实验系统设计方法 | |
Zaidi et al. | Athletic mobile manipulator system for robotic wheelchair tennis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170111 Termination date: 20200219 |
|
CF01 | Termination of patent right due to non-payment of annual fee |