CN110315544A - 一种基于视频图像演示的机器人操作学习方法 - Google Patents

一种基于视频图像演示的机器人操作学习方法 Download PDF

Info

Publication number
CN110315544A
CN110315544A CN201910547119.3A CN201910547119A CN110315544A CN 110315544 A CN110315544 A CN 110315544A CN 201910547119 A CN201910547119 A CN 201910547119A CN 110315544 A CN110315544 A CN 110315544A
Authority
CN
China
Prior art keywords
robot
finger
learning
manipulation
learning method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910547119.3A
Other languages
English (en)
Other versions
CN110315544B (zh
Inventor
陈昱
徐国政
高翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201910547119.3A priority Critical patent/CN110315544B/zh
Publication of CN110315544A publication Critical patent/CN110315544A/zh
Application granted granted Critical
Publication of CN110315544B publication Critical patent/CN110315544B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视频图像演示的机器人操作学习方法,包括如下步骤:1、通过搭载在机器人外部三脚架上的Kinect相机,计算机器人基座到跟踪系统的静态变换,实现机器人和相机系统的手眼标定;2、通过控制机器人执行不同的演示任务收集一个演示视频数据集;3、通过3D卷积神经网络获取视频数据中的动作特征;4、将操作学习与未知模型元学习相结合计算出具有泛化能力的机器人操作模仿学习模型;5、通过监控机器人抓取过程中手指的最大电流,感知手指抓取力。本发明实现了机器人能够通过观看视频演示达到学习新任务的能力,并通过机器人指尖电流的变化做到与外界环境进行交互,该方法很好的提高了服务机器人通用性和智能化水平。

Description

一种基于视频图像演示的机器人操作学习方法
技术领域
本发明涉及服务机器人领域,具体涉及一种基于视频图像演示的机器人操作学习方法。
背景技术
目前基于深度学习算法的机器人操作可以通过大量时间和经验从头学习一项复杂的技能,基于大量专家级技巧演示的操作学习,通过原始像素输入实现抓取单个固定对象的任务,需要200次演示才能实现良好的性能。目前深度学习太依赖于大量的数据集和巨量的训练,无法快速学习,使得深度学习的应用受到很大的局限,而对于人而言,在面对新事物的时候,能够根据对物体的描述就能基于以往的经验知识实现对任务的快速学习,这是因为人具有先验知识,会利用自己的先前经验作为基础并与新事物结合起来从而进行快速学习。同样,我们希望机器人在学习了一定量的任务后,在面对新的任务时,只需要少量的样本就能够根据之前的经验快速学习,而不是把新的任务孤立的考虑。因此我们希望建立一个端到端的神经网络来对机器人进行控制,输入视觉传感器捕获的视频图像,输出机器人相应的操作动作,这种机器人具备非常强的适应能力,可以在不同场景中保持工作能力。
这种方法,我们称为元学习或者叫做学会学习,元学习是机器学习中的子领域,它的思想是学会训练的过程,使得我们的系统在它的整个生命周期可以持续地学习各种各样的任务。
发明内容
发明目的:针对现有技术存在的问题,本发明提供了一种基于视频图像演示的机器人操作学习方法,以实现通过监测机器人抓取过程中手指电流的变化估算机器人抓取物体所需施加力的大小,达到仅需通过视频演示即可使机器人学习相关抓取任务,并对被抓取物体有所感知的目的。
技术方案:一种基于视频图像演示的机器人操作学习方法,具体包括如下步骤:
步骤1、通过搭载在机器人外部三脚架上的Kinect相机,计算机器人基座到跟踪系统的静态变换,实现机器人和相机系统的手眼标定;
步骤2、通过控制机器人执行不同的演示任务收集一个演示视频数据集;
步骤3、通过3D卷积神经网络获取视频数据中的动作特征;
步骤4、通过将操作学习与未知模型元学习相结合计算出具有泛化能力的机器人操作模仿学习模型;
步骤5、通过监控机器人抓取过程中手指的最大电流,感知手指抓取力。
进一步的,所述步骤1中,标定板采用Aruco,并将标定板固定在机器人末端,使用ROS系统下Moveit插件和easy_handeye标定包相结合。利用棋格标定板对Kinect相机进行内参标定。
进一步的,所述步骤2中,在ROS系统下,控制机器人在不同环境下完成不同的抓取任务,得到一个可供模型进行训练的数据集。
进一步的,所述步骤3中,通过未知模型元学习中的二次梯度计算出具有泛化能力的深度学习模型。
进一步的,所述步骤5中,通过监控流过手指的最大电流,找到手指施加相应的力,运行程序控制手指缓慢闭合,直到达到电流的阈值;所述阈值根据不同的物体进行改变,达到阈值后,手指停止闭合,然后通过图表找到手指达到最大电流与施加力的大小。
和现有技术相比,本发明具有如下显著进步:通过元学习算法为机器人建立训练模型,减少了大量样本的数据输入,提高了训练效率。增加机器人手指的感知能力,把操作学习与物体感知结合起来。机器人可以通过视频中的演示,学习到新的任务,并对不同物体的抓取施加不同的力,增强了机器人的智能化和通用性。
附图说明
图1为Kinova机器人与Kinect相机可视化标定图;
图2为MAML的训练框图;
图3机器人手抓力与电流的关系。
具体实施方式
一种基于视频图像演示的机器人操作学习方法,包括如下步骤:
步骤1、通过搭载在机器人外部三脚架上的Kinect相机,计算机器人基座到跟踪系统的静态变换,实现机器人和相机系统的手眼校准。
该步骤中,在机器人的末端执行器上附加标记,通过VISP库的手眼校准程序,提供相机姿态估计的解决方案,使用easy_hand_eye包用于机器人的自动移动和位置采样,计算深度相机与机器人的坐标关系,完成机器人与相机之间的手眼标定。
步骤2、通过控制机器人执行不同的演示任务收集一个演示数据集。
该步骤利用ROS系统下的Moveit插件对机器人设定不同的抓取任务,使机器人在不同的环境下完成对不同物体的抓取,同时通过Kinect相机记录机器人完成的抓取任务,作为训练机器人操作模仿学习模型的数据集。
步骤3、通过3D卷积神经网络获取视频数据中的动作特征。
该步骤将S2的视频数据集做预处理,将连续大小为60*40的视频帧图像作为输入,每帧提取5个通道信息,包括灰度、横坐标梯度、纵坐标梯度、X光流、Y光流。通过3D卷积神经网络的多层卷积和降采样,每连续7帧图像就可以获得128维的特征向量,3D卷积神经网络模型中可训练的参数均为随机初始化,结合MAML进行训练。
步骤4、通过将机器人操作学习与未知模型元学习(MAML)相结合计算出具有泛化能力的深度学习模型。
该步骤运用MAML来学习一组初始策略参数θ,以便在某个对象进行演示之后,对演示进行梯度下降以找到一个针对该对象参数θ′的可泛化策略,也就是通过MAML学习训练一个函数f:
at=f(st;g(θ,demo))
其中g使用当前参数和demo对参数进行更新,demo是S2收集的数据集,很自然的,g可以是一个梯度下降过程:
θnew=g(θ,demo)=θ-α*ΔθLoss(demo)
其中demo包含了位置和行为等信息,因此可以通过将行为信息输入到神经网络,得到预测的行为信息,从而与真实的行为信息进行比较得到损失。
步骤5、通过监控机器人抓取过程中手指的最大电流,感知机器人抓取过程中力的大小。
该步骤通过监测Kinova机器人的手指电流的变化,运行程序控制手指慢慢闭合,直到达到电流的阈值,抓取过程中的阈值可以根据不同的物体进行改变,达到阈值后,手指停止闭合,通过电流与抓取力的关系表可以获取抓取过程中力的大小
如图1表示了整个标定过程的可视化图像,通过ROS系统下的TF插件,监测机器人基坐标,机器人末端坐标,Aruco标志物坐标以及Kinect坐标之间的关系。
如图2表示了MAML的整个训练框架,通过3D卷积神经网络模型获取视频中的动作特征信息,将训练参数通过元学习算法,训练出具有泛化能力的参数。
下表为整个元训练过程的算法伪代码,每个训练数据包括元训练和元测试两个部分,与模型无关的元学习算法(MAML)是通过两次梯度下降来完成的。
表1
下面结合附图所示,更加具体地描述前述基于元学习算法的机器人操作学习方法的实现,具体实施方法如下:
S1、利用影像辨识为核心技术的Kinect来获取彩色场景图像,将此视觉传感器搭载到Jaco机器人外部的支架上,为了获取机器人抓取物体的各种任务,需要通过手眼标定获得机器人坐标系与视觉传感器坐标之间的转换关系。具体步骤如下:
S11,运行roscore启动节点管理器,配置环境变量,实现主机器人本体和管理终端的通信。
S12,运行roslaunch kinect2_bridge Kinect_bridge_laubch命令启动kinect节点。
S13,运行roslaunch easy_haneye calibrate.launch命令,运行标定程序。
S14,开始校准过程,在Jaco机器人的末端放置AR标记,并通过Moveit控制机器人移动,整个过程机器人要始终在视觉传感器的视野内,一步一步的改变执行器的位置和方向进行校准。
S15,校准完成后,记录校准参数,进行坐标变换计算。
S2、通过ROS下的Moveit插件对Jaco机器人设定不同的抓取任务,使机器人在不同的环境下完成对不同物体的抓取,将这些抓取视频进行预处理,作为一个演示数据集。
S3、通过3D卷积神经网络获取视频中的动作特征。该步骤数据集做预处理,将连续大小为60*40的视频帧图像作为输入,每连续7帧图像就可以获得128维的特征向量,3D卷积神经网络模型中可训练的参数均为随机初始化,结合MAML进行训练。
S4、通过将机器人操作学习与未知模型元学习(MAML)相结合计算出具有泛化能力的机器人操作学习模型。具体步骤如下:
S41,将预处理过的数据集分为元训练集和元测试集,随机初始化模型的参数。
S42,对训练集中的样本进行随机采样,形成一个batch,进行第一次梯度更新。
S43,利用数据集中的任务和损失更新梯度,第一次梯度更新复制模型,计算出新的参数。
S44,利用第一次梯度更新得到的新参数进行第二次梯度更新,将计算出的梯度通过SGD作用在原模型上。
S5、通过监测机器人手指内部电流对不同抓取物体电流的变化,利用线性函数表征电流与机器人手指施加相应的力。运行程序控制手指慢慢闭合,直到达到电流的阈值。具体步骤如下:
S51,运行roslaunch j2n6s300_bringup kinova_robot.launch命令,启动机器人并建立通信。
S52,运行roslaunch j2n6s300_moveit_config j2n6s300_demo.launch命令启动机械手。
S53,设置电流阈值,在ROS下建立工作空间,创建消息和服务,然后编写消息发布器和订阅器,将设置好电流阈值的节点发布出去,手指控制节点订阅该话题。
S54,运行roslaunch kinova_demo fingers_action_client.py命令,可以通过电流的变化做到对物体抓取时施加相应力的控制。
综上,本发明针对目前的多关节机器人,利用深度学习以及手指感知技术,通过机器人搭载的视觉传感器采集视频中的演示任务,不需要通过编程,仅需要通过观看视频演示,机器人可以通过先前经验快速学习新的任务,并且通过监测机器人指尖的电流变化对不同的抓取物体施加不同的力,使机器人抓取具备非常强大的通用性以及智能性。

Claims (6)

1.一种基于视频图像演示的机器人操作学习方法,其特征在于,包括如下步骤:
步骤1、通过搭载在机器人外部三脚架上的Kinect相机,计算机器人基座到跟踪系统的静态变换,实现机器人和相机系统的手眼标定;
步骤2、通过控制机器人执行不同的演示任务收集一个演示视频数据集;
步骤3、通过3D卷积神经网络获取视频数据中的动作特征;
步骤4、将操作学习与未知模型元学习相结合计算出具有泛化能力的机器人操作模仿学习模型;
步骤5、通过监控机器人抓取过程中手指的最大电流,感知手指抓取力。
2.根据权利要求1所述的机器人操作学习方法,其特征在于:步骤1中,标定板采用Aruco,并将标定板固定在机器人末端,使用ROS系统下Moveit插件和easy_handeye标定包相结合。
3.根据权利要求2所述的机器人操作学习方法,其特征在于:利用棋格标定板对Kinect相机进行内参标定。
4.根据权利要求1所述的机器人操作学习方法,其特征在于:步骤2中,在ROS系统下,控制机器人在不同环境下完成不同的抓取任务,得到一个可供模型进行训练的数据集。
5.根据权利要求1所述的机器人操作学习方法,其特征在于:所述步骤3中,通过未知模型元学习中的二次梯度计算出具有泛化能力的深度学习模型。
6.根据权利要求1所述的机器人操作学习方法,其特征在于:所述步骤5中,通过监控流过手指的最大电流,找到手指施加相应的力,运行程序控制手指缓慢闭合,直到达到电流的阈值;所述阈值根据不同的物体进行改变,达到阈值后,手指停止闭合,然后通过图表找到手指达到最大电流与施加力的大小。
CN201910547119.3A 2019-06-24 2019-06-24 一种基于视频图像演示的机器人操作学习方法 Active CN110315544B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910547119.3A CN110315544B (zh) 2019-06-24 2019-06-24 一种基于视频图像演示的机器人操作学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910547119.3A CN110315544B (zh) 2019-06-24 2019-06-24 一种基于视频图像演示的机器人操作学习方法

Publications (2)

Publication Number Publication Date
CN110315544A true CN110315544A (zh) 2019-10-11
CN110315544B CN110315544B (zh) 2022-10-14

Family

ID=68120197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910547119.3A Active CN110315544B (zh) 2019-06-24 2019-06-24 一种基于视频图像演示的机器人操作学习方法

Country Status (1)

Country Link
CN (1) CN110315544B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111037557A (zh) * 2019-12-20 2020-04-21 扬州哈工科创机器人研究院有限公司 用于机械臂led显示演绎的系统和控制系统
CN111890357A (zh) * 2020-07-01 2020-11-06 广州中国科学院先进技术研究所 一种基于动作演示示教的智能机器人抓取方法
CN112684794A (zh) * 2020-12-07 2021-04-20 杭州未名信科科技有限公司 基于元强化学习的足式机器人运动控制方法、装置及介质
CN113616436A (zh) * 2021-08-23 2021-11-09 南京邮电大学 一种基于运动想象脑电与头姿的智能轮椅及控制方法
CN114800530A (zh) * 2022-06-09 2022-07-29 中国科学技术大学 基于视觉的机器人的控制方法、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105243401A (zh) * 2015-11-10 2016-01-13 中国矿业大学(北京) 基于煤岩结构元学习的煤岩识别方法
CN106444738A (zh) * 2016-05-24 2017-02-22 武汉科技大学 基于动态运动基元学习模型的移动机器人路径规划方法
CN107123106A (zh) * 2016-02-25 2017-09-01 发那科株式会社 显示从输入图像检测到的对象物的图像处理装置
WO2018236753A1 (en) * 2017-06-19 2018-12-27 Google Llc PREDICTION OF ROBOTIC SEIZURE USING NEURAL NETWORKS AND A GEOMETRY-SENSITIVE REPRESENTATION OF OBJECT
CN109571487A (zh) * 2018-09-12 2019-04-05 河南工程学院 一种基于视觉的机器人演示学习方法
CN109871011A (zh) * 2019-01-15 2019-06-11 哈尔滨工业大学(深圳) 一种基于预处理层与深度强化学习的机器人导航方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105243401A (zh) * 2015-11-10 2016-01-13 中国矿业大学(北京) 基于煤岩结构元学习的煤岩识别方法
CN107123106A (zh) * 2016-02-25 2017-09-01 发那科株式会社 显示从输入图像检测到的对象物的图像处理装置
CN106444738A (zh) * 2016-05-24 2017-02-22 武汉科技大学 基于动态运动基元学习模型的移动机器人路径规划方法
WO2018236753A1 (en) * 2017-06-19 2018-12-27 Google Llc PREDICTION OF ROBOTIC SEIZURE USING NEURAL NETWORKS AND A GEOMETRY-SENSITIVE REPRESENTATION OF OBJECT
CN109571487A (zh) * 2018-09-12 2019-04-05 河南工程学院 一种基于视觉的机器人演示学习方法
CN109871011A (zh) * 2019-01-15 2019-06-11 哈尔滨工业大学(深圳) 一种基于预处理层与深度强化学习的机器人导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡玮: "基于元学习的深度网络目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111037557A (zh) * 2019-12-20 2020-04-21 扬州哈工科创机器人研究院有限公司 用于机械臂led显示演绎的系统和控制系统
CN111037557B (zh) * 2019-12-20 2022-07-22 扬州哈工科创机器人研究院有限公司 用于机械臂led显示演绎的系统和控制系统
CN111890357A (zh) * 2020-07-01 2020-11-06 广州中国科学院先进技术研究所 一种基于动作演示示教的智能机器人抓取方法
CN111890357B (zh) * 2020-07-01 2023-07-04 广州中国科学院先进技术研究所 一种基于动作演示示教的智能机器人抓取方法
CN112684794A (zh) * 2020-12-07 2021-04-20 杭州未名信科科技有限公司 基于元强化学习的足式机器人运动控制方法、装置及介质
CN113616436A (zh) * 2021-08-23 2021-11-09 南京邮电大学 一种基于运动想象脑电与头姿的智能轮椅及控制方法
CN113616436B (zh) * 2021-08-23 2024-01-16 南京邮电大学 一种基于运动想象脑电与头姿的智能轮椅及控制方法
CN114800530A (zh) * 2022-06-09 2022-07-29 中国科学技术大学 基于视觉的机器人的控制方法、设备及存储介质
CN114800530B (zh) * 2022-06-09 2023-11-28 中国科学技术大学 基于视觉的机器人的控制方法、设备及存储介质

Also Published As

Publication number Publication date
CN110315544B (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
CN110315544A (zh) 一种基于视频图像演示的机器人操作学习方法
CN106737673B (zh) 一种基于深度学习的端到端的机械臂控制的方法
US20210205988A1 (en) Task embedding for device control
CN108983979A (zh) 一种手势跟踪识别方法、装置和智能设备
DE102013203381A1 (de) Verfahren und system zum trainieren eines roboters unter verwendung einer von menschen unterstützten aufgabendemonstration
You et al. A low-cost internet-based telerobotic system for access to remote laboratories
Liang et al. Using dVRK teleoperation to facilitate deep learning of automation tasks for an industrial robot
CN113103230A (zh) 一种基于处置机器人遥操作的人机交互系统及方法
CN111152227A (zh) 一种基于引导式dqn控制的机械臂控制方法
Szczurek et al. Multimodal multi-user mixed reality human–robot interface for remote operations in hazardous environments
Inoue et al. Transfer learning from synthetic to real images using variational autoencoders for robotic applications
CN113408443B (zh) 基于多视角图像的手势姿态预测方法及系统
Wang et al. The design of an augmented reality system for urban search and rescue
CN109800661A (zh) 一种道路识别模型训练方法、道路识别方法及装置
CN109079777A (zh) 一种机械臂手眼协调作业系统
Ogawara et al. Acquiring hand-action models in task and behavior levels by a learning robot through observing human demonstrations
CN117237414A (zh) 移动机器人平台下基于双目图像的抓取引导方法及系统
Fung et al. A case study of 3D stereoscopic vs. 2D monoscopic tele-reality in real-time dexterous teleoperation
Jagersand Image based predictive display for tele-manipulation
CN117916773A (zh) 用于在移动设备中同时重建姿态和参数化3d人体模型的方法和系统
Podpora et al. Extending vision understanding capabilities of NAO robot by connecting it to a remote computational resource
CN111702759A (zh) 示教系统及机器人的示教方法
CN103862477A (zh) 一种自主抓物机械手的上位机控制方法
Ebrahimzadeh et al. Trace-Driven Haptic Traffic Characterization for Tactile Internet Performance Evaluation
Ikoma et al. Virtual Reality Implementation of Steering Hands Motion in Driving Simulator with Unity Technology

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant