CN109910018B - 具有视觉语义感知的机器人虚实交互操作执行系统及方法 - Google Patents

具有视觉语义感知的机器人虚实交互操作执行系统及方法 Download PDF

Info

Publication number
CN109910018B
CN109910018B CN201910343004.2A CN201910343004A CN109910018B CN 109910018 B CN109910018 B CN 109910018B CN 201910343004 A CN201910343004 A CN 201910343004A CN 109910018 B CN109910018 B CN 109910018B
Authority
CN
China
Prior art keywords
simulation
mechanical arm
real
environment
grabbing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910343004.2A
Other languages
English (en)
Other versions
CN109910018A (zh
Inventor
刘辛军
叶彦雷
李鹏
谢福贵
于超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yantai Qingkejia Robot Joint Research Institute Co ltd
Tsinghua University
Original Assignee
Yantai Qingkejia Robot Joint Research Institute Co ltd
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yantai Qingkejia Robot Joint Research Institute Co ltd, Tsinghua University filed Critical Yantai Qingkejia Robot Joint Research Institute Co ltd
Priority to CN201910343004.2A priority Critical patent/CN109910018B/zh
Publication of CN109910018A publication Critical patent/CN109910018A/zh
Application granted granted Critical
Publication of CN109910018B publication Critical patent/CN109910018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

本发明公开了一种具有视觉语义感知的机器人虚实交互操作执行系统及方法,其中,该系统包括:构建组件用于构建真实环境或仿真环境确定相应的神经网络参数模型;视觉语义感知组件用于根据神经网络参数模型确定待抓取物体的感兴趣区域,以计算抓取感兴趣区域的目标点位信息;规划组件用于根据目标点位信息对待抓取物体进行避障和轨迹规划,确定抓取执行操作命令;执行组件用于根据抓取执行操作命令控制真实机械臂或仿真机械臂的动作,完成抓取操作命令。该系统可用于机器人系统的快速原型开发,算法测试,精确的室内室外环境仿真,有效可靠的性能评估,以及直观可视化的交互显示。

Description

具有视觉语义感知的机器人虚实交互操作执行系统及方法
技术领域
本发明涉及机器人虚实交互操作执行技术领域,特别涉及一种具有视觉语义感知的机器人虚实交互操作执行系统及方法。
背景技术
相关技术中,对于机器人操作智能的实现主要有两种手段:
(1)在虚拟环境下控制仿真机器人,采集虚拟信号,观测状态信息,实现AI算法构建、参数优化、运动学/动力学仿真。
但往往在虚拟环境下进行机器人操作仿真训练,仿真情况下的模拟很难全面的反应真实系统的运行状况,造成结果往往不够精确。
(2)在真实环境下控制实际机器人,采集实际信号,观测状态信息,构建AI学习决策和视觉识别系统。
在真实环境下进行机器人操作训练,存在的问题是工作灵活性差、成本高、硬件装置易损坏、执行频次低。
因此,提出了具有视觉语义感知的机器人虚实交互操作执行系统,来加速智能机器人决策和控制系统研究,解决机器人虚实交互和视觉语义感知的问题是十分必要的。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种具有视觉语义感知的机器人虚实交互操作执行系统。
本发明的另一个目的在于提出一种具有视觉语义感知的机器人虚实交互操作执行方法。
为达到上述目的,本发明一方面提出了具有视觉语义感知的机器人虚实交互操作执行系统,包括:构建组件,用于构建真实环境或仿真环境确定相应的神经网络参数模型;视觉语义感知组件,用于根据所述神经网络参数模型确定待抓取物体的感兴趣区域,以计算抓取所述感兴趣区域的目标点位信息;规划组件,用于根据所述目标点位信息对所述待抓取物体进行避障和轨迹规划,确定抓取执行操作命令;执行组件,用于根据所述抓取执行操作命令控制真实机械臂或仿真机械臂的动作,完成抓取操作命令。
本发明实施例的具有视觉语义感知的机器人虚实交互操作执行系统,构建了虚实交互的场景,快速、高效、精确的训练AI学习决策系统和视觉语义识别系统,能够用于机器人系统的快速原型开发,算法测试,精确的室内室外环境仿真,有效可靠的性能评估,以及直观可视化的交互显示。
另外,根据本发明上述实施例的具有视觉语义感知的机器人虚实交互操作执行系统还可以具有以下附加的技术特征:
可选地,在本发明的一个实施例中,若选择仿真操作,则所述构建组件通过对环境、视觉相机和机械臂进行仿真,以构建所述仿真环境。
进一步地,在本发明的一个实施例中,所述视觉语义感知组件包括:标注工具,用于对所述待操作物体标注物体类别,为神经网络训练提供训练集;视觉神经网络构架,用于训练所述训练集,获得所述感兴趣区域,并用矩形框得到所述待感兴趣区域所在的区域;双目相机,若在所述仿真环境下,则用于读取相机基坐标系在三维空间中的位姿,并利用自带的算例读取深度信息,若在所述真实环境下,则用于标定内外参数,并利用自带的算例读取深度信息;图像处理工具,用于通过所述矩形框获得所述待操作对象中心点的像素和相对X轴的夹角,再通过双目视觉的基本算法计算出所述机基坐标系下所述待操作对象的位置;处理组件,用于通过所述待操作对象中心点的像素计算出所述矩形框的大小,从而计算出夹爪需要开合的大小。
进一步地,在本发明的一个实施例中,所述目标点位信息包括:通过所述图像处理工具计算出的抓取位姿和通过所述待操作对象中心点的像素确定的夹爪开合大小。
进一步地,在本发明的一个实施例中,所述执行组件包括:关节轨迹控制器,用于根据所述避障和轨迹规划输出连续关节轨迹的位置、速度和力矩;驱动器,用于根据所述关节轨迹控制器输出的数据控制所述真实机械臂或仿真机械臂的动作,执行抓取任务。
为达到上述目的,本发明另一方面提出了一种具有视觉语义感知的机器人虚实交互操作执行方法,包括以下步骤:步骤S1,构建真实环境或仿真环境确定相应的神经网络参数模型;步骤S2,根据所述神经网络参数模型确定待抓取物体的感兴趣区域,以计算抓取所述感兴趣区域的目标点位信息;步骤S3,根据所述目标点位信息对所述待抓取物体进行避障和轨迹规划,确定抓取执行操作命令;步骤S4,根据所述抓取执行操作命令控制真实机械臂或仿真机械臂的动作,完成抓取操作命令。
本发明实施例的具有视觉语义感知的机器人虚实交互操作执行方法,构建了虚实交互的场景,快速、高效、精确的训练AI学习决策系统和视觉语义识别系统,能够用于机器人系统的快速原型开发,算法测试,精确的室内室外环境仿真,有效可靠的性能评估,以及直观可视化的交互显示。
另外,根据本发明上述实施例的具有视觉语义感知的机器人虚实交互操作执行方法还可以具有以下附加的技术特征:
可选地,在本发明的一个实施例中,若选择仿真操作,所述步骤S1则通过对环境、视觉相机和机械臂进行仿真,以构建所述仿真环境。
进一步地,在本发明的一个实施例中,所述步骤S2进一步包括:步骤S201,对所述待操作物体标注物体类别,为神经网络训练提供训练集;步骤S202,利用视觉神经网络框架训练所述训练集,获得所述感兴趣区域,并用矩形框得到所述待感兴趣区域所在的区域;步骤S203,若在所述仿真环境下,则用于读取相机基坐标系在三维空间中的位姿,并利用自带的算例读取深度信息,若在所述真实环境下,则用于标定内外参数,并利用自带的算例读取深度信息;步骤S204,通过所述矩形框获得所述待操作对象中心点的像素和相对X轴的夹角,再通过双目视觉的基本算法计算出所述机基坐标系下所述待操作对象的位置;步骤S205,通过所述待操作对象中心点的像素计算出所述矩形框的大小,从而计算出夹爪需要开合的大小。
进一步地,在本发明的一个实施例中,所述目标点位信息包括:通过所述图像处理工具计算出的抓取位姿和通过所述待操作对象中心点的像素确定的夹爪开合大小。
进一步地,在本发明的一个实施例中,所述步骤S4进一步包括:步骤S401,根据所述避障和轨迹规划输出连续关节轨迹的位置、速度和力矩;步骤S402,根据所述关节轨迹控制器输出的数据控制所述真实机械臂或机械臂的动作,执行抓取任务。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的具有视觉语义感知的机器人虚实交互操作执行系统结构示意图;
图2为根据本发明实施例中视觉语义感知组件执行流程图;
图3为根据本发明实施例的虚实交互系统执行流程图;
图4为根据本发明实施例的具有视觉语义感知的机器人虚实交互操作执行方法流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的具有视觉语义感知的机器人虚实交互操作执行系统及方法,首先将参照附图描述根据本发明实施例提出的具有视觉语义感知的机器人虚实交互操作执行系统。
图1是本发明一个实施例的具有视觉语义感知的机器人虚实交互操作执行系统结构示意图。
如图1所示,该具有视觉语义感知的机器人虚实交互操作执行系统10包括:构建组件1、视觉语义感知组件2、规划组件3和执行组件4。
其中,构建组件1用于构建真实环境或仿真环境确定相应的神经网络参数模型。
进一步地,在本发明的一个实施例中,若选择仿真操作,则构建组件通过对环境、视觉相机和机械臂进行仿真,以构建仿真环境。
具体地,如果选择仿真,需要加载仿真物理模型(通过Gazebo插件),包括仿真环境、传感器(视觉相机)、模型(机械臂),也可以通过其它仿真物理软件(如V-rep)构建仿真环境,其中仿真模型可以通过Solidworks等三维软件生成URDF文件模型。
视觉语义感知组件2用于根据神经网络参数模型确定待抓取物体的感兴趣区域,以计算抓取感兴趣区域的目标点位信息。
进一步地,本发明实施例的视觉语义感知组件2包括:标注工具201用于对待操作物体标注物体类别,为神经网络训练提供训练集。视觉神经网络构架202用于训练训练集,获得感兴趣区域,并用矩形框得到待感兴趣区域所在的区域。双目相机203若在仿真环境下,则用于读取相机基坐标系在三维空间中的位姿,并利用自带的算例读取深度信息,若在真实环境下,则用于标定内外参数,并利用自带的算例读取深度信息。图像处理工具204用于通过矩形框获得待操作对象中心点的像素和相对X轴的夹角,再通过双目视觉的基本算法计算出机基坐标系下待操作对象的位置。处理组件205用于通过待操作对象中心点的像素计算出矩形框的大小,从而计算出夹爪需要开合的大小。
具体而言,如图2所示,本发明实施例的视觉语义感知组件2是在仿真和真实环境下构建基于深度学习的视觉语义感知系统,其具体执行过程为:
(1)开始操作,系统初始化;
(2)选择仿真物理环境或者真实的物理环境;
(3)收集不同环境下(包括离散、堆叠、光线变化、不同放置位置)的物体图片;
(4)采用标注工具(如LableMe、VGG Image Annotator、COCO UI)进行标注物体类别,为神经网络训练提供训练集;
(5)利用视觉神经网络构架(Mask-RCNN,YOLOv3,SSD等),训练数据集。获得感兴趣的区域,用矩形框或者Mask得到期望物体所在的区域;
(6)标定双目相机,在仿真环境下,可以直接读取到相机基坐标系在三维空间中的位姿。在真实环境下,用棋盘格(如Kinect的标定)或用自带的软件(RealSenseD435)标定内外参数。采用自带的算例读出深度信息;
(7)采用OpenCV处理感兴趣的区域,如通过最小矩形框,获得物体中心点的像素和相对X轴的夹角,接着通过双目视觉的基本算法计算出在相机坐标系下物体的位置,再通过坐标变换转换到基坐标系下;
(8)通过像素点计算出矩形框的大小,从而计算出夹爪需要开合的大小;
(9)将视觉感知处理得到的结果,通过消息的方式将目标点位信息传递给抓取执行操作的节点。
规划组件3用于根据目标点位信息对待抓取物体进行避障和轨迹规划,确定抓取执行操作命令。
可以理解的是,目标点位信息包括:通过图像处理工具计算出的抓取位姿和通过待操作对象中心点的像素确定的夹爪开合大小。
执行组件4用于根据抓取执行操作命令控制真实机械臂或仿真机械臂的动作,完成抓取操作命令。
进一步地,在本发明的一个实施例中,执行组件4包括:关节轨迹控制器401用于根据避障和轨迹规划输出连续关节轨迹的位置、速度和力矩。驱动器402用于根据关节轨迹控制器输出的数据控制真实机械臂或仿真机械臂的动作,执行抓取任务。
综上,如图3所示,本发明实施例的执行系统的具体实施过程为:
(1)开始操作,系统初始化;
(2)选择仿真或者实物操作;
(3)如果选择仿真,需要加载仿真物理模型(通过Gazebo插件),包括仿真环境、传感器(视觉相机)、模型(机械臂),也可以通过其它仿真物理软件(如V-rep)构建仿真环境,其中仿真模型可以通过Solidworks等三维软件生成URDF文件模型;
(4)构建好环境后,执行设定好的任务,可以通过编写C++/Python节点文件实现;
(5)加载视觉神经网络,依据仿真或实物的选择,确定相应的神经网络参数模型;
(6)通过神经网络给出的结果,判断是否有待操作的任务或者待抓取的对象,如果结果为无,回到执行任务,如果有待抓取物体或操作物体,执行下一步操作任务;
(7)识别到有待操作对象后,通过OpenCV等图像处理工具计算抓取的位姿,以及通过像素点去确定操作器开合的大小;
(8)将目标点位信息通过消息的方式传递给包含MoveIT!的节点,在MoveIT!中进行避障和轨迹规划,通过JointTrajectoryController(如effort_controllers/JointTrajectoryController)输出连续关节轨迹的位置、速度、力矩;
(9)将信号传输到关节轨迹控制器(通过Controller_manager插件实现),通过硬件接口层发送命令给驱动器;
(10)控制仿真机械臂或真实机械臂的动作到相应位置,执行操作任务,一次抓取操作任务完成。
(11)判断总体任务是否完成,如果没有则会跳转到执行任务,继续任务,如果判断完成,则回到设定的初始位置,结束任务。
也就是说,本发明实施例构建了一种基于ROS-Gazebo-MoveIT!的机器人虚实交互平台,用于快速原型的开发,以及训练AI模型,其中,基于ROS(Robot Operating System)系统构架搭建机械臂的软件构架,基于Gazebo物理仿真引擎实现仿真环境、仿真机械臂和仿真视觉,基于MoveIT!实现机器人碰撞检测、避障和路径规划,基于Controller_manager插件实现机器人关节空间的规划和仿真机械臂或真实机械臂的接连。
根据本发明实施例提出的具有视觉语义感知的机器人虚实交互操作执行系统,建立了机器人虚实交互平台,可用于快速原型开发、算法测试、精确的室内室外环境仿真、有效可靠的性能评估、直观可视化的交互显示以及训练AI决策和控制系统,还构建了基于深度学习的视觉语义感知系统,识别和感知物体的类别、尺寸、位置,能够稳定、灵巧、快速的实现物体抓取、操作和执行等任务。
其次参照附图描述根据本发明实施例提出的具有视觉语义感知的机器人虚实交互操作执行方法。
图4是本发明一个实施例的具有视觉语义感知的机器人虚实交互操作执行方法流程图。
如图4所示,该具有视觉语义感知的机器人虚实交互操作执行方法包括以下步骤:
在步骤S1中,构建真实环境或仿真环境确定相应的神经网络参数模型。
其中,若选择仿真操作,步骤S1则通过对环境、视觉相机和机械臂进行仿真,以构建仿真环境。
在步骤S2中,根据神经网络参数模型确定待抓取物体的感兴趣区域,以计算抓取感兴趣区域的目标点位信息。
进一步地,在本发明的一个实施例中,步骤S2进一步包括:步骤S201,对待操作物体标注物体类别,为神经网络训练提供训练集;步骤S202,利用视觉神经网络框架训练训练集,获得感兴趣区域,并用矩形框得到待感兴趣区域所在的区域;步骤S203,若在仿真环境下,则用于读取相机基坐标系在三维空间中的位姿,并利用自带的算例读取深度信息,若在真实环境下,则用于标定内外参数,并利用自带的算例读取深度信息;步骤S204,通过矩形框获得待操作对象中心点的像素和相对X轴的夹角,再通过双目视觉的基本算法计算出机基坐标系下待操作对象的位置;步骤S205,通过待操作对象中心点的像素计算出矩形框的大小,从而计算出夹爪需要开合的大小。
在步骤S3中,根据目标点位信息对待抓取物体进行避障和轨迹规划,确定抓取执行操作命令。
其中,在本发明实施例中的目标点位信息包括:通过图像处理工具计算出的抓取位姿和通过待操作对象中心点的像素确定的夹爪开合大小。
在步骤S4中,根据抓取执行操作命令控制真实机械臂或仿真机械臂的动作,完成抓取操作命令。
具体而言,步骤S4进一步包括:步骤S401,根据避障和轨迹规划输出连续关节轨迹的位置、速度和力矩;步骤S402,根据关节轨迹控制器输出的数据控制真实机械臂或仿真机械臂的动作,执行抓取任务。
需要说明的是,前述对具有视觉语义感知的机器人虚实交互操作执行系统实施例的解释说明也适用于该方法,此处不再赘述。
根据本发明实施例提出的具有视觉语义感知的机器人虚实交互操作执行方法,建立了机器人虚实交互平台,可用于快速原型开发、算法测试、精确的室内室外环境仿真、有效可靠的性能评估、直观可视化的交互显示以及训练AI决策和控制系统,还构建了基于深度学习的视觉语义感知系统,识别和感知物体的类别、尺寸、位置,能够稳定、灵巧、快速的实现物体抓取、操作和执行等任务。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (4)

1.一种具有视觉语义感知的机器人虚实交互操作执行系统,其特征在于,包括:
构建组件,用于构建真实环境或仿真环境确定相应的神经网络参数模型;
视觉语义感知组件,用于根据所述神经网络参数模型确定待抓取物体的感兴趣区域,以计算抓取所述感兴趣区域的目标点位信息;
规划组件,用于根据所述目标点位信息对所述待抓取物体进行避障和轨迹规划,确定抓取执行操作命令;以及
执行组件,用于根据所述抓取执行操作命令控制真实机械臂或仿真机械臂的动作,完成抓取操作命令;
所述视觉语义感知组件包括:
标注工具,用于对待操作物体标注物体类别,为神经网络训练提供训练集;
视觉神经网络构架,用于训练所述训练集,获得所述感兴趣区域,并用矩形框得到所述感兴趣区域所在的区域;
双目相机,若在所述仿真环境下,则用于读取相机基坐标系在三维空间中的位姿,并利用自带的算例读取深度信息,若在所述真实环境下,则用于标定内外参数,并利用自带的算例读取深度信息;
图像处理工具,用于通过所述矩形框获得待操作对象中心点的像素和相对X轴的夹角,再通过双目视觉的基本算法计算出基坐标系下所述待操作对象的位置;
处理组件,用于通过所述待操作对象中心点的像素计算出所述矩形框的大小,从而计算出夹爪需要开合的大小;
所述执行组件包括:
关节轨迹控制器,用于根据所述避障和轨迹规划输出连续关节轨迹的位置、速度和力矩;
驱动器,用于根据硬件接口层发送的所述关节轨迹控制器输出的数据控制所述真实机械臂或仿真机械臂的动作,执行抓取任务,一次抓取操作任务完成;
所述系统还用于:
判断总体任务是否完成,如果没有则跳转到执行任务,继续任务,如果判断完成,则回到设定的初始位置,结束任务;
所述系统还用于:
若选择仿真操作,则所述构建组件通过对环境、视觉相机和机械臂进行仿真,以构建所述仿真环境,其中,基于ROS系统构架搭建所述仿真机械臂与所述真实机械臂的软件构架,基于Gazebo物理仿真引擎实现仿真环境、仿真机械臂和仿真视觉,基于MoveIT!实现机器人碰撞检测、避障和路径规划,基于Controller_manager插件实现机器人关节空间的规划和所述仿真机械臂或所述真实机械臂的接连。
2.根据权利要求1所述的具有视觉语义感知的机器人虚实交互操作执行系统,其特征在于,所述目标点位信息包括:通过所述图像处理工具计算出的抓取位姿和通过所述待操作对象中心点的像素确定的夹爪开合大小。
3.一种具有视觉语义感知的机器人虚实交互操作执行方法,其特征在于,包括以下步骤:
步骤S1,构建真实环境或仿真环境确定相应的神经网络参数模型;
步骤S2,根据所述神经网络参数模型确定待抓取物体的感兴趣区域,以计算抓取所述感兴趣区域的目标点位信息;
步骤S3,根据所述目标点位信息对所述待抓取物体进行避障和轨迹规划,确定抓取执行操作命令;以及
步骤S4,根据所述抓取执行操作命令控制真实机械臂或仿真机械臂的动作,完成抓取操作命令;
所述步骤S2进一步包括:
步骤S201,对待操作物体标注物体类别,为神经网络训练提供训练集;
步骤S202,利用视觉神经网络框架训练所述训练集,获得所述感兴趣区域,并用矩形框得到所述感兴趣区域所在的区域;
步骤S203,若在所述仿真环境下,则用于读取相机基坐标系在三维空间中的位姿,并利用自带的算例读取深度信息,若在所述真实环境下,则用于标定内外参数,并利用自带的算例读取深度信息;
步骤S204,通过所述矩形框获得待操作对象中心点的像素和相对X轴的夹角,再通过双目视觉的基本算法计算出基坐标系下所述待操作对象的位置;以及
步骤S205,通过所述待操作对象中心点的像素计算出所述矩形框的大小,从而计算出夹爪需要开合的大小;
所述步骤S4进一步包括:
步骤S401,根据所述避障和轨迹规划输出连续关节轨迹的位置、速度和力矩;
步骤S402,根据硬件接口层发送的关节轨迹控制器输出的数据控制所述真实机械臂或仿真机械臂的动作,执行抓取任务,一次抓取操作任务完成;
所述方法,还包括:
判断总体任务是否完成,如果没有则跳转到执行任务,继续任务,如果判断完成,则回到设定的初始位置,结束任务;
所述步骤S1进一步包括:
若选择仿真操作,则构建组件通过对环境、视觉相机和机械臂进行仿真,以构建所述仿真环境,其中,基于ROS系统构架搭建所述仿真机械臂与所述真实机械臂的软件构架,基于Gazebo物理仿真引擎实现仿真环境、仿真机械臂和仿真视觉,基于MoveIT!实现机器人碰撞检测、避障和路径规划,基于Controller_manager插件实现机器人关节空间的规划和所述仿真机械臂或所述真实机械臂的接连。
4.根据权利要求3所述的具有视觉语义感知的机器人虚实交互操作执行方法,其特征在于,所述目标点位信息包括:通过图像处理工具计算出的抓取位姿和通过所述待操作对象中心点的像素确定的夹爪开合大小。
CN201910343004.2A 2019-04-26 2019-04-26 具有视觉语义感知的机器人虚实交互操作执行系统及方法 Active CN109910018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910343004.2A CN109910018B (zh) 2019-04-26 2019-04-26 具有视觉语义感知的机器人虚实交互操作执行系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910343004.2A CN109910018B (zh) 2019-04-26 2019-04-26 具有视觉语义感知的机器人虚实交互操作执行系统及方法

Publications (2)

Publication Number Publication Date
CN109910018A CN109910018A (zh) 2019-06-21
CN109910018B true CN109910018B (zh) 2024-01-30

Family

ID=66978692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910343004.2A Active CN109910018B (zh) 2019-04-26 2019-04-26 具有视觉语义感知的机器人虚实交互操作执行系统及方法

Country Status (1)

Country Link
CN (1) CN109910018B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111823277A (zh) * 2020-07-24 2020-10-27 上海大学 一种基于机器视觉的物体抓取平台及方法
CN112338920B (zh) * 2020-11-04 2022-04-15 中国联合网络通信集团有限公司 数据处理方法、装置及设备
CN112667823B (zh) * 2020-12-24 2022-11-01 西安电子科技大学 一种机械臂任务执行序列的语义解析方法、系统及计算机可读介质
CN112750167B (zh) * 2020-12-30 2022-11-04 燕山大学 基于虚拟现实的机器人视觉定位仿真方法及其仿真装置
CN114419065B (zh) * 2022-01-13 2023-06-02 如你所视(北京)科技有限公司 建筑物涂刷方法和装置、计算机可读存储介质
CN116184892B (zh) * 2023-01-19 2024-02-06 盐城工学院 一种机器人取物的ai识别控制方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103680279A (zh) * 2013-12-31 2014-03-26 广州赛宝联睿信息科技有限公司 膀胱镜手术模拟训练方法及系统
CN104067781A (zh) * 2014-06-16 2014-10-01 华南农业大学 基于虚拟机器人与真实机器人集成的采摘系统及方法
CN107671857A (zh) * 2017-10-11 2018-02-09 上海交通大学 用于服务机器人操作演示与算法验证的三维仿真平台
CN108537875A (zh) * 2017-03-03 2018-09-14 株式会社基恩士 机器人仿真设备和机器人仿真方法
CN109213147A (zh) * 2018-08-01 2019-01-15 上海交通大学 一种基于深度学习的机器人避障轨迹规划方法及系统
CN109483526A (zh) * 2017-09-13 2019-03-19 北京猎户星空科技有限公司 虚拟环境和真实环境下机械臂的控制方法和系统
CN109483534A (zh) * 2018-11-08 2019-03-19 腾讯科技(深圳)有限公司 一种物体抓取方法、装置和系统
CN109483554A (zh) * 2019-01-22 2019-03-19 清华大学 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN210115917U (zh) * 2019-04-26 2020-02-28 清华大学 具有视觉语义感知的机器人虚实交互操作执行系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103680279A (zh) * 2013-12-31 2014-03-26 广州赛宝联睿信息科技有限公司 膀胱镜手术模拟训练方法及系统
CN104067781A (zh) * 2014-06-16 2014-10-01 华南农业大学 基于虚拟机器人与真实机器人集成的采摘系统及方法
CN108537875A (zh) * 2017-03-03 2018-09-14 株式会社基恩士 机器人仿真设备和机器人仿真方法
CN109483526A (zh) * 2017-09-13 2019-03-19 北京猎户星空科技有限公司 虚拟环境和真实环境下机械臂的控制方法和系统
CN107671857A (zh) * 2017-10-11 2018-02-09 上海交通大学 用于服务机器人操作演示与算法验证的三维仿真平台
CN109213147A (zh) * 2018-08-01 2019-01-15 上海交通大学 一种基于深度学习的机器人避障轨迹规划方法及系统
CN109483534A (zh) * 2018-11-08 2019-03-19 腾讯科技(深圳)有限公司 一种物体抓取方法、装置和系统
CN109483554A (zh) * 2019-01-22 2019-03-19 清华大学 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN210115917U (zh) * 2019-04-26 2020-02-28 清华大学 具有视觉语义感知的机器人虚实交互操作执行系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
阮海波,郑跃军..基于VR的变电站智能巡检场景研究分析.《科技创新与应用》.2017,(第03期),全文. *

Also Published As

Publication number Publication date
CN109910018A (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN109910018B (zh) 具有视觉语义感知的机器人虚实交互操作执行系统及方法
US11701773B2 (en) Viewpoint invariant visual servoing of robot end effector using recurrent neural network
Mousavian et al. Visual representations for semantic target driven navigation
US9387589B2 (en) Visual debugging of robotic tasks
US20210205988A1 (en) Task embedding for device control
CN109397285B (zh) 一种装配方法、装配装置及装配设备
JP2013193202A (ja) 人間援助型タスクデモンストレーションを使用してロボットを訓練するための方法およびシステム
US20220355483A1 (en) Methods and Systems for Graphical User Interfaces to Control Remotely Located Robots
US11823048B1 (en) Generating simulated training examples for training of machine learning model used for robot control
JP2020508888A (ja) ロボットが技能を学習し実行するシステム、装置及び方法
CN210115917U (zh) 具有视觉语义感知的机器人虚实交互操作执行系统
Lloyd et al. Programming contact tasks using a reality-based virtual environment integrated with vision
Liu et al. Understanding multi-modal perception using behavioral cloning for peg-in-a-hole insertion tasks
US20230381970A1 (en) System(s) and method(s) of using imitation learning in training and refining robotic control policies
Su et al. A ROS based open source simulation environment for robotics beginners
EP4244026A1 (en) Generating robotic control plans
US20200201268A1 (en) System and method for guiding a sensor around an unknown scene
US11607809B2 (en) Robot motion planning accounting for object pose estimation accuracy
US11921492B2 (en) Transfer between tasks in different domains
CN114367988B (zh) 一种煤矿自主巡检平台上的机械臂运动规划方法和装置
Pozo León et al. Vision-driven assembly robot
Zhao et al. and Song-Chun Zhu Department of Statistics, University of California, Los Angeles, USA yizhouzhao@ g. ucla. edu
Zhao et al. Sim2Plan: Robot Motion Planning via Message Passing Between Simulation and Reality
Stanley et al. Evaluating Existing Vision Systems/software to Inform Design of a Digital Twin
Stefanuto et al. Remote Lab of Robotic Manipulators through an Open Access ROS-based Platform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100084 Beijing City, Haidian District Tsinghua Yuan

Applicant after: TSINGHUA University

Applicant after: Yantai Qingkejia Robot Joint Research Institute Co.,Ltd.

Address before: 100084 Beijing City, Haidian District Tsinghua Yuan

Applicant before: Tsinghua University

Applicant before: YANTAI QINGKE JIAYUAN TECHNOLOGY RESEARCH Co.,Ltd.

GR01 Patent grant
GR01 Patent grant