CN105598987A - 借助机器人确定关于对象的抓取空间 - Google Patents

借助机器人确定关于对象的抓取空间 Download PDF

Info

Publication number
CN105598987A
CN105598987A CN201510777303.9A CN201510777303A CN105598987A CN 105598987 A CN105598987 A CN 105598987A CN 201510777303 A CN201510777303 A CN 201510777303A CN 105598987 A CN105598987 A CN 105598987A
Authority
CN
China
Prior art keywords
crawl
robot
catching
posture
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510777303.9A
Other languages
English (en)
Other versions
CN105598987B (zh
Inventor
克里斯蒂安·朔伊雷尔
S·博贝特
乌韦·齐默尔曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Roboter GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Roboter GmbH filed Critical KUKA Roboter GmbH
Publication of CN105598987A publication Critical patent/CN105598987A/zh
Application granted granted Critical
Publication of CN105598987B publication Critical patent/CN105598987B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39065Calculate workspace for end effector, manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39466Hand, gripper, end effector of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39476Orient hand relative to object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller

Abstract

本发明涉及用于确定对象上的抓取空间的一种方法和一种系统。其中,所述对象应由机器人借助所确定的抓取空间来抓取。其中,在对象上的机器人的至少一个第一抓取姿势被示教,并且在对象上的另外的抓取姿势被确定。基于这些抓取姿势来规定第一抓取空间。

Description

借助机器人确定关于对象的抓取空间
技术领域
总体而言,本发明涉及用于确定对象上的抓取空间的一种方法和一种系统,在此这些对象应由机器人基于所确定的抓取空间借助抓取姿势来抓取。
背景技术
机器人是可编程的并且可多次使用的操纵设备。所述机器人可运动地或静止地使用,并且由于可自由编程的运动过程而可用于不同的任务。对于不同的工作进程,机器人被应用于例如工业安装或制造中。通常,机器人由操纵器(机器人臂)组成,所述操纵器可以通过相应的驱动器和控制装置运动。通常,在机器人臂的端部上存在末端执行器,该末端执行器可作为工作机构执行不同的任务。例如,测量工具、螺丝刀、检验工具或卡抓可用作末端执行器。卡抓是操纵装置,该操纵装置用于暂时接触抓取对象,并且在拿起时和在放下期间保证抓取对象的位置和方向。例如,利用产生力的、形状闭合的(formschlieβenden,形状配合的)或材料成对的(stoffpaarigen,材料配合的)组件实现对抓取对象的保持。
通常,为了对抓取对象进行抓取,空间中的各个点被固定地示教。在此,机器人被例如手动地定位,使得卡抓位于待抓取的对象上的合适的部位。在对机器人的该定位之后,对应的姿势被存储为抓取姿势。在此,机器人的抓取应被选择为,使得该抓取可无碰撞地执行并且还是稳定的,以便使对象无法在卡抓中滑下或滑移。在此,还要注意特殊的限制,因为对象有可能不允许在每个地点都被抓取。
该单独的抓取确定的方法存在一些缺点。因此,成功执行固定编程的抓取的前提是,待抓取的对象总是位于相同的位置并且有可能在空间中沿相同的方向。然而,这在复杂的工作环境中不总是给定的,在这些工作环境中人们和多个机器人一同工作。此外,成功执行固定编程的抓取的前提还在于,机器人总是位于相同的位置。然而,在移动的机器人技术中一定会发生移动的机器人的定位精度不足以足够准确地对目标对象实施固定的抓取的情况。此外,大多数对象具有多于仅一个的可执行的稳定的抓取,然而这些抓取无法通过上述方法被考虑到。
欧洲专利申请EP2263837A1描述了一种方法,其中原始形态模型还匹配于空间的3D位置数据,该空间相应于识别区域,该识别区域在使用测距装置的条件下获得。
专利文献EP2657863A2描述了一种方法,该方法用于在使用多个接近射线的条件下生成机器人抓取模范,这些接近射线与对象关联。
这两种方法是同样地相对成本高的,并且不允许由操作者直观地确定抓取姿势。
发明内容
在该背景下,本发明的目的是提出一种方法和一种系统,以便能够实现简单且容易地确定可能的抓取姿势。在此优选地,抓取姿势应直接利用机器人真实地在对象上被示教。本发明的另一目的是提出一种用于确定在对象上的抓取姿势并且用于抓取对象的方法,在此消除或避免上述缺点。该目的由根据本发明的方法以及根据本发明的机器人系统实现。
根据本发明的方法涉及对对象上的至少一个抓取空间的确定,在此该对象应由在抓取空间中(也就是根据该抓取空间)处于抓取姿势的卡抓来抓取。在此优选地,卡抓由机器人引导,并且优选被构造为末端执行器并且与机器人连接。在此,抓取空间包括用于支配卡抓来抓取对象的空间。因此,抓取空间可理解为卡抓的(靠近对象的)工作空间,在此该卡抓可在工作空间中运动,以便抓取对象。本领域技术人员理解,抓取空间应限定为,尽可能地避免卡抓或机器人与对象之间的碰撞。
在此,“抓取”的概念是不受限制的,并且包括用于操纵或拿起对象的每种类型。因此,对象可例如借助钳形运动被抓取,或由磁铁或吸取件拿起。同样地,术语“卡抓”包括可用于相应的“抓取”的不同的操纵设备或末端执行器。对象仍然可以是每个想得到的对象,其适于由卡抓、特别是借助机器人来抓取。
在第一步骤中,限定应由卡抓来抓取的对象的对象坐标系。该步可例如离线地由操作者在计算机上实行。在此,对象坐标系的限定可在考虑待抓取的对象的结构的条件下实行。因此例如,对于具有用于对象的抓取的杆或棒或诸如此类的对象,可将对象坐标系限定为,使得对象坐标系的轴与待抓取的杆的取向一致。在此优选地,对象坐标系是笛卡尔坐标系。
在接下来的步骤中,至少一个第一抓取姿势通过卡抓在对象上的定位来规定。本领域技术人员应理解,操作者在该步骤中可例如借助遥控操作(Telemanipulation)、例如借助操作键和/或操纵杆等手动引导(“手动示教”)卡抓或机器人臂。然而优选地,在手动示教中借助手实现对卡抓或机器人的主动引导,其中卡抓或机器人本身被抓取和引导。在此替代地,“示教”的概念也理解为离线编程,该离线编程可以例如基于对象的结构数据。因此当下面谈及“示教”时,只要不明确地给出其他的意思,则始终包括“示教”(包括离线方法)的所有形式。优选地,卡抓的第一抓取姿势位于对象上的可抓取的区域的端部。例如,当应抓取在杆上的对象时,第一抓取姿势可相应于抓取该杆的端部。此外,规定的第二抓取姿势可相应于抓取该杆的另一端部。在此,待规定的抓取姿势的数量可变化,并且本领域技术人员应理解,由本领域技术人员自己判断,对于具有复杂结构的对象通过卡抓的定位来规定多个抓取姿势。
在接下来的步骤中,预设在对象上的另外的抓取姿势。优选地,该预设包括基于规定的或示教的一个或多个抓取姿势来计算或确定另外的抓取姿势。例如,当在先前的步骤中规定沿着杆的两个抓取姿势时,预设另外的抓取姿势包括优选预设在这两个规定的抓取姿势之间的多个抓取姿势。优选地,预设另外的抓取姿势在考虑对象的平移和/或转动自由度的情况下实行。优选地,预设由操作者离线地在计算机上实行。在此优选地,还可以考虑对象的事先提供的结构数据、特别是CAD数据,只要这些数据存在。在此,结构数据非常普遍地包括含有关于待抓取的对象的任意的结构信息的所有数据。结构数据,即例如代表对象的几何形状的数据,还可手动地提供至控制器中,或例如通过视觉测量方法自动地生成。
在接下来的步骤中,基于规定的和预设的抓取姿势来确定对象的第一抓取空间,在此该抓取空间在对象的限定的对象坐标系中确定。优选在随后的步骤中,该第一抓取空间被存储为用于以后使用。在此优选地,初始抓取姿势还可被规定并且与用于以后使用的抓取空间一起被存储。在此有利地,还可与初始抓取姿势一起备份附加的参数,例如手指的位置,所述手指特别是由具有3个或多个手指卡抓的机器人有利地使用,以便抓取对象。确定第一抓取空间的该步骤同样优选离线地借助计算机来实行。此外还优选该步骤还基于事先提供的结构数据来实现。
因此,该方法可实现,容易并且直观地规定用于对象的可能的抓取空间。在此,仅仅必须规定直接在对象上的少数的抓取姿势,即例如由人主动限定。通过熟练地选择待规定的或待示教的抓取姿势,可以在使用待抓取的对象的结构的情况下确定另外的抓取姿势,而不必成本高地手动示教这些另外的抓取姿势,也不必执行成本高的模拟。通过在对象的对象坐标系中规定抓取空间和优选地还有抓取姿势,使得抓取空间与真实世界中的对象的位置无关。因此,相对于对象本身来规定对象的抓取空间,也就是说所述对象的抓取空间与该对象的绝对位置无关。由此能够实现,与地点无关地确定抓取空间,并且此外还能够实现与待抓取的对象的位置无关地确定抓取空间中的抓取姿势。
通常优选地,对象可由在机器人上设置的卡抓来抓取,在此对象借助于传感器被识别。在此优选地,这些传感器可包括优选安装在机器人上的光学传感器。例如,传感器可包括立体摄像系统、3D摄像系统等。因此,机器人可优选地借助所提供的结构数据,例如借助CAD数据来识别对象,其中该机器人将检测到的数据与所存储的对象的数据相比较。由此,可以无需成本高的定位来提供对象,以确定在该对象上的抓取空间。
根据本发明的用于通过机器人抓取对象的方法包括提供抓取空间,该抓取空间借助用于确定抓取空间的方法来确定。在此,机器人可以是具有至少一个末端执行器的各种类型的机器人,该末端执行器适用于抓取对象。在接下来的步骤中,提供机器人和对象,在此该对象应当由该机器人抓取。基于所提供的抓取空间选择抓取姿势。在此,该选择可包括选择规定的第一抓取姿势,该第一抓取姿势与抓取空间一起被规定。此外,机器人还可在考虑该机器人的实时位置和对象的位置的条件下,并且优选地还在考虑对象的方向的条件下、在考虑障碍物或可能的碰撞等的条件下,选择其他合适的抓取姿势。在随后的步骤中,由机器人启动(angefahren)所选择的抓取姿势,并且将对象抓取。
此外,该方法还可实现对所确定的抓取空间的可执行性和适宜性的直接检验。因此示例性地,从抓取空间中所产生的抓取姿势可直接由机器人启动,以便检验这些抓取姿势。此外,该方法还可实现,直接在构造或确定抓取空间时利用对象几何形状。此外,该方法仅需要较少的计算能力,因为没有执行成本高的计算。此外,所确定的抓取空间还符合操作者的想法,因为不能实现不期望的抓取空间或抓取姿势。相应地,可避免意外执行的抓取,否则这些抓取可能会导致碰撞。
根据本发明的机器人系统(包括机器人,其被设置为用于借助卡抓来抓取对象)设有控制装置,该控制装置被设置为用于执行根据本发明的方法,以便能够执行所描述的方法步骤。在此优选地,机器人系统包括至少一个传感器,该传感器被设置为用于识别对象。
附图说明
下面参照附图更准确地说明本发明。在此示出:
图1a和图1b示意性示出机器人在对象上的两种示例性的抓取;
图2a和图2b示意性示出机器人在另一对象上的两种示例性的抓取;
图3是示意性并示例性地示出用于确定对象上的抓取空间的方法的流程的流程图;
图4是同样地示意性并示例性地示出用于确定对象上的抓取空间的方法的流程的流程图。
附图标记列表:
10,10’机器人臂
11,11’卡抓
20,20’对象
21,21’边缘,把手
22,23,22’,23’抓取点
30,30’世界坐标系
31,31’对象坐标系
具体实施方式
图1a和图1b示出机器人的机器人臂10,和待抓取的对象20。机器人臂10在端部上具有末端执行器,该末端执行器被构造为具有两个抓取手指的卡抓11。然而,本发明不限于这种机械的卡抓,而是还包括呈例如吸取卡抓或磁铁卡抓形式的卡抓。待抓取的对象20具有管的形状,在此对象20应被机器人10在管状对象20的边缘21上抓取。在此,就机器人10而言存在多个在对象的边缘21上抓取对象20的可能性。例如,如图1a所示,机器人10可在点22上抓取对象20,或例如如图1b所示地在点23上抓取。
此外,图1a和图1b还示例性地示出世界坐标系30的原点和对象坐标系31的原点,所述原点不一致。在此有利地,对象坐标系31处于圆柱状的对象20的中心,在此笛卡尔的对象坐标系31的一个轴对应于对象20的纵向方向。通过该方法,抓取空间关于对象20的对象坐标系31被限定,从而可以不取决于对象在世界坐标系30中的绝对位置来确定抓取空间。
图2a和图2b示出了另一情况,其中对象20’应由机器人臂10’的卡抓11’在对象20’的把手21’上抓取。在此,同样地存在用于抓取对象20’的各种可能性,因此对象20’可例如(如图2a所示)在地点22’上被抓取,或例如(如图2b所示)在地点23’上被抓取。与图1a和图1b的示图不同,有利地,对象坐标系31’在图2a和图2b中被设置为,使得对象坐标系31’的一个轴与把手21’的纵向方向一致。
本领域技术人员应理解,也可为对象限定多个对象坐标系。当图2a和图2b中的对象20’既可以在把手21’上被抓取,又可以如在图1a和图1b中的情况地在上边缘上被抓取时,除对象坐标系31’外还可限定另一对象坐标系,该另一对象坐标系例如与图1a和图1b中的对象坐标系30一致。此外,还可限定一个或多个参考点,这些参考点例如规定对象在世界坐标系30、30’中的位置,和/或例如规定可抓取的区域21、21’的位置。
图3示出用于执行示例性的方法300的流程图。以下参照在图1a或图1b中所示出的系统来示例性地描述方法300。该方法开始于步骤301。在步骤302中提供机器人。在步骤303中提供待抓取的对象20。在步骤304中提供对象20的结构数据。在此,结构数据可例如被提供至机器人的控制器,和/或还可被提供在外部计算机上。结构数据的提供还可在另一时间点实现,例如在提供机器人之前和/或在提供对象之前。
在步骤305中,为对象限定对象坐标系。在此优选地,这可由用户在外部计算机上执行。此外优选地,该步骤还可在考虑所提供的结构数据的情况下执行。在步骤306中,对象借助传感器被机器人识别,在此该识别也基于所提供的结构数据。
在步骤307中,示教第一抓取姿势,在此对象20在第一地点22上被机器人抓取。在此优选地,操作员直接地并且主动地通过手将机器人引导到待抓取的对象上(所谓的回放方法(Playback-Verfahren))。在步骤308中,示教第二抓取姿势,在此对象20在地点23上被机器人抓取。为了示教第二姿势,优选也直接地通过手引导机器人。替代地,也考虑借助遥控操作、例如借助操纵杆来引导,或者也(当还略微优选时)考虑纯粹的离线示教。
在步骤309中,计算另外的抓取姿势。优选该步骤离线地发生,而不必运行机器人。根据图1a的情况,在此可确定抓取姿势,使得这些抓取姿势在利用转动自由度的条件下沿着对象20的边缘21被确定。
在步骤310中,基于所示教的和所确定的抓取姿势来规定对象的第一抓取空间,在此在对象的对象坐标系中规定第一抓取空间。根据图1a的情况,该第一抓取空间可被设计为,使得该第一抓取空间能够实现在沿着边缘21的任何地点上抓取对象20,而机器人不与对象20碰撞。有利地,所规定的抓取空间被存储。随后,方法300结束于步骤311。
本领域技术人员应理解,方法300的至少一些步骤可多次执行,以便例如确定在同一对象上的其他的抓取空间。
图4示出了示例性的方法400。该方法开始于步骤401。在步骤402中,为对象规定本地的坐标系。为此,可例如将对象放置到标记上,在此该标记的位置被固定地限定。标记位置可通过公知的方法测量(例如基础测量、光学标记识别等)。替代地,也可使用传感器系统,以便能够基于存在的模型来识别对象。
在步骤403中确定抓取补偿。该抓取补偿对应于待抓取的区域相对于对象的本地的坐标系的位置。
在步骤404中,机器人进入对象上的第一抓取姿势,并且工具中心点的实时位置被示教。优选地,这还通过直接并主动地将机器人通过手引导到待抓取的对象上,或通过借助遥控操作的引导来实现。随后,确定对该第一抓取姿势的相对于待抓取的区域的位置的末端执行器补偿。
在步骤405中,确定关于第一抓取姿势的抓取空间的边界。对此,为了每个待确定的边界,工具中心点被引导到抓取空间的所对应的外边缘上,并且实时位置被示教。为此,用户还能可选地利用对象的平移和/或转动自由度,以便确定抓取空间的边界。方法400结束于步骤406。
为了通过机器人借助所确定的抓取空间将对象抓取,基于所确定的抓取空间确定有效的抓取姿势。根据该确定的抓取姿势,机器人启动该抓取姿势并且将对象抓取。
本领域技术人员应理解,上述步骤中的多个包括多个单独的步骤,例如坐标变换。因此例如,规定抓取空间的步骤或基于抓取空间选择抓取姿势可包括多个位置的变换。

Claims (12)

1.一种用于确定对象(20,20’)上的至少一个抓取空间的方法,其中,所述对象(20,20’)应由卡抓(11,11’)在所述抓取空间中以抓取姿势抓取,所述方法具有以下方法步骤:
a)限定应由所述卡抓(11,11’)来抓取的所述对象(20,20’)的对象坐标系(31,31’);
b)通过所述卡抓(11,11’)在所述对象(20,20’)上的定位来规定至少一个第一抓取姿势;
c)预设在所述对象(20,20’)上的至少一个另外的抓取姿势;以及
d)基于所述至少一个第一抓取姿势和所述至少一个另外的抓取姿势来确定所述对象(20,20’)的对象坐标系(31,31’)中的第一抓取空间。
2.根据权利要求1所述的方法,其中,所述对象坐标系(31,31’)是笛卡尔坐标系,和/或其中,所述步骤a)至d)被离线地执行。
3.根据前述权利要求中任一项所述的方法,还具有:
提供所述对象(20,20’)的结构数据,特别是CAD数据。
4.根据前述权利要求中任一项所述的方法,还具有:
将所述对象(20,20’)提供到预先限定的标记上。
5.根据前述权利要求所述的方法,其中,所述卡抓(11,11’)由机器人引导,并且其中,提供所述对象(20,20’)包括:通过所述机器人借助至少一个传感器来识别所述对象(20,20’),其中,优选所述至少一个传感器包括光学传感器,并且其中,优选所述识别基于所提供的所述结构数据。
6.根据前述权利要求中任一项所述的方法,其中,预设至少一个另外的抓取姿势包括:计算所述对象(20,20’)的对象坐标系(31,31’)中的所述至少一个另外的抓取姿势,其中,以所述对象(20,20’)的所提供的结构数据、特别是CAD数据和一个或多个所述第一抓取姿势为基础,实现所述计算。
7.根据前述权利要求中任一项所述的方法,其中,预设所述至少一个另外的抓取姿势基于所述对象(20,20’)的转动和/或平移自由度来实现。
8.根据前述权利要求中任一项所述的方法,其中,通过根据步骤b)的定位的所述规定包括:将所述卡抓(11,11’)引导到真实的所述对象(20,20’)上。
9.根据前述权利要求所述的方法,其中,将所述卡抓(11,11’)引导到真实的所述对象(20,20’)上包括:通过手主动引导所述卡抓(11,11’),和/或借助遥控操作装置、例如特别是操纵杆来主动引导所述卡抓(11,11’)。
10.根据前述权利要求中任一项所述的方法,其中,所述卡抓(11,11’)由机器人引导,优选所述方法还包括:提供至少一个机器人和卡抓(11,11’),所述卡抓由所述机器人引导;和提供至少一个对象(20,20’),所述对象应由所述机器人借助所述卡抓(11,11’)来抓取。
11.一种用于由机器人抓取对象(20,20’)的方法,具有以下方法步骤:
a)提供根据权利要求1至10中任一项所确定的抓取空间;
b)提供至少一个机器人和至少一个对象(20,20’),所述对象应由所述机器人抓取;
c)基于提供的所述抓取空间来选择抓取姿势;
d)启动所选择的所述抓取姿势;以及
e)抓取所述对象(20,20’)。
12.一种机器人系统,包括机器人,其中,所述系统设有控制装置,所述控制装置被设置为用于执行根据权利要求1至11中任一项所述的方法。
CN201510777303.9A 2014-11-13 2015-11-13 借助机器人确定关于对象的抓取空间 Active CN105598987B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014223167.1 2014-11-13
DE102014223167.1A DE102014223167A1 (de) 2014-11-13 2014-11-13 Bestimmen von objektbezogenen Greifräumen mittels eines Roboters

Publications (2)

Publication Number Publication Date
CN105598987A true CN105598987A (zh) 2016-05-25
CN105598987B CN105598987B (zh) 2020-12-18

Family

ID=54366020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510777303.9A Active CN105598987B (zh) 2014-11-13 2015-11-13 借助机器人确定关于对象的抓取空间

Country Status (5)

Country Link
US (1) US9878446B2 (zh)
EP (1) EP3020516B1 (zh)
KR (1) KR102159847B1 (zh)
CN (1) CN105598987B (zh)
DE (1) DE102014223167A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393686B1 (en) 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
DE112016006116T5 (de) * 2016-01-29 2018-09-13 Mitsubishi Electric Corporation Roboterlehrvorrichtung und Verfahren zum Erzeugen eines Robotersteuerprogramms
EP3612355A1 (de) * 2017-04-21 2020-02-26 Roboception GmbH Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem
US10766149B2 (en) 2018-03-23 2020-09-08 Amazon Technologies, Inc. Optimization-based spring lattice deformation model for soft materials
CN112384340A (zh) 2018-07-10 2021-02-19 三菱电机株式会社 机器人控制装置
DE102019122790B4 (de) * 2018-08-24 2021-03-25 Nvidia Corp. Robotersteuerungssystem
US11833681B2 (en) 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system
EP3702108A1 (de) * 2019-02-27 2020-09-02 GILDEMEISTER Drehmaschinen GmbH Verfahren zum ermitteln einer greifposition zum ergreifen eines werkstücks
US11440183B2 (en) * 2019-03-27 2022-09-13 Abb Schweiz Ag Hybrid machine learning-based systems and methods for training an object picking robot with real and simulated performance data
US20230236213A1 (en) * 2020-06-05 2023-07-27 Shimadzu Corporation Automatic sample injection device
US11597078B2 (en) 2020-07-28 2023-03-07 Nvidia Corporation Machine learning control of object handovers
DE102021201921A1 (de) 2021-03-01 2022-09-01 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und verfahren zum steuern eines roboters zum aufnehmen eines objekts
DE102022206274A1 (de) 2022-06-22 2023-12-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern eines Roboters zum Manipulieren, insbesondere Aufnehmen, eines Objekts

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325468A (en) * 1990-10-31 1994-06-28 Sanyo Electric Co., Ltd. Operation planning system for robot
CN101138844A (zh) * 2007-09-29 2008-03-12 上海微电子装备有限公司 一种提高机械手示教效率的方法
CN101970184A (zh) * 2008-03-10 2011-02-09 丰田自动车株式会社 动作教导系统以及动作教导方法
EP2481529B1 (en) * 2011-01-31 2013-05-22 ROBOJOB, besloten vennootschap Method for manipulating a series of successively presented identical workpieces by means of a robot.
CN103302665A (zh) * 2012-03-09 2013-09-18 索尼公司 机器人设备、控制机器人设备的方法以及计算机程序

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980626A (en) * 1989-08-10 1990-12-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for positioning a robotic end effector
EP1472052A2 (en) * 2002-01-31 2004-11-03 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
JP2012254518A (ja) 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
US9014850B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for evaluating grasp patterns, and robots incorporating the same
US9014857B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
US9199376B2 (en) * 2013-03-14 2015-12-01 GM Global Technology Operations LLC Intuitive grasp control of a multi-axis robotic gripper
WO2021220442A1 (ja) * 2020-04-28 2021-11-04 三菱電機株式会社 乗客コンベアのガイドシューおよび踏段案内装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325468A (en) * 1990-10-31 1994-06-28 Sanyo Electric Co., Ltd. Operation planning system for robot
CN101138844A (zh) * 2007-09-29 2008-03-12 上海微电子装备有限公司 一种提高机械手示教效率的方法
CN101970184A (zh) * 2008-03-10 2011-02-09 丰田自动车株式会社 动作教导系统以及动作教导方法
EP2481529B1 (en) * 2011-01-31 2013-05-22 ROBOJOB, besloten vennootschap Method for manipulating a series of successively presented identical workpieces by means of a robot.
CN103302665A (zh) * 2012-03-09 2013-09-18 索尼公司 机器人设备、控制机器人设备的方法以及计算机程序

Also Published As

Publication number Publication date
CN105598987B (zh) 2020-12-18
EP3020516B1 (de) 2021-12-22
DE102014223167A1 (de) 2016-05-19
US20160136807A1 (en) 2016-05-19
EP3020516A3 (de) 2016-07-27
EP3020516A2 (de) 2016-05-18
KR102159847B1 (ko) 2020-09-25
US9878446B2 (en) 2018-01-30
KR20160057339A (ko) 2016-05-23

Similar Documents

Publication Publication Date Title
CN105598987A (zh) 借助机器人确定关于对象的抓取空间
CN104936748B (zh) 徒手机器人路径教导
US20190202058A1 (en) Method of programming an industrial robot
JP5850004B2 (ja) ロボット制御装置及びロボット制御方法
EP3126936B1 (en) Portable apparatus for controlling robot and method thereof
US9604360B2 (en) Robot system for preventing accidental dropping of conveyed objects
EP3566824B1 (en) Method, apparatus, computer-readable storage media and a computer program for robotic programming
KR101860200B1 (ko) 카메라를 이용한 장치 또는 물체의 선택
US11833697B2 (en) Method of programming an industrial robot
JP6171457B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
US11478932B2 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
JP2022500260A (ja) ロボット装置のための制御装置、ロボット装置、方法、コンピュータプログラム及び機械可読記憶媒体
CN112805127A (zh) 用于创建机器人控制程序的方法和设备
JP2678002B2 (ja) 視覚付きロボットの座標系較正方法
Kawasaki et al. Virtual robot teaching for humanoid hand robot using muti-fingered haptic interface
WO2023102647A1 (en) Method for automated 3d part localization and adjustment of robot end-effectors
CN111899629B (zh) 柔性机器人教学系统和方法
CN117794704A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
TWI696529B (zh) 自動定位方法以及自動控制裝置
IT202100001268A1 (it) Sistema e metodo di configurazione e programmazione di una cella robotica
JPH04182710A (ja) 相対位置決め方式
US20210271791A1 (en) Simulation method and simulation system
JP7074057B2 (ja) 産業用ロボットの作業記述作成装置および産業用ロボットの作業記述作成方法
CN117519469A (zh) 一种应用于人机交互的空间交互装置及方法
Gwozdz et al. Enabling semi-autonomous manipulation on Irobot’s Packbot

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant