CN106457570A - 作业机器人示教数据生成装置以及示教数据生成方法 - Google Patents
作业机器人示教数据生成装置以及示教数据生成方法 Download PDFInfo
- Publication number
- CN106457570A CN106457570A CN201580030218.4A CN201580030218A CN106457570A CN 106457570 A CN106457570 A CN 106457570A CN 201580030218 A CN201580030218 A CN 201580030218A CN 106457570 A CN106457570 A CN 106457570A
- Authority
- CN
- China
- Prior art keywords
- threedimensional model
- work robot
- training data
- work
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4097—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36459—Nc in input of data, input key till input tape offline program for plural robots, send data to corresponding robots
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39441—Voice command, camera detects object, grasp, move
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40397—Programming language for robots, universal, user oriented
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
作业机器人示教数据生成装置具备:存储部(22),其存储有多个作业机器人(12)各自的三维模型;显示部(26),其显示表示要设置作业机器人(12)的实际的作业空间(WS)的虚拟空间,并且将从存储于存储部(22)的多个作业机器人各自的三维模型中选择出的至少一个三维模型以配置在所述虚拟空间内的状态进行显示;动作控制部,其根据用于使三维模型进行动作的指令来使显示于显示部(26)的三维模型进行动作;以及示教数据生成部,其基于通过所述动作控制部而进行了动作的所述三维模型的运动数据来生成作业机器人(12)的示教数据。
Description
技术领域
本发明涉及一种作业机器人示教数据生成装置以及示教数据生成方法。
背景技术
以往,如下述专利文献1和2所公开那样,作为作业机器人的示教(教学)方法,已知有离线教学(日语:オフラインティーチング)。离线教学是指将作业机器人的模型设置在虚拟空间上并进行机器人操作的仿真从而制作示教数据。离线教学有以下的优点。即,并非使用实际的作业机器人来进行教学作业,因此不会产生需要在教学作业时停止工厂生产线这样的问题。另外,也不用担心存在损坏作业机器人、工件等。
在离线教学中,使某个作业机器人在虚拟空间上运动来进行教学作业。因此,与通过示教器进行实际的作业机器人的教学的教学再现相比,即使是不熟悉实际的作业机器人的操作方法的人,只要是进行过作业机器人的操作的人就能够较放心地进行教学作业。然而,对于研究将作业机器人引入至今为止没有使用过作业机器人的作业现场的人而言,即使使作业机器人在虚拟空间上运动来进行教学作业,如果无法对设置于实际的作业现场的作业机器人的运动图像化则也难以掌握使作业机器人以何种程度运动较好等的感觉。并且,教学作业本身是繁杂的,因此对于研究引入作业机器人的人而言,教学作业可能成为决定引入作业机器人的障碍。
专利文献1:日本特开2007-272309号公报
专利文献2:日本特开2008-20993号公报
发明内容
本发明的目的在于提供一种能够减轻基于离线教学的教学作业的负担的作业机器人示教数据生成装置或者示教数据生成方法。
本发明的一个方面所涉及的作业机器人示教数据生成装置具备:存储部,其存储有多个作业机器人各自的三维模型;显示部,其显示表示要设置作业机器人的实际的作业空间的虚拟空间,并且将从存储于所述存储部的所述多个作业机器人各自的三维模型中选择出的至少一个三维模型以配置在所述虚拟空间内的状态进行显示;动作控制部,其根据用于使三维模型进行动作的指令来使显示于所述显示部的所述三维模型进行动作;以及示教数据生成部,其基于通过所述动作控制部而进行了动作的所述三维模型的运动数据来生成所述作业机器人的示教数据。
另外,本发明的其它方面所涉及的作业机器人示教数据生成方法包括以下步骤:在显示部显示表示要设置作业机器人的实际的作业空间的虚拟空间,并且在所述显示部将从存储于存储部的多个作业机器人各自的三维模型中选择出的至少一个三维模型以配置在所述虚拟空间内的状态进行显示;根据用于使三维模型进行动作的指令来使显示于所述显示部的所述三维模型进行动作;以及基于进行了动作的所述三维模型的运动数据来生成所述作业机器人的示教数据。
附图说明
图1是概要性地示出本发明的实施方式所涉及的作业机器人示教数据生成装置的结构的图。
图2是用于说明所述示教数据生成装置所具有的功能的图。
图3的(a)和图3的(b)是用于说明通过照相机拍摄得到的图像的图。
图4是示出显示于显示部的虚拟空间和三维模型的图。
图5是示出三维模型的图。
图6的(a)是概要性地示出小型模型被连接于外部输入部的状态的图,图6的(b)是概要性地示出输出声音信息的计算机被连接于外部输入部的状态的图。
图7是用于说明本发明的实施方式所涉及的作业机器人示教数据生成方法的图。
具体实施方式
以下,参照附图详细地说明用于实施本发明的方式。
如图1所示,本实施方式所涉及的作业机器人示教数据生成装置10(以下简称为示教数据生成装置10)生成用于对例如6轴机器人等作业机器人12进行示教(教学)的示教数据。该作业机器人12能够用于在作业空间WS内使例如重物等工件从第一位置向第二位置移动。作业机器人12例如具有:基台12a;回转台12b,其能够相对于基台12a绕垂直轴旋转;躯体部12c,其经由关节部而以能够相对于回转台12b绕水平轴转动的方式与回转台12b连结;臂支承部12d,其经由关节部而以能够相对于躯体部12c绕水平轴转动的方式与躯体部12c的前端部连结;腕部12e,其能够相对于臂支承部12d绕臂支承部12d的轴转动;以及把持部12f,其经由转动部而悬吊于腕部12e的前端部。
作业机器人12被电连接于作为该机器人12的驱动控制装置的机器人控制器14来进行与来自该机器人控制器14的指令相应的动作。在机器人控制器14中存储有用于规定作业机器人12的动作的示教数据。该示教数据是从示教数据生成装置10发送的。
示教数据生成装置10具备运算装置(CPU)21、存储部(ROM)22、暂时存储部23(RAM)、作为输入部的键盘24、作为输入部的鼠标25、显示部26(显示器)、以及外部输入部27等。在存储部22中存储有用于使示教数据生成装置10发挥功能的程序。另外,在存储部22中存储有作业机器人12的三维模型30。该三维模型30是通过软件将作业机器人12三维模型化所得到的。三维模型30用于将作业机器人12虚拟地配置于虚拟空间VS,该三维模型30的结构与作业机器人12相同且能够在虚拟空间VS内进行与作业机器人12相同的运动。因而,三维模型30也与作业机器人12同样地,例如具有基台30a、回转台30b、躯体部30c、臂支承部30d、腕部30e以及把持部30f。在存储部22中,针对机型、尺寸不同的多个作业机器人12而存储有各自的三维模型30(参照图5)。
示教数据生成装置10通过执行存储于存储部22的程序来发挥规定的功能。如图2所示,为了该功能而包含虚拟空间制作部41、三维模型配置控制部42、动作控制部43、示教数据生成部44、转换部45、以及发送接收部46。此外,这些功能既可以通过软件来实现,也可以通过硬件来实现。
虚拟空间制作部41根据用于表示要设置作业机器人12的实际的作业空间WS的作业空间信息来制作作业空间WS的虚拟空间VS(参照图4)。该作业空间信息是根据通过外部输入部27输入的图像信息而获得的信息。具体地说,图像信息例如是基于通过照相机50拍摄实际的作业空间WS时的图像而获得的信息,通过外部输入部27输入的图像信息存储于存储部22。该图像信息是基于例如如图3的(a)和图3的(b)所示那样通过以包含作业空间WS的底面51、顶面52、全部的侧面53的方式拍摄所得到的多个图像而获得的。此外,为了简化说明,设作业空间WS为长方体形状。
此外,图像信息不限于基于照相机50拍摄到的图像所获得的信息。代替该信息,也可以是基于通过三维CAD(Computer Aided Design:计算机辅助设计)制作的表示作业空间WS的数据所获得的信息、基于通过三维扫描机或激光扫描机(省略图示)扫描得到的作业空间WS的扫描图像所获得的信息。
虚拟空间制作部41接受用于在显示于显示部26的各图像中指示构成作业空间WS的长方体的各顶点的指令,基于该指令来导出作业空间WS的各顶点在三维坐标上的坐标。例如,当在图3的(a)和图3的(b)所示的图像被显示于显示部26的状态下使用者使用鼠标25使光标在显示部26上对准作业空间WS的各顶点(例如,P1、P2、··、P8)的位置并点击时,虚拟空间制作部41基于被点击的该位置导出顶点位置在三维坐标上的坐标。表示该虚拟空间VS的各顶点的坐标的信息成为用于表示实际的作业空间WS的作业空间信息。而且,虚拟空间制作部41使用作业空间信息进行用于在显示部26上立体地显示作业空间WS的处理,由此制作虚拟空间VS。而且,如图4所示,在显示部26显示虚拟空间VS。
此外,虚拟空间制作部41接受用于使实际的尺寸与三维坐标上的空间长度相对应的指令。因而,任何时候都能够基于三维坐标上的坐标数据来计算实际的尺寸。
三维模型配置控制部42进行控制以对显示于显示部26的虚拟空间VS的规定位置配置作业机器人12的三维模型30。该三维模型30是从存储于存储部22的多个作业机器人12的三维模型30中选择出的。此外,图5中描绘出存储于存储部22的多个三维模型30中的尺寸不同的两个作业机器人12的三维模型30。
而且,三维模型配置控制部42接受从存储于存储部22的多个三维模型30中选择哪个作业机器人12的三维模型30的指令,按照该指令选择至少一个三维模型30。
三维模型30的选择例如能够通过在显示部26上显示有三维模型30(或者作业机器人12)的一览的画面中接受基于对鼠标25、键盘24的操作的指令来进行。因而,为了选择多个三维模型30(或者作业机器人12),只要重复进行选择哪个三维模型30(或者作业机器人12)的指令即可。
另外,三维模型配置控制部42还接受将作业机器人12的三维模型30配置于作业空间WS内的哪个位置的指令。该指令是通过在显示有虚拟空间VS的显示部26上使光标对准规定位置并点击鼠标25而完成的。而且,三维模型配置控制部42将选择出的作业机器人12的三维模型30配置于虚拟空间VS内的按照指令的指定位置。此外,在选择了多个三维模型30时,三维模型配置控制部42针对选择出的各三维模型30分别接受配置于哪个位置的指令,对各指定位置配置各三维模型30。
动作控制部43根据通过操作鼠标25而从鼠标25输出的信号来进行控制以使显示于显示部26的三维模型30进行动作。动作控制部43根据从鼠标25输出的信号来使三维模型30进行与作业机器人12所进行的一系列动作相同的动作。因而,该三维模型30的动作是按照实际的作业机器人12的动作而进行的动作。具体地说,使用鼠标25来选择三维模型30的各部位中的能够动作的部位(例如躯体部30c)并进行拖拽等,由此动作控制部43使该部位(例如躯体部30c)按照实际的运动来运动。
在显示部26显示有多个作业机器人12的三维模型30的情况下,动作控制部43接受使哪个三维模型30进行动作的指令。该指令例如是通过利用鼠标25使光标对准对象的三维模型30并进行点击等而输出的指令。而且,通过分别接受用于选择各三维模型30的指令与动作指令,能够使显示于显示部26的各三维模型30分别进行动作。
此外,向动作控制部43提供指令的指令部不限于鼠标25。例如图6的(a)所示,也可以是与外部输入部27电连接的小型模型58。该小型模型58是将实际的作业机器人12小型化的模型,能够以手动或自动的方式与作业机器人12相同地运动。而且,当使各部位运动时,小型模型58输出与之相应的信号。在这种情况下,动作控制部43构成为接受该信号作为用于使三维模型30运动指令。
另外,如图6的(b)所示,用于向动作控制部43提供指令的指令也可以是从为了使显示于显示部26的三维模型30运动而提供的声音信息转换而成的指令。该声音信息被输入到与外部输入部27电连接的作为指令部的计算机59。该计算机59将从声音信息转换而成的信息通过外部输入部27而向运算装置21输入。
在三维模型30的躯体部12c等各部位按照从鼠标25等提供的指令进行动作时,示教数据生成部44与进行了动作的部位相应地存储该部位的运动数据(例如移动量、转动角度、移动速度、转动速度等数据)。而且,示教数据生成部44基于已存储的这些数据来生成示教数据。在该示教数据中,按作业机器人12所进行的每个系列的动作包含针对各动作的用于使各部位运动规定量的关节部的旋转角度信息、各部位的移动量信息等。
转换部45根据指令将示教数据生成部44中生成的示教数据转换为用于使作业机器人12进行动作的机器人语言。即,在示教数据生成装置10中存储有多个三维模型30,但是使与这些三维模型30相对应的作业机器人12进行动作的机器人语言不一定完全相同。因而,转换部45基于通过键盘24或者鼠标25输入的指令或者自动地将示教数据转换为指定的机器人语言。关于转换为哪个语言,既可以预先存储于存储部22,也可以从键盘24等进行指示。
发送接收部46根据来自键盘24或者鼠标25的指令,向机器人控制器14发送由转换部45转换成了机器人语言的示教数据(或者在不需要转换的情况下,发送由示教数据生成部44生成的示教数据本身)。
在此,参照图7来说明通过示教数据生成装置10进行的示教数据生成方法。
在示教数据生成方法中,首先,虚拟空间制作部41读取图像信息(步骤ST1)。该图像信息是用于构成实际的作业空间WS的摄影图像的信息。然后,虚拟空间制作部41基于该图像信息构成作业空间信息,制作虚拟空间VS(步骤ST2)。具体地说,在步骤ST2中,虚拟空间制作部41接受用于指示显示于显示部26的作业空间WS的各顶点的指令,导出作业空间WS的各顶点在三维坐标上的坐标。表示该虚拟空间VS的各顶点的坐标的信息成为用于表示实际的作业空间WS的作业空间信息。而且,虚拟空间制作部41基于作业空间信息进行用于在显示部26上立体地显示作业空间WS的处理,由此制作虚拟空间VS。
接着,三维模型配置控制部42接受从存储于存储部22的多个作业机器人12的三维模型30中选择哪个三维模型30的指令,基于该指令来进行选择三维模型30的控制(步骤ST3)。此时,既可以只选择一个三维模型30,也可以选择多个三维模型30。此外,步骤ST3也可以在步骤ST2之前进行。
然后,三维模型配置控制部42对虚拟空间VS内的指定的位置配置选择出的三维模型30(步骤ST4)。此时,在选择出多个三维模型30时,将选择出的全部的三维模型30分别配置于指定的位置。
接着,动作控制部43使显示于显示部26的三维模型30进行动作(步骤ST5)。该动作基于利用鼠标25等指示的指令,三维模型30进行与作业机器人12所进行的一系列动作相同的动作。此外,在显示部26上显示有多个三维模型30的情况下,各三维模型30根据指令依次进行动作。
当三维模型30进行了动作时,示教数据生成部44存储进行了动作的各部位的运动数据。示教数据生成部44基于存储的该数据来生成作业机器人12的示教数据(步骤ST6)。然后,根据需要将示教数据转换为用于使作业机器人12进行动作的机器人语言(步骤ST7)。该示教数据被发送到机器人控制器14(步骤ST8)。
如以上所说明那样,在本实施方式中,在显示部26上显示基于表示实际的作业空间WS的作业空间信息而生成的虚拟空间VS。即,在显示部26显示再现实际的作业空间WS的虚拟空间VS。因此,对于研究引入作业机器人12的人而言,容易对作业机器人12设置于实际的作业空间WS的状态进行图像化。然后,在虚拟空间VS内配置作为模拟作业机器人的作业机器人12的三维模型30。该三维模型30是从存储于存储部22的多个作业机器人12各自的三维模型30中选择出的至少一个作业机器人12的三维模型30。即,能够选择研究引入的作业机器人12的三维模型30并将选择的三维模型30配置在虚拟空间VS内。因此,能够将与实际的作业现场相应的、作业机器人12配置在虚拟空间VS内的状态显示于显示部26。因而,研究作业机器人12的引入的人容易对想要实际引入的作业机器人12配置于实际的作业空间WS的状态进行图像化。而且,能够基于从鼠标25等提供的指令来使显示于显示部26的作业机器人12的三维模型30进行动作。而且,示教数据生成部44基于该三维模型30的运动数据来生成作业机器人12的示教数据。因而,能够通过一边对被设置于实际的作业空间WS的状态下的作业机器人12进行图像化一边使三维模型30运动,来生成作业机器人12的示教数据。因此,能够减轻教学作业的负担。
另外,在本实施方式中,使用通过照相机50拍摄得到的摄影图像、通过三维CAD制作的数据或通过扫描机扫描得到的扫描图像来制作虚拟空间VS。因此,能够使用于生成研究引入作业机器人12的作业空间WS的虚拟空间VS的作业变得简单。因而,能够容易地针对研究引入作业机器人12的每个作业空间WS准备虚拟空间VS。
另外,本实施方式的示教数据生成装置10具有转换部45,因此在机器人语言根据作业机器人12的厂商、机型等而不同的情况下,也能够以与之相对应的语言输出作业机器人12的示教数据。
另外,在本实施方式中,能够通过鼠标25等使显示于显示部26的三维模型30容易且如图像那样运动。因此,能够进一步减轻教学作业的负担。
另外,在本实施方式中,能够将从多个作业机器人12的三维模型30中选择出的多个作业机器人12的三维模型30配置在虚拟空间VS并显示于显示部26。然后,根据提供到动作控制部43的指令来决定使这些三维模型30中的哪个三维模型30运动。通过重复进行该操作,能够从动作控制部43对配置在作业空间WS的虚拟空间VS的各个三维模型30提供指令。因而,在研究在一个作业空间WS引入多个作业机器人12的情况下也能够应对。
此外,本发明不限于所述实施方式,能够在不超出本发明的主旨的范围内进行各种变更、改良等。例如,示教数据生成装置10也可以是省略转换部45的结构。另外,也可以是在显示部26只显示一个三维模型30的结构。
在此,概要说明所述实施方式。
(1)在所述实施方式中,在显示部上显示表示实际的作业空间的虚拟空间。即,再现实际的作业空间的虚拟空间被显示于显示部。因此,对于研究引入作业机器人的人而言,容易对作业机器人设置于实际的作业空间的状态进行图像化。然后,在虚拟空间内配置作为模拟作业机器人的作业机器人的三维模型。该三维模型是从存储于存储部的多个作业机器人各自的三维模型中选择出的至少一个作业机器人的三维模型。即,能够选择研究引入的作业机器人的三维模型并将选择出的三维模型配置在虚拟空间内。因此,能够将与实际的作业现场相应的、作业机器人配置在虚拟空间内的状态显示于显示部。因而,研究引入作业机器人的人容易对想要实际引入的作业机器人设置于实际的作业空间的状态进行图像化。而且,能够基于从指令部提供的指令来使显示于显示部的作业机器人的三维模型进行动作。而且,示教数据生成部基于该三维模型的运动数据来生成作业机器人的示教数据。因而,能够通过一边对被设置于实际的作业空间的状态下的作业机器人进行图像化一边使三维模型运动,来生成作业机器人的示教数据。因此,能够减轻教学作业的负担。
(2)所述虚拟空间也可以是使用通过照相机拍摄得到的所述作业空间的摄影图像、通过三维计算机辅助设计制作的表示所述作业空间的数据、或者通过三维扫描机或激光扫描机扫描得到的所述作业空间的扫描图像来制作的。
在该方式中,能够使用通过照相机拍摄得到的摄影图像、通过三维CAD制作的数据或通过扫描机扫描得到的扫描图像来制作虚拟空间。因此,能够使用于生成研究引入机器人的作业空间的虚拟空间的作业变得简单。因而,能够容易地针对研究引入机器人的每个作业空间准备虚拟空间。
(3)也可以具备转换部,该转换部用于将所述示教数据转换为使所述作业机器人进行动作的机器人语言。在该方式中,在机器人语言根据作业机器人的厂商、机型等而不同的情况下,也能够以与之相对应的语言输出作业机器人的示教数据。
(4)所述指令也可以包括:通过操作鼠标输出使得显示于所述显示部的所述三维模型运动的信号,根据所述作业机器人的小型模型的运动而输出的信号,或者从为了使显示于所述显示部的所述三维模型运动而提供的声音信息转换而成的指令。在该方式中,能够使显示于显示部的三维模型容易且如图像那样运动。因此,能够进一步减轻教学作业的负担。
(5)也可以在所述显示部显示从所述多个作业机器人的三维模型中选择出的多个作业机器人的三维模型。在该情况下,所述动作控制部也可以构成为接受使显示于所述显示部的所述多个三维模型中的哪个三维模型进行动作的指令。
在该方式中,将在作业空间的虚拟空间配置有多个作业机器人的三维模型的状态显示于显示部。然后,根据提供到动作控制部的指令来决定使这些三维模型中的哪个三维模型运动。通过重复进行该操作,能够从动作控制部针对配置于作业空间的虚拟空间的各个三维模型提供指令。因而,在研究在一个作业空间引入多个作业机器人的情况下也能够应对。
(6)所述实施方式是一种作业机器人示教数据生成方法,包括以下步骤:在显示部显示表示要设置作业机器人的实际的作业空间的虚拟空间,并且在显示部显示将从存储于存储部的多个作业机器人各自的三维模型中选择出的至少一个三维模型以配置在所述虚拟空间内的状态进行显示;根据用于使三维模型进行动作的指令来使显示于所述显示部的所述三维模型进行动作;以及基于进行了动作的所述三维模型的运动数据来生成所述作业机器人的示教数据。
(7)在所述示教数据生成方法中,也可以还包括以下步骤:将所述示教数据转换为使所述作业机器人进行动作的机器人语言。
如以上所说明那样,通过所述实施方式,能够减轻基于离线教学的教学作业的负担。
Claims (7)
1.一种作业机器人示教数据生成装置,具备:
存储部,其存储有多个作业机器人各自的三维模型;
显示部,其显示表示要设置作业机器人的实际的作业空间的虚拟空间,并且将从存储于所述存储部的所述多个作业机器人各自的三维模型中选择出的至少一个三维模型以配置在所述虚拟空间内的状态进行显示;
动作控制部,其根据用于使三维模型进行动作的指令来使显示于所述显示部的所述三维模型进行动作;以及
示教数据生成部,其基于通过所述动作控制部而进行了动作的所述三维模型的运动数据来生成所述作业机器人的示教数据。
2.根据权利要求1所述的作业机器人示教数据生成装置,其特征在于,
所述虚拟空间是使用通过照相机拍摄得到的所述作业空间的摄影图像、通过三维计算机辅助设计制作的表示所述作业空间的数据、或者通过三维扫描机或激光扫描机扫描得到的所述作业空间的扫描图像来制作的。
3.根据权利要求1或者2所述的作业机器人示教数据生成装置,其特征在于,
还具备转换部,该转换部用于将所述示教数据转换为使所述作业机器人进行动作的机器人语言。
4.根据权利要求1~3中的任一项所述的作业机器人示教数据生成装置,其特征在于,
所述指令包括:通过操作鼠标输出使得显示于所述显示部的所述三维模型运动的信号,根据所述作业机器人的小型模型的运动而输出的信号,或者从为了使显示于所述显示部的所述三维模型运动而提供的声音信息转换而成的指令。
5.根据权利要求1~4中的任一项所述的作业机器人示教数据生成装置,其特征在于,
在所述显示部显示从所述多个作业机器人的三维模型中选择出的多个作业机器人的三维模型,
所述动作控制部构成为接受使显示于所述显示部的多个所述三维模型中的哪个三维模型进行动作的指令。
6.一种作业机器人示教数据生成方法,包括以下步骤:
在显示部显示表示要设置作业机器人的实际的作业空间的虚拟空间,并且在所述显示部将从存储于存储部的多个作业机器人各自的三维模型中选择出的至少一个三维模型以配置在所述虚拟空间内的状态进行显示;
根据用于使三维模型进行动作的指令来使显示于所述显示部的所述三维模型进行动作;以及
基于进行了动作的所述三维模型的运动数据来生成所述作业机器人的示教数据。
7.根据权利要求6所述的作业机器人示教数据生成方法,其特征在于,
还包括以下步骤:将所述示教数据转换为使所述作业机器人进行动作的机器人语言。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014-118065 | 2014-06-06 | ||
JP2014118065A JP2015229234A (ja) | 2014-06-06 | 2014-06-06 | 作業ロボットの教示データ生成装置及び教示データ生成方法 |
PCT/JP2015/064370 WO2015186508A1 (ja) | 2014-06-06 | 2015-05-19 | 作業ロボットの教示データ生成装置及び教示データ生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106457570A true CN106457570A (zh) | 2017-02-22 |
Family
ID=54766583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580030218.4A Pending CN106457570A (zh) | 2014-06-06 | 2015-05-19 | 作业机器人示教数据生成装置以及示教数据生成方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20170197308A1 (zh) |
JP (1) | JP2015229234A (zh) |
KR (1) | KR20170016436A (zh) |
CN (1) | CN106457570A (zh) |
DE (1) | DE112015002687T5 (zh) |
TW (1) | TW201606467A (zh) |
WO (1) | WO2015186508A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108527320A (zh) * | 2018-03-30 | 2018-09-14 | 天津大学 | 一种基于三维鼠标的协作机器人引导示教方法 |
CN110394779A (zh) * | 2018-04-25 | 2019-11-01 | 发那科株式会社 | 机器人的模拟装置 |
CN111843986A (zh) * | 2019-04-26 | 2020-10-30 | 发那科株式会社 | 机器人示教装置 |
CN112045673A (zh) * | 2019-06-07 | 2020-12-08 | 发那科株式会社 | 离线编程装置、机器人控制装置及增强现实系统 |
CN114683288A (zh) * | 2022-05-07 | 2022-07-01 | 法奥意威(苏州)机器人系统有限公司 | 机器人展示和控制方法、装置及电子设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6298035B2 (ja) * | 2015-12-17 | 2018-03-20 | ファナック株式会社 | モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置 |
GB2551769B (en) * | 2016-06-30 | 2020-02-19 | Rolls Royce Plc | Methods, apparatus, computer programs and non-transitory computer readable storage mediums for controlling a robot within a volume |
JP7199073B2 (ja) * | 2017-10-20 | 2023-01-05 | 株式会社キーレックス | 垂直多関節ロボットの教示データ作成システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10171517A (ja) * | 1996-12-06 | 1998-06-26 | Honda Motor Co Ltd | オフラインティーチング方法 |
CN1939678A (zh) * | 2005-09-28 | 2007-04-04 | 发那科株式会社 | 机器人的离线示教装置 |
WO2011001675A1 (ja) * | 2009-06-30 | 2011-01-06 | 株式会社アルバック | ロボットのティーチング装置及びロボットのティーチング方法 |
CN203197922U (zh) * | 2013-04-03 | 2013-09-18 | 华中科技大学 | 一种基于以太网通信的工业机器人示教盒 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6282406A (ja) * | 1985-10-08 | 1987-04-15 | Toshiba Corp | 教示デ−タ作成装置 |
JP2992962B2 (ja) * | 1990-03-31 | 1999-12-20 | マツダ株式会社 | 計算機シミュレーションによるロボットのティーチング装置 |
JP2658492B2 (ja) * | 1990-04-24 | 1997-09-30 | 松下電工株式会社 | ロボットの作業教示方法 |
JPH1158011A (ja) * | 1997-08-12 | 1999-03-02 | Kawasaki Steel Corp | 箱型内面ブロック溶接方法 |
JPH11134017A (ja) * | 1997-10-27 | 1999-05-21 | Honda Motor Co Ltd | オフラインティーチング方法 |
JP3076841B1 (ja) * | 1999-03-18 | 2000-08-14 | 工業技術院長 | 実環境適応型ロボットの教示プログラム作成方法 |
JP2001216015A (ja) * | 2000-01-31 | 2001-08-10 | Iwate Prefecture | ロボットの動作教示装置 |
JP3713021B2 (ja) * | 2003-02-17 | 2005-11-02 | 松下電器産業株式会社 | 生活空間用の物品取扱いシステム及びロボット操作装置 |
JP4574580B2 (ja) | 2006-03-30 | 2010-11-04 | 株式会社小松製作所 | 作業ロボットのオフラインティーチング装置 |
EP1842631B1 (en) * | 2006-04-03 | 2008-11-19 | ABB Research Ltd | Apparatus and method for automatic path generation for an industrial robot |
JP2008020993A (ja) | 2006-07-11 | 2008-01-31 | Tookin:Kk | 作業用ロボットの教示データ作成装置 |
JP5665333B2 (ja) * | 2010-03-10 | 2015-02-04 | キヤノン株式会社 | 情報処理装置および情報処理装置の制御方法 |
-
2014
- 2014-06-06 JP JP2014118065A patent/JP2015229234A/ja active Pending
-
2015
- 2015-05-19 US US15/315,285 patent/US20170197308A1/en not_active Abandoned
- 2015-05-19 KR KR1020177000131A patent/KR20170016436A/ko unknown
- 2015-05-19 DE DE112015002687.8T patent/DE112015002687T5/de not_active Withdrawn
- 2015-05-19 WO PCT/JP2015/064370 patent/WO2015186508A1/ja active Application Filing
- 2015-05-19 CN CN201580030218.4A patent/CN106457570A/zh active Pending
- 2015-06-05 TW TW104118397A patent/TW201606467A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10171517A (ja) * | 1996-12-06 | 1998-06-26 | Honda Motor Co Ltd | オフラインティーチング方法 |
CN1939678A (zh) * | 2005-09-28 | 2007-04-04 | 发那科株式会社 | 机器人的离线示教装置 |
WO2011001675A1 (ja) * | 2009-06-30 | 2011-01-06 | 株式会社アルバック | ロボットのティーチング装置及びロボットのティーチング方法 |
CN203197922U (zh) * | 2013-04-03 | 2013-09-18 | 华中科技大学 | 一种基于以太网通信的工业机器人示教盒 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108527320A (zh) * | 2018-03-30 | 2018-09-14 | 天津大学 | 一种基于三维鼠标的协作机器人引导示教方法 |
CN108527320B (zh) * | 2018-03-30 | 2021-08-13 | 天津大学 | 一种基于三维鼠标的协作机器人引导示教方法 |
CN110394779A (zh) * | 2018-04-25 | 2019-11-01 | 发那科株式会社 | 机器人的模拟装置 |
CN111843986A (zh) * | 2019-04-26 | 2020-10-30 | 发那科株式会社 | 机器人示教装置 |
CN112045673A (zh) * | 2019-06-07 | 2020-12-08 | 发那科株式会社 | 离线编程装置、机器人控制装置及增强现实系统 |
CN114683288A (zh) * | 2022-05-07 | 2022-07-01 | 法奥意威(苏州)机器人系统有限公司 | 机器人展示和控制方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
TW201606467A (zh) | 2016-02-16 |
US20170197308A1 (en) | 2017-07-13 |
JP2015229234A (ja) | 2015-12-21 |
WO2015186508A1 (ja) | 2015-12-10 |
KR20170016436A (ko) | 2017-02-13 |
DE112015002687T5 (de) | 2017-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106457570A (zh) | 作业机器人示教数据生成装置以及示教数据生成方法 | |
KR102334995B1 (ko) | 구축가능성 분석에 기초한 프로젝트들의 계획 및 적응 | |
Leu et al. | CAD model based virtual assembly simulation, planning and training | |
CN106041928B (zh) | 一种基于工件模型的机器人作业任务生成方法 | |
Wolfartsberger et al. | A virtual reality supported 3D environment for engineering design review | |
Weichel et al. | SPATA: Spatio-tangible tools for fabrication-aware design | |
JP2017094406A (ja) | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム | |
JP2008544341A (ja) | 3dシミュレーションを生成するためのシステム及び方法 | |
Liu et al. | A survey of immersive technologies and applications for industrial product development | |
JP2018008347A (ja) | ロボットシステムおよび動作領域表示方法 | |
JP2021512798A (ja) | 3次元構造物の設計、製作、および組立のためのシステムおよびワークステーション | |
Balzerkiewitz et al. | The evolution of virtual reality towards the usage in early design phases | |
JP2003150218A (ja) | シミュレーション装置 | |
Schäffer et al. | Seven Levels of Detail to structure use cases and interaction mechanism for the development of industrial Virtual Reality applications within the context of planning and configuration of robot-based automation solutions | |
JP3614824B2 (ja) | 脚式移動ロボットのための動作編集装置及び動作編集方法 | |
JP2020175471A (ja) | 情報処理装置、情報処理方法、プログラム、及び記録媒体 | |
Dashti et al. | Experimental evaluation of virtual pottery systems | |
JP2009166172A (ja) | ロボットのシミュレーション方法及びロボットのシミュレーション装置 | |
Talaba et al. | Virtual reality in product design and robotics | |
Ding et al. | A human-guided vision-based measurement system for multi-station robotic motion platform based on v-rep | |
Kwon et al. | Design of a VR prototyping system based on a haptic controller | |
TWI828369B (zh) | 機器人模型的自動建立方法 | |
Stone | Virtual reality: A tool for telepresence and human factors research | |
WANG | An Integrated Augmented Reality Method to Assembly Simulation and Guidance | |
TW202416167A (zh) | 機器人模型的自動建立方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170222 |