CN104002296B - 机器人模拟器、机器人示教装置以及机器人示教方法 - Google Patents

机器人模拟器、机器人示教装置以及机器人示教方法 Download PDF

Info

Publication number
CN104002296B
CN104002296B CN201410053868.8A CN201410053868A CN104002296B CN 104002296 B CN104002296 B CN 104002296B CN 201410053868 A CN201410053868 A CN 201410053868A CN 104002296 B CN104002296 B CN 104002296B
Authority
CN
China
Prior art keywords
robot
virtual
virtual image
lever
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410053868.8A
Other languages
English (en)
Other versions
CN104002296A (zh
Inventor
桑原康一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Publication of CN104002296A publication Critical patent/CN104002296A/zh
Application granted granted Critical
Publication of CN104002296B publication Critical patent/CN104002296B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40091Tele-programming by graphical simulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40311Real time simulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40324Simulation, modeling of muscle, musculoskeletal dynamical system

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

本发明提供一种与操作者的熟练度无关,使操作者能凭直觉容易地进行操作的机器人模拟器、机器人示教装置和机器人示教方法。机器人模拟器具有生成部、显示部、显示控制部及模拟指示部。生成部生成虚拟图像,其中包含:对具有至少一个轴的实际的机器人进行图像化的虚拟机器人、和能对以所述虚拟机器人的规定的控制点为原点的三维坐标轴进行操作的操作柄。显示控制部使由所述生成部生成的所述虚拟图像显示在所述显示部上。模拟指示部在接到操作者对所述操作柄进行的操作时,取得基于该操作的所述控制点的位移量和所述三维坐标轴的旋转量中的至少一方,使所述生成部根据取得的位移量和/或旋转量而再生成改变了所述机器人的姿态的所述虚拟图像。

Description

机器人模拟器、机器人示教装置以及机器人示教方法
技术领域
本发明涉及一种机器人模拟器、机器人示教装置以及机器人示教方法。
背景技术
现有技术中公开有多种如下这样的机器人模拟器,即,在使机器人进行规定的加工作业等时,由机器人模拟器预先对机器人的动作进行模拟计算,在计算机的显示器等上进行图解显示。
通过使用所述机器人模拟器,操作者(operator)不必使机器人执行实际的动作,可以通过图解显示来检验机器人是否与障碍物干涉,并且制作示教数据。
然而,制作示教数据的操作需要操作者具有一定程度的熟练度。
对此,近年来有人提出了如下这样一种方法,即,在触摸面板上显示机器人的图解图像,在图解图像的周围显示触摸键(touchkey),触摸键采用“上”、“下”、“左”、“右”这样的表示动作方向的文字,操作者对所述触摸键进行操作,从而能够使操作简单、容易(例如,参照下述专利文献1)。
现有技术文献
专利文献
专利文献1:日本发明专利授权公报第3901772号
然而,对于现有技术中的机器人模拟器而言,与操作者熟练度无关,使操作者能够凭直觉容易地操作机器人这一点上还有改进的余地。
例如,在如上所述地在显示使用表示动作方向的文字的触摸键时,如果机器人具有多个轴、能够在较多的方向上进行移动,此时,需要显示多个触摸键,这有可能反而造成不易操作。
另外,由于上述“左”、“右”这样的文字所表示的方向不是绝对方向,而是相对方向,因而,可想到操作者难以凭直觉掌握机器人的动作方向。
发明内容
本发明所要解决的问题
鉴于上述问题,作出了本发明的一个实施方式,其目的在于,提供一种与操作者的熟练度无关,使操作者能够凭直觉容易地进行操作的机器人模拟器、机器人示教装置以及机器人示教方法。
本发明一个实施方式的机器人模拟器具有生成部、显示部、显示控制部、以及模拟指示部。所述生成部生成虚拟图像,该虚拟图像中包含:对具有至少一个轴的实际的机器人进行图像化的虚拟机器人、以及能够对以所述虚拟机器人的规定的控制点为原点的三维坐标轴进行操作的操作柄。所述显示部显示图像。所述显示控制部使由所述生成部生成的所述虚拟图像显示在所述显示部上。所述模拟指示部在接收到操作者对所述操作柄进行的操作时,取得基于该操作的所述控制点的位移量以及所述三维坐标轴的旋转量中的至少一方,使所述生成部根据所取得的所述位移量及/或旋转量而再生成改变了所述机器人的姿态的所述虚拟图像。
发明效果
采用上述的一个实施方式,与操作者的熟练度无关,使操作者能够凭直觉容易地对机器人模拟器进行操作
附图说明
图1是表示包含实施方式涉及的机器人模拟器的机器人系统的整体结构的示意图。
图2是表示实施方式涉及的机器人模拟器的结构的框图。
图3A是表示显示在显示部上的虚拟图像的一例的示意图(其1)。
图3B为表示使鼠标光标C靠近一个轴时的一例的示意图。
图3C为引导线的说明图。
图3D是表示显示在显示部上的虚拟图像的一例的示意图(其2)。
图4是表示控制点信息的设定例的图。
图5A为表示操作柄的一例的图。
图5B为位移柄的说明图。
图5C为旋转柄的说明图。
图6A是表示位移柄被操作时的模拟动作的具体例子的图(其1)。
图6B是表示位移柄被操作时的模拟动作的具体例子的图(其2)。
图6C是表示位移柄被操作时的模拟动作的具体例子的图(其3)。
图7A是表示旋转柄被操作时的模拟动作的具体例子的图(其1)。
图7B是表示旋转柄被操作时的模拟动作的具体例子的图(其2)。
图7C是表示旋转柄被操作时的模拟动作的具体例子的图(其3)。
图8A为表示肘角动作的操作柄被操作时的模拟动作的具体例子的图(其1)。
图8B为表示肘角动作的操作柄被操作时的模拟动作的具体例子的图(其2)。
图8C为表示肘角动作的操作柄被操作时的模拟动作的具体例子的图(其3)。
图9A是表示选择联动动作时的模拟动作的具体例子的图(其1)。
图9B是表示选择联动动作时的模拟动作的具体例子的图(其2)。
附图标记说明
1、机器人系统;10、机器人模拟器;11、模拟器控制装置;12、显示部;13、操作部;14、示教信息存储部;20、机器人控制装置;30、机器人;31、第一臂;32、第二臂;33、躯干部;111、控制部;111a、图像生成部;111b、显示控制部;111c、操作接收部;111d、操作量取得部;111e、模拟指示部;111f、示教点取得部;111g、登录部;112、存储部;112a、模型信息;112b、控制点信息;120、显示窗口;B、轴;B1~B5、输入键;C、鼠标光标;E、轴;EP、端点;GL、引导线表示;H、H1~H6、操作柄;HRx、HRy、HRz、旋转柄;Hx、Hy、Hz、位移柄;L、轴;M、模型;P1、下拉菜单;PV、轴;R、轴;S、轴;T、轴;TCP、控制点;U、轴。
具体实施方式
下面参照附图对本发明的机器人模拟器、机器人示教装置以及机器人示教方法的具体实施方式进行详细的说明。另外,下述的实施方式并不用以对本发明进行限定。
另外,在下面,以在LCD等显示部上显示机器人以及其周边设备的三维模型的图解图像的机器人模拟器为例进行说明。另外,在下面,三维模型的图解图像记为“虚拟图像”。
图1是表示包含实施方式涉及的机器人模拟器10的机器人系统1的整体结构的示意图。
如图1所示,机器人系统1具有机器人模拟器10、机器人控制装置20、以及机器人30。另外,机器人模拟器10具有模拟器控制装置11、显示部12、操作部13、以及示教信息存储部14。
模拟器控制装置11是对整个机器人模拟器10进行控制的控制器,包含计算处理装置与存储装置等。另外,模拟器控制装置11与显示部12、操作部13以及示教信息存储部14这些构成机器人模拟器10的各装置以能够传递信息的方式连接。
并且,模拟器控制装置11根据操作者通过操作部13进行的操作,向显示部12输出对机器人的动作进行模拟计算的机器人30的虚拟图像。
另外,模拟器控制装置11可以根据操作者同样是通过操作部13进行的操作,从机器人30的虚拟图像中取得机器人30的示教点并登录在示教信息存储部14中。
显示部12是所谓的LCD等显示设备。另外,操作部13是鼠标等定点设备。另外,操作部13不是必须由硬件部件构成,例如也可以是显示在触摸面板显示器上的触摸键等软件部件。
示教信息存储部14是登录有关机器人30的“示教点”的信息的数据库。
此处,“示教点”是指,使机器人30进行再生动作时机器人30的各关节应当经过的目标位置的信息,例如,在对机器人30的各轴进行驱动的伺服电机上设有编码器时,各编码器的脉冲值作为“示教点”被存储。由于机器人30根据多个示教点的信息进行动作,因而,在示教信息存储部14中多个示教点是与机器人30的每一动作(示教程序)相关联地被存储的。
换言之,在机器人30的示教程序中包含多个示教点以及各示教点之间的插补动作命令、对末端执行器的动作命令等组合信息,示教信息存储部14针对机器人30的每个示教程序存储包含在其中的示教点的信息。并且,在机器人30进行再生动作时,机器人30按照所述示教程序进行动作。
示教信息存储部14与作为控制实际的机器人30的动作的控制器的机器人控制装置20以能够传送信息的方式相连接,机器人控制装置20根据所述示教信息存储部14中所登录的示教点控制机器人30的各种动作。
另外,在图1中,示教信息存储部14(机器人模拟器10)与机器人控制装置20相连接,然而只要能够将机器人模拟器10中登录的示教点的信息保存在机器人控制装置20内的规定的存储部(省略图示)中,示教信息存储部14(机器人模拟器10)也可不与机器人控制装置20相连接。
例如,可以将机器人模拟器10中登录的示教点的信息复制在USB(UniversalSerialBus)存储器等介质中,之后,将该介质连接在机器人控制装置20上,通过规定的操作将示教点的信息保存在机器人控制装置20内的规定的存储部(省略图示)中。
另外,在图1中,为了易于说明,例示了分别独立构成示教信息存储部14与模拟器控制装置11,然而,也可以将示教信息存储部14形成为模拟器控制装置11内部的存储部。
本实施方式中的机器人30为具有第一臂31与第二臂32这两个臂部以及躯干部33的双臂机器人。躯干部33能够相对于固定在地面等上的基台部(省略附图标记)以能绕轴PV进行转动(参照图中的箭头101)的方式设置。
第一臂31作为左臂设置在躯干部33上。具体而言,第一臂31由多个连杆构成,例如,具有能够分别绕轴S、轴L、轴E以及轴U进行旋转的关节(参照图中箭头102~105)。
另外,第一臂31还具有能够分别绕轴R、轴B以及轴T进行旋转的关节(参照图中的箭头106~108)。另外,第一臂31还内置有使这些各关节动作的致动器。另外,作为致动器而言,可以适当地采用伺服电机。伺服电机根据来自于机器人控制装置20的动作指示对第一臂31的各关节进行驱动。
另外,在绕轴T进行旋转的前端可动部上可以安装作为末端执行器的手(省略图示)。另外,根据机器人30所进行的作业的内容,有时手上保持规定的操作工具(下面记为“工具”)。
即,图1所例示的第一臂31具有7个轴(S、L、E、U、R、B、T)。这7个轴中包含作为冗余轴的上述轴E,能够在不改变工具的位置与姿态的状态下仅改变肘部的角度,即能够进行不改变工具的位置与姿态而仅改变肘部的角度的肘角动作。第一臂31例如以肘为界分为上臂与下臂,此时,上述轴E为沿上臂的延伸方向延伸的旋转轴。关于肘角动作的模拟,将在后面用图8A~图8C进行说明。
第二臂32作为右臂设置在躯干部33上。其具体的结构,除了与第一臂31在左右位置上存在不同外,其他结构大致相同,因而在此省略对其的说明。
另外,在机器人模拟器10中,将第一臂31、第二臂32与躯干部33分别视为独立的控制单位。另外,在下面的说明中,有时将操作者提供模拟指示时被选择的控制单位中的处于选择中的控制单位称为“操作对象”。
另外,在图1中,作为机器人30而例示双臂机器人,然而,适用于机器人系统1中的机器人可以是单臂机器人,也可以是具有两个以上的臂的多臂机器人。另外,机器人30可以设有多个。
下面,使用图2说明实施方式涉及的机器人模拟器10的功能框。图2是实施方式涉及的机器人模拟器10的框图。另外,在图2中仅示出说明机器人模拟器10所需的结构要素而省略对一般性结构要素的图示。
另外,在使用图2进行的说明中,主要对模拟器控制装置11的内部结构进行说明,有时会简要地对图1中已经表示的显示部12、操作部13以及示教信息存储部14进行说明。
如图2所示,模拟器控制装置11具有控制部111与存储部112。控制部111具有图像生成部111a、显示控制部111b、操作接收部111c、操作量取得部111d、模拟指示部111e、示教点取得部111f、以及登录部111g。其中,图像生成部111a、显示控制部111b、操作接收部111c、操作量取得部111d、模拟指示部111e、示教点取得部111f、以及登录部111g的功能,也可以视为控制部111的功能。存储部112用于存储模型信息112a与控制点信息112b。
图像生成部111a根据模型信息112a与控制点信息112b生成机器人30或周边设备的虚拟图像。模型信息112a是含有按照机器人30的种类与周边设备的种类预先定义的绘图信息的信息。
另外,控制点信息112b是预先对机器人30的控制点进行定义的信息。图像生成部111a例如生成虚拟图像,使虚拟图像中包含能够对以所述控制点为原点的三维坐标轴进行操作的操作柄(参见后述)等。另外,关于控制点信息112b的详细内容,将在后面使用图4进行说明。
另外,图像生成部111a将所生成的虚拟图像输出给显示控制部111b。显示控制部111b将从图像生成部111a接收的虚拟图像显示在显示部12上。
此处,使用图3A~图3D对由图像生成部111a生成、并通过显示控制部111b而在显示部12中显示的虚拟图像的一例进行说明。
图3A与图3D是表示显示在显示部12上的虚拟图像35的一例的示意图(其1以及其2)。另外,图3B为表示例如使鼠标光标C靠近一个轴时的一例的示意图。另外,图3C为引导线的说明图。另外,在图3A与图3D中,省略对实际的机器人30以外的周边设备进行描绘的虚拟图像。
如图3A所示,在作为显示部12的一个显示区域的显示窗口120中显示有虚拟图像35。虚拟图像35中包含将实际的机器人30图像化显示在显示窗口120上的虚拟机器人30'。另外,在虚拟图像中包含规定的控制点以及能够对以所述控制点为原点的三维坐标轴进行操作的操作柄。
例如,在图3A所示的虚拟图像35中包含控制点TCP以及以控制点TCP为原点的三维坐标轴的操作柄H1在内的操作柄H1~H5。这些操作柄H1~H5是能够供操作者通过操作部13例如进行拖动操作的操作部件。
具体而言,操作柄H1是用于接受对虚拟的第一臂31'进行的示教操作的操作部件。另外,如图3A所示,操作柄H1的控制点TCP可设定为安装在第一臂31'的前端上的手的代表点或者手所保持的工具的代表点。
另外,所述控制点TCP这样的规定的控制点的位置由上述的控制点信息112b规定。此处,使用图4对控制点信息112b的设定例进行说明。
图4为表示控制点信息112b的设定例的图。如图4所示,控制点信息112b为例如包含“有无工具”项目、“工具种类”项目、以及“控制点”项目的信息。另外,在图4中,为使说明便于理解,以文本的方式来表示各项目的数据,然而,并不对所存储的数据的数据形式进行限定。
在“有无工具”项目中存储用于规定是否由机器人30的手(省略图示)保持工具、即“有工具”还是“没有工具”的数据。
另外,在“工具种类”项目中存储表示工具的种类的数据。另外,在“控制点”项目中存储表示对应于工具的种类的控制点的位置的数据(例如,表示与手的相对位置的坐标值等)。另外,有时根据由手保持的工具的形状来适当地设定相对于手的操作柄的三维坐标轴的姿态,就能够使操作者容易地对虚拟机器人30'进行操作。此时,也可以将表示操作柄的姿态的数据(例如,相对于手的三维坐标轴的姿态等)存储在“控制点”项目中。为方便起见,有时将对应于这样的工具所设定的坐标系称为“工具坐标系”。
并且,例如在图3A所示的例子中,假定由手保持“第一工具”,此时,“第一工具”的“前端部”被规定为规定的控制点。
另外,假定由手保持“第二工具”,此时,“第二工具”的“中心部”被规定为规定的控制点。
另外,在“没有工具”时,将预先设定的“手基准点”规定为规定的控制点。
即,可以说,控制点信息112b是将机器人30所使用的工具的种类与对应于所述种类而预先设定的控制点相关联起来的数据库。
并且,上述图像生成部111a从控制点信息112b中取得对应于机器人30假定使用的工具的种类的规定的控制点,根据取得的规定的控制点生成虚拟图像。
另外,关于以所述规定的控制点为原点而生成的操作柄的具体情况,将在后面使用图5A~图5C进行说明。另外,在本实施方式中,根据图4所示的控制点信息112b的设定例,以规定的控制点(即,控制点TCP)为机器人30保持“第一工具”时的该“第一工具”的前端部为例而继续说明。
返回图3A~图3D进行说明。如图3A所示,虚拟图像35中包含虚拟的第二臂32'的操作柄H2、虚拟的躯干部33'的转动动作的操作柄H3、第一臂31'的肘角动作的操作柄H4以及第二臂32'的肘角动作的操作柄H5。
另外,例如,如图3A所示,操作对象是第一臂31'时,其操作柄H1的一例显示为实线。另外,此时,如图3A所示,其他的操作柄H2~H5的一例显示为虚线。此外,也可以将此时的操作柄H1显示为彩色,而将其他的操作柄H2~H5显示为黑白色,从而通过颜色的不同进行区别显示。另外,也可以使操作柄H1比其他的操作柄H2~H5显示得大,从而通过大小来进行区别显示。
或者,可以将包含操作柄H1的第一臂31'显示为彩色,将第二臂32'或与第二臂32'有关的操作柄H5显示为黑白色。如此,通过对作为操作对象的操作柄或臂以外的部分显示为黑白色,就能够使操作者凭直觉识别出作为当前操作对象的操作柄或臂。此处,图3D中示出了显示图像的一例。另外,在图3D中,用虚线来表示显示为黑白色的部分。
如此,在对本实施方式的双臂机器人这样的具有多个臂的机器人进行示教操作时,如图3D所示地对作为预先指定的示教操作对象的臂显示为能够凭直觉对其进行识别的状态,从而能够避免对不是示教目标的臂进行示教的情况发生。
另外,如图3B所示,在第一臂31'是操作对象时,可以在鼠标光标C靠近第一臂31'的一个轴时,显示该轴的操作柄H6。
另外,如图3A所示,可以显示从操作柄H1的控制点TCP铅直向下延伸的引导线GL。另外,在图3A中例示的是引导线GL的端点EP到达地面的情况,然而,如图3C所示,也可以是将引导线GL显示为端点EP到达与任意的模型M接触的状态。另外,可以用红色等醒目的颜色来显示引导线GL,以使操作者容易识别。
如此,通过显示所谓激光指标器状的引导线GL,从而如图3A所示,即使在虚拟图像35为从斜向观察虚拟机器人30'时的图像时,操作者也能够可靠地掌握虚拟机器人30'与周边设备或障碍物之间的位置关系。
即,与操作者的熟练度无关,使操作者能够凭直觉容易地进行高精度的示教,以切实地防止实际的机器人30与周边设备或障碍物干涉。
在图3A以及图3C中,引导线GL铅直向下延伸,然而,可以根据作业空间的形状、周边设备、障碍物的位置等,使引导线GL改为向其他任意方向延伸。
操作者通过操作部13例如对图3A所示的操作柄H1~H5进行操作而发出模拟指示,以使虚拟图像35中的虚拟机器人30'进行模拟动作。关于其具体的例子,将在后面用图5A~图8C进行说明。另外,在本实施方式中,在对操作柄H1~H5进行统称时,有时会记为“操作柄H”。
另外,如图3A所示,在显示窗口120中可设置输入键B1~B5。输入键B1~B5也是能够供操作者通过操作部13进行操作的操作部件。
并且,例如,能对输入键B1以及B2分配切换为单独/联动的功能。在输入键B1被按下时,机器人模拟器10仅使作为操作对象的控制单位(例如,第一臂31')进行模拟动作。
另外,在输入键B2被按下时,机器人模拟器10使作为操作对象的控制单位与其他控制单位(例如,第一臂31'与第二臂32')联动而进行模拟动作。关于联动时的具体例子,将在后面使用图9A与图9B进行说明。
另外,例如,能对输入键B3分配切换为显示/不显示操作柄H1~H5的功能。另外,例如,能对输入键B4分配显示被手保持的工具的名称的功能。
另外,例如,能对输入键B5分配如下登录功能,即在所述输入键B5被按下时,将此刻的虚拟机器人30'的各轴的位置作为示教点登录在示教信息存储部14中。
另外,如图3A所示,在显示窗口120中还设有作为操作部件的下拉菜单P1。能对该下拉菜单P1分配切换操作柄H1、H2的坐标系(例如,机器人坐标/基座坐标/用户坐标/工具坐标等)的功能。
此处,机器人坐标例如可以设定为以第一臂31'与第二臂32'相对于躯干部33'的安装部为原点的坐标系。另外,基座坐标可以设定为以躯干部33'相对于基台部的安装部为原点的坐标系,用户坐标可以设定为以由操作者确定的任意点为原点的坐标系。
如此,通过下拉菜单P1来切换坐标系,从而能够根据所选择的坐标系改变操作柄。例如,在图3A中,操作柄H1根据以控制点TCP为原点的工具坐标系被操作,然而,也可以使其根据世界坐标系(后述)被操作。
另外,通过操作者从下拉菜单P1选择所期望的坐标系,从而图像生成部111a生成虚拟图像35,该虚拟图像35中包含具有对应于所选择的坐标系的正交坐标轴等的操作柄H。
此外,机器人模拟器10可以按照操作者通过操作部13进行的操作,分别驱动显示部12上的虚拟图像35中的虚拟机器人30'的各关节,或者进行在从哪个方向观察虚拟图像的状态下进行显示这样的视点的变更或放大/缩小显示。
另外,可以通过逆运动学计算来求得手或工具到达操作者指定的虚拟图像内的特定点的状态下的虚拟机器人30'的各关节的位置,生成并显示到达状态下的虚拟机器人30'。
另外,可以按照操作者的操作,读取出示教信息存储部14中登录的示教点,显示到达特定的示教点状态下的虚拟机器人30'。但是,由于机器人模拟器具有这样的功能是公知的,因而省略了与本实施方式相关的内容以外的详细说明。
返回图2的说明,对模拟器控制装置11的操作接收部111c进行说明。操作接收部111c接收操作者通过操作部13输入的输入操作,如果所述输入操作与模拟指示有关,将接收到的输入操作通知给操作量取得部111d。另外,用图3A已经表示的例子来说,此处所述的与模拟指示有关的输入操作对应于对操作柄H1~H5的操作。
另外,如果输入操作与示教点的登录指示有关,操作接收部111c将接收到的输入操作通知给示教点取得部111f。另外,用图3A已经表示的例子来说,此处所述的与示教点的登录指示有关的输入操作对应于对输入键B5的操作。
操作量取得部111d对由操作接收部111c通知的输入操作的内容进行解析,取得控制点的位移量以及以所述控制点为原点的三维坐标轴的旋转量,将所取得的位移量与旋转量通知给模拟指示部111e。
模拟指示部111e根据由操作量取得部111d通知的位移量以及旋转量向图像生成部111a发出模拟指示,以使图像生成部111a再生成改变了虚拟机器人30'的姿态的虚拟图像。
并且,图像生成部111a根据从模拟指示部111e接收到的模拟指示再生成虚拟图像,通过显示控制部111b显示在显示部12上。从而进行虚拟图像得以连续变化的模拟动作。
此处,用图5A~图8C对操作柄H的具体操作以及伴随此操作的虚拟图像的模拟动作进行说明。首先使用图5A~图5C从操作手柄H的具体例子开始说明。另外,在下面的说明中,将规定的控制点统一为“控制点TCP”进行说明。
图5A为表示操作柄H的一例的图。另外,图5B为位移柄Hx的说明图。另外,图5C为旋转柄HRz的说明图。
另外,在图5A中,示出了标有大写字母X、Y、Z的三维的XYZ坐标轴,XYZ坐标轴是所谓世界坐标轴等表示整体空间的坐标系,相当于图3A的显示窗口120的左下方显示的XYZ坐标轴。下面所说明的操作柄H的坐标系由与此不同的局部坐标系(工具坐标系等)的xyz坐标轴表示,然而,为方便说明,x轴、y轴、z轴分别平行于X轴、Y轴、Z轴。
如图5A所示,操作柄H是用于对以控制点TCP为原点的xyz坐标轴进行操作的操作部件。在操作柄H中包含位移柄Hx、Hy、Hz,位移柄Hx、Hy、Hz用于针对xyz坐标轴的每一个轴使控制点TCP沿着该一个轴的轴向位移。
另外,位移柄Hx、Hy、Hz分别呈沿着各自相应的xyz坐标轴的一个轴的轴向的立体双向箭头状。另外,位移柄Hx、Hy、Hz分别离开控制点TCP配置。用图3A已经表示的例子来说,这些位移柄Hx、Hy、Hz被包含在操作柄H1与H2中。
另外,如图5A所示,操作柄H中包含旋转柄HRx、HRy、HRz,旋转柄HRx、HRy、HRz用于针对每一个轴使xyz坐标轴绕该一个轴进行旋转。
另外,旋转柄HRx、HRy、HRz分别呈沿着以各自相应的xyz坐标轴的一个轴为中心的旋转方向形成的立体双向箭头状。用图3A已经表示的例子来说,这些旋转柄HRx、HRy、HRz被包含在操作柄H1~H5中。
此处,图5B中选择位移柄Hx并对所述位移柄Hx进行操作为具体例子进行说明。另外,在图5B中,省略了对位移柄Hy、Hz以及旋转柄HRx、HRy、HRz的图示。
如图5B所示,位移柄Hx被操作者通过操作部13进行拖动操作(参照图中的箭头501)。另外,此时,可以沿着对应的x轴方向对位移柄Hx进行拖动操作。
并且,如图5B所示,如果以箭头501所示的拖动操作的拖动量相当于1位移量,那么图像生成部111a使控制点TCP以及以其为原点的xyz坐标轴沿着x轴方向位移1位移量(参见图中的箭头502)。
即,此时,在位移前的控制点TCP在XYZ坐标轴(参照图5A)中的坐标值为(X,Y,Z)=(0,0,0)时,位移后的控制点TCP的坐标值为(X,Y,Z)=(1,0,0),xyz坐标轴以该位移后的控制点TCP为原点而形成。
之后,图像生成部111a根据位移后的控制点TCP以及xyz坐标轴再生成机器人30的虚拟图像,使其进行模拟动作。
当然,如立体双向箭头的形状所示,也可以向与图中箭头501相反的方向对位移柄Hx进行拖动操作。
另外,虽然图5B中没有示出,但是对位移柄Hy进行同样的拖动操作时,控制点TCP以及以其为原点的xyz坐标轴会沿着y轴方向位移,并且,对位移柄Hz进行同样的拖动操作时,控制点TCP以及以其为原点的xyz坐标轴会沿着z轴方向位移。
下面,图5C中选择旋转柄HRz并对所述旋转柄HRz进行操作为具体例子进行说明。另外,在图5C中省略了对位移柄Hx、Hy、Hz以及旋转柄HRx、HRy的图示。
如图5C所示,旋转柄HRz也被操作者通过操作部13进行拖动操作(参照图中的箭头503)。此时,可以用鼠标光标C对旋转柄HRz在沿着以相应的z轴为中心进行旋转的方向上进行拖动操作。
并且,如图5C所示,如果箭头503所示的拖动操作的拖动量相当于30°的旋转量,那么图像生成部111a使xyz坐标轴绕z轴旋转30°(参照图中的箭头504)。
之后,图像生成部111a根据旋转后的xyz坐标轴再生成机器人30的虚拟图像,使其进行模拟动作。
当然,如立体双向箭头的形状所示,也可以向与图中箭头503相反的方向对旋转柄HRz进行拖动操作。此时,xyz坐标轴向与图5C所示的例子相反的方向旋转。
另外,虽然图5C中没有图示,但是对旋转柄HRx进行同样的拖动操作时,xyz坐标轴会绕x轴旋转,对旋转柄HRy进行同样的拖动操作时,xyz坐标轴会绕y轴旋转。
如此,操作柄H包含分别对应于以控制点TCP为原点的xyz坐标轴的位移柄Hx、Hy、Hz以及旋转柄HRx、HRy、HRz,位移柄Hx、Hy、Hz以及旋转柄HRx、HRy、HRz分别形成为双向箭头状。从而,与操作者的熟练度无关,使操作者能够凭直觉容易地进行操作。
另外,操作柄H的形状并不限于图5A所示的例子,例如,位移柄Hx、Hy、Hz以及旋转柄HRx、HRy、HRz可以形成为单向箭头状。
下面,使用图6A~图6C对操作柄H(参照图5A)的位移柄Hz被操作时虚拟图像35上的虚拟机器人30'的模拟动作的具体例子进行说明。图6A~图6C是表示位移柄Hz被操作时的模拟动作的具体例子的图(其1~其3)。
另外,此处,为方便说明,省略了对旋转柄HRx、HRy、HRz的图示。
如图6A所示,显示部12的显示窗口120中显示有虚拟机器人30'。并且,此处,操作者对位移柄Hz向图中箭头601所示的方向进行拖动操作。
此时,如图6B所示,首先,操作柄H沿着z轴方向进行位移,其位移的位移量对应于操作者进行拖动操作的拖动量(参照图中箭头602)。即,控制点TCP以及以控制点TCP为原点的xyz坐标轴整体沿着z轴方向进行位移。
之后,如图6C所示,第一臂31'的前端可动部追随操作柄H进行位移。即,在虚拟图像35中描绘出使第一臂31'向图中箭头603所示方向移动的虚拟机器人30'的模拟动作。
另外,在图6A~图6C中,以对位移柄Hz进行操作时的模拟动作为例进行了说明,然而,不言而喻,对位移柄Hx、Hy进行操作时也会在其各自对应的x轴与y轴上产生同样的动作。
接下来,使用图7A~图7C对操作柄H的旋转柄HRx被操作时虚拟图像35上的虚拟机器人30'的模拟动作的具体例子进行说明。图7A~图7C为表示旋转柄HRx被操作时的模拟动作的具体例子的图(其1~其3)。
另外,此处,为方便说明,省略了对位移柄Hx、Hy、Hz的图示。
如图7A所示,显示部12的显示窗口120上显示有虚拟机器人30'的第一臂31'。并且,此处,操作者对旋转柄HRx向图中箭头701所示的方向进行拖动操作。
此时,如图7B所示,首先,xyz坐标轴绕x轴进行旋转,其旋转量对应于操作者的拖动操作的拖动量(参见图中箭头702)。
之后,如图7C所示,第一臂31'的前端可动部被描绘成追随旋转后的xyz坐标轴。即,此处,被描绘成使前端可动部的朝向沿着图中箭头703所示方向变化的第一臂31'的模拟动作。
另外,在图7A~图7C中,以对旋转柄HRx进行操作时的模拟动作为例进行了说明,然而,不言而喻,对旋转柄HRy、HRz进行操作时也会使其各自对应的x轴与y轴产生同样的动作。
接下来,使用图8A~图8C对肘角动作的操作柄H5被操作时虚拟图像上的虚拟机器人30'的模拟动作的具体例子进行说明。图8A~图8C为表示肘角动作的操作柄H5被操作时的模拟动作的具体例子的图(其1~其3)。
另外,此处,选择第二臂32'所对应的操作柄H5进行说明,然而,由于也能够对第一臂31'所对应的操作柄H4进行同样的操作,因而省略其说明。
如图8A所示,肘角动作的操作柄H5上包含旋转柄(参照图5的旋转柄HRz),由操作者利用鼠标光标C对该旋转柄进行拖动操作,从而能够使该旋转柄绕铅直轴旋转。
并且,此处,如图8B所示,操作者向图中箭头801所示方向进行拖动操作。
此时,如图8B所示,操作柄H5的旋转柄绕铅直轴旋转,其旋转量对应于操作者进行的拖动操作的拖动量(参照图中箭头802)。
接下来,如图8B所示,第二臂32'被描绘成追随旋转柄的旋转而在控制点TCP位置固定不变的状态下改变肘的角度的状态。即,此处,被描绘成第二臂32'的前端部的位置与姿态保持不变而第二臂32'沿着图中箭头803所示方向转动的肘角动作的模拟动作。
并且,如图8C所示,如果操作者向图中箭头803所示方向进行拖动操作时,操作柄H5的旋转柄与此相应地向图中箭头805所示方向旋转。
并且,随之,第二臂32'被描绘成追随旋转柄的旋转而进行沿图中箭头806所示方向进行肘角动作的模拟动作。
通过进行这样的操作,操作者能够做到,在保持第二臂32'的前端部的位置与姿态不变的状态下,使第二臂32'呈难以与周边设备或障碍物干涉的状态、或使第二臂32'的各轴的关节的旋转量呈不会到达其界限值的状态。
下面,使用图9A以及图9B对图3A所示的输入键B2被按下的状态下选择联动时的模拟动作进行说明。图9A与图9B是表示选择联动时的模拟动作的具体例子的图(其1与其2)。
首先,在选择联动时,将第一臂31'作为操作对象。另外,此处,如图9A所示,对操作柄H1的位移柄向图中箭头901所示方向进行拖动操作。
此时,如图9B所示,第一臂31'被描绘成其前端可动部向图中箭头902所示方向上升,其位移量对应于拖动操作的操作量。此时,如果选择联动时,那么第二臂32'也被描绘成其前端可动部与第一臂31'同时并且以与第一臂31'相同的位移量向图中箭头903所示的方向上升。
即,操作者不必分别使各个臂进行模拟动作,仅需对一方的臂的操作柄进行拖动操作即可。对于双臂机器人而言,在不改变第一臂31'与第二臂32'的各个前端部相对于手或工具的位置关系以及姿态关系的状态下进行模拟动作等时,这样的功能是有用的。
另外,并不限于选择联动时,如图9B中的斜向阴影线部位所示,可以通过模拟动作清楚地表示出各轴的关节的当前旋转量距离其界限值还差多少。例如,图9B清楚地表示出第二臂32'的前端可动部根据拖动操作而上升时该第二臂32'的轴U的关节的旋转量接近或者达到了界限值。
另外,虽然在图9B中没有表示,不过有关该界限值的清楚表示,例如可以在距离界限值还有10%的程度时显示为橙色,还有3%的程度时显示为红色,即,通过颜色的不同来进行区分。
说明此时的一个具体的例子,例如,在U轴的旋转范围为从规定的原点起±100°时,从U轴的基准位置起的旋转量的绝对值超过90°时显示为橙色,若旋转量的绝对值超过97°是显示为红色。
通过这样的显示,能够使操作者凭直觉容易地知晓哪些关节处于接近界限值的状态,促使操作者进行操作以使所述关节处于远离界限值的状态。
返回图2的说明,对模拟器控制装置11的示教点取得部111f进行说明。示教点取得部111f从操作接收部111c接收输入键B5(参照图3A)被按下的通知,取得所述输入键B5被按下时的虚拟图像35上的虚拟机器人30'的各轴的位置,并将其作为示教点。
另外,示教点取得部111f将所取得的示教点通知给登录部111g。登录部111g将从示教点取得部111f接收到的示教点与机器人的姿态相关联的示教点信息,登录在示教信息存储部14中。
之后,机器人控制装置20根据示教信息存储部14中登录的示教点的组合(示教点信息)控制机器人30的各种动作。因而,可以说示教点取得部111f以及登录部111g是通过示教信息存储部14对机器人30进行示教的“示教部”。
存储部112为硬盘、非易失性存储器这样的存储装置,用于存储模型信息112a以及控制点信息112b。另外,由于模型信息112a以及控制点信息112b的内容已经说明过了,因而在此省略其说明。
在使用图2的说明中,例示了模拟器控制装置11根据预先登录的模型信息112a以及控制点信息112b等而生成机器人30的虚拟图像,然而,可以从与模拟器控制装置11以能够相互通信的方式连接的上级装置依次取得生成图像所需要的信息。
如上所述,实施方式涉及的机器人模拟器具有图像生成部(生成部)、显示部、显示控制部、以及模拟指示部。图像生成部生成虚拟图像,该虚拟图像中包含至少具有冗余轴的机器人以及能够对以所述机器人的规定的控制点为原点的三维坐标轴进行操作的操作柄。
显示部用于显示图像。显示控制部使由上述图像生成部生成的上述虚拟图像显示在所述显示部上。
模拟指示部在接收到操作者对上述操作柄进行的操作时,取得基于该操作的所述控制点的位移量以及所述三维坐标轴的旋转量中的至少一方,使所述生成部根据所取得的所述位移量或旋转量而再生成改变了所述机器人的姿态的所述虚拟图像。
因而,采用实施方式涉及的机器人模拟器,与操作者的熟练度无关,能够使操作者凭直觉容易地进行操作。
另外,在上述实施方式中,举例说明了以虚拟图像上的机器人的各轴的位置作为示教点而取得,并能够作为示教点信息进行登录的机器人模拟器,然而,狭义的机器人模拟器也可能不具有包含示教点取得部11f与登录部111g的示教部以及示教信息存储部14。广义的机器人模拟器是包含以下结构的、对机器人进行示教的机器人示教装置:狭义的机器人模拟器;用于存储示教点信息的示教信息存储部14,该示教点信息中将虚拟图像上任意时刻的机器人的姿态与该机器人的示教点相关联起来;根据上述示教信息存储部14中存储的示教点信息对机器人进行示教的示教部。
另外,在上述实施方式中,举例说明了仅在虚拟图像上进行模拟动作的情况,然而,也可以根据操作者对操作柄进行的操作使机器人实际上进行动作。
另外,在上述实施方式中举例说明了主要将鼠标用作操作部,并由所述鼠标对操作柄进行拖动操作的情况。然而,本发明并不限于此。例如,可以由所谓的多点触控的触摸面板等构成显示部,由操作者对触摸面板进行多点触控操作来拖动操作柄。
另外,在上述实施方式中,说明了以虚拟图像为三维模型的图解图像的情况,然而,对维度数量没有限定,例如可以是二维模型。
对于本领域的技术人员而言,还可以得出进一步的效果以及其他变形例。因而,本发明的范围并不限于上面详细说明的特定的、具有代表性的实施方式。所以在不脱离权利要求书及其等同物所定义的发明的总括性精神或者范围内,可以进行各种变更。

Claims (15)

1.一种机器人模拟器,其特征在于,具有:
生成部,其生成虚拟图像,该虚拟图像中包含:对具有至少一个轴的实际的机器人进行图像化的虚拟机器人、以及能够对以所述虚拟机器人的规定的控制点为原点的三维坐标轴进行操作的操作柄;
显示部;
显示控制部,其使由所述生成部生成的所述虚拟图像显示在所述显示部上;以及
模拟指示部,其在接收到操作者对所述操作柄进行的操作时,取得基于该操作的所述控制点的位移量以及所述三维坐标轴的旋转量中的至少一方,使所述生成部根据所取得的所述位移量及/或所述旋转量而再生成改变了所述虚拟机器人的姿态的所述虚拟图像。
2.根据权利要求1所述的机器人模拟器,其特征在于,
所述操作柄包含位移柄与旋转柄的至少一方,其中,所述位移柄针对所述三维坐标轴的每一个轴,使所述控制点沿着该一个轴的轴向位移,所述旋转柄针对所述三维坐标轴的每一个轴,使所述三维坐标轴绕该一个轴旋转。
3.根据权利要求2所述的机器人模拟器,其特征在于,
所述位移柄呈针对所述三维坐标轴的每一个轴沿着该一个轴的轴向的双向箭头的形状,该双向箭头分别离开所述控制点配置。
4.根据权利要求1、2或3所述的机器人模拟器,其特征在于,
还具有至少能够选择所述三维坐标轴的坐标系的操作部件,
通过由操作者通过所述操作部件选择所期望的坐标系,所述生成部使所述虚拟图像中包含具有对应于被选择的坐标系的所述三维坐标轴的所述操作柄。
5.根据权利要求2或3所述的机器人模拟器,其特征在于,
所述至少一个轴被包含在所述虚拟机器人所具有的臂部中,
所述旋转柄的结构为,能够进行在使所述控制点保持固定不变的状态下改变所述臂部的肘的角度的肘角动作,
所述模拟指示部在接收到对所述旋转柄进行的操作时,使所述生成部再生成表示所述虚拟机器人追随所述旋转柄的旋转而进行所述肘角动作的所述虚拟图像。
6.根据权利要求1~3中任一项所述的机器人模拟器,其特征在于,
所述操作者通过拖动操作对所述操作柄进行操作。
7.根据权利要求5所述的机器人模拟器,其特征在于,
所述实际的机器人为具有两个臂部的双臂机器人,
所述模拟指示部在接收到以一个所述臂部为操作对象对所述操作柄进行的操作时,使所述生成部再生成描绘成以基于所述操作的所述位移量或者所述旋转量使一个所述臂部进行动作、并且以与基于所述操作的所述位移量或者所述旋转量相同的位移量或者旋转量使另一个所述臂部进行动作的所述虚拟图像。
8.根据权利要求1~3中任一项所述的机器人模拟器,其特征在于,
所述生成部生成所述虚拟图像,该虚拟图像中对所述操作柄以及作为该操作柄的操作对象的所述虚拟机器人的部位,与其他所述操作柄以及其他所述虚拟机器人的部位进行区别表示。
9.根据权利要求1~3中任一项所述的机器人模拟器,其特征在于,
所述生成部使所述虚拟图像中包含引导线,该引导线被描绘成从所述控制点向任意方向延伸,并且其端点是与任意模型的交点。
10.根据权利要求9所述的机器人模拟器,其特征在于,
所述任意的方向是铅直向下。
11.一种机器人示教装置,其特征在于,具有:
生成部,其生成虚拟图像,该虚拟图像中包含:对具有至少一个轴的实际的机器人进行图像化的虚拟机器人、以及能够对以所述虚拟机器人的规定的控制点为原点的三维坐标轴进行操作的操作柄;
显示部;
显示控制部,其使由所述生成部生成的所述虚拟图像显示在所述显示部上;
模拟指示部,其在接收到操作者对所述操作柄进行的操作时,取得基于该操作的所述控制点的位移量以及所述三维坐标轴的旋转量中的至少一方,使所述生成部根据所取得的所述位移量及/或所述旋转量而再生成改变了所述虚拟机器人的姿态的所述虚拟图像;
示教信息存储部,其存储示教点信息,该示教点信息将所述虚拟图像的任意时刻的所述虚拟机器人的姿态与该虚拟机器人的示教点关联起来;以及
示教部,其根据所述示教信息存储部中所存储的所述示教点信息对所述机器人进行示教。
12.一种机器人示教方法,其特征在于,包括如下工序:
生成工序,生成虚拟图像,该虚拟图像中包含:对具有至少一个轴的实际的机器人进行图像化的虚拟机器人、以及能够对以所述虚拟机器人的规定的控制点为原点的三维坐标轴进行操作的操作柄;
显示控制工序,使由所述生成工序生成的所述虚拟图像显示在所述显示部上;
模拟指示工序,取得基于操作者对所述操作柄的操作的、所述控制点的位移量以及所述三维坐标轴的旋转量中的至少一方,在所述生成工序中根据所取得的所述位移量及/或所述旋转量而再生成改变了所述机器人的姿态的所述虚拟图像;
存储工序,存储将所述虚拟图像的任意时刻的所述虚拟机器人的姿态与该虚拟机器人的示教点关联起来的示教点信息;以及
示教工序,根据在所述存储工序中所存储的所述示教点信息对所述实际的机器人进行示教。
13.一种包括权利要求11所述的机器人示教装置的机器人系统。
14.根据权利要求13所述的机器人系统,其特征在于,还包含:
所述实际的机器人;
机器人控制装置,其根据所述示教部的示教而控制所述实际的机器人的动作。
15.一种机器人模拟器,其特征在于,具有:
显示部;
控制部,其生成虚拟图像,该虚拟图像中包含:对具有至少一个轴的实际的机器人进行图像化的虚拟机器人、以及能够对以所述虚拟机器人的规定的控制点为原点的三维坐标轴进行操作的操作柄;将生成的所述虚拟图像显示在所述显示部上;以及在接收到操作者对所述操作柄进行的操作时,取得基于该操作的所述控制点的位移量以及所述三维坐标轴的旋转量中的至少一方,根据所取得的所述位移量及/或所述旋转量而再生成改变了所述虚拟机器人的姿态的所述虚拟图像。
CN201410053868.8A 2013-02-21 2014-02-17 机器人模拟器、机器人示教装置以及机器人示教方法 Active CN104002296B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013032170A JP5716769B2 (ja) 2013-02-21 2013-02-21 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
JP2013-032170 2013-02-21

Publications (2)

Publication Number Publication Date
CN104002296A CN104002296A (zh) 2014-08-27
CN104002296B true CN104002296B (zh) 2016-05-18

Family

ID=50114280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410053868.8A Active CN104002296B (zh) 2013-02-21 2014-02-17 机器人模拟器、机器人示教装置以及机器人示教方法

Country Status (6)

Country Link
US (1) US9984178B2 (zh)
EP (1) EP2769810A2 (zh)
JP (1) JP5716769B2 (zh)
KR (1) KR101671569B1 (zh)
CN (1) CN104002296B (zh)
IN (1) IN2014CH00828A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107072728A (zh) * 2014-10-27 2017-08-18 直观外科手术操作公司 用于在反应运动期间监测控制点的系统和方法
US11806875B2 (en) 2014-10-27 2023-11-07 Intuitive Surgical Operations, Inc. Disturbance compensation in computer-assisted devices
US11896326B2 (en) 2014-10-27 2024-02-13 Intuitive Surgical Operations, Inc. System and method for integrated surgical table

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104470687A (zh) * 2012-07-20 2015-03-25 株式会社安川电机 机器人模拟器、机器人示教装置以及机器人示教方法
JP5670525B1 (ja) * 2013-08-21 2015-02-18 ファナック株式会社 工作機械の制御装置
JP6476662B2 (ja) * 2013-09-20 2019-03-06 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP6379902B2 (ja) * 2014-09-16 2018-08-29 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP6379921B2 (ja) * 2014-09-19 2018-08-29 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP6497021B2 (ja) * 2014-10-01 2019-04-10 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
EP3212148A4 (en) 2014-10-27 2018-07-11 Intuitive Surgical Operations, Inc. System and method for integrated surgical table icons
EP3212150B1 (en) 2014-10-27 2021-08-11 Intuitive Surgical Operations, Inc. System for registering to a surgical table
KR102623373B1 (ko) 2014-10-27 2024-01-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 통합 수술 테이블 운동을 위한 시스템 및 방법
KR102480765B1 (ko) 2014-10-27 2022-12-23 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 브레이크 해제가 능동적으로 제어되는 의료 장치
JP6409605B2 (ja) * 2015-02-09 2018-10-24 トヨタ自動車株式会社 ロボットシステム
KR20160112143A (ko) 2015-03-18 2016-09-28 삼성전자주식회사 전자 장치 및 전자 장치에서의 디스플레이 패널의 화면 업데이트 방법
JP6631279B2 (ja) * 2015-03-19 2020-01-15 株式会社デンソーウェーブ ロボット操作装置、ロボット操作プログラム
US10048851B2 (en) * 2015-03-19 2018-08-14 Denso Wave Incorporated Apparatus for operating robots
US9857962B2 (en) * 2015-03-19 2018-01-02 Denso Wave Incorporated Robot operation apparatus and robot operation program product
JP6676286B2 (ja) * 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
JP6900533B2 (ja) * 2015-05-12 2021-07-07 キヤノン株式会社 情報処理方法、情報処理装置、ロボット装置、情報処理プログラム、およびコンピュータ読み取り可能な記録媒体
CN104959983B (zh) * 2015-05-26 2017-01-18 南京阿福机器人有限公司 机器人手执示教方法
DE102015209773B3 (de) * 2015-05-28 2016-06-16 Kuka Roboter Gmbh Verfahren zur kontinuierlichen Synchronisation einer Pose eines Manipulators und einer Eingabevorrichtung
US10620778B2 (en) * 2015-08-31 2020-04-14 Rockwell Automation Technologies, Inc. Augmentable and spatially manipulable 3D modeling
US20170091999A1 (en) * 2015-09-25 2017-03-30 Rafael Blumenfeld Method and system for determining a configuration of a virtual robot in a virtual environment
WO2017072979A1 (ja) 2015-10-30 2017-05-04 株式会社安川電機 ロボット教示装置、コンピュータプログラム及びロボット教示方法
CN105700481A (zh) * 2016-03-23 2016-06-22 北京光年无限科技有限公司 一种智能机器人动作生成方法及系统
JP6348141B2 (ja) 2016-04-28 2018-06-27 ファナック株式会社 付加軸の状態が含まれる動作プログラムを表示するロボットの制御装置
CN107443389B (zh) * 2016-05-31 2019-12-31 发那科株式会社 机器人控制装置及机器人控制方法
CN107767719A (zh) * 2016-08-17 2018-03-06 天津博诺智创机器人技术有限公司 一种工业机器人模拟训练机
CN106313052B (zh) * 2016-10-20 2019-08-23 机器时代(北京)科技有限公司 机器人编程控制方法及装置
JP6820211B2 (ja) * 2017-02-06 2021-01-27 川崎重工業株式会社 フィルム貼り付け装置及びフィルム貼り付け方法
JP6998660B2 (ja) * 2017-02-21 2022-01-18 株式会社安川電機 ロボットシミュレータ、ロボットシステム及びシミュレーション方法
JP6857052B2 (ja) * 2017-03-03 2021-04-14 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6748019B2 (ja) 2017-04-10 2020-08-26 ファナック株式会社 外力表示機能を有するロボットシステム、処理装置及び教示操作盤
JP7091609B2 (ja) 2017-04-14 2022-06-28 セイコーエプソン株式会社 シミュレーション装置、ロボット制御装置およびロボット
CN107186715B (zh) * 2017-05-25 2020-07-31 深圳市越疆科技有限公司 机械臂的运动控制方法和装置、以及存储介质、计算机
CN107263471B (zh) * 2017-05-25 2020-07-31 深圳市越疆科技有限公司 机械臂的运动控制方法、第三方处理终端和存储介质
CN107081758A (zh) * 2017-05-25 2017-08-22 深圳市越疆科技有限公司 机械臂的运动控制方法、微控制器和存储介质
CN107199564B (zh) * 2017-05-25 2020-07-31 深圳市越疆科技有限公司 机械臂的运动控制方法和装置、以及存储介质、计算机
CN107160391B (zh) * 2017-05-25 2020-07-31 深圳市越疆科技有限公司 机械臂的运动控制方法、第三方处理终端和存储介质
CN107160393A (zh) * 2017-05-25 2017-09-15 深圳市越疆科技有限公司 机械臂的运动控制方法和装置、以及存储介质、计算机
CN107351058A (zh) * 2017-06-08 2017-11-17 华南理工大学 基于增强现实的机器人示教方法
WO2019064914A1 (ja) * 2017-09-26 2019-04-04 日本電産株式会社 ロボット教示装置
JP7087316B2 (ja) * 2017-09-27 2022-06-21 オムロン株式会社 情報処理装置、情報処理方法およびプログラム
KR102001214B1 (ko) * 2017-10-31 2019-10-01 충남대학교산학협력단 가상 현실 기반 양팔로봇 교시 장치 및 방법
JP7155664B2 (ja) * 2017-10-31 2022-10-19 セイコーエプソン株式会社 シミュレーション装置、制御装置およびロボット
JP6385627B1 (ja) * 2017-11-07 2018-09-05 三菱電機株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP6683671B2 (ja) * 2017-11-24 2020-04-22 ファナック株式会社 ジョグ座標系を設定するロボットの制御装置
US11141855B2 (en) * 2018-01-15 2021-10-12 Canon Kabushiki Kaisha Robot system, method of controlling robot arm, recording medium, and method of manufacturing an article
CN109078334B (zh) * 2018-06-21 2020-04-14 广州市世平计算机科技有限公司 一种基于虚拟机器人的vr操作引导及陪练方法和系统
KR102095841B1 (ko) 2018-07-03 2020-04-02 한국로봇융합연구원 다관절 마스터 암이 구비된 장갑형 로봇 시뮬레이터
JP6823018B2 (ja) 2018-08-03 2021-01-27 ファナック株式会社 協調動作支援装置
CN112771438B (zh) 2018-09-26 2023-10-10 美国斯耐普公司 利用二维输入选择对三维深度图像进行深度雕塑
DE202018105721U1 (de) * 2018-10-05 2020-01-20 Fruitcore Gmbh Roboter mit Antriebselement auf der Hauptwelle und Bedienvorrichtung für einen Roboter
JP7251224B2 (ja) * 2019-03-11 2023-04-04 セイコーエプソン株式会社 制御装置およびロボットシステム
JP7048539B2 (ja) 2019-04-26 2022-04-05 ファナック株式会社 振動表示装置、動作プログラム作成装置、およびシステム
DE102019111168B3 (de) 2019-04-30 2020-08-06 Franka Emika Gmbh Vom Messbereich eines Drehmomentsensors eines Robotermanipulators abhängig erzeugbare Kraft
JP7260405B2 (ja) * 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
JP7326911B2 (ja) * 2019-06-20 2023-08-16 オムロン株式会社 制御システムおよび制御方法
KR20210007774A (ko) * 2019-07-12 2021-01-20 엘지전자 주식회사 로봇 시뮬레이터의 표시 방법
WO2021085727A1 (ko) * 2019-10-28 2021-05-06 주식회사 엠앤디 절단로봇 시스템 및 그 시뮬레이션 방법
JP7395990B2 (ja) * 2019-11-25 2023-12-12 セイコーエプソン株式会社 教示装置、制御方法および教示プログラム
JP6819766B1 (ja) 2019-11-27 2021-01-27 株式会社安川電機 シミュレーションシステム、シミュレーション方法、シミュレーションプログラム、ロボットの製造方法、およびロボットシステム
JP7322099B2 (ja) * 2020-03-11 2023-08-07 キヤノン株式会社 情報処理方法、情報処理装置、ロボット装置、プログラム、およびコンピュータ読み取り可能な記録媒体
JP2021154439A (ja) * 2020-03-27 2021-10-07 セイコーエプソン株式会社 教示方法
KR20210121380A (ko) 2020-03-30 2021-10-08 김성희 로봇 제어시스템 및 제어방법
CN111488105B (zh) * 2020-04-17 2021-07-30 北京如影智能科技有限公司 一种机械臂动作流程的生成方法及装置
CN112071144A (zh) * 2020-09-01 2020-12-11 芜湖固高自动化技术有限公司 一种教学仿真平台
CN112659101A (zh) * 2020-12-11 2021-04-16 北京天智航医疗科技股份有限公司 机械臂控制方法、装置、介质及电子设备
CN115338855A (zh) * 2021-05-14 2022-11-15 台达电子工业股份有限公司 双臂机器人组装系统
JP2024048077A (ja) 2022-09-27 2024-04-08 キヤノン株式会社 情報処理装置、情報処理方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、プログラム及び記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101058183A (zh) * 2006-04-18 2007-10-24 发那科株式会社 机器人模拟装置
CN101105715A (zh) * 2006-07-12 2008-01-16 发那科株式会社 机器人系统的模拟装置
CN102672717A (zh) * 2011-03-15 2012-09-19 株式会社安川电机 机器人系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3675004B2 (ja) * 1995-10-04 2005-07-27 株式会社安川電機 ロボットの制御装置
JP3901772B2 (ja) * 1996-11-13 2007-04-04 三菱重工業株式会社 ロボットの教示操作方法
KR100470922B1 (ko) 2002-12-09 2005-03-10 주식회사 두레시스템 웹 쓰리 디 가상현실에서 3차원으로 제작된 각종개체물들의 조합 및 표현과정과 결과물 이용에 따른컨텐츠 서비스 방법
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
JP3708097B2 (ja) * 2003-10-08 2005-10-19 ファナック株式会社 ロボットの手動送り装置
JP2005301365A (ja) * 2004-04-06 2005-10-27 Yushin Precision Equipment Co Ltd シミュレータ機能付き操作コントローラ
FR2946160B1 (fr) * 2009-05-26 2014-05-09 Aldebaran Robotics Systeme et procede pour editer et commander des comportements d'un robot mobile.
KR100968944B1 (ko) 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
JP5601949B2 (ja) * 2010-09-22 2014-10-08 株式会社ダイヘン ロボット制御システム
KR101852428B1 (ko) 2011-03-09 2018-04-26 엘지전자 주식회사 이동 단말기 및 그의 3d객체 제어방법
KR101193211B1 (ko) 2012-04-19 2012-10-19 한국기계연구원 양팔 로봇의 직접 교시 방법
US9092698B2 (en) * 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101058183A (zh) * 2006-04-18 2007-10-24 发那科株式会社 机器人模拟装置
CN101105715A (zh) * 2006-07-12 2008-01-16 发那科株式会社 机器人系统的模拟装置
CN102672717A (zh) * 2011-03-15 2012-09-19 株式会社安川电机 机器人系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107072728A (zh) * 2014-10-27 2017-08-18 直观外科手术操作公司 用于在反应运动期间监测控制点的系统和方法
US11806875B2 (en) 2014-10-27 2023-11-07 Intuitive Surgical Operations, Inc. Disturbance compensation in computer-assisted devices
US11896326B2 (en) 2014-10-27 2024-02-13 Intuitive Surgical Operations, Inc. System and method for integrated surgical table
US12064201B2 (en) 2014-10-27 2024-08-20 Intuitive Surgical Operations, Inc. System and method for monitoring control points during reactive motion

Also Published As

Publication number Publication date
KR20140104917A (ko) 2014-08-29
IN2014CH00828A (zh) 2015-04-24
EP2769810A2 (en) 2014-08-27
JP5716769B2 (ja) 2015-05-13
CN104002296A (zh) 2014-08-27
US9984178B2 (en) 2018-05-29
US20140236565A1 (en) 2014-08-21
KR101671569B1 (ko) 2016-11-01
JP2014161921A (ja) 2014-09-08

Similar Documents

Publication Publication Date Title
CN104002296B (zh) 机器人模拟器、机器人示教装置以及机器人示教方法
Gadre et al. End-user robot programming using mixed reality
Pérez et al. Industrial robot control and operator training using virtual reality interfaces
De Giorgio et al. Human-machine collaboration in virtual reality for adaptive production engineering
DE102019002898B4 (de) Robotersimulationsvorrichtung
CN110405730B (zh) 一种基于rgb-d图像的人机物交互机械臂示教系统
CN103213125B (zh) 具有3d显示的机器人教学装置
Hashimoto et al. Touchme: An augmented reality based remote robot manipulation
Akan et al. Intuitive industrial robot programming through incremental multimodal language and augmented reality
US20150151431A1 (en) Robot simulator, robot teaching device, and robot teaching method
Fang et al. Novel AR-based interface for human-robot interaction and visualization
KR101876845B1 (ko) 로봇 제어 장치
CN104002297A (zh) 示教系统、示教方法及机器人系统
Marín et al. The UJI online robot: An education and training experience
JPS6179589A (ja) ロボツト運転装置
Kulik Building on realism and magic for designing 3d interaction techniques
CN113641239A (zh) 用于沉浸式人机交互的方法
Ang et al. Multipoint haptic mediator interface for robotic teleoperation
Su et al. Effective manipulation for industrial robot manipulators based on tablet PC
Tzafestas Virtual and mixed reality in telerobotics: A survey
Bruns Integrated real and virtual prototyping
Stone Virtual reality: A tool for telepresence and human factors research
Sheridan Teleoperation, telerobotics, and telepresence: A progress report
Freund et al. Virtual reality for intelligent and interactive operating, training, and visualization systems
Freund et al. Projective Virtual Reality in space applications: A telerobotic ground station for a space mission

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant