CN110394780B - 机器人的仿真装置 - Google Patents

机器人的仿真装置 Download PDF

Info

Publication number
CN110394780B
CN110394780B CN201910329069.1A CN201910329069A CN110394780B CN 110394780 B CN110394780 B CN 110394780B CN 201910329069 A CN201910329069 A CN 201910329069A CN 110394780 B CN110394780 B CN 110394780B
Authority
CN
China
Prior art keywords
robot
simulation
unit
model
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910329069.1A
Other languages
English (en)
Other versions
CN110394780A (zh
Inventor
后平宽之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN110394780A publication Critical patent/CN110394780A/zh
Application granted granted Critical
Publication of CN110394780B publication Critical patent/CN110394780B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Abstract

本发明提供机器人的仿真装置。该机器人的仿真装置具备:图像显示部,其将包括机器人、工件以及外围设备的机器人系统的三维模型作为存在于三维空间中的伪立体物来显示;以及仿真执行部,其使通过上述图像显示部显示的机器人系统的三维模型进行仿真动作。

Description

机器人的仿真装置
技术领域
本发明涉及一种执行机器人的仿真的仿真装置。
背景技术
已知一种所谓的离线编程(例如日本特开平9-212228号公报以及日本特表2017-519644号公报),在画面上配置机器人系统模型并进行仿真,生成动作程序,该机器人系统模型包括通过三维表现了机器人、工件以及周围设备的机器人模型、工件模型以及周围设备模型。
发明内容
在上述现有的离线编程中,具有操作者能够在远离配置了机器人的生产线的场所生成动作程序的优点,其反面为机器人系统模型在执行仿真的计算机的画面内显示,操作者只能够通过二维面的画面来确认机器人系统的状况。因此,在现有的离线编程中,具有操作者难以抓住远近感等较难直观地掌握机器人系统的状况的问题。寻求一种操作者能够进行能够更直观地掌握机器人系统的状况的仿真的仿真装置。
本公开的一个方式提供一种机器人的仿真装置,其具备:图像显示部,其将包括机器人、工件以及外围设备的机器人系统的三维模型作为存在于三维空间的伪立体物来显示;以及仿真执行部,其使通过上述图像显示部显示的上述机器人系统的三维模型进行仿真动作。
附图说明
通过与附图关联的以下实施方式的说明来更加明确本发明的目的、特征以及优点。在该附图中:
图1是表示一个实施方式的机器人仿真系统整体的结构图。
图2表示仿真装置的硬件结构。
图3是表示通过在仿真装置中执行仿真而实现的功能的功能框图。
图4是表示机器人的仿真动作的流程图。
图5是表示与机器人系统连接并进行仿真的动作的流程图。
图6表示将机器人系统的运转中的位置反映给机器人系统的模型的动作的状态。
图7表示将示教点重叠显示在机器人系统的模型上的显示画面的例子。
图8表示在图7的显示画面中进行示教点的变更操作的状态。
图9表示显示了机器人系统的模型和设定信息的显示画面的例子。
图10表示显示了机器人系统的模型和与运转状态相关的信息的显示画面的例子。
图11是表示作为显示装置使用了投影仪时的机器人仿真系统整体的结构图。
图12表示多组的机器人系统与仿真装置连接的结构例。
具体实施方式
以下参照附图说明本发明的实施方式。在所有附图中对相应的结构要素标注共通的参照标记。为了容易理解,适当变更这些附图的比例尺。另外,附图所示的方式是用于实施本发明的一个例子,本发明不限于图示的方式。
图1是表示一个实施方式的机器人仿真系统100整体的结构图。如图1所示,机器人仿真系统100的结构为,控制机器人30的机器人控制装置50经由网络60可通信地与仿真系统(仿真装置90以及头戴式显示器80)连接,该仿真系统具有使用扩张现实图像显示功能将机器人系统的三维模型作为伪立体物重叠显示在实际空间的影像上而使其进行动作的功能。具体地说,机器人仿真系统100具备仿真装置90、与仿真装置90连接的头戴式显示器80、经由网络60与仿真装置90连接的机器人控制装置50以及与机器人控制装置50连接的机器人30。典型地,机器人30、工件W、外围设备11以及机器人控制装置50被配置在生产线上,仿真装置90以及头戴式显示器80被配置在远离生产线的场所。
机器人30例如是垂直多关节机器人,在臂的前端安装作为末端效应器的一例的机械手39。机器人30能够通过机械手30把持工件W并进行运送。机器人30的周围配置有外围设备11(例如运送工件的推车)和工件W。
机器人控制装置50对按照被加载到机器人控制装置50内的动作程序驱动机器人30的各个关节轴的伺服电动机(未图示)输出控制指令,从而控制机器人30的动作。另外,机器人控制装置50与仿真装置90经由网络60进行信息的交换。
头戴式显示器80(参照图2)具有拍摄实际空间的摄像机81、进行将从仿真装置90提供的机器人系统的模型和各种信息重叠在通过摄像机81拍摄的实际空间的影像上的处理的扩张现实图像处理部82以及显示通过扩张现实图像处理部82生成的三维图像的显示部83。显示部83作为一例通过双目视差图像来进行立体的显示。图1中在虚线的框线内表示显示在头戴式显示器80的显示部83上的图像的例子。在图1的例子中,头戴式显示器80将作为机器人30、工件W以及外围设备11的模型的机器人模型30M、工件模型WM以及外围设备模型11M重叠地显示在实际空间的影像上。操作者例如操作仿真装置90的操作部95,并能够使生成机器人系统的模型的图像时的视点的位置进行移动。另外,头戴式显示器80也可以置换为其他类型的扩张显示对应显示器。
如图2所示,仿真装置90能够由一般的计算机构成,该计算机具有CPU91、ROM92、RAM93、存储装置94、操作部95、网络接口96、用于与各种外部设备连接的外部设备接口97、显示部98等。存储装置94内存储用于执行仿真的仿真程序、机器人模型30M、工件模型WM以及外围设备模型11M的三维模型数据等。仿真装置90经由外部设备接口97与头戴式显示器80连接,另外,经由网络接口96与机器人控制装置50连接。仿真装置90与头戴式显示器80之间的连接可以是有线方式也可以是无线方式。另外,仿真装置90与机器人控制装置50之间的连接可以是有线方式也可以是无线方式。
图3表示通过仿真装置90与头戴式显示器80协调地进行动作来实现的与仿真相关的各种功能的功能框图。另外,仿真程序能够存储在通过计算机可读取的各种存储介质(ROM、RAM、闪存、HDD、CD-ROM、DVD-ROM等)中。
机器人系统模型显示部101通过与机器人系统的实际配置关系相同的配置关系将机器人模型30M、工件模型WM以及外围设备模型11M立体地重叠显示在头戴式显示器80的显示部83所显示的实际空间的影像内。例如,操作者经由仿真装置90的操作部95输入机器人系统的实际配置信息,或者仿真装置90从外部装置取得机器人系统的实际配置信息,由此机器人系统模型显示部101能够将机器人系统的模型重叠显示在实际空间的影像内与机器人系统的实际的配置关系对应的位置。这样,在佩戴了头戴式显示器80的操作者的视野中,以恰如在有操作者的空间配置了位于生产线的机器人系统的方式显示各个模型。
仿真执行部141使通过机器人系统模型显示部101显示的机器人系统的模型进行仿真动作来执行仿真动作。在本说明书中,仿真动作指按照动作程序和操作者进行的示教点的指示输入来使模型仿真地进行动作。例如,操作者能够将机器人的希望动作(示教点)输入给仿真装置90,执行仿真动作并确认该运动。执行这种仿真动作,生成使机器人30执行希望动作的动作程序。此时,操作者能够一边观察佩戴头戴式显示器80并与操作者所在的实际空间的影像重叠并立体地显示的机器人系统的模型,一边进行示教点的输入和机器人30等的运动的确认。即,操作者在能够直观地掌握实际的机器人系统的状态(例如机器人30与外围设备11和工件W之间的距离)的状态下能够进行示教点的输入等和动作确认,所以能够进行准确的动作程序的生成。
上述仿真动作的示教点的输入等输入操作可以由操作者操作仿真装置90的操作部95(例如键盘、鼠标、其他的指针设备)来进行。或者,可以将该技术领域所熟知的用于跟踪操作者的手的运动的传感器(摄像机、安装在操作者的手上的传感器等)作为外部设备与仿真装置90连接。作为检测操作者的手的运动的传感器的摄像机可以被设置在头戴式显示器80上。这样仿真装置90装备跟踪操作者的手的运动的功能,由此操作者能够通过手势来指示示教点的输入等。以下说明的各种操作输入(触摸操作、拖动操作)可以通过跟踪操作者的手的运动的功能来实现。
机器人系统连接部102开设仿真装置90与机器人控制装置50之间的通信。这样,能够在仿真程序侧(仿真装置90)与机器人系统侧(机器人控制装置50)之间进行信息的交换。
机器人系统模型动作部103从机器人控制装置50取得构成机器人系统的机器人30、工件W以及外围设备11的运转中的位置,并使构成机器人系统模型的机器人模型30M、工件模型WM以及外围设备模型11M移动到与运转中的位置对应的位置。另外,仿真装置90通过接收表示机器人30的机械手39的状态的信号,而在机器人30通过机械手39把持了工件W时,设为机器人模型30M的机械手的部分把持了工件WM的状态。可以执行这些移动处理以实时地跟踪机器人系统侧的运动。图6表示以下情况,即在机器人系统侧机器人30把持工件W,从而在显示于头戴式显示器80中的图像内成为机器人模型30把持了工件WM的状态。
动作程序取得部111从机器人控制装置50经由网络60取得机器人30的动作程序。
动作程序显示部112使用所取得的动作程序将与机器人30的动作程序相关的信息重叠地显示在头戴式显示器80所显示的实际空间的影像上。图7表示显示在头戴式显示器80上的与动作程序相关的信息的例子。在图7的显示例中,在图形中表示将动作程序内包括的示教点的节点201~204以及示教点之间连接起来的路径210的三维图像重叠显示在实际空间的影像上。进一步,在图7的显示例中,显示了表示示教点列表的三维面板220。在该画面中,操作者例如手动地触摸操作面板202内的希望示教点并进行选择,或者如果用手触摸操作示教点的节点202则表示选择出的示教点的三维位置的面板230重叠显示在实际空间的影像上。另外,在图7的例子中,选择了示教点202(在面板220内为示教点P2)。另外,即使在以下的说明中,各种操作面板和操作菜单等的显示物被显示为三维图像。
动作程序变更部113接收操作者进行的示教点的变更操作。作为变更示教点的操作的一例,操作者可以用手拖动操作重叠显示在实际空间的影像上的示教点的节点而使之移动。图8表示操作者拖动操作示教点的节点202而使之移动的状态。作为变更示教点的操作的其他例子的结构可以为,如果操作者用手触摸操作了表示示教点的三维位置的面板230内的位置信息的任意一个,则在实际空间上显示数字键盘240,操作者操作数字键盘240,能够输入触摸到的位置信息的数值。在图8的例子中表示通过触摸操作选择表示示教点的三维位置的面板230内的Z坐标,从而显示数字键盘240的状态。
动作程序反映部114将通过动作程序变更部113进行变更的动作程序和执行指令经由网络60发送给机器人控制装置50,从而反映给机器人系统侧。接收到变更后的动作程序的机器人控制装置50以后通过变更后的动作程序来控制机器人30。根据以上结构,在通过由图4的仿真而生成的动作程序使机器人30实际动作的情况下,在作为一例由于外部原因机器人30的实际动作与希望的动作不同时(例如安装在机器人30上的安全监视装置检测出人而进行运作,降低机器人30的动作速度的情况),操作者能够一边准确地感性地掌握机器人30的状态一边进行动作程序的变更。
设定取得部121经由网络60从机器人系统侧取得机器人系统的设定。设定显示部122将设定取得部121取得的设定信息重叠显示在头戴式显示器80所显示的实际空间的影像上。设定信息例如是位置寄存器(指定机器人的位置的寄存器)、数值寄存器(程序的动作上所使用的各种寄存器)。图9表示重叠显示在实际空间的影像上的设定信息的例子。在图9的例子中,“POSREG”表示位置寄存器,“NUMREG”表示数值寄存器。另外,图9显示了表示设定信息的菜单的设定菜单面板251。
设定变更部123接收变更设定信息的操作。图9表示设定信息的变更操作的例子。在图9的例子中,设定变更部123如果在设定菜单面板251上由操作者选择位置寄存器(“POSREG”),则显示表示位置寄存器的列表的子菜单252。在子菜单252上如果选择位置寄存器PR3,则设定变更部123将表示位置寄存器PR3的设定信息的面板260重叠显示在实际空间的影像上。另外,设定变更部123如果由操作者触摸操作并选择面板260内的位置信息,则使数字键盘240重叠显示在实际空间的影像上,接收选择出的位置信息的数值的输入。在图9的例子中,通过触摸操作选择面板260内的Z坐标,从而表示显示了数字键盘240的状态。
设定反映部124将通过设定变更部123进行变更的设定信息和变更指令经由网络60发送给机器人控制装置50,从而反映给机器人系统侧。接收到变更后的设定信息的机器人控制装置50按照变更后的设定内容来变更设定。
运转状态取得部131经由网络60从机器人控制装置50取得机器人系统的运转状态。运转状态例如是警报的信息、生产状况、例如设置在机器人上的摄像机进行的检测结果、减速机的状态等。运转状态显示部132将与运转状态相关的信息重叠显示在头戴式显示器80所显示的实际空间的影像上。图10表示重叠显示在实际空间的影像上的运转状态的例子。在图10的例子中,显示表示运转状态的菜单的菜单面板271。如果操作者通过触摸操作而选择了菜单面板271内的一个项目,则运转状态显示部132将表示选择出的项目的细节的面板272重叠显示在实际空间的影像上。在图10的例子中,从菜单面板271选择警报(“ALARM”),在面板272内显示表示警报的日志的信息。
模型比例尺变更部133提供用于变更机器人系统的模型显示的比例尺的功能。例如,模型比例尺变更部133接收操作者针对机器人仿真装置90的操作输入,或者接收针对在实际空间内显示的操作菜单的手势操作,来变更模型的比例尺。
图4是表示用于生成机器人30的动作程序的仿真程序的动作的流程图。图4的仿真动作在仿真装置90的CPU91的控制下被执行。首先,通过机器人系统模型显示部101的功能,机器人模型30M、工件模型WM以及外围设备11M的三维模型被重叠显示在头戴式显示器80的显示部83所显示的实际空间的影像上(步骤S11)。接着,通过仿真执行部141的功能来执行机器人系统的模型的仿真动作(步骤S12)。具体地说,在此,操作者进行用于使机器人30执行希望运动的示教点的输入等,使机器人系统的模型进行仿真动作来执行仿真。此时,如上所述,操作者在能够直观地掌握在头戴式显示器80的显示部83所显示的机器人系统的模型的状态的状况下能够进行操作输入。这样,如果生成使机器人30进行希望运动的动作程序,则动作程序被发送给机器人控制装置50(步骤S13)。接收到该动作程序的机器人控制装置50执行该动作程序来控制机器人30。
图5是表示仿真装置90确认机器人系统的实际运动并能够变更动作程序的仿真动作的流程图。图5的仿真动作在仿真装置90的CPU91的控制下被执行。如果仿真装置90被操作而开始仿真动作,首先通过机器人系统模型显示部101,包括机器人模型30M、工件模型WM以及外围设备模型11M的机器人系统模型根据这些实际的配置重叠地显示在头戴式显示器80的显示部83所显示的实际空间的影像上(步骤S101)。接着,仿真系统侧通过机器人系统连接部102与机器人系统侧连接(步骤S102)。
接着,机器人系统模型动作部103使用从机器人控制装置50取得的机器人系统运行中的位置信息来跟踪机器人系统的动作,并使机器人系统模型进行动作(步骤S103)。此时,操作者能够观察在立体显示的机器人系统的模型在操作者所在的实际空间实际进行动作的图像,所以能够直观地掌握机器人系统的状态。
接着,通过动作程序取得部111来取得机器人系统的动作程序(步骤S104)。并且,作为一例如图7所示,通过动作程序显示部112动作程序的示教点被重叠显示在实际空间的影像上(步骤S105)。在该状态下,动作程序变更部113如图8所示,接收示教点的位置变更等操作(步骤S106)。在步骤S106,可以按照变更后的示教点使机器人模型30M进行仿真动作来确认运动。如果示教点被变更,则变更后的动作程序通过动作程序反映部114被发送给机器人控制装置50,从而变更后的动作程序被反映给机器人系统(步骤S107)。根据上述结构,示教点与重叠显示在实际空间的影像上的机器人系统的模型一起被立体显示,所以操作者能够直观地掌握示教点的位置,能够准确地进行必要的变更。
接着,通过设定取得部121取得机器人系统的设定信息(步骤S108)。所取得的设定信息通过设定显示部122被重叠显示在实际空间的影像上(步骤S109)。接着,设定变更部123接收来自操作者的设定的变更(步骤S110)。如果设定被变更,则变更后的设定信息通过设定反映部124被发送并反映给机器人控制装置50(步骤S111)。根据上述结构,设定信息和重叠显示在实际空间的影像上的机器人系统的模型一起被显示,所以操作者在可直观地掌握机器人系统的状态的状况下能够准确地进行必要的变更。
接着,通过运转状态取得部131取得机器人系统的运转状态(步骤S112)。如果取得了运转状态,则如图10例示那样,机器人系统的运转状态通过运转状态显示部132重叠显示在头戴式显示器80所显示的实际空间的影像上(步骤S113)。通过这样显示实际空间内所显示的机器人系统的模型和运转状态,能够更加提高操作者能够直观地掌握机器人系统的状态的优点。
如以上所说明那样,根据本实施方式,在操作者能够直观地掌握机器人系统的状况的状态下能够进行仿真。
以上,说明了本发明的实施方式,但是本领域技术人员能够理解在不脱离后述的专利请求所公开范围的情况下,能够进行各种的修正以及变更。
在上述实施方式中,机器人系统的模型在头戴式显示器80的显示部83中作为伪立体物重叠显示在实际空间的影像上,但是本发明不限于这样的例子。机器人系统的模型可以在头戴式显示器的显示部中显示为存在于虚拟空间的伪立体物。
例如,上述的头戴式显示器80可以具备通过传感器(陀螺传感器、加速度传感器等)来推定摄像机81的位置以及姿势的摄像机位置姿势推定功能(检测部)。通过使用这样的摄像机位置姿势推定功能,能够跟踪操作者头部的运动来变更生成机器人系统的模型的图像的视点的位置。例如,如果操作者在操作者所在的场所内步行而移动,则机器人系统的模型接近操作者地生成图像,或者能够生成操作者转动头部而能够查看机器人系统模型的希望部位的图像。
外围设备11例如是进行工件运送等动作的装置,当机器人控制装置50能够将表示其外围设备的动作状态的信息提供给仿真装置90时,仿真装置90可以在生成使机器人系统的模型移动的图像时使用这样的信息。
将机器人系统的模型作为存在于三维空间中的伪立体物进行显示的方法,除了上述实施方式的方法以外能够有各种方法。图11表示在图1的结构中代替头戴式显示器80而使用了投影仪280时的机器人仿真系统100A的结构例。在图11的结构例中,仿真装置90A通过投影仪280将机器人系统的三维模型作为三维立体图像显示在从操作者观察到的实际空间上。作为一例,投影仪280可以将全息照相的三维立体影像显示在操作者所在的场所的预定位置上。这种三维立体图像是通过将参照光照射到记录了通过将参照光与来自物体的光(物体光)重叠而产生的干扰条纹的胶片等介质(全息照相)上而得到的物体的立体图像。作为投影仪280能够使用具有投影全息照相的功能的采用了本领域所熟知的方式的装置。仿真装置90A具有与上述实施方式中说明的仿真装置90相同的功能。即使在这种结构的情况下,操作者也在能够直观地掌握机器人系统的模型状态(机器人30与工件W和外围设备11之间的距离感等)的状态下进行示教点的输入,或能够执行仿真动作。
图12表示多个机器人系统经由网络60与机器人仿真装置90B连接时的机器人仿真系统100B的结构例。图12的结构的情况下,机器人仿真装置90B关于多个机器人系统的每一个,将机器人系统的模型重叠显示在实际空间的影像上,并对机器人系统分别进行由图3和图4表示的仿真。在图12的例子中,仿真装置90B与2组的机器人系统(由机器人控制装置50a、机器人30a、工件Wa、外围设备11a组成的系统以及由机器人控制装置50b、机器人30b、工件Wb、外围设备11b组成的系统)连接。另外,头戴式显示器80的显示部83中将2组的机器人系统的模型(由机器人30aM、工件WaM、外围设备11aM的机器人系统的模型以及机器人30bM、工件WbM、外围设备11bM的机器人系统的模型)重叠显示在实际空间的影像上(参照图12虚线的框线内)。即使在图12的结构中,仿真装置90B具有与在上述实施方式中说明的仿真装置90相同的功能。在图12的结构的情况下,在操作者所在的场所能够直观地掌握多个机器人系统的状态的状态下,能够执行每个机器人系统的仿真动作。
另外,为了解决本公开的问题,能够提供以下各种的方式及其效果。另外,以下方式的说明文的括号内的编号与本公开的附图的参照标记对应。
例如,本公开的第一方式为机器人的仿真装置,具备:图像显示部(101),其将包括机器人(30)、工件(W)以及外围设备(11)的机器人系统的三维模型作为存在于三维空间中的伪立体物来显示;以及仿真执行部(141),其使通过上述图像显示部(101)显示的上述机器人系统的三维模型进行仿真动作。
根据上述第一方式,能够在作业者能够直观地掌握机器人系统的状况的状态下进行仿真动作。
另外,本公开的第二方式为上述第一方式的机器人的仿真装置(90),上述图像显示部(101)具备检测操作者的头部的位置以及姿势的检测部(80),上述图像显示部(101)使用于显示上述三维模型的视点的位置根据检测出的上述操作者的头部的位置以及姿势而发生变化。
另外,本公开的第三方式为上述第一方式的机器人的仿真装置(90),通过上述图像显示部(101)显示的上述机器人系统的三维模型的伪立体物是使用表示上述机器人系统的三维模型的全息照相进行重现的立体图像。
另外,本公开的第四方式为上述第一方式到第三方式中任意一个机器人的仿真装置(90),还具备:网络连接部(102),其用于经由网络(60)与控制上述机器人(30)的机器人控制装置(50)连接;以及模型动作部(103),其从上述机器人控制装置(50)取得上述机器人的动作中的位置姿势数据,并使用所取得的上述位置姿势数据使通过上述图像显示部(101)显示的上述机器人的三维模型进行动作。
另外,本公开的第五方式为上述第四方式的机器人的仿真装置(90),还具备:动作程序取得部(111),其从上述机器人控制装置(50)取得上述机器人的动作程序;以及动作程序显示部(112),其根据所取得的上述动作程序中包括的示教点的三维位置,将表示该示教点的图像显示在上述三维空间的与上述示教点的上述三维位置对应的位置上。
另外,本公开的第六方式为上述第五方式的机器人的仿真装置(90),还具备:动作程序变更部(113),其接收针对作为图像而显示的上述示教点的变更操作;以及动作程序反映部(114),其按照变更后的上述示教点的位置来更新上述动作程序,并将该更新后的动作程序的执行指令与更新后的上述动作程序一起发送给上述机器人控制装置。
另外,本公开的第七方式为上述第四方式到第六方式中任意一个机器人的仿真装置(90),还具备:设定取得部,其可从上述机器人控制装置取得上述机器人系统的设定信息,以及设定显示部,其将所取得的上述设定信息作为文字信息显示在上述三维空间中。
另外,本公开的第八方式为上述第七方式的机器人的仿真装置(90),还具备:设定变更部(123),其接收针对所显示的上述设定信息的变更操作;以及设定反映部(124),其将上述设定信息的变更指令与变更后的上述设定信息一起发送给上述机器人控制装置(50)。
另外,本公开的第九方式为上述第四方式到第八方式中任意一个机器人的仿真装置(90),还具备:运转状态取得部(131),其从上述机器人控制装置(50)取得与上述机器人系统的运转状态相关的信息;以及运转状态显示部(132),其将所取得的与上述运转状态相关的信息作为文字信息显示在上述三维空间中。
另外,本公开的第十方式为上述第四方式的机器人的仿真装置(90),存在多个由上述机器人系统以及上述机器人控制装置(50a、50b)组成的系统,上述网络连接部(102)经由上述网络(60)与多个上述机器人控制装置(50a、50b)连接,上述图像显示部(101)将各上述机器人系统的三维模型显示为存在于三维空间内的上述伪立体物,上述仿真执行部(141)对各上述机器人系统的三维模型执行上述仿真动作,上述模型动作部(103)从各上述机器人控制装置(50a、50b)取得与该机器人控制装置连接的上述机器人的动作中的位置姿势数据,并使用所取得的上述位置姿势数据使各上述机器人的三维模型进行动作。
另外,本公开的第十一方式为上述第一方式到第十方式中任意一个机器人的仿真装置(90),还具备:模型比例尺变更部(133),其变更上述机器人系统的三维模型的显示比例尺。

Claims (8)

1.一种机器人的仿真装置,其特征在于,
该机器人的仿真装置具备:
图像显示部,其将包括机器人、工件以及外围设备的机器人系统的三维模型作为存在于三维空间中的伪立体物,以与上述机器人系统中的实际配置关系相同的位置关系重叠显示在实际空间中;
仿真执行部,其使通过上述图像显示部显示的上述机器人系统的三维模型进行仿真动作;
网络连接部,其用于经由网络与控制上述机器人的机器人控制装置连接;
模型动作部,其从上述机器人控制装置取得上述机器人动作中的位置姿势数据,并使用所取得的上述位置姿势数据使通过上述图像显示部显示的上述机器人的三维模型进行动作;
动作程序取得部,其从上述机器人控制装置取得上述机器人的动作程序;
动作程序显示部,其根据所取得的上述动作程序中包括的示教点的三维位置,将表示该示教点的图像在上述三维空间的与上述示教点的上述三维位置对应的位置,重叠显示在上述实际空间中;
动作程序变更部,其接收针对作为图像而显示的上述示教点的变更操作;以及
动作程序反映部,其按照变更后的上述示教点的位置来更新上述动作程序,并将更新后的上述动作程序的执行指令与该更新后的上述动作程序一起发送给上述机器人控制装置,
上述动作程序显示部还在上述实际空间重叠显示表示连接上述示教点间的路径的图像和表示上述示教点的列表的图像,并且根据针对上述列表内或上述路径上的上述示教点的选择操作,在上述实际空间重叠显示表示所选择的上述示教点的三维位置的图像。
2.根据权利要求1所述的机器人的仿真装置,其特征在于,
上述图像显示部具备检测操作者的头部的位置以及姿势的检测部,使用于显示上述三维模型的视点的位置根据检测出的上述操作者的头部的位置以及姿势发生变化。
3.根据权利要求1所述的机器人的仿真装置,其特征在于,
通过上述图像显示部显示的上述机器人系统的三维模型的伪立体物是使用表示上述机器人系统的三维模型的全息照相进行重现的立体图像。
4.根据权利要求1~3任意一项所述的机器人的仿真装置,其特征在于,
该机器人的仿真装置还具备:
设定取得部,其从上述机器人控制装置取得上述机器人系统的设定信息,以及
设定显示部,其将所取得的上述设定信息作为文字信息重叠显示在上述实际空间中。
5.根据权利要求4所述的机器人的仿真装置,其特征在于,
该机器人的仿真装置还具备:
设定变更部,其接收针对所显示的上述设定信息的变更操作;以及
设定反映部,其将上述设定信息的变更指令与变更后的上述设定信息一起发送给上述机器人控制装置。
6.根据权利要求1~3中任意一项所述的机器人的仿真装置,其特征在于,
该机器人的仿真装置还具备:
运转状态取得部,其从上述机器人控制装置取得与上述机器人系统的运转状态相关的信息;以及
运转状态显示部,其将所取得的与上述运转状态相关的信息作为文字信息重叠显示在上述实际空间中。
7.根据权利要求1~3中任意一项所述的机器人的仿真装置,其特征在于,
存在多个由上述机器人系统以及上述机器人控制装置组成的系统,
上述网络连接部经由上述网络与上述多个机器人控制装置连接,
上述图像显示部将各上述机器人系统的三维模型作为存在于上述三维空间中的上述伪立体物来显示,
上述仿真执行部对各上述机器人系统的三维模型执行上述仿真动作,
上述模型动作部从各上述机器人控制装置取得与该机器人控制装置连接的上述机器人的动作中的位置姿势数据,并使用所取得的上述位置姿势数据使各上述机器人的三维模型进行动作。
8.根据权利要求1~3中任意一项所述的机器人的仿真装置,其特征在于,
该机器人的仿真装置还具备:
模型比例尺变更部,其变更上述机器人系统的三维模型的显示比例尺。
CN201910329069.1A 2018-04-25 2019-04-23 机器人的仿真装置 Active CN110394780B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018084152A JP6810093B2 (ja) 2018-04-25 2018-04-25 ロボットのシミュレーション装置
JP2018-084152 2018-04-25

Publications (2)

Publication Number Publication Date
CN110394780A CN110394780A (zh) 2019-11-01
CN110394780B true CN110394780B (zh) 2023-06-27

Family

ID=68276393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910329069.1A Active CN110394780B (zh) 2018-04-25 2019-04-23 机器人的仿真装置

Country Status (4)

Country Link
US (1) US11220002B2 (zh)
JP (1) JP6810093B2 (zh)
CN (1) CN110394780B (zh)
DE (1) DE102019002898B4 (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US11663783B2 (en) 2016-02-10 2023-05-30 Disney Enterprises, Inc. Systems and methods for using augmented reality with the internet of things
JP7087316B2 (ja) * 2017-09-27 2022-06-21 オムロン株式会社 情報処理装置、情報処理方法およびプログラム
JP6693981B2 (ja) * 2018-02-19 2020-05-13 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置
US10974132B2 (en) 2018-10-02 2021-04-13 Disney Enterprises, Inc. Systems and methods to provide a shared interactive experience across multiple presentation devices based on detection of one or more extraterrestrial bodies
JP7251224B2 (ja) * 2019-03-11 2023-04-04 セイコーエプソン株式会社 制御装置およびロボットシステム
US11014008B2 (en) 2019-03-27 2021-05-25 Disney Enterprises, Inc. Systems and methods for game profile development based on virtual and/or real activities
US10916061B2 (en) * 2019-04-24 2021-02-09 Disney Enterprises, Inc. Systems and methods to synchronize real-world motion of physical objects with presentation of virtual content
JP7436797B2 (ja) * 2019-12-16 2024-02-22 株式会社デンソーウェーブ ロボットのプログラム作成支援装置
EP4091776A4 (en) * 2020-01-16 2023-04-26 OMRON Corporation PROGRAM GENERATION DEVICE, PROGRAM GENERATION METHOD AND GENERATION PROGRAM
DE112021000634T5 (de) * 2020-01-20 2022-11-03 Fanuc Corporation Robotersimulationsvorrichtung
US11529737B2 (en) 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
US20210237116A1 (en) * 2020-02-03 2021-08-05 Ross-Hime Designs, Inc. Robotic marking system
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
CN111390908B (zh) * 2020-03-26 2022-05-17 哈尔滨工业大学 一种基于网页的机械臂虚拟拖动方法
US20230090193A1 (en) * 2020-03-30 2023-03-23 Fanuc Corporation Off-line simulation system
CN113874806A (zh) * 2020-04-24 2021-12-31 深圳市大疆创新科技有限公司 轨迹生成方法、遥控终端、可移动平台、系统及计算机可读存储介质
JP6833145B1 (ja) * 2020-07-30 2021-02-24 三菱電機株式会社 数値制御装置および数値制御システム
CN114081624B (zh) * 2021-11-10 2023-06-27 武汉联影智融医疗科技有限公司 一种手术机器人虚拟仿真系统
US20230294275A1 (en) * 2022-03-21 2023-09-21 Intrinsic Innovation Llc Robot programming

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0976063A (ja) * 1995-09-16 1997-03-25 Sanshiyuuzen Kogyo Kk 溶接装置
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
CN104908038A (zh) * 2014-03-12 2015-09-16 发那科株式会社 对工件的取出工序进行仿真的机器人仿真装置
CN106625689A (zh) * 2015-11-02 2017-05-10 发那科株式会社 离线的机器人编程装置
JP2017100206A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2792842B2 (ja) 1996-02-07 1998-09-03 川崎重工業株式会社 ロボット作業教示方法および装置
JPH11249725A (ja) * 1998-02-26 1999-09-17 Fanuc Ltd ロボット制御装置
US20030187751A1 (en) * 2001-10-31 2003-10-02 Mike Watson Interactive electronic reference systems and methods
GB0130986D0 (en) * 2001-12-27 2002-02-13 Prophet Control Systems Ltd Programming robots with offline design
KR100526741B1 (ko) * 2003-03-26 2005-11-08 김시학 와이어의 장력을 이용한 위치 추적 및 반력시스템과 이를이용한 최소 절개용 수술시스템
US20060265664A1 (en) * 2005-05-17 2006-11-23 Hitachi, Ltd. System, method and computer program product for user interface operations for ad-hoc sensor node tracking
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
US8442804B2 (en) * 2007-10-25 2013-05-14 The Boeing Company Method and apparatus for composite part data extraction
US20100251114A1 (en) * 2009-03-31 2010-09-30 Hospira, Inc. Digital interface for a medical device
WO2014113657A1 (en) * 2013-01-18 2014-07-24 Intergraph Corporation Associating a point cloud image with a piping line drawing and applying dimensions regarding the same
US9579799B2 (en) 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
JP6350037B2 (ja) * 2014-06-30 2018-07-04 株式会社安川電機 ロボットシミュレータおよびロボットシミュレータのファイル生成方法
US9746913B2 (en) * 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
JP6676286B2 (ja) 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
CN107921634B (zh) * 2015-08-25 2021-04-02 川崎重工业株式会社 机器人系统
JP6915543B2 (ja) * 2015-10-30 2021-08-04 株式会社安川電機 ロボット教示装置、コンピュータプログラム及びロボット教示方法
JP6657858B2 (ja) * 2015-11-30 2020-03-04 株式会社デンソーウェーブ ロボット操作システム
JP6589604B2 (ja) * 2015-12-01 2019-10-16 株式会社デンソーウェーブ ティーチング結果表示システム
US10685147B2 (en) * 2016-02-29 2020-06-16 The Boeing Company Non-conformance mapping and visualization
US10956739B2 (en) * 2016-06-27 2021-03-23 Autodesk, Inc. Augmented reality robotic system visualization
US20180288557A1 (en) * 2017-03-29 2018-10-04 Samsung Electronics Co., Ltd. Use of earcons for roi identification in 360-degree video
JP7091609B2 (ja) * 2017-04-14 2022-06-28 セイコーエプソン株式会社 シミュレーション装置、ロボット制御装置およびロボット
US10417827B2 (en) * 2017-05-04 2019-09-17 Microsoft Technology Licensing, Llc Syndication of direct and indirect interactions in a computer-mediated reality environment
JP7146402B2 (ja) * 2018-01-18 2022-10-04 キヤノン株式会社 情報処理装置、および情報処理方法
JP6857145B2 (ja) * 2018-03-09 2021-04-14 株式会社日立製作所 軌道計画装置、軌道計画方法、及び生産システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0976063A (ja) * 1995-09-16 1997-03-25 Sanshiyuuzen Kogyo Kk 溶接装置
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
CN104908038A (zh) * 2014-03-12 2015-09-16 发那科株式会社 对工件的取出工序进行仿真的机器人仿真装置
CN106625689A (zh) * 2015-11-02 2017-05-10 发那科株式会社 离线的机器人编程装置
JP2017100206A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム

Also Published As

Publication number Publication date
US11220002B2 (en) 2022-01-11
DE102019002898B4 (de) 2022-11-03
JP6810093B2 (ja) 2021-01-06
CN110394780A (zh) 2019-11-01
JP2019188530A (ja) 2019-10-31
DE102019002898A1 (de) 2019-11-07
US20190329405A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
CN110394780B (zh) 机器人的仿真装置
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
Ong et al. Augmented reality-assisted robot programming system for industrial applications
Pan et al. Recent progress on programming methods for industrial robots
EP3126917B1 (en) Runtime controller for robotic manufacturing system
US7353081B2 (en) Method and a system for programming an industrial robot
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
US20150151431A1 (en) Robot simulator, robot teaching device, and robot teaching method
JP6723738B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP6863927B2 (ja) ロボットのシミュレーション装置
CN108687767B (zh) 离线编程装置以及离线编程方法
JP2018202514A (ja) ロボットの教示のための情報を表示するロボットシステム
CN112828846A (zh) 使用了增强现实的模拟装置以及机器人系统
JP2018015863A (ja) ロボットシステム、教示データ生成システム及び教示データ生成方法
JP2022163836A (ja) ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
Freund et al. Projective Virtual Reality in space applications: A telerobotic ground station for a space mission
JP2002098520A (ja) コンピュータを利用したリアルタイムモニター式三次元測定システム
WO2022255206A1 (ja) 情報処理装置、情報処理方法、及び、コンピュータプログラム
JP2023017440A (ja) 画像処理装置
CN117519469A (zh) 一种应用于人机交互的空间交互装置及方法
Hiroi et al. [POSTER] Remote welding robot manipulation using multi-view images
CN114474011A (zh) 一种直观的工业机器人示教系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant