DE102019002898B4 - Robotersimulationsvorrichtung - Google Patents

Robotersimulationsvorrichtung Download PDF

Info

Publication number
DE102019002898B4
DE102019002898B4 DE102019002898.8A DE102019002898A DE102019002898B4 DE 102019002898 B4 DE102019002898 B4 DE 102019002898B4 DE 102019002898 A DE102019002898 A DE 102019002898A DE 102019002898 B4 DE102019002898 B4 DE 102019002898B4
Authority
DE
Germany
Prior art keywords
robot
unit
image
dimensional
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019002898.8A
Other languages
English (en)
Other versions
DE102019002898A1 (de
Inventor
Hiroyuki Atohira
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102019002898A1 publication Critical patent/DE102019002898A1/de
Application granted granted Critical
Publication of DE102019002898B4 publication Critical patent/DE102019002898B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Abstract

Robotersimulationsvorrichtung (90) mit:einer Bildanzeigeeinheit (101), die dazu eingerichtet ist, ein dreidimensionales Modell eines Robotersystems, das einen Roboter (30), ein Werkstück (W) und ein Peripheriegerät (11) umfasst, als ein in einem dreidimensionalen Raum existierendes, pseudo-dreidimensionales Objekt auf eine solche Weise anzuzeigen, dass das dreidimensionale Modell des Robotersystems mit einer zur tatsächlichen Positionsbeziehung des Robotersystems identischen Positionsbeziehung einen realen Raum überlagert;einer Simulationsausführungseinheit (141), die dazu eingerichtet ist, einen Simulationsvorgang für das dreidimensionale Modell des von der Bildanzeigeeinheit (101) angezeigten Robotersystems auszuführen;eine Netzwerkverbindungseinheit (102) eingerichtet zum Verbinden mit einer Robotersteuerung (50), um den Roboter (30) über ein Netzwerk (60) zu steuern;eine Modellbetriebseinheit (103), die dazu eingerichtet ist, von der Robotersteuerung (50) Positions- und Ausrichtungsdaten über den Roboter im Betrieb zu erfassen, um das dreidimensionale Modell des von der Bildanzeigeeinheit (101) dargestellten Roboters (30) unter Verwendung der erfassten Positions- und Ausrichtungsdaten zu bedienen;eine Betriebsprogramm-Erfassungseinheit (111), die dazu eingerichtet ist, von der Robotersteuerung (50) ein Betriebsprogramm des Roboters (30) zu erfassen;eine Betriebsprogramm-Anzeigeeinheit (112), die dazu eingerichtet ist, auf der Grundlage einer dreidimensionalen Position eines in dem erfassten Betriebsprogramm enthaltenen Lernpunkts, ein Bild anzuzeigen, das den Lernpunkt an einer Position zeigt, die der dreidimensionalen Position des Lernpunkts im dreidimensionalen Raum entspricht;eine Betriebsprogramm-Änderungseinheit (113), die dazu eingerichtet ist, eine Betätigung zum Ändern des als Bild angezeigten Lernpunkts entgegenzunehmen; undeine Betriebsprogramm-Berücksichtigungseinheit (114), die dazu eingerichtet ist, das Betriebsprogramm entsprechend einer Position des geänderten Lernpunkts zu aktualisieren und das aktualisierte Betriebsprogramm zusammen mit einem Ausführungsbefehl des aktualisierten Betriebsprogramms an die Robotersteuerung (50) zu übermitteln;wobeidie Betriebsprogramm-Anzeigeeinheit (112) ferner ein Bild, das einen Pfad (210) darstellt, der Lernpunkte (201-204) verbindet, und ein Bild, das eine Liste (220) der Lernpunkte (201-204) darstellt, anzeigt, indem das Bild, das den Pfad (210) darstellt, und das Bild, das die Liste (220) darstellt, den realen Raum überlagern, undauf eine Auswahl eines Lernpunktes (P2) in der Liste (220) oder eines Lernpunktes (202) auf dem Pfad (210) die Betriebsprogramm-Anzeigeeinheit (112) ferner ein Bild (230) anzeigt, das eine dreidimensionale Position des ausgewählten Lernpunktes (P2, 202) anzeigt, indem sie den realen Raum mit dem Bild (230) überlagert, das die dreidimensionale Position des ausgewählten Lernpunktes (P2, 202) darstellt.

Description

  • Die vorliegende Erfindung bezieht sich auf eine Simulationsvorrichtung, die eine Simulation eines Roboters ausführt.
  • Bekannt ist eine sogenannte Offline-Programmierung zum Erstellen eines Betriebsprogramms durch Ausführen einer Simulation, wobei ein Robotersystemmodell mit einem Robotermodell, einem Werkstückmodell und einem Peripheriegerätemodell, die jeweils dreidimensional einen Roboter, ein Werkstück und eine Peripheriegerät darstellen, auf einem Bildschirm angeordnet ist (siehe z.B. JP H09 - 212 228 A und JP 2017 - 519 644 A ). Weiterer Stand der Technik findet sich in DE 103 05 384 A1 , EP 3 093 108 A2 , EP 2 962 814 A2 , WO 2017 / 072 979 A1 , US 2017 / 0 372 139 A1 und US 2016 / 0 257 000 A1 .
  • Die Offline-Programmierung nach der oben beschriebenen verwandten Technik hat zwar den Vorteil, einen Bediener in die Lage zu versetzen, ein Betriebsprogramm an einem Ort zu erstellen, der nicht an einer Fertigungslinie liegt, in der ein Roboter angeordnet ist, das Robotersystemmodell wird jedoch auf einem Bildschirm eines Computers angezeigt, der eine Simulation durchführt. Deshalb ist dem Bediener eine Überprüfung eines Zustands des Robotersystems nur durch die zweidimensionale Oberfläche des Bildschirms möglich. Insofern verursacht die Offline-Programmierung in der verwandten Technik das Problem, dass der Bediener mit einer geringeren Wahrscheinlichkeit einen Zustand des Robotersystems intuitiv erfassen wird, und zum Beispiel mit geringerer Wahrscheinlichkeit die Perspektive wahrnehmen wird.
  • Es ist daher die Aufgabe, eine Simulationsvorrichtung bereitzustellen, die in der Lage ist, eine Simulation durchzuführen, so dass ein Bediener einen Zustand eines Robotersystems intuitiv erfassen kann.
  • Die Lösung liegt gemäß der vorliegenden Erfindung in einer Robotersimulationsvorrichtung mit den Merkmalen des Patentanspruchs 1. Vorteilhafte Ausführungsformen sind in den abhängigen Patentansprüchen offenbart.
  • Die Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung der Ausführungsformen in Verbindung mit den beigefügten Zeichnungen besser ersichtlich, für die gilt:
    • 1 ist ein Konfigurationsdiagramm, das eine Gesamtkonfiguration eines Robotersimulationssystems gemäß einer Ausführungsform darstellt;
    • 2 ist ein Blockdiagramm, das ein Hardwarekonfiguration einer Simulationsvorrichtung darstellt;
    • 3 ist ein Funktionsblockdiagramm, das Funktionen veranschaulicht, die durch das Ausführen einer Simulation in der Simulationsvorrichtung erzielt werden sollen;
    • 4 ist ein Flussdiagramm, das den Simulationsvorgang eines Roboters veranschaulicht;
    • 5 ist ein Flussdiagramm, das veranschaulicht, wie eine Simulation bei Verbindung mit einem Robotersystem ausgeführt wird;
    • 6 ist ein Konfigurationsdiagramm, das einen Zustand veranschaulicht, in dem Positionen des sich im Betrieb befindlichen Robotersystems im Betrieb eines Modells des Robotersystems wiedergegeben werden;
    • 7 ist ein Diagramm, das ein Beispiel einer Bildschirmanzeige veranschaulicht, auf der dem Modell des Robotersystems überlagerte Lernpunkte angezeigt sind;
    • 8 ist ein Diagramm, das einen Zustand veranschaulicht, in dem der Änderungsvorgang der Lernpunkte auf der Bildschirmanzeige nach 7 ausgeführt wird;
    • 9 ist ein Diagramm, das ein Beispiel einer Bildschirmanzeige veranschaulicht, bei dem Einstellinformationen zusammen mit dem Modell des Robotersystems angezeigt werden;
    • 10 ist ein Diagramm, das ein Beispiel einer Bildschirmanzeige veranschaulicht, bei dem Informationen über Betriebszustände zusammen mit dem Modell des Robotersystems angezeigt werden;
    • 11 ist ein Konfigurationsdiagramm, das eine Gesamtkonfiguration eines Robotersimulationssystems veranschaulicht, bei dem ein Projektor als Anzeigevorrichtung verwendet wird; und
    • 12 ist ein Diagramm, das ein Konfigurationsbeispiel veranschaulicht, bei dem eine Vielzahl von Robotersystemen mit einer Simulationsvorrichtung verbunden ist.
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Überall in den Zeichnungen werden übereinstimmende Bestandteile durch gemeinsame Bezugszeichen gekennzeichnet. Um das Verständnis der Zeichnungen zu erleichtern, werden Maßstäbe der Zeichnungen in geeigneter Weise verändert. Zu beachten ist, dass in den Zeichnungen dargestellte Betriebsarten nur Beispiele zur Umsetzung der Erfindung sind, und dass die Erfindung nicht auf die dargestellte Betriebsarten beschränkt ist.
  • 1 ist ein Konfigurationsdiagramm, das eine Gesamtkonfiguration eines Robotersimulationssystems 100 gemäß einer Ausführungsform darstellt. Wie in 1 dargestellt, ist das Robotersimulationssystem 100 so ausgebildet, dass ein Simulationssystem (eine Simulationsvorrichtung 90 und ein Head-Mounted Display 80) mit einer Funktion, ein dreidimensionales Modell eines Robotersystems anzuzeigen und zu bedienen, wobei es dasselbe als ein pseudodreidimensionales Objekt unter Verwendung einer Funktion zum Anzeigen eines erweiterten realen Bildes einem Bild eines realen Raums überlagert, in Kommunikationsverbindung mit einer Robotersteuerung 50 steht, die einen Roboter 30 über ein Netzwerk 60 steuert. Insbesondere beinhaltet das Robotersimulationssystem 100 die Simulationsvorrichtung 90, das mit der Simulationsvorrichtung 90 verbundene Head-Mounted Display 80, die über das Netzwerk 60 mit der Simulationsvorrichtung 90 verbundene Robotersteuerung 50, und den mit der Robotersteuerung 50 verbundenen Roboter 30. Typischerweise sind der Roboter 30, ein Werkstück W, ein Peripheriegerät 11 und die Robotersteuerung 50 in einer Fertigungslinie angeordnet, und die Simulationsvorrichtung 90 und das Head-Mounted Display 80 sind jeweils an einem nicht an der Fertigungslinie liegenden Ort angeordnet.
  • Der Roboter 30 ist z.B. ein vertikaler Knickarmroboter, und eine Hand 39, die ein Beispiel für einen End-Effektor ist, ist an einem vorderen Ende eines Arms angebracht. Der Roboter 30 ist in der Lage, ein Werkstück W zu transportieren, indem er es mit der Hand 39 hält. Um den Roboter 30 herum sind das Peripheriegerät 11 (z.B. ein Wagen zum Transportieren eines Werkstücks) und das Werkstück W angeordnet.
  • Die Robotersteuerung 50 steuert den Betrieb des Roboters 30 durch Ausgabe eines Steuerbefehls an einen Servomotor (nicht dargestellt), der jede Gelenkachse des Roboters 30 gemäß einem in der Robotersteuerung 50 geladenen Betriebsprogramm antreibt. Die Robotersteuerung 50 tauscht auch über das Netzwerk 60 Informationen mit der Simulationsvorrichtung 90 aus.
  • Das Head-Mounted Display 80 beinhaltet eine Kamera 81, die einen realen Raum aufnimmt, eine Einheit 82 zum Verarbeiten eines erweiterten realen Bildes, die eine Verarbeitung ausführt, bei der ein von der Simulationsvorrichtung 90 bereitgestelltes Modell des Robotersystems und verschiedene Informationen einem von der Kamera 81 aufgenommenen Bild des realen Raums überlagert werden, und eine Anzeigeeinheit 83, die ein dreidimensionales Bild anzeigt, das von der Einheit 82 zum Verarbeiten eines erweiterten realen Bildes erzeugt wird (bezogen auf 2). Die Anzeigeeinheit 83 zeigt ein dreidimensionales Bild am Beispiel eines binokularen Parallaxenbildes an. In 1 wird ein Beispiel eines auf der Anzeigeeinheit 83 des Head-Mounted Displays 80 angezeigten Bildes innerhalb einer mit gestrichelten Linien gezeichneten, in sich geschlossenen Linie dargestellt. Im Beispiel von 1 werden ein Robotermodell 30M, ein Werkstückmodell WM und ein Peripheriegerätemodell 11M, die jeweils Modelle des Roboters 30, des Werkstücks W und des Peripheriegeräts 11 sind, auf dem Head-Mounted Display 80 angezeigt, während sie dem Bild des realen Raums überlagert sind. Ein Bediener kann beim Erstellen eines Bildes eines Modells des Robotersystems eine Position eines Blickwinkels ändern, beispielsweise durch Bedienen einer Bedieneinheit 95 der Simulationsvorrichtung 90. Das Head-Mounted Display 80 kann durch ein Display eines anderen Typs, das an eine erweiterte Realität angepasst werden kann, ersetzt werden.
  • Wie in 2 dargestellt, kann die Simulationsvorrichtung 90 aus einem typischen Computer mit einer CPU 91, einem ROM 92, einem RAM 93, einer Speichervorrichtung 94, der Bedieneinheit 95, einer Netzwerkschnittstelle 96, einer Externe-Geräte-Schnittstelle 97 zum Verbinden mit verschiedenen externen Geräten, einer Anzeigeeinheit 98 und dergleichen bestehen. Die Speichervorrichtung 94 speichert ein Simulationsprogramm zum Ausführen einer Simulation, dreidimensionale Modelldaten an dem Robotermodell 30M, dem Werkstückmodell WM, dem Peripheriegerätemodell 11M und dergleichen. Die Simulationsvorrichtung 90 ist über die Externe-Geräte-Schnittstelle 97 mit dem Head-Mounted Display 80 und über die Netzwerkschnittstelle 96 auch mit der Robotersteuerung 50 verbunden. Die Simulationsvorrichtung 90 kann über eine drahtgebundene oder eine drahtlose Verbindung mit dem Head-Mounted Display 80 verbunden sein. Die Simulationsvorrichtung 90 kann auch mit der Robotersteuerung 50 über eine drahtgebundene oder eine drahtlose Verbindung verbunden sein.
  • 3 ist ein Funktionsblockdiagramm, das verschiedene Funktionen im Zusammenhang mit einer Simulation veranschaulicht, die durch das Zusammenwirken der Simulationsvorrichtung 90 und des Head-Mounted Displays 80 erzielt werden soll. Das Simulationsprogramm kann auf verschiedenen Arten von computerlesbaren Speichermedien gespeichert werden (z.B. einem ROM, einem RAM, einem Flash-Speicher, einer Festplatte, einem CD-ROM, einem DVD-ROM und dergleichen).
  • Eine Robotersystemmodell-Anzeigeeinheit 101 überlagert dreidimensional das Robotermodell 30M, das Werkstückmodell WM und das Peripheriegerätemodell 11M auf ein Bild eines realen Raums, das in der Anzeigeeinheit 83 des Head-Mounted Displays 80 dargestellt wird, unter Verwendung einer Positionsbeziehung, die identisch ist mit einer tatsächlichen Positionsbeziehung des Robotersystems. Indem es beispielsweise einem Bediener ermöglicht wird, Ist-Positionsinformationen des Robotersystems unter Verwendung der Bedieneinheit 95 der Simulationsvorrichtung 90 einzugeben oder indem die Simulationsvorrichtung 90 veranlasst wird, die Ist-Positionsinformationen des Robotersystems von einer externen Vorrichtung zu erfassen, ist die Robotersystemmodell-Anzeigeeinheit 101 in der Lage, im Bild des realen Raums, ein Modell des Robotersystems mit überlagerter Anzeige an einer der Ist-Positionsbeziehung des Robotersystems entsprechenden Position anzuzeigen. Dadurch kann jedes Modell in einem Blickfeld des Bedieners, der das Head-Mounted Display 80 trägt, angezeigt werden, so als ob das in einer Fertigungslinie vorgesehene Robotersystem in einem Raum angeordnet wäre, in dem sich der Bediener aufhält.
  • Eine Simulationsausführungseinheit 141 führt den Simulationsvorgang aus, indem sie die von der Robotersystemmodell-Anzeigeeinheit 101 angezeigten Modelle des Robotersystems in simulierter Weise betreibt. In der vorliegenden Beschreibung bedeutet der Simulationsvorgang, dass ein Modell in simulierter Weise gemäß einem Betriebsprogramm oder einer von einem Bediener durchgeführten Befehlseingabe von Lernpunkten betrieben wird. So kann beispielsweise ein Bediener den gewünschten Betrieb (Lernpunkte) eines Roboters in die Simulationsvorrichtung 90 eingeben und den Betrieb des Roboters durch Ausführen des Simulationsvorgangs überprüfen. Auf diese Weise wird, indem der Simulationsvorgang wie oben beschrieben durchgeführt wird, ein Betriebsprogramm erstellt, das es dem Roboter 30 ermöglicht, den gewünschten Vorgang auszuführen. Zu diesem Zeitpunkt kann der Bediener die Eingabe der Lernpunkte und die Bedienung des Roboters 30 und dergleichen überprüfen, während er die dreidimensional dargestellten Modelle des Robotersystems mit überlagerter Anzeige im Bild des realen Raums betrachtet, in dem sich der Bediener, der das Head-Mounted Display 80 trägt, aufhält. Das heißt, der Bediener kann die Lernpunkte eingeben und die Bedienung des Roboters 30 überprüfen, während er intuitiv einen Ist-Zustand des Robotersystems erfasst (z.B. Abstände zwischen dem Roboter 30, dem Peripheriegerät 11 und dem Werkstück W), wodurch ein genaues Betriebsprogramm erstellt werden kann.
  • Der Bediener kann die Bedieneinheit 95 (z.B. eine Tastatur, eine Maus und eine andere Zeigevorrichtung) der Simulationsvorrichtung 90 betätigen, um einen Eingabevorgang wie die Eingabe der Lernpunkte im Simulationsbetrieb wie oben beschrieben durchzuführen. Alternativ zu der Simulationsvorrichtung 90 kann ein im Stand der Technik bekannter Sensor zum Verfolgen der Bewegung der Hände eines Bedieners (eine Kamera, ein in der Hand eines Bedieners getragener Sensor oder dergleichen) als externe Vorrichtung angeschlossen werden. Die Kamera als Sensor zum Erfassen der Bewegung der Hände eines Bedieners kann in dem Head-Mounted Display 80 vorgesehen sein. Wenn die Simulationsvorrichtung 90, wie oben beschrieben, eine Funktion zum Verfolgen der Bewegung der Hände eines Bedieners hat, so kann der Bediener die Eingabe der Lernpunkte oder dergleichen mit einer Geste anweisen. Verschiedene Arten von im Folgenden beschriebenen Bedieneingaben (Touch-Bedienung, Drag-Bedienung und dergleichen) können jeweils durch eine Funktion der Verfolgung der Bewegung der Hände eines Bedieners erreicht werden.
  • Eine Robotersystem-Verbindungseinheit 102 stellt eine Verbindung zwischen der Simulationsvorrichtung 90 und der Robotersteuerung 50 her. Dadurch kann ein Austausch von Informationen zwischen einer Simulationsprogrammseite (Simulationsvorrichtung 90) und einer Robotersystemseite (Robotersteuerung 50) ermöglicht werden.
  • Eine Robotersystemmodell-Betriebseinheit 103 erfasst von der Robotersteuerung 50 im Betrieb Positionen des Roboters 30, des Werkstücks W und des Peripheriegeräts 11, die das Robotersystem bilden, um das Robotermodell 30M, das Werkstückmodell WM und das Peripheriegerätemodell 11M, die das Robotersystemmodell bilden, in Positionen zu bewegen, die deren Positionen im Betrieb entsprechen. Die Simulationsvorrichtung 90 empfängt ein Signal, das einen Zustand der Hand 39 des Roboters 30 anzeigt, um einen Handabschnitt des Robotermodells 30M zu veranlassen, das Werkstückmodell WM zu halten, wenn der Roboter 30 das Werkstück W mit der Hand 39 hält. Die oben beschriebene Bewegungsverarbeitung kann so durchgeführt werden, dass die Bewegung auf der Robotersystemseite in Echtzeit verfolgt wird. 6 veranschaulicht einen Zustand, in dem das Robotermodell 30M das Werkstück WM in einem Bild hält, das in dem Head-Mounted Display 80 als Reaktion auf den Roboter 30, der das Werkstück W auf der Robotersystemseite hält, angezeigt wird.
  • Eine Betriebsprogramm-Erfassungseinheit 111 erfasst ein Betriebsprogramm des Roboters 30 von der Robotersteuerung 50 über das Netzwerk 60.
  • Eine Betriebsprogramm-Anzeigeeinheit 112 zeigt Informationen über das Betriebsprogramm des Roboters 30 an, indem sie diese unter Verwendung des erfassten Betriebsprogramms dem Bild des in dem Head-Mounted Display 80 angezeigten realen Raums überlagert. 7 veranschaulicht ein Beispiel für Informationen über das in dem Head-Mounted Display 80 angezeigte Betriebsprogramm. Bei dem angezeigten Beispiel nach 7 werden ein dreidimensionales Bild, das eine grafische Darstellung von Knoten 201 bis 204 der jeweiligen im Betriebsprogramm enthaltenen Lernpunkte zeigt, und ein zwischen den entsprechenden Lernpunkten verlaufender Pfad 210 dargestellt, indem sie dem Bild des realen Raums überlagert werden. Zusätzlich wird im angezeigten Beispiel von 7 ein dreidimensionales Panel 220 mit einer Liste von Lernpunkten angezeigt. Wenn ein Bediener bei diesem Bildschirm seine Hand bewegt, um einen gewünschten Lernpunkt auf dem Panel 220 zu berühren und auszuwählen, oder beispielsweise einen Knoten 202 des Lernpunkts mit der Hand berührt, so wird ein Panel 230, das eine dreidimensionale Position des ausgewählten Lernpunkts zeigt, angezeigt, indem es dem Bild des realen Raums überlagert wird. Im Beispiel von 7 wird ein Lernpunkt 202 (ein Lernpunkt P2 auf dem Panel 220) ausgewählt. In der unten folgenden Beschreibung werden Anzeigeinhalte, wie z.B. verschiedene Bedienfelder und Bedienmenüs, auch als dreidimensionales Bild dargestellt.
  • An einem Betriebsprogramm-Änderungseinheit 113 wird eine Betätigung für ein von einem Bediener ausgeführtes Ändern von Lernpunkten vorgenommen. Als Beispiel für den Vorgang zum Ändern von Lernpunkten kann der Bediener einen dem Bild des realen Raums überlagerten Knoten jedes Lernpunktes bewegen, indem er einen Drag-Vorgang mit der Hand ausführt. 8 veranschaulicht einen Zustand, bei dem ein Bediener den Knoten 202 des Lernpunktes durch Ausführen eines Drag-Vorgangs bewegt. Ein weiteres Beispiel für eine Betätigung zum Ändern von Lernpunkten kann so ausgeführt sein, dass, wenn ein Bediener mit der Hand eines der Positionsdatenelemente, die eine dreidimensionale Position eines Lernpunkts angeben, auf dem Panel 230 berührt, im realen Raum eine numerische Tastatur 240 angezeigt wird, damit der Bediener die numerische Tastatur 240 betätigen kann, um einen Zahlenwert der berührten Positionsdaten einzugeben. Das Beispiel von 8 veranschaulicht einen Zustand, bei dem eine Z-Koordinate auf dem Panel 230, die eine dreidimensionale Position eines Lernpunktes angibt, durch Ausführen eines Berührungsvorgangs ausgewählt wird, wodurch dann die numerische Tastatur 240 angezeigt wird.
  • Eine Betriebsprogramm-Berücksichtigungseinheit 114 übermittelt ein durch die Betriebsprogramm-Änderungseinheit 113 geändertes Betriebsprogramm und einen Ausführungsbefehl an die Robotersteuerung 50 über das Netzwerk 60, um diese auf der Robotersystemseite zu berücksichtigen. Danach steuert die Robotersteuerung 50, die das geänderte Betriebsprogramm empfangen hat, den Roboter 30 entsprechend dem geänderten Betriebsprogramm. Gemäß der vorstehend beschriebenen Ausführung kann ein Bediener, wenn sich der tatsächliche Betrieb des Roboters 30 von einem gewünschten Betrieb unterscheidet, beispielweise aufgrund eines externen Faktors (wenn z.B. eine im Roboter 30 vorgesehene Sicherheitsüberwachungsvorrichtung einen Menschen erkennt und dadurch die Betriebsgeschwindigkeit des Roboters 30 reduziert wird), in einer Situation, in der der Roboter 30 tatsächlich gemäß dem in der Simulation von 4 erstellten Betriebsprogramm betrieben wird, das Betriebsprogramm ändern und dabei intuitiv und präzise einen Zustand des Roboters 30 erfassen.
  • Eine Einstellung-Erfassungseinheit 121 erfasst die Einstellung des Robotersystems von der Robotersystemseite über das Netzwerk 60. Eine Einstellung-Anzeigeeinheit 122 zeigt die von der Einstellung-Erfassungseinheit 121 erfassten Einstellinformationen an, indem sie sie dem Bild des realen Raumes, das auf dem Head-Mounted Display 80 angezeigt wird, überlagert. Die Einstellinformationen umfassen beispielsweise ein Positionsregister (ein Register, das eine Position eines Roboters bezeichnet) und ein Zahlenwertregister (verschiedene Register, die beim Betrieb eines Programms verwendet werden). 9 veranschaulicht ein Beispiel für die Einstellinformationen, die angezeigt werden, indem sie dem Bild des realen Raumes überlagert werden. In dem Beispiel der 9 bedeutet „POSREG“ das Positionsregister und „NUMREG“ bedeutet das Zahlenwertregister. In 9 wird ein Einstellmenüfeld 251 angezeigt, das ein Menü mit den Einstellinformationen zeigt.
  • An einer Einstellung-Änderungseinheit 123 wird eine Betätigung zum Ändern der Einstellinformationen vorgenommen. 9 veranschaulicht auch ein Beispiel für den Einstellinformationen-Änderungsvorgang. Im Beispiel von 9 zeigt die Einstellung-Änderungseinheit 123 ein Untermenü 252 an, das eine Liste von Positionsregistern zeigt, wenn ein Bediener das Positionsregister („POSREG“) im Einstellmenüfeld 251 auswählt. Wenn im Untermenü 252 ein Positionsregister PR3 ausgewählt wird, so zeigt die Einstellung-Änderungseinheit 123 ein Panel 260 an, das Einstellinformationen über das Positionsregister PR3 anzeigt, indem sie sie dem Bild des realen Raums überlagert. Die Einstellung-Änderungseinheit 123 zeigt das numerische Tastenfeld 240 an, indem sie es dem Bild des realen Raumes überlagert, wenn ein Bediener die Positionsinformationen auf dem Panel 260 berührt und auswählt, und erhält die Eingabe eines Zahlenwerts der ausgewählten Positionsinformation. Das Beispiel der 9 veranschaulicht einen Zustand, in dem das numerische Tastenfeld 240 angezeigt wird, wenn eine Z-Koordinate auf dem Panel 260 durch Berühren ausgewählt wird.
  • Eine Einstellung-Berücksichtigungseinheit 124 berücksichtigt die durch die Einstellung-Änderungseinheit 123 geänderten Einstellinformationen und einen Änderungsbefehl auf der Robotersystemseite, indem sie diese über das Netzwerk 60 an die Robotersteuerung 50 übermittelt. Die Robotersteuerung 50, die die geänderten Einstellinformationen erhalten hat, ändert die Einstellung entsprechend dem geänderten Einstellungsinhalt.
  • Eine Betriebszustand-Erfassungseinheit 131 erfasst Betriebszustände des Robotersystems von der Robotersteuerung 50 über das Netzwerk 60. Die Betriebszustände umfassen beispielsweise Informationen über einen Alarm, einen Fertigungszustand, ein von einer in einem Roboter vorgesehenen Kamera erfasstes Erkennungsergebnis, einen Zustand eines Reduktionsgetriebes (Untersetzungsgetriebes) und dergleichen. Eine Betriebszustand-Anzeigeeinheit 132 zeigt Informationen über die Betriebszustände an, indem sie diese dem Bild des realen Raumes überlagert, das in dem Head-Mounted Display 80 angezeigt wird. 10 veranschaulicht ein Beispiel für die Betriebszustände, die angezeigt werden, indem sie dem Bild des realen Raumes überlagert werden. In dem Beispiel der 10 wird ein Menüfeld 271 angezeigt, das ein Menü der Betriebszustände zeigt. Wenn ein Bediener eines der Elemente in dem Menüfeld 271 berührt und auswählt, so zeigt die Betriebszustand-Anzeigeeinheit 132 ein Panel 272 an, das Details des ausgewählten Elements zeigt, indem sie es dem Bild des realen Raums überlagert. Im Beispiel der 10 wird über das Menüfeld 271 ein Alarm („ALARM“) ausgewählt, um Informationen anzuzeigen, die ein Protokoll des Alarms auf dem Panel 272 zeigen.
  • Eine Modellmaßstab-Änderungseinheit 133 bietet eine Funktion zum Ändern des Maßstabs einer Anzeige jedes der Modelle des Robotersystems. So kann beispielsweise die Modellmaßstab-Änderungseinheit 133 einen Maßstab jedes der Modelle ändern, indem eine von einem Bediener ausgeführte Bedieneingabe an die Robotersimulationsvorrichtung 90 an ihr vorgenommen wird oder eine Gestenbedienung an ihr vorgenommen wird, die an einem im realen Raum angezeigten Bedienmenü ausgeführt wird.
  • 4 ist ein Flussdiagramm, das den Betrieb gemäß einem Simulationsprogramm zum Erstellen des Betriebsprogramms des Roboters 30 veranschaulicht. Der Simulationsbetrieb der 4 erfolgt unter Steuerung der CPU 91 der Simulationsvorrichtung 90. Zuerst werden durch die Funktion der Robotersystemmodell-Anzeigeeinheit 101 dreidimensionale Modelle des Robotermodells 30M, des Werkstückmodells WM und des Peripheriegeräts 11M dargestellt, indem sie dem Bild des in der Anzeigeeinheit 83 des Head-Mounted Displays 80 angezeigten realen Raums überlagert werden (Schritt S11). Anschließend wird durch die Funktion der Simulationsausführungseinheit 141 der Simulationsbetrieb jedes der Modelle des Robotersystems durchgeführt (Schritt S12). Insbesondere gibt ein Bediener hier Lernpunkte ein, um den Roboter 30 zu veranlassen, den gewünschten Vorgang auszuführen, und führt die Simulation durch, indem er die Modelle des Robotersystems in simulierter Weise betreibt. In diesem Fall kann der Bediener, wie oben beschrieben, einen Eingabevorgang durchführen, während er intuitiv einen Zustand der einzelnen Modelle des Robotersystems erfasst, die in dem Head-Mounted Display 80 angezeigt werden. Wenn das Betriebsprogramm, das den Roboter 30 veranlassen soll, den gewünschten Vorgang auszuführen, wie oben beschrieben erstellt wird, so wird das Betriebsprogramm an die Robotersteuerung 50 übertragen (Schritt S13). Die Robotersteuerung 50 führt, nachdem sie das Betriebsprogramm empfangen hat, das Betriebsprogramm zur Steuerung des Roboters 30 aus.
  • 5 ist ein Flussdiagramm, das den Simulationsvorgang veranschaulicht, der es der Simulationsvorrichtung 90 ermöglicht, das Betriebsprogramm durch Überprüfen der tatsächlichen Bewegung des Robotersystems zu ändern. Der Simulationsbetrieb von 5 erfolgt unter Steuerung der CPU 91 der Simulationsvorrichtung 90. Wenn die Simulationsvorrichtung 90 betätigt wird, um den Simulationsvorgang zu starten, zeigt die Robotersystemmodell-Anzeigeeinheit 101 zunächst das Robotersystemmodell einschließlich des Robotermodells 30M, des Werkstückmodells WM und des Peripheriegerätmodells 11M gemäß deren tatsächlicher Anordnung an, wobei das Robotersystemmodell dem Bild des in dem Head-Mounted Display 80 angezeigten realen Raums überlagert wird (Schritt S101). Dann verbindet die Robotersystem-Verbindungseinheit 102 eine Simulationssystemseite mit der Robotersystemseite (Schritt S102).
  • Anschließend betreibt die Robotersystemmodell-Betriebseinheit 103 das Robotersystemmodell entsprechend der Bewegung des Robotersystems unter Verwendung von Positionsinformationen über das in Betrieb befindliche Robotersystem, die von der Robotersteuerung 50 erfasst wurden (Schritt S103). In diesem Fall kann ein Bediener ein Bild betrachten, das es dem Bediener ermöglicht, sich so zu fühlen, als ob die dreidimensional dargestellten Modelle des Robotersystems tatsächlich im realen Raum, in dem sich der Bediener befindet, arbeiten würden, so dass ein Zustand des Robotersystems intuitiv erfasst werden kann.
  • Anschließend erfasst die Betriebsprogramm-Erfassungseinheit 111 das Betriebsprogramm des Robotersystems (Schritt S104). Dann zeigt die Betriebsprogramm-Anzeigeeinheit 112 die Lernpunkte des Betriebsprogramms an, wobei sie sie dem Bild des realen Raums überlagert, wie in 7 als Beispiel dargestellt (Schritt S105). In diesem Zustand wird an der Betriebsprogramm-Änderungseinheit 113 eine Betätigung zum Ändern von Positionen der Lernpunkte, wie in 8 dargestellt, vorgenommen (Schritt S106). In Schritt S106 kann das Robotermodell 30M entsprechend den geänderten Lernpunkten in simulierter Weise betrieben werden, um dessen Bewegungen zu überprüfen. Bei Änderung der Lernpunkte übermittelt die Betriebsprogramm-Berücksichtigungseinheit 114 das geänderte Betriebsprogramm an die Robotersteuerung 50, um das geänderte Betriebsprogramm im Robotersystem zu berücksichtigen (Schritt S107). Gemäß der oben beschriebenen Ausführung werden die Lernpunkte zusammen mit den dem Bild des realen Raumes überlagerten Modellen des Robotersystems dreidimensional dargestellt, so dass ein Bediener Positionen der jeweiligen Lernpunkte intuitiv erfassen und entsprechend eine notwendige Änderung der Lernpunkte vornehmen kann.
  • Anschließend erfasst die Einstellung-Erfassungseinheit 121 Einstellinformationen über das Robotersystem (Schritt S108). Die Einstellung-Anzeigeeinheit 122 zeigt die erfassten Einstellinformationen an, wobei sie sie dem Bild des realen Raums überlagert (Schritt 109). Dann wird von einem Bediener an der Einstellung-Änderungseinheit 123 eine Betätigung zum Ändern der Einstellung vorgenommen (Schritt S110). Bei Änderung der Einstellung werden die von der Einstellung-Berücksichtigungseinheit 124 geänderten Einstellinformationen an die Robotersteuerung 50 übermittelt und in dieser berücksichtigt (Schritt S111). Gemäß der oben beschriebenen Ausführung werden die Einstellinformationen zusammen mit den Modellen des Robotersystems in einer dem Bild des realen Raumes überlagerten Weise angezeigt, so dass ein Bediener in einer Situation, in der der Bediener einen Zustand des Robotersystems intuitiv erfassen kann, eine notwendige Änderung der Einstellung vornehmen kann.
  • Anschließend erfasst die Betriebszustand-Erfassungseinheit 131 den Betriebszustand des Robotersystems (Schritt S112). Bei Erfassung des Betriebszustands zeigt die Betriebszustand-Anzeigeeinheit 132 den Betriebszustand des Robotersystems an, um diesen dem Bild des realen Raums, das in dem Head-Mounted Display 80 angezeigt wird, zu überlagern, wie in 10 veranschaulicht (Schritt S113). Wenn, wie oben beschrieben, der Betriebszustand zusammen mit den im realen Raum dargestellten Modellen des Robotersystems angezeigt wird, können die Vorteile, gemäß derer ein Bediener einen Zustand des Robotersystems intuitiv erfassen kann, weiter optimiert werden.
  • Wie oben beschrieben, kann die Simulation gemäß der vorliegenden Ausführungsform in einer Situation durchgeführt werden, die es dem Bediener erlaubt, einen Zustand des Robotersystems intuitiv zu erfassen.
  • Obwohl die Erfindung mit Bezug auf die spezifische Ausführungsform beschrieben wurde, wird dem Fachmann bewusst sein, dass verschiedene Änderungen oder Modifikationen daran vorgenommen werden können, ohne vom Umfang der nachstehenden Patentansprüche abzuweichen.
  • Das Modell des Robotersystems kann auf einer Anzeigeeinheit des Head-Mounted Displays als in einem virtuellen Raum existierendes, pseudo-dreidimensionales Objekt dargestellt werden.
  • So kann zum Beispiel das oben beschriebene Head-Mounted Display 80 eine Kameraposition-Orientierung-Schätzfunktion (Erfassungseinheit) zum Schätzen einer Position und einer Ausrichtung der Kamera 81 unter Verwendung eines Sensors (eines Gyrosensors, eines Beschleunigungssensors usw.) umfassen. Durch die Verwendung der vorstehend beschriebenen Kameraposition-Orientierung-Schätzfunktion wird es möglich, die Position eines Blickwinkels zu ändern, um ein Bild der Modelle des Robotersystems zu erzeugen, während die Bewegung des Kopfes eines Bedieners verfolgt wird. So kann beispielsweise ein Bild nicht nur so erzeugt werden, dass die Modelle des Robotersystems einem Bediener nahe kommen, wenn sich der Bediener bewegt, indem er an einem Ort geht, an dem sich der Bediener befindet, sondern auch so, dass ein Bediener durch Bewegen seines Kopfes in einen gewünschten Teilbereich der Modelle des Robotersystems schauen kann.
  • Wenn das Peripheriegerät 11 den Arbeitsvorgang des Förderns eines Werkstücks ausführt und die Robotersteuerung 50 Informationen bereitstellen kann, die der Simulationsvorrichtung 90 einen Betriebszustand des Peripheriegeräts anzeigen, so kann die Simulationsvorrichtung 90 diese Informationen verwenden, um ein Bild zu erzeugen, in dem die Modelle des Robotersystems bewegt werden.
  • Beispiele für eine Technik zur Darstellung des Modells des Robotersystems als ein in einem dreidimensionalen Raum existierendes pseudo-dreidimensionales Objekt können, neben der Technik nach der oben beschriebenen Ausführungsform, verschiedene Techniken umfassen. 11 veranschaulicht ein Ausführungsbeispiel eines Robotersimulationssystems 100A, bei dem ein Projektor 280 anstelle des Head-Mounted Displays 80 in der Ausführung von 1 verwendet wird. Im Ausführungsbeispiel der 11 veranlasst eine Simulationsvorrichtung 90A einen Projektor 280 ein dreidimensionales Modell eines Robotersystems als dreidimensionales stereoskopisches Bild in einem von einem Bediener aus betrachteten realen Raum darzustellen. Zum Beispiel kann der Projektor 280 ein dreidimensionales stereoskopisches Bild anzeigen, indem er ein Hologramm an einer vorbestimmten Position an einem Ort verwendet, an dem sich ein Bediener befindet.
  • Solch ein dreidimensionales stereoskopisches Bild ist ein stereoskopisches Bild eines Objekts, das gewonnen werden kann, indem ein Medium (Hologramm), wie beispielsweise ein Film, auf dem durch Überlagerung von Licht aus dem Objekt (Objektlicht) mit Referenzlicht erzeugte Interferenzstreifen aufgezeichnet werden, mit dem Referenzlicht bestrahlt wird. Als Projektor 280 kann eine Vorrichtung verwendet werden, die eine Funktion zum Projizieren eines Hologramms unter Verwendung einer im Stand der Technik bekannten Technik aufweist. Die Simulationsvorrichtung 90A weist ähnliche Funktionen auf wie die im oben genannten Ausführungsbeispiel beschriebene Simulationsvorrichtung 90. Eine solche Ausführungsform ermöglicht es dem Bediener auch, Lernpunkte einzugeben und eine Simulation durchzuführen, während er intuitiv einen Zustand der Modelle des Robotersystems erfasst (Wahrnehmung eines Abstands zwischen dem Roboter 30 und dem Werkstück W oder dem Peripheriegerät 11, usw.).
  • 12 veranschaulicht ein Ausführungsbeispiel eines Robotersimulationssystems 100B, bei dem eine Vielzahl von Robotersystemen über das Netzwerk 60 mit einer Robotersimulationsvorrichtung 90B verbunden ist. Bei der Ausführung nach 12 kann die Robotersimulationsvorrichtung 90B Modelle eines jeden der Vielzahl von Robotersystemen anzeigen und diese einem Bild eines realen Raums überlagern und kann die in den 3 und 4 dargestellte Simulation für jedes der Vielzahl von Robotersystemen ausführen. Bei dem Beispiel nach 12 ist die Simulationsvorrichtung 90B mit zwei Robotersystemen verbunden (ein System mit einer Robotersteuerung 50a, einem Roboter 30a, einem Werkstück Wa und einem Peripheriegerät 11a und ein System mit einer Robotersteuerung 50b, einem Roboter 30b, einem Werkstück Wb und einem Peripheriegerät 11b). Darüber hinaus zeigt die Anzeigeeinheit 83 des Head-Mounted Displays 80 zwei Modellsätze des Robotersystems an (Modelle eines Robotersystems eines Roboters 30aM, eines Werkstücks WaM und eines Peripheriegeräts 11aM sowie Modelle eines Robotersystems eines Roboters 30bM, eines Werkstücks WbM und eines Peripheriegeräts 11bM) und überlagert sie dem Bild des realen Raums (siehe innerhalb der mit gestrichelten Linien gezeigten, in sich geschlossenen Linie in 12). Bei der Ausführung nach 12 weist die Simulationsvorrichtung 90B ähnliche Funktionen auf wie die bei der oben genannten Ausführungsform beschriebene Simulationsvorrichtung 90. Die Ausführung nach 12 ermöglicht es einem Bediener, den Simulationsbetrieb jedes der Robotersysteme an einem Ort auszuführen, an dem sich der Bediener befindet, während er intuitiv einen Zustand jedes der Vielzahl von Robotersystemen erfasst.
  • Um das Problem der vorliegenden Offenbarung zu lösen, können verschiedene Aspekte und Auswirkungen, wie nachfolgend beschrieben, vorgesehen werden. Zahlen in Klammern in der Beschreibung der Aspekte entsprechen den jeweiligen Bezugszeichen der Zeichnungen der vorliegenden Offenbarung.
  • Ein erster Aspekt der vorliegenden Offenbarung ist beispielsweise eine Robotersimulationsvorrichtung, die umfasst: eine Bildanzeigeeinheit (101), die ein dreidimensionales Modell eines Robotersystems mit einem Roboter (30), einem Werkstück (W) und einem Peripheriegerät (11) als ein pseudo-dreidimensionales Objekt, das in einem dreidimensionalen Raum existiert, anzeigt; und eine Simulationsausführungseinheit (141), die einen Simulationsvorgang für das dreidimensionale Modell des von der Bildanzeigeeinheit (101) angezeigten Robotersystems ausführt.
  • Gemäß dem ersten Aspekt kann ein Bediener einen Simulationsvorgang ausführen, wobei er im Stande ist einen Zustand des Robotersystems intuitiv zu erfassen.
  • Ein zweiter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) des ersten Aspekts, wobei die Bildanzeigeeinheit (101) eine Erfassungseinheit (80) beinhaltet, die eine Position und eine Ausrichtung des Kopfes eines Bedieners erfasst, wobei die Bildanzeigeeinheit (101) die Position eines Blickwinkels zum Anzeigen des dreidimensionalen Modells gemäß der erfassten Position und Ausrichtung des Kopfes des Bedieners ändert. Ein dritter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90A) des ersten Aspekts, wobei das pseudo-dreidimensionale Objekt des dreidimensionalen Modells des Robotersystems, das von der Bildanzeigeeinheit (101) angezeigt wird, ein stereoskopisches Bild ist, das unter Verwendung eines Hologramms wiedergegeben wird, das das dreidimensionale Modell des Robotersystems darstellt.
  • Ein vierter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) eines der ersten bis dritten Aspekte, die ferner umfasst: eine Netzwerkverbindungseinheit (102) zum Verbinden mit einer Robotersteuerung (50), um den Roboter (30) über ein Netzwerk (60) zu steuern; und eine Modellbetriebseinheit (103), die von der Robotersteuerung (50) Positions- und Ausrichtungsdaten über den Roboter im Betrieb erfasst, um das dreidimensionale Modell des von der Bildanzeigeeinheit (101) dargestellten Roboters unter Verwendung der erfassten Positions- und Ausrichtungsdaten zu bedienen.
  • Ein fünfter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) des vierten Aspekts, die ferner umfasst: eine Betriebsprogramm-Erfassungseinheit (111), die von der Robotersteuerung (50) ein Betriebsprogramm des Roboters erfasst; und eine Betriebsprogramm-Anzeigeeinheit (112), die auf der Grundlage einer dreidimensionalen Position eines in dem erfassten Betriebsprogramm enthaltenen Lernpunkts ein Bild anzeigt, das den Lernpunkt an einer Position zeigt, die der dreidimensionalen Position des Lernpunkts im dreidimensionalen Raum entspricht.
  • Ein sechster Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) des fünften Aspekts, die ferner umfasst: eine Betriebsprogramm-Änderungseinheit (113), an der eine Betätigung zum Ändern des als Bild angezeigten Lernpunkts vorgenommen wird; und eine Betriebsprogramm-Berücksichtigungseinheit (114), die das Betriebsprogramm entsprechend einer Position des geänderten Lernpunkts aktualisiert und das aktualisierte Betriebsprogramm zusammen mit einem Ausführungsbefehl des aktualisierten Betriebsprogramms an die Robotersteuerung übermittelt.
  • Ein siebter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) eines der vierten bis sechsten Aspekte, die ferner umfasst: eine Einstellung-Erfassungseinheit, die von der Robotersteuerung Einstellinformationen über das Robotersystem erfasst; und eine Einstellung-Anzeigeeinheit, die die als Zeicheninformationen erfassten Einstellinformationen im dreidimensionalen Raum anzeigt.
  • Ein achter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) des siebten Aspekts, die ferner umfasst: eine Einstellung-Änderungseinheit (123), an der eine Betätigung zum Ändern der angezeigten Einstellinformationen vorgenommen wird; und eine Einstellung-Berücksichtigungseinheit (124), die die geänderten Einstellinformationen zusammen mit einem Änderungsbefehl der Einstellinformationen an die Robotersteuerung (50) übermittelt.
  • Ein neunter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) eines der vierten bis achten Aspekte, die ferner umfasst: eine Betriebszustand-Erfassungseinheit (131), die von der Robotersteuerung (50) Informationen über einen Betriebszustand des Robotersystems erfasst; und eine Betriebszustand-Anzeigeeinheit (132), die die erfassten Informationen über den Betriebszustand als Zeicheninformationen im dreidimensionalen Raum anzeigt.
  • Ein zehnter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90B) des vierten Aspekts, die wie folgt ausgebildet ist: es gibt eine Vielzahl von Systemen, von denen jedes das Robotersystem und die Robotersteuerung (50a oder 50b) umfasst; die Netzwerkverbindungseinheit (102) ist über das Netzwerk (60) mit einer Mehrzahl der Robotersteuerungen (50a und 50b) verbunden; die Bildanzeigeeinheit (101) zeigt ein dreidimensionales Modell von jedem der Robotersysteme als das im dreidimensionalen Raum existierende pseudo-dreidimensionale Objekt an; die Simulationsausführungseinheit (141) führt den Simulationsvorgang für das dreidimensionale Modell jedes der Robotersysteme aus; und die Modellbetriebseinheit (103) erfasst von den Robotersteuerungen (50a und 50b) Positions- und Ausrichtungsdaten des in Betrieb befindlichen Roboters, der mit jeder der Robotersteuerungen verbunden ist, und bedient das dreidimensionale Modell jedes der Roboter unter Verwendung der erfassten Positions- und Ausrichtungsdaten.
  • Ein elfter Aspekt der vorliegenden Offenbarung ist die Robotersimulationsvorrichtung (90) eines der ersten bis zehnten Aspekte, die ferner eine Modellmaßstab-Änderungseinheit (133) beinhaltet, die einen Maßstab einer Darstellung des dreidimensionalen Modells des Robotersystems ändert.

Claims (8)

  1. Robotersimulationsvorrichtung (90) mit: einer Bildanzeigeeinheit (101), die dazu eingerichtet ist, ein dreidimensionales Modell eines Robotersystems, das einen Roboter (30), ein Werkstück (W) und ein Peripheriegerät (11) umfasst, als ein in einem dreidimensionalen Raum existierendes, pseudo-dreidimensionales Objekt auf eine solche Weise anzuzeigen, dass das dreidimensionale Modell des Robotersystems mit einer zur tatsächlichen Positionsbeziehung des Robotersystems identischen Positionsbeziehung einen realen Raum überlagert; einer Simulationsausführungseinheit (141), die dazu eingerichtet ist, einen Simulationsvorgang für das dreidimensionale Modell des von der Bildanzeigeeinheit (101) angezeigten Robotersystems auszuführen; eine Netzwerkverbindungseinheit (102) eingerichtet zum Verbinden mit einer Robotersteuerung (50), um den Roboter (30) über ein Netzwerk (60) zu steuern; eine Modellbetriebseinheit (103), die dazu eingerichtet ist, von der Robotersteuerung (50) Positions- und Ausrichtungsdaten über den Roboter im Betrieb zu erfassen, um das dreidimensionale Modell des von der Bildanzeigeeinheit (101) dargestellten Roboters (30) unter Verwendung der erfassten Positions- und Ausrichtungsdaten zu bedienen; eine Betriebsprogramm-Erfassungseinheit (111), die dazu eingerichtet ist, von der Robotersteuerung (50) ein Betriebsprogramm des Roboters (30) zu erfassen; eine Betriebsprogramm-Anzeigeeinheit (112), die dazu eingerichtet ist, auf der Grundlage einer dreidimensionalen Position eines in dem erfassten Betriebsprogramm enthaltenen Lernpunkts, ein Bild anzuzeigen, das den Lernpunkt an einer Position zeigt, die der dreidimensionalen Position des Lernpunkts im dreidimensionalen Raum entspricht; eine Betriebsprogramm-Änderungseinheit (113), die dazu eingerichtet ist, eine Betätigung zum Ändern des als Bild angezeigten Lernpunkts entgegenzunehmen; und eine Betriebsprogramm-Berücksichtigungseinheit (114), die dazu eingerichtet ist, das Betriebsprogramm entsprechend einer Position des geänderten Lernpunkts zu aktualisieren und das aktualisierte Betriebsprogramm zusammen mit einem Ausführungsbefehl des aktualisierten Betriebsprogramms an die Robotersteuerung (50) zu übermitteln; wobei die Betriebsprogramm-Anzeigeeinheit (112) ferner ein Bild, das einen Pfad (210) darstellt, der Lernpunkte (201-204) verbindet, und ein Bild, das eine Liste (220) der Lernpunkte (201-204) darstellt, anzeigt, indem das Bild, das den Pfad (210) darstellt, und das Bild, das die Liste (220) darstellt, den realen Raum überlagern, und auf eine Auswahl eines Lernpunktes (P2) in der Liste (220) oder eines Lernpunktes (202) auf dem Pfad (210) die Betriebsprogramm-Anzeigeeinheit (112) ferner ein Bild (230) anzeigt, das eine dreidimensionale Position des ausgewählten Lernpunktes (P2, 202) anzeigt, indem sie den realen Raum mit dem Bild (230) überlagert, das die dreidimensionale Position des ausgewählten Lernpunktes (P2, 202) darstellt.
  2. Robotersimulationsvorrichtung (90) nach Anspruch 1, wobei die Bildanzeigeeinheit (101) eine Erfassungseinheit (80) beinhaltet, die dazu eingerichtet ist, eine Position und eine Ausrichtung des Kopfes eines Bedieners zu erfassen, und die Bildanzeigeeinheit (101) dazu eingerichtet ist, die Position eines Blickwinkels zum Anzeigen des dreidimensionalen Modells gemäß der erfassten Position und Ausrichtung des Kopfes des Bedieners zu ändern.
  3. Robotersimulationsvorrichtung (90A) nach Anspruch 1, wobei das pseudo-dreidimensionale Objekt des dreidimensionalen Modells des Robotersystems, das von der Bildanzeigeeinheit (101) angezeigt wird, ein stereoskopisches Bild ist, das unter Verwendung eines Hologramms wiedergegeben wird, das das dreidimensionale Modell des Robotersystems darstellt.
  4. Robotersimulationsvorrichtung (90) nach einem der Ansprüche 1 bis 3, ferner umfassend: eine Einstellung-Erfassungseinheit (121), die dazu eingerichtet ist, von der Robotersteuerung (50) Einstellinformationen über das Robotersystem zu erfassen; und eine Einstellung-Anzeigeeinheit (122), die dazu eingerichtet ist, die als Zeicheninformationen erfassten Einstellinformationen anzuzeigen, indem die erfassten Informationen den realen Raum überlagern.
  5. Robotersimulationsvorrichtung (90) nach Anspruch 4, ferner umfassend: eine Einstellung-Änderungseinheit (123), die dazu eingerichtet ist, eine Betätigung zum Ändern der angezeigten Einstellinformationen entgegenzunehmen; und eine Einstellung-Berücksichtigungseinheit (124), die dazu eingerichtet ist, die geänderten Einstellinformationen zusammen mit einem Änderungsbefehl der Einstellinformationen an die Robotersteuerung (50) zu übermitteln.
  6. Robotersimulationsvorrichtung (90) nach einem der Ansprüche 1 bis 5, ferner umfassend: eine Betriebszustand-Erfassungseinheit (131), die dazu eingerichtet ist, von der Robotersteuerung (50) Informationen über einen Betriebszustand des Robotersystems zu erfassen; und eine Betriebszustand-Anzeigeeinheit (132), die dazu eingerichtet ist, die erfassten Informationen über den Betriebszustand als Zeicheninformationen anzuzeigen, indem die erfassten Informationen über den Betriebszustand den realen Raum überlagern.
  7. Robotersimulationsvorrichtung (90B) nach einem der Ansprüche 1 bis 3, bei der es eine Mehrzahl von Systemen gibt, von denen jedes das Robotersystem und die Robotersteuerung umfasst, die Netzwerkverbindungseinheit (102) über das Netzwerk mit der Mehrzahl von Robotersteuerungen (50a, 50b) verbunden ist, die Bildanzeigeeinheit (101) ein dreidimensionales Modell von jedem der Robotersysteme als das im dreidimensionalen Raum existierende pseudo-dreidimensionale Objekt anzeigt, die Simulationsausführungseinheit (141) den Simulationsvorgang für das dreidimensionale Modell jedes der Robotersysteme ausführt, und die Modellbetriebseinheit (103) Positions- und Ausrichtungsdaten des in Betrieb befindlichen Roboters, der mit jeder der Robotersteuerungen (50a, 50b) verbunden ist, von der Robotersteuerung erfasst und das dreidimensionale Modell jedes der Roboter (30a, 30b) unter Verwendung der erfassten Positions- und Ausrichtungsdaten bedient.
  8. Robotersimulationsvorrichtung (90) nach einem der Ansprüche 1 bis 7, ferner umfassend: eine Modellmaßstab-Änderungseinheit (133), die dazu eingerichtet ist, einen Maßstab einer Darstellung des dreidimensionalen Modells des Robotersystems zu ändern.
DE102019002898.8A 2018-04-25 2019-04-18 Robotersimulationsvorrichtung Active DE102019002898B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-084152 2018-04-25
JP2018084152A JP6810093B2 (ja) 2018-04-25 2018-04-25 ロボットのシミュレーション装置

Publications (2)

Publication Number Publication Date
DE102019002898A1 DE102019002898A1 (de) 2019-11-07
DE102019002898B4 true DE102019002898B4 (de) 2022-11-03

Family

ID=68276393

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019002898.8A Active DE102019002898B4 (de) 2018-04-25 2019-04-18 Robotersimulationsvorrichtung

Country Status (4)

Country Link
US (1) US11220002B2 (de)
JP (1) JP6810093B2 (de)
CN (1) CN110394780B (de)
DE (1) DE102019002898B4 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US11663783B2 (en) 2016-02-10 2023-05-30 Disney Enterprises, Inc. Systems and methods for using augmented reality with the internet of things
JP7087316B2 (ja) * 2017-09-27 2022-06-21 オムロン株式会社 情報処理装置、情報処理方法およびプログラム
JP6693981B2 (ja) * 2018-02-19 2020-05-13 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置
US10974132B2 (en) 2018-10-02 2021-04-13 Disney Enterprises, Inc. Systems and methods to provide a shared interactive experience across multiple presentation devices based on detection of one or more extraterrestrial bodies
JP7251224B2 (ja) * 2019-03-11 2023-04-04 セイコーエプソン株式会社 制御装置およびロボットシステム
US11014008B2 (en) 2019-03-27 2021-05-25 Disney Enterprises, Inc. Systems and methods for game profile development based on virtual and/or real activities
US10916061B2 (en) * 2019-04-24 2021-02-09 Disney Enterprises, Inc. Systems and methods to synchronize real-world motion of physical objects with presentation of virtual content
JP7436797B2 (ja) * 2019-12-16 2024-02-22 株式会社デンソーウェーブ ロボットのプログラム作成支援装置
WO2021144911A1 (ja) * 2020-01-16 2021-07-22 オムロン株式会社 プログラム生成装置、プログラム生成方法、及び生成プログラム
DE112021000634T5 (de) * 2020-01-20 2022-11-03 Fanuc Corporation Robotersimulationsvorrichtung
US11529737B2 (en) 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
US20210237116A1 (en) * 2020-02-03 2021-08-05 Ross-Hime Designs, Inc. Robotic marking system
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
CN111390908B (zh) * 2020-03-26 2022-05-17 哈尔滨工业大学 一种基于网页的机械臂虚拟拖动方法
US20230090193A1 (en) * 2020-03-30 2023-03-23 Fanuc Corporation Off-line simulation system
WO2022024319A1 (ja) * 2020-07-30 2022-02-03 三菱電機株式会社 数値制御装置および数値制御システム
CN114081624B (zh) * 2021-11-10 2023-06-27 武汉联影智融医疗科技有限公司 一种手术机器人虚拟仿真系统
US20230294275A1 (en) * 2022-03-21 2023-09-21 Intrinsic Innovation Llc Robot programming

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212228A (ja) 1996-02-07 1997-08-15 Kawasaki Heavy Ind Ltd ロボット作業教示方法および装置
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
EP2962814A2 (de) 2014-06-30 2016-01-06 Kabushiki Kaisha Yaskawa Denki Robotersimulator und Dateierzeugungsverfahren für Robotersimulator
US20160257000A1 (en) 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
EP3093108A2 (de) 2015-05-12 2016-11-16 Canon Kabushiki Kaisha Informationsverarbeitungsverfahren und informationsverarbeitungsvorrichtung
WO2017072979A1 (ja) 2015-10-30 2017-05-04 株式会社安川電機 ロボット教示装置、コンピュータプログラム及びロボット教示方法
JP2017519644A (ja) 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. 仮想現実入力を用いたロボット制御システム
US20170372139A1 (en) 2016-06-27 2017-12-28 Autodesk, Inc. Augmented reality robotic system visualization

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0976063A (ja) * 1995-09-16 1997-03-25 Sanshiyuuzen Kogyo Kk 溶接装置
JPH11249725A (ja) * 1998-02-26 1999-09-17 Fanuc Ltd ロボット制御装置
US20030187751A1 (en) * 2001-10-31 2003-10-02 Mike Watson Interactive electronic reference systems and methods
GB0130986D0 (en) * 2001-12-27 2002-02-13 Prophet Control Systems Ltd Programming robots with offline design
KR100526741B1 (ko) * 2003-03-26 2005-11-08 김시학 와이어의 장력을 이용한 위치 추적 및 반력시스템과 이를이용한 최소 절개용 수술시스템
US20060265664A1 (en) * 2005-05-17 2006-11-23 Hitachi, Ltd. System, method and computer program product for user interface operations for ad-hoc sensor node tracking
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
US8442804B2 (en) * 2007-10-25 2013-05-14 The Boeing Company Method and apparatus for composite part data extraction
US20100251114A1 (en) * 2009-03-31 2010-09-30 Hospira, Inc. Digital interface for a medical device
KR101720139B1 (ko) * 2013-01-18 2017-03-27 인터그래프 코포레이션 포인트 클라우드 이미지를 배관 라인 도면과 연관시키고 이들에 대한 치수들을 적용하는 방법
JP5897624B2 (ja) * 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
US9746913B2 (en) * 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
EP3342561B1 (de) * 2015-08-25 2022-08-10 Kawasaki Jukogyo Kabushiki Kaisha Ferngesteuertes robotersystem
JP6114361B1 (ja) * 2015-11-02 2017-04-12 ファナック株式会社 オフラインのロボットプログラミング装置
JP6645142B2 (ja) * 2015-11-30 2020-02-12 株式会社デンソーウェーブ ロボット安全システム
JP6657858B2 (ja) * 2015-11-30 2020-03-04 株式会社デンソーウェーブ ロボット操作システム
JP6589604B2 (ja) * 2015-12-01 2019-10-16 株式会社デンソーウェーブ ティーチング結果表示システム
US10685147B2 (en) * 2016-02-29 2020-06-16 The Boeing Company Non-conformance mapping and visualization
US20180288557A1 (en) * 2017-03-29 2018-10-04 Samsung Electronics Co., Ltd. Use of earcons for roi identification in 360-degree video
JP7091609B2 (ja) * 2017-04-14 2022-06-28 セイコーエプソン株式会社 シミュレーション装置、ロボット制御装置およびロボット
US10417827B2 (en) * 2017-05-04 2019-09-17 Microsoft Technology Licensing, Llc Syndication of direct and indirect interactions in a computer-mediated reality environment
JP7146402B2 (ja) * 2018-01-18 2022-10-04 キヤノン株式会社 情報処理装置、および情報処理方法
JP6857145B2 (ja) * 2018-03-09 2021-04-14 株式会社日立製作所 軌道計画装置、軌道計画方法、及び生産システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212228A (ja) 1996-02-07 1997-08-15 Kawasaki Heavy Ind Ltd ロボット作業教示方法および装置
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
JP2017519644A (ja) 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. 仮想現実入力を用いたロボット制御システム
EP2962814A2 (de) 2014-06-30 2016-01-06 Kabushiki Kaisha Yaskawa Denki Robotersimulator und Dateierzeugungsverfahren für Robotersimulator
US20160257000A1 (en) 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
EP3093108A2 (de) 2015-05-12 2016-11-16 Canon Kabushiki Kaisha Informationsverarbeitungsverfahren und informationsverarbeitungsvorrichtung
WO2017072979A1 (ja) 2015-10-30 2017-05-04 株式会社安川電機 ロボット教示装置、コンピュータプログラム及びロボット教示方法
US20170372139A1 (en) 2016-06-27 2017-12-28 Autodesk, Inc. Augmented reality robotic system visualization

Also Published As

Publication number Publication date
CN110394780B (zh) 2023-06-27
CN110394780A (zh) 2019-11-01
JP2019188530A (ja) 2019-10-31
JP6810093B2 (ja) 2021-01-06
DE102019002898A1 (de) 2019-11-07
US11220002B2 (en) 2022-01-11
US20190329405A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
DE102019002898B4 (de) Robotersimulationsvorrichtung
DE102019006800B4 (de) Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102014103738B3 (de) Visuelle fehlersuche bei roboteraufgaben
DE112019003204T5 (de) Visualisierung und modifizierung von arbeitsrandbereichen unter verwendung von erweiterter realität
DE102010045529B4 (de) Interaktives Robotersteuerungssystem und Verwendungsverfahren
DE102012218297B4 (de) Verfahren zur dynamischen Optimierung einer Robotersteuerschnittstelle
CN104002296B (zh) 机器人模拟器、机器人示教装置以及机器人示教方法
DE102011117476B4 (de) System, Verfahren und Gerät zur Darstellung von dreidimensionalen Daten von Roboter-Arbeitszellen
DE102018112403B4 (de) Robotersystem, das informationen zur unterweisung eines roboters anzeigt
EP3781364A1 (de) Verfahren zur benutzung einer mehrgliedrigen aktuierten kinematik, vorzugsweise eines roboters, besonders vorzugsweise eines knickarmroboters, durch einen benutzer mittels einer mobilen anzeigevorrichtung
DE202008014481U1 (de) Tragbares Roboterkontrollgerät zum Kontrollieren einer Bewegung eines Roboters
DE102017124502B4 (de) Simulationsvorrichung und Simulationsverfahren, die eine Betriebssimulation eines Robotersystems ausführen, und Aufzeichnungsmedium, das ein Computerprogramm aufzeichnet
DE102016113060A1 (de) Verfahren zum Steuern eines Objekts
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE102015011830C5 (de) Robotersystem zum Einstellen eines Bewegungsüberwachungsbereichs eines Roboters
EP3098034B1 (de) Auswahl eines gerätes oder eines objektes mit hilfe einer kamera
DE102015004483A1 (de) Robotersteuerung und Robotersystem zum Bewegen eines Roboters als Reaktion auf eine Kraft
DE102013001987A1 (de) Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen
DE102014118001A1 (de) Verfahren zur Bewegungssimulation eines Manipulators
DE102020206403A1 (de) Konfigurieren, Durchführen und/oder Analysieren einer Applikation eines mobilen und/oder kollaborativen Roboters
EP3224681B1 (de) System zur virtuellen inbetriebnahme
EP3272468B1 (de) Verfahren und vorrichtung zum steuern einer roboterbewegung eines roboters anhand einer zweiten trajektorie
WO2015176708A1 (de) Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät
Elliott et al. Efficient programming of manipulation tasks by demonstration and adaptation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final