DE102015015503A1 - Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist - Google Patents

Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist Download PDF

Info

Publication number
DE102015015503A1
DE102015015503A1 DE102015015503.2A DE102015015503A DE102015015503A1 DE 102015015503 A1 DE102015015503 A1 DE 102015015503A1 DE 102015015503 A DE102015015503 A DE 102015015503A DE 102015015503 A1 DE102015015503 A1 DE 102015015503A1
Authority
DE
Germany
Prior art keywords
robot
image
real
display device
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015015503.2A
Other languages
English (en)
Other versions
DE102015015503B4 (de
Inventor
Toshiaki KAMOI
Gou Inaba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102015015503A1 publication Critical patent/DE102015015503A1/de
Application granted granted Critical
Publication of DE102015015503B4 publication Critical patent/DE102015015503B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • Y10S901/05Machine driven lead through

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Robotersystem, das eine mit erweiterter Realität kompatible Anzeige nutzt, die fähig ist, Informationen über den Status und/oder eine Bedienführung eines Roboters, die einem realen Bild oder einer realen Umgebung hinzugefügt ist, für einen Benutzer des Roboters bereitzustellen, um die Effizienz der vom Benutzer durchgeführten Bedienvorgänge zu verbessern. Das Robotersystem beinhaltet einen realen Roboter, eine Steuerungseinheit, die den realen Roboter steuert, und eine Bilderfassungs- und -anzeigevorrichtung, die über ein Kabel oder Funk mit der Steuerungseinheit verbunden ist. Die Bilderfassungs- und -anzeigevorrichtung hat eine Funktion zum Erfassen eines Bildes einer den realen Roboter enthaltenden Szene und eine Funktion zum Anzeigen des erfassten Bildes in Echtzeit. Der Benutzer kann eine den realen Roboter enthaltende Szene in Echtzeit erhalten, indem er eine Kamera, die an der Bilderfassungs- und -anzeigevorrichtung angeordnet ist, auf den realen Roboter richtet, und kann ein Bild in erweiterter Realität überwachen.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist, der Informationen, die einem Status eines Roboters und Navigationsinformationen bei der Bedienung des Roboters entsprechen, hinzugefügt werden.
  • 2. Beschreibung der verwandten Technik
  • Bei einem Robotersystem nach bisherigem Stand der Technik kann ein Status eines Roboters oder eine Tätigkeit eines Benutzers mit Hilfe einer Technik der virtuellen Realität (VR) gesteuert werden. Jedoch unterscheiden sich der Roboter und eine Roboterumgebung in der virtuellen Realität von einem realen Roboter und einer realen Umgebung durch das verringerte Ausmaß der Reproduzierbarkeit des realen Roboters und der realen Umgebung.
  • Deshalb wird in einem neueren Robotersystem eine Technik der erweiterten Realität (augmented reality AR) (beispielsweise eine AR-kompatible Anzeige) verwendet, um den Status des Roboters anzuzeigen oder die Tätigkeit des Benutzers zu unterstützen (zu navigieren). Beispielsweise offenbart JP 2014-097539 A ein Verfahren und eine Vorrichtung, durch die ein zweibeiniger Roboter von einem Benutzer in einem Master-Slave-Verfahren fernbedient wird. Dieses Dokument beschreibt, dass der Benutzer einen Fuß bewegt, während er ein Bild in erweiterter Realität (AR) überwacht.
  • Andererseits offenbart JP 2014-180707 A eine Robotervorrichtung mit: einem Robotersteuerteil, das einen Roboter auf der Grundlage eines Bedienprogramms bedient; einen Robotererfassungsteil, der Bilddaten erhält; einen Datenverarbeitungsteil, der einen Abschnitt zum Halten virtueller Raumdaten aufweist, und einen Erzeugungsteil für Daten eines erweiterten Realitätsraums zum Erzeugen von AR-Raumdaten durch Nutzen mindestens der Bilddaten und der virtuellen Raumdaten; und einen Anzeigeteil, der ein Bild des AR-Raums anzeigt. Dieses Dokument beschreibt, dass virtuelle Raumdaten Informationen über ein virtuelles Objekt enthalten, die durch Simulieren eines Objekts, das in einem realen Arbeitsraum des Roboters besteht, gewonnen werden.
  • Bei der Erfindung von JP 2014-097539 A kann der Benutzer mit Hilfe des AR-Bildes die Position und Haltung eines Fußes stabilisieren. Andererseits kann bei der Erfindung von JP 2014-097539 A ein Lehrbetrieb für den Roboter einfach und sicher ausgeführt werden, ohne eine Interferenz zwischen dem Roboter und dessen peripheren Geräten zu erzeugen, indem die AR-Raumdaten auf der Grundlage der Bilddaten des realen Roboters und der virtuellen Raumdaten einschließlich des virtuellen Objekts erzeugt werden. Im Allgemeinen wird der Status oder die Navigation (oder Bedienführung) des Roboters durch eine numerische Zahl oder ein Zeichen angezeigt, und somit beschreibt keine der Referenzen, dass der Status oder die Navigation für den Benutzer mit Hilfe der erweiterten Realität bereitgestellt wird.
  • Kurzfassung der Erfindung
  • Deshalb besteht eine Aufgabe der vorliegenden Erfindung darin, ein Robotersystem bereitzustellen, das eine mit erweiterter Realität kompatible Anzeige aufweist, die fähig ist, Informationen über den Status und/oder eine Bedienführung eines Roboters, die einem realen Bild oder einer realen Umgebung hinzugefügt sind, für einen Benutzer des Roboters bereitzustellen, um die Effizienz der vom Benutzer durchgeführten Bedienvorgänge zu verbessern.
  • Gemäß der vorliegenden Erfindung wird ein Robotersystem bereitgestellt, umfassend: einen Roboter; eine Steuerungseinheit, die den Roboter steuert; eine Bilderfassungs- und -anzeigevorrichtung, die mit der Steuerungseinheit verbunden ist und eine Funktion zum Erfassen eines Bildes einer den Roboter enthaltenden Szene und eine Funktion zum Anzeigen des Bildes in Echtzeit aufweist; und einen Messteil, der die relative Position und den Winkel zwischen dem Roboter und der Bilderfassungs- und -anzeigevorrichtung auf der Grundlage des Bildes, das in Echtzeit auf der Bilderfassungs- und -anzeigevorrichtung angezeigt wird, misst, wobei die Bilderfassungs- und -anzeigevorrichtung eine Anzeige aufweist, auf der Zusatzinformationen, die einen Status oder eine Bedienführung des Roboters darstellen, auf der Grundlage der relativen Position und des Winkels, die vom Messteil gemessen werden, mit dem Bild überlagert werden, das in Echtzeit auf der Bilderfassungs- und -anzeigevorrichtung angezeigt wird.
  • Bei einer bevorzugten Ausführungsform weist die Bilderfassungs- und -anzeigevorrichtung eine Anzeige zum Anzeigen eines Videobildes einer realen Szene auf und die Zusatzinformationen werden mit einem realen Bild des Roboters überlagert, das im Videobild enthalten ist.
  • Bei einer bevorzugten Ausführungsform weist die Bilderfassungs- und -anzeigevorrichtung eine Anzeige zum Anzeigen eines transmissiven Bildes einer realen Szene auf und die Zusatzinformationen werden mit einem realen Bild des Roboters überlagert, das im Videobild enthalten ist.
  • Bei einer bevorzugten Ausführungsform handelt es sich bei der Bilderfassungs- und -anzeigevorrichtung um ein angehängtes Lehrmodul, das mit der Steuerungseinheit verbunden ist.
  • Beispielsweise handelt es sich bei den Zusatzinformationen um ein Bild, das eine Richtung darstellt, in welcher der Roboter zur Bewegung durch manuelle Bedienung fähig ist.
  • Beispielsweise handelt es sich bei den Zusatzinformationen um ein Leuchtbild, dessen Leuchtstärke einem vorliegenden Wert einer Geschwindigkeitsüberlagerung des Roboters entspricht.
  • Beispielsweise handelt es sich bei den Zusatzinformationen um ein Leuchtbild eines Gerätes, bei dem eine Anormalität erkannt wird.
  • Kurze Beschreibung der Zeichnungen
  • Die oben genannten und sonstige Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden ersichtlicher durch die folgende Beschreibung ihrer Ausführungsformen unter Bezugnahme der beigefügten Zeichnungen:
  • 1 ist eine Ansicht, die eine schematische Konfiguration eines Robotersystems gemäß einer ersten Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 2 ist ein Ablaufplan, der ein Beispiel für einen Vorgang im Robotersystem der vorliegenden Erfindung zeigt;
  • 3 ist eine Ansicht, die eine schematische Konfiguration eines Robotersystems gemäß einer zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 4 zeigt ein Beispiel eines konkreten Mittels zum Überlagern von Bildern in einer AR-kompatiblen Anzeige;
  • 5 zeigt ein weiteres Beispiel eines konkreten Mittels zum Überlagern von Bildern in einer AR-kompatiblen Anzeige;
  • 6 ist eine Ansicht, die eine schematische Konfiguration eines Robotersystems gemäß einer dritten Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 7 zeigt ein Beispiel für ein Bild, das durch einen Prozess für erweiterte Realität gewonnen wurde;
  • 8 zeigt ein weiteres Beispiel für ein Bild, das durch einen Prozess für erweiterte Realität gewonnen wurde;
  • 9 zeigt noch ein weiteres Beispiel für ein Bild, das durch einen Prozess für erweiterte Realität gewonnen wurde.
  • Detaillierte Beschreibungen
  • 1 zeigt eine schematische Konfiguration eines Robotersystems 10 gemäß einer ersten Ausführungsform der vorliegenden Erfindung. Das Robotersystem 10 beinhaltet einen realen Roboter 12, eine Robotersteuerungseinheit (im Nachfolgenden nur als Steuerungseinheit bezeichnet) 14, die den realen Roboter 12 steuert, und eine Bilderfassungs- und -anzeigevorrichtung (bzw. eine mit erweiterter Realität (AR) kompatible Anzeige) 16, die über ein Kabel oder Funk mit der Steuerungseinheit 14 verbunden ist. Die Bilderfassungs- und -anzeigevorrichtung 16 hat eine Funktion zum Erfassen eine Bildes (oder eines Videobildes) einer den realen Roboter enthaltenden Szene und eine Funktion zum Anzeigen des erfassten Bildes in Echtzeit. Bei der unten erläuterten Ausführungsform sind die Funktionen der Bilderfassungs- und -anzeigevorrichtung der Erfindung und ein Messteil für die AR-kompatible Anzeige 16 oder ein angehängtes Lehrmodul 42 bereitgestellt, wie unten beschrieben. Jedoch können einige der Funktionen für andere Mittel bereitgestellt werden.
  • Bei der Ausführungsform von 1 wird die Bilderfassungs- und -anzeigevorrichtung 16 als kopfmontierte Anzeige, die durch einen Benutzer 18 tragbar ist, veranschaulicht. Der Benutzer 18 kann eine den realen Roboter 12 enthaltende Szene in Echtzeit erfassen (erhalten), indem er eine Kamera 20, die an der kopfmontierten Anzeige 16 angeordnet ist, auf den realen Roboter 12 richtet, und kann ein AR-Bild 26 über einen Anzeigeteil 22 überwachen, wie unten beschrieben.
  • Als Nächstes wird ein Vorgang in einem Robotersystem 10 unter Bezugnahme auf einen in 2 gezeigten Ablaufplan erläutert. Zuerst wird eine den realen Roboter 12 enthaltende reale Umgebung (Szene) durch eine AR-kompatible Anzeige 16 erfasst, in der ein Computer und ein Speicher enthalten sind. Wenn das Bild des realen Roboters 12 korrekt erfasst ist (Schritt S1), wird unter einer Vielzahl von Bildmodellen 24 (siehe 1), die zuvor in einer AR-kompatiblen Anzeige 16 gespeichert wurden, ein Bildmodell, das dem Bild des realen Roboters 12, der durch die AR-kompatible Anzeige 16 erfasst wurde, am nächsten kommt, erkannt (mit anderen Worten, es wird ein Abgleich durchgeführt). Bei der Ausführungsform von 1 wird unter einer Vielzahl von Bildmodellen 24a bis 24z das Bildmodell 24a, das dem erfassten Bild des realen Roboters 12 am nächsten kommt, erkannt (oder ausgewählt).
  • Als Nächstes werden mit Hilfe der AR-kompatiblen Anzeige 16 die relative Position und der Winkel des realen Roboters 12 relativ zur (Kamera 20 der) AR-kompatiblen Anzeige 16 gemessen (Schritt S2). Wie in 1 gezeigt, werden konkret Werte, die die Position und Ausrichtung (d. h. die relative Position und den Winkel) eines repräsentativen Punktes (beispielsweise eines Werkzeugmittelpunktes) des Roboters relativ zur AR-kompatiblen Anzeige 16 zuvor mit jedem der Vielzahl von Bildmodellen in Verbindung gebracht, und dann werden die relative Position und der Winkel, der mit dem erkannten Bildmodell 24a in Verbindung gebracht wurde, als relative Position und Winkel zwischen der AR-kompatiblen Anzeige 16 und dem realen Roboter 12 gemessen. Bei der veranschaulichten Ausführungsform ist der reale Roboter 12 ein Mehrgelenkroboter mit sechs Achsen, und die relative Position und der Winkel des Werkzeugmittelpunktes des Roboters werden durch sechs Parameter (X, Y, Z, W, P, R) dargestellt.
  • Als Nächstes werden in Schritt S3 die relative Position und der Winkel, die durch die AR-kompatible Anzeige 16 gemessen werden, an die Steuerungseinheit 14 übermittelt. Im nächsten Schritt S4 werden interne Informationen des realen Roboters 12, die für den AR-Prozess erforderlich sind, von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 übermittelt.
  • Im nächsten Schritt S5 wird auf der Grundlage der von der Steuerungseinheit 14 gelieferten internen Informationen über den realen Roboter 12 ein Bild mit spezifizierten Zusatzinformationen in der AR-kompatiblen Anzeige 16 erzeugt, und der Prozess für erweiterte Realität am erfassten Bild des realen Roboters 12 durchgeführt, um den Roboter in erweiterter Realität (AR-Roboter) auf dem Anzeigeteil 22 anzuzeigen. Bei dieser Ausführungsform enthalten die internen Informationen des realen Roboters 12 die Richtung jeder Achse (X, Y, Z) eines Roboter-Koordinatensystems in Bezug auf den Werkzeugmittelpunkt. Im Bild des AR-Roboters wird ein Bild, das ein orthogonales Koordinatensystem 28 darstellt, als Zusatzinformationsbild (oder Bedienführung des realen Roboters) angezeigt und mit dem Bild des realen Roboters 12 überlagert, in dem der Werkzeugmittelpunkt als Nullpunkt des Koordinatensystems 28 festgelegt ist und die Richtung jeder Achse des Roboter-Koordinatensystems als Referenzachse des Koordinatensystems 28 festgelegt ist.
  • Durch Wiederholen der obigen Schritte S1 bis S5 in vorbestimmten Zeitintervallen wird das Bild des AR-Roboters in Echtzeit auf dem Anzeigeteil 22 angezeigt und der Benutzer 18 kann wirksam eine Lehrbedienung usw. durchführen, während er das angezeigt Bild überwacht.
  • 3 zeigt eine schematische Konfiguration eines Robotersystems 10' gemäß einer zweiten Ausführungsform der vorliegenden Erfindung. Das Robotersystem 10' beinhaltet den realen Roboter 12, die Robotersteuerungseinheit 14, die den realen Roboter 12 steuert, und die Bilderfassungs- und -anzeigevorrichtung (oder eine mit erweiterter Realität (AR) kompatible Anzeige) 16, die über ein Kabel oder Funk mit der Steuerungseinheit 14 verbunden ist. Die Bilderfassungs- und -anzeigevorrichtung 16 hat eine Funktion zum Erfassen eines Videobildes einer Szene und eine Funktion zum Anzeigen des erfassten Bildes in Echtzeit.
  • Bei der Ausführungsform von 3 wird die Bilderfassungs- und -anzeigevorrichtung 16 als kopfmontierte Anzeige, die durch einen Benutzer 18 tragbar ist, veranschaulicht. Der Benutzer 18 kann ein Bild (oder ein Videobild) durch Erfassen einer den realen Roboter 12 enthaltenden Szene in Echtzeit erfassen (erhalten), indem er eine Kamera 20, die an der kopfmontierten Anzeige 16 angeordnet ist, auf den realen Roboter 12 richtet, und kann ein AR-Bild 26 über einen Anzeigeteil 22 überwachen, wie unten beschrieben.
  • Als Nächstes wird ein Vorgang in einem Robotersystem 10' unter Bezugnahme auf einen in 2 gezeigten Ablaufplan erläutert. Zuerst wird mindestens eine Markierung 30 an einem vorbestimmten Abschnitt (wie etwa an einen drehenden Körper, Oberarm oder Unterarm) des realen Roboters 12 angebracht oder daran ausgebildet, und eine den realen Roboter 12 enthaltende reale Umgebung (Szene) wird durch eine AR-kompatible Anzeige 16, in der ein Computer mit einer Bildverarbeitungsfunktion integriert ist, erfasst. Dabei wird der reale Roboter 12 so erfasst, dass die Markierung 30 im erfassten Bild enthalten ist.
  • Wenn das Bild des realen Roboters 12 mit der Markierung 30 korrekt erfasst ist (Schritt S1), wird die Bildverarbeitung der Markierung 30 durchgeführt, und die relative Position und der Winkel des realen Roboters 12 relativ zur (Kamera 20 der) AR-kompatiblen Anzeige 16 werden gemessen (Schritt S2). Auch wenn die veranschaulichte Markierung 30 vier Kreise enthält, die auf einer im Allgemeinen L-förmigen Linie angeordnet sind, kann die Markierung 30 diesbezüglich eine beliebige Form annehmen, solange die Position und Ausrichtung (eines repräsentativen Punktes) des realen Roboters 12 durch herkömmliche Bildverarbeitung erkannt werden kann.
  • Als Nächstes werden in Schritt S3 die relative Position und der Winkel, die durch die AR-kompatible Anzeige 16 gemessen werden, an die Steuerungseinheit 14 übermittelt. Im nächsten Schritt S4 wird ein Zusatzinformationsbild, das für den AR-Prozess erforderlich ist, in der Steuerungseinheit 14 erzeugt, und das erzeugte Zusatzinformationsbild wird an die AR-kompatible Anzeige 16 übermittelt. Ähnlich der ersten Ausführungsform von 1, stellt bei der zweiten Ausführungsform das erzeugte Zusatzinformationsbild das orthogonale Koordinatensystem 28 dar, bei dem der Werkzeugmittelpunkt als Nullpunkt des Koordinatensystems 28 festgelegt ist und die Richtung jeder Achse des Roboter-Koordinatensystems als Referenzachse des Koordinatensystems 28 festgelegt ist.
  • Im nächsten Schritt S5 wird in der AR-kompatiblen Anzeige 16 der Prozess der erweiterten Realität am erfassten Bild des realen Roboters 12 durchgeführt, das Bild, das das orthogonale Koordinatensystem 28 darstellt, wird mit dem Bild des realen Roboters 12 überlagert und der Roboter in erweiterter Realität (AR-Roboter) wird auf dem Anzeigeteil 22 angezeigt.
  • Durch Wiederholen der obigen Schritte S1 bis S5 in vorbestimmten Zeitintervallen wird das Bild des AR-Roboters in Echtzeit auf dem Anzeigeteil 22 angezeigt und der Benutzer 18 kann wirksam eine Lehrbedienung usw. durchführen, während er das angezeigte Bild überwacht.
  • Bei der zweiten Ausführungsform wird das Zusatzinformationsbild wie etwa das orthogonale Koordinatensystem 28 in der Steuerungseinheit 14 erzeugt. Jedoch können genauso wie in der ersten Ausführungsform die internen Informationen von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 übermittelt werden, und das Zusatzinformationsbild kann in der AR-kompatiblen Anzeige 16 erzeugt werden. Andererseits kann bei der ersten Ausführungsform das Zusatzinformationsbild wie etwa das orthogonale Koordinatensystem 28 in der Steuerungseinheit 14 erzeugt werden, und das Zusatzinformationsbild kann von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 übermittelt werden.
  • 4 und 5 zeigen Beispiele für die Mittel zum Überlagern von Bildern in der AR-kompatiblen Anzeige, wie in 1 oder 3 gezeigt. Zuerst wird in 4 die AR-kompatible Anzeige 16 als videotransparentierbare kopfmontierte Anzeige veranschaulicht, die ein Videobild der realen Szene anzeigt. Konkret enthält die AR-kompatible Anzeige 16 eine Videokamera 32, die den realen Roboter 12 erfasst, und einen Bildsyntheseteil 34, der das Zusatzinformationsbild 28 von der Steuerungseinheit 14 mit einem von der Videokamera 32 erfassten Bild synthetisiert, so dass die Zusatzinformationen angezeigt und mit dem im Videobild enthaltenen realen Bild des realen Roboters 12 überlagert werden können. Dadurch kann der Benutzer 18 das Bild 26, das durch den Bildsyntheseteil 34 synthetisiert wurde, als Roboter in erweiterter Realität überwachen.
  • Andererseits ist in 5 die AR-kompatible Anzeige 16 als optisch transparentierbare kopfmontierte Anzeige veranschaulicht, die ein transmissives Bild der realen Szene anzeigt. Konkret beinhaltet die AR-kompatible Anzeige 16 einen optischen Kombinierer 36, der ein Bild des realen Roboters 12 übermittelt, und einen Projektor 38, der das Zusatzinformationsbild 28 auf den optischen Kombinierer 36 projiziert, so dass die Zusatzinformationen angezeigt und mit dem transmissiven realen Bild des realen Roboters 12 überlagert werden können. Dadurch kann der Benutzer 18 das Bild 26, das durch den optischen Kombinierer 36 kombiniert wurde, als Roboter in erweiterter Realität überwachen.
  • 6 zeigt eine schematische Konfiguration eines Robotersystems 10'' gemäß einer dritten Ausführungsform der vorliegenden Erfindung. Bei der dritten Ausführungsform übernimmt ein angehängtes Roboterlehrmodul 42, an das eine Videokamera 40 montiert ist, die Funktion der AR-kompatiblen Anzeige. Konkret beinhaltet das Robotersystem 10'' den realen Roboter 12, die Robotersteuerungseinheit 14, die den realen Roboter 12 steuert, und das angehängte Roboterlehrmodul 42, das durch den Benutzer bedienbar und über Kabel oder Funk mit der Steuerungseinheit 14 verbunden ist.
  • Das angehängte Lehrmodul 42 weist eine daran montierte Videokamera 40 auf, und der Benutzer kann ein Bild (oder ein Videobild) durch Erfassen einer den realen Roboter 12 enthaltenden Szene in Echtzeit erfassen (erhalten), indem er eine Videokamera 40 auf den realen Roboter 12 richtet, und kann ein AR-Bild 26 über eine Anzeige 44 des angehängten Lehrmoduls 42 überwachen. Bei der dritten Ausführungsform kann genauso wie bei der ersten oder zweiten Ausführungsform das Zusatzinformationsbild (in diesem Fall das orthogonale Koordinatensystem 28) anzeigt und mit dem Bild des realen Roboters 12 überlagert werden.
  • 7 bis 9 zeigen bevorzugte Beispiele eines Zusatzinformationsbildes, das mit dem Bild des realen Roboters 12 überlagert ist. Zuerst zeigt 7 eine Bedienführung des realen Roboters an (in diesem Fall die Richtung eines manuellen Betriebs (oder Schrittbetriebs) am Werkzeugmittelpunkt), die mit dem Bild des realen Roboters 12 überlagert ist. Konkret wird ein Pfeil, der eine Referenzrichtung darstellt (in der Zeichnung die Pfeile 46, 48 und 50, die jeweils die +X, +Y und +Z-Richtung angeben), vom Werkzeugmittelpunkt als Zusatzinformationsbild von der oben genannten Steuerungseinheit 14 an die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 übermittelt, und die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 kann das Zusatzinformationsbild anzeigen und mit dem Bild des realen Roboters 12 überlagern. Dabei ist es vorzuziehen, dass diese Referenzrichtungen so festgelegt werden, dass der reale Roboter 12 (mit seinem vorderen Ende) durch manuelle Bedienung entlang der Richtungen bewegt werden kann. Dadurch kann der Benutzer, wenn der Lehrbetrieb des realen Roboters 12 manuell durchgeführt werden soll, das vordere Ende des realen Roboters 12 präzise in die gewünschte Richtung bewegen.
  • 8 zeigt ein Beispiel, bei dem die Zusatzinformationen, die den Status des realen Roboters darstellen (in diesem Fall ein Übersteuerungswert für die Geschwindigkeit (bzw. eine Geschwindigkeitsübersteuerung) des realen Roboters 12), vom AR-Prozess visuell erkannt werden können. Normalerweise wird die Geschwindigkeitsübersteuerung für den Roboter eingestellt, und der Übersteuerungswert kann unter verschiedenen Bedingungen von der Steuerungseinheit 14 geändert werden. Deshalb wird der Übersteuerungswert von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 übermittelt, und dann zeigt die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 einen leuchtenden Anzeigebereich 50 an und überlagert diesen mit dem Bild des realen Roboters 12. Ferner kann die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 eine Leuchtstärke (oder Helligkeit) des leuchtenden Anzeigebereichs 50 entsprechend einem vorliegenden Wert der Geschwindigkeitsübersteuerung variieren (beispielsweise kann die Leuchtstärke erhöht werden, wenn die Geschwindigkeitsübersteuerung hoch ist). Dadurch kann der Bediener die vorhandene Geschwindigkeitsübersteuerung intuitiv erfassen.
  • Im Beispiel von 8 wird der Bereich 50, der im Allgemeinen eine ovale Form aufweist und annähernd das Bild des realen Roboters 12 umschließt, leuchtend gemacht. Alternativ kann ein Teil oder die Gesamtheit des Bildes des realen Roboters 12 leuchtend sein, und dessen Leuchtstärke kann je nach dem vorliegenden Wert der Geschwindigkeitsübersteuerung variiert werden.
  • 9 zeigt ein Beispiel, bei dem die Zusatzinformationen, die den Status des realen Roboters darstellen (in diesem Fall einen anormalen Abschnitt des realen Roboters 12), vom AR-Prozess visuell erkannt werden können. In einer Vorrichtung des realen Roboters 12, wie etwa ein Motor zum Antreiben jeder Roboterachse oder ein Drehgeber zum Erkennen der Position jeder Roboterachse, kann aufgrund einer bestimmten Ursache eine Anormalität auftreten, und eine solche Anormalität kann in vielen Fällen von der Steuerungseinheit 14 erkannt werden. Deshalb werden Informationen über die Vorrichtung mit der Anormalität von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 übertragen, und dann macht die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 den anormalen Abschnitt (bzw. die Vorrichtung) des realen Roboters 12 leuchtend, wie in 9 gezeigt, so dass der anormale Abschnitt bzw. die anormale Vorrichtung von den anderen Abschnitten visuell unterschieden werden kann. Dadurch kann der Benutzer einfach und schnell die anormale Vorrichtung finden.
  • Im Beispiel von 9 tritt eine Anormalität in einem Motor (beispielsweise einem Servomotor) zum Antreiben eines drehbaren Körpers des realen Roboters 12 auf, und ein Bereich 52, der eine im Allgemeinen kreisförmige Form aufweist, die annähernd den Motor umschließt, wird leuchtend gemacht. Alternativ kann ein Teil oder die Gesamtheit des Motors leuchtend sein, und dessen Leuchtstärke kann je nach dem vorliegenden Wert der Geschwindigkeitsübersteuerung variiert werden.
  • Die verschiedenen Zusatzinformationen, wie in 7 bis 9 beispielhaft dargestellt, können kombiniert und angezeigt oder überlagert werden. Ferner kann die überlagerte Anzeige der Zusatzinformationen auf jede beliebige der Ausführungsformen, wie in 1, 3 und 6 gezeigt, und/oder auf die Anzeigearten, wie in 4 und 5 gezeigt, angewandt werden.
  • Beim herkömmlichen Robotersystem wird der Status des Roboters gewöhnlich durch eine numerische Zahl oder ein Zeichen dargestellt, und somit ist es schwierig, den Inhalt der Informationen intuitiv zu verstehen. Andererseits kann es der Benutzer bei der vorliegenden Erfindung mit Hilfe des erweiterten Realitätsraums so empfinden, als werde der visualisierte Status oder die Bedienführung des Roboters im realen Raum angezeigt. Deshalb kann der Benutzer die Lehrbedienung des Roboters einfach durchführen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2014-097539 A [0003, 0005, 0005]
    • JP 2014-180707 A [0004]

Claims (7)

  1. Robotersystem, umfassend: einen Roboter (12); eine Steuerungseinheit (14), die den Roboter steuert; eine Bilderfassungs- und -anzeigevorrichtung (16, 42), die mit der Steuerungseinheit verbunden ist und eine Funktion zum Erfassen eines Bildes einer den Roboter enthaltenden Szene und eine Funktion zum Anzeigen des Bildes in Echtzeit aufweist; und und einen Messteil (16, 42), der die relative Position und den Winkel zwischen dem Roboter und der Bilderfassungs- und -anzeigevorrichtung auf der Grundlage des Bildes, das in Echtzeit auf der Bilderfassungs- und -anzeigevorrichtung angezeigt wird, misst, wobei die Bilderfassungs- und -anzeigevorrichtung eine Anzeige (22, 44) aufweist, auf der Zusatzinformationen, die einen Status oder eine Bedienführung des Roboters darstellen, auf der Grundlage der relativen Position und des Winkels, die vom Messteil gemessen werden, mit dem Bild überlagert werden, das in Echtzeit auf der Bilderfassungs- und -anzeigevorrichtung angezeigt wird.
  2. Robotersystem nach Anspruch 1, dadurch gekennzeichnet, dass die Bilderfassungs- und -anzeigevorrichtung eine Anzeige zum Anzeigen eines Videobildes einer realen Szene aufweist und die Zusatzinformationen mit einem realen Bild des im Videobild enthaltenen Roboters überlagert werden.
  3. Robotersystem nach Anspruch 1, dadurch gekennzeichnet, dass die Bilderfassungs- und -anzeigevorrichtung eine Anzeige zum Anzeigen eines transmissiven Bildes einer realen Szene aufweist und die Zusatzinformationen mit einem realen Bild des Roboters des transmissiven Bildes überlagert werden.
  4. Robotersystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass es sich bei der Bilderfassungs- und -anzeigevorrichtung um ein angehängtes Lehrmodul (42) handelt, das mit der Steuerungseinheit verbunden ist.
  5. Robotersystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass es sich bei den Zusatzinformationen um ein Bild handelt, das eine Richtung darstellt, in welcher der Roboter zur Bewegung durch manuelle Bedienung fähig ist.
  6. Robotersystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass es sich bei den Zusatzinformationen um ein Leuchtbild handelt, dessen Leuchtstärke einem vorliegenden Wert einer Geschwindigkeitsüberlagerung des Roboters entspricht.
  7. Robotersystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass es sich bei den Zusatzinformationen um ein Leuchtbild eines Gerätes handelt, bei dem eine Anormalität erkannt wird.
DE102015015503.2A 2014-12-08 2015-12-01 Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist Active DE102015015503B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-248127 2014-12-08
JP2014248127A JP2016107379A (ja) 2014-12-08 2014-12-08 拡張現実対応ディスプレイを備えたロボットシステム

Publications (2)

Publication Number Publication Date
DE102015015503A1 true DE102015015503A1 (de) 2016-06-09
DE102015015503B4 DE102015015503B4 (de) 2021-09-23

Family

ID=55974921

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015015503.2A Active DE102015015503B4 (de) 2014-12-08 2015-12-01 Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist

Country Status (4)

Country Link
US (1) US10052765B2 (de)
JP (1) JP2016107379A (de)
CN (1) CN105666505B (de)
DE (1) DE102015015503B4 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017107224A1 (de) * 2017-04-04 2018-10-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Darstellung einer Bauteildokumentation
DE102018109463B3 (de) 2018-04-19 2019-09-19 Yuanda Robotics Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
EP3578321A1 (de) * 2018-06-05 2019-12-11 Gestalt Robotics GmbH Verfahren zum verwenden mit einer maschine zum erstellen einer erweiterte-realität-anzeigeumgebung
CN111432989A (zh) * 2018-12-04 2020-07-17 深圳前海达闼云端智能科技有限公司 人工增强基于云的机器人智能框架及相关方法
DE102017114880B4 (de) * 2016-07-08 2020-10-15 Fanuc Corporation Laserbearbeitungs-robotersystem zur durchführung einer laserbearbeitung eines werkstücks unter verwendung eines roboters
DE112018002565B4 (de) * 2017-08-10 2021-07-01 Robert Bosch Gmbh System und Verfahren zum direkten Anlernen eines Roboters
DE102020006304B3 (de) 2020-10-14 2022-01-13 Kuka Systems Gmbh Verfahren zum Einblenden von virtuellen Roboterdatenobjekten und Computerprogrammprodukt
DE102020129823B4 (de) 2020-11-12 2022-07-07 Sick Ag Visualisieren eines Schutzfeldes
DE102019006800B4 (de) 2018-10-02 2022-07-28 Fanuc Corporation Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
DE102018213985B4 (de) 2017-08-25 2022-09-29 Fanuc Corporation Robotersystem
US11458618B2 (en) 2018-08-03 2022-10-04 Fanuc Corporation Collaborative operation support device
DE112020001675B4 (de) 2019-03-29 2023-07-06 Ihi Corporation Fernbedienungsvorrichtung

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104470687A (zh) * 2012-07-20 2015-03-25 株式会社安川电机 机器人模拟器、机器人示教装置以及机器人示教方法
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
ES2749686T3 (es) * 2016-06-24 2020-03-23 Zuend Systemtechnik Ag Sistema de corte de material a cortar
DE102016212240A1 (de) * 2016-07-05 2018-01-11 Siemens Aktiengesellschaft Verfahren zur Interaktion eines Bedieners mit einem Modell eines technischen Systems
JP2018008347A (ja) * 2016-07-13 2018-01-18 東芝機械株式会社 ロボットシステムおよび動作領域表示方法
CN106710353A (zh) * 2017-01-10 2017-05-24 河南师范大学 一种智能培训装置
US10684480B2 (en) * 2017-03-16 2020-06-16 Denso Wave Incorporated Information display system
JP6874448B2 (ja) * 2017-03-17 2021-05-19 株式会社デンソーウェーブ 情報表示システム
JP6850183B2 (ja) * 2017-04-11 2021-03-31 川崎重工業株式会社 ロボットシステム及びその運転方法
US10860853B2 (en) 2017-04-28 2020-12-08 Intel Corporation Learning though projection method and apparatus
US10602033B2 (en) * 2017-05-02 2020-03-24 Varjo Technologies Oy Display apparatus and method using image renderers and optical combiners
JP6445092B2 (ja) * 2017-05-31 2018-12-26 ファナック株式会社 ロボットの教示のための情報を表示するロボットシステム
WO2018222225A1 (en) * 2017-06-01 2018-12-06 Siemens Aktiengesellschaft Semantic information model and enhanced reality interface for workforce and asset management
JP6585665B2 (ja) * 2017-06-29 2019-10-02 ファナック株式会社 仮想オブジェクト表示システム
JP7071070B2 (ja) * 2017-08-02 2022-05-18 川崎重工業株式会社 ロボットシステム及びその運転方法
JP7066357B2 (ja) 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
JP6882147B2 (ja) * 2017-11-28 2021-06-02 シュナイダーエレクトリックホールディングス株式会社 操作案内システム
EP3762190A4 (de) * 2018-03-05 2022-01-26 The Regents Of The University Of Colorado Koordinierung in erweiterter realität einer mensch-roboter-interaktion
JP6781201B2 (ja) 2018-06-05 2020-11-04 ファナック株式会社 仮想オブジェクト表示システム
CN112368659B (zh) * 2018-06-26 2024-06-18 发纳科美国公司 具有增强现实的自动动态诊断指导
EP3814075A4 (de) * 2018-06-26 2022-03-30 Fanuc America Corporation Visualisierung der erweiterten realität für ein robotisches kommissionierungssystem
US11850755B2 (en) * 2018-06-26 2023-12-26 Fanuc America Corporation Visualization and modification of operational bounding zones using augmented reality
JP6856583B2 (ja) 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
CN108994820A (zh) * 2018-07-27 2018-12-14 国网江苏省电力有限公司徐州供电分公司 用于带电作业的机器人系统及作业场景构建方法
JP6856590B2 (ja) 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
US11396100B2 (en) * 2018-09-10 2022-07-26 Fanuc America Corporation Robot calibration for AR and digital twin
JP6885909B2 (ja) * 2018-10-12 2021-06-16 ファナック株式会社 ロボット制御装置
JP6816087B2 (ja) 2018-11-02 2021-01-20 ファナック株式会社 ロボットのアラーム通知システム
JP7000364B2 (ja) 2019-01-29 2022-01-19 ファナック株式会社 ロボットシステム
KR102184935B1 (ko) * 2019-02-20 2020-12-01 한국기술교육대학교 산학협력단 증강현실을 이용한 로봇팔의 움직임 확인 방법
WO2020221311A1 (zh) * 2019-04-30 2020-11-05 齐鲁工业大学 基于可穿戴设备的移动机器人控制系统及控制方法
JP7400217B2 (ja) * 2019-05-30 2023-12-19 セイコーエプソン株式会社 ロボットシステムおよび可搬型教示装置
JP7260405B2 (ja) * 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
US11580724B2 (en) * 2019-07-23 2023-02-14 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
JP7481097B2 (ja) * 2019-08-23 2024-05-10 ファナック株式会社 ロボット制御装置
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
WO2021189223A1 (zh) * 2020-03-24 2021-09-30 青岛理工大学 一种基于标识卡运动的机器人增强现实示教的注册系统及方法
JP7381729B2 (ja) 2020-04-27 2023-11-15 ファナック株式会社 産業機械の表示装置
CN111736514B (zh) * 2020-06-10 2020-12-04 杭州凯尔达机器人科技股份有限公司 基于通用计算机的机器人控制系统
JP7068416B2 (ja) * 2020-10-27 2022-05-16 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
WO2022145014A1 (ja) * 2020-12-28 2022-07-07 三菱電機株式会社 表示装置、制御システムおよび作画方法
CN116061164A (zh) * 2021-11-01 2023-05-05 美智纵横科技有限责任公司 终端的控制方法、机器人的控制方法、终端和机器人

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014097539A (ja) 2012-11-13 2014-05-29 Toyota Motor Corp 移動体の遠隔操作方法および遠隔操作装置
JP2014180707A (ja) 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボット装置及び被加工物の製造方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02167691A (ja) * 1988-12-22 1990-06-28 Fanuc Ltd オーバライド表示方式
JPH09212219A (ja) * 1996-01-31 1997-08-15 Fuji Facom Corp 三次元仮想モデル作成装置及び制御対象物の監視制御装置
DE10127396A1 (de) 2000-06-13 2001-12-20 Volkswagen Ag Verfahren zum Verwerten eines Altfahrzeugs
JP2002172575A (ja) 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
WO2010025338A1 (en) * 2008-08-29 2010-03-04 Corindus Ltd. Catheter control system and graphical user interface
JP2011088219A (ja) * 2009-10-20 2011-05-06 Hitachi High-Tech Control Systems Corp ロボットの動作診断方法、ロボットの制御装置、ミニエンバイロメントシステムの制御装置、ロボット、及びミニエンバイロメントシステム
WO2011080882A1 (ja) 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP5526881B2 (ja) * 2010-03-12 2014-06-18 株式会社デンソーウェーブ ロボットシステム
WO2012063397A1 (ja) 2010-11-12 2012-05-18 パナソニック株式会社 移動経路探索装置および移動経路探索方法
JP5246672B2 (ja) * 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 ロボットシステム
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
AT12208U3 (de) 2011-09-06 2013-07-15 Keba Ag Verfahren, steuerungssystem und bewegungsvorgabemittel zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
WO2015051815A1 (en) * 2013-10-07 2015-04-16 Abb Technology Ltd A method and a device for verifying one or more safety volumes for a movable mechanical unit
US20150199106A1 (en) * 2014-01-14 2015-07-16 Caterpillar Inc. Augmented Reality Display System
EP3009833B1 (de) * 2014-10-14 2020-12-02 Airbus Defence And Space Gmbh In-Prozess Fehlerüberprüfung durch erweiterte Realität
US11144041B2 (en) * 2014-11-05 2021-10-12 The Boeing Company 3D visualizations of in-process products based on machine tool input

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014097539A (ja) 2012-11-13 2014-05-29 Toyota Motor Corp 移動体の遠隔操作方法および遠隔操作装置
JP2014180707A (ja) 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボット装置及び被加工物の製造方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017114880B4 (de) * 2016-07-08 2020-10-15 Fanuc Corporation Laserbearbeitungs-robotersystem zur durchführung einer laserbearbeitung eines werkstücks unter verwendung eines roboters
DE102017107224A1 (de) * 2017-04-04 2018-10-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Darstellung einer Bauteildokumentation
US11413748B2 (en) 2017-08-10 2022-08-16 Robert Bosch Gmbh System and method of direct teaching a robot
DE112018002565B4 (de) * 2017-08-10 2021-07-01 Robert Bosch Gmbh System und Verfahren zum direkten Anlernen eines Roboters
DE102018213985B4 (de) 2017-08-25 2022-09-29 Fanuc Corporation Robotersystem
DE102018109463B3 (de) 2018-04-19 2019-09-19 Yuanda Robotics Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
DE102018109463C5 (de) 2018-04-19 2023-10-05 Voraus Robotik Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
EP3578321A1 (de) * 2018-06-05 2019-12-11 Gestalt Robotics GmbH Verfahren zum verwenden mit einer maschine zum erstellen einer erweiterte-realität-anzeigeumgebung
DE102019005297B4 (de) 2018-08-03 2022-10-13 Fanuc Corporation Unterstützungsvorrichtung für einen kooperativen Vorgang
US11458618B2 (en) 2018-08-03 2022-10-04 Fanuc Corporation Collaborative operation support device
DE102019006800B4 (de) 2018-10-02 2022-07-28 Fanuc Corporation Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
DE102019009313B4 (de) 2018-10-02 2024-02-15 Fanuc Corporation Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
US11584020B2 (en) 2018-12-04 2023-02-21 Cloudminds Robotics Co., Ltd. Human augmented cloud-based robotics intelligence framework and associated methods
CN111432989B (zh) * 2018-12-04 2023-07-07 达闼机器人股份有限公司 人工增强基于云的机器人智能框架及相关方法
CN111432989A (zh) * 2018-12-04 2020-07-17 深圳前海达闼云端智能科技有限公司 人工增强基于云的机器人智能框架及相关方法
DE112020001675B4 (de) 2019-03-29 2023-07-06 Ihi Corporation Fernbedienungsvorrichtung
DE102020006304B3 (de) 2020-10-14 2022-01-13 Kuka Systems Gmbh Verfahren zum Einblenden von virtuellen Roboterdatenobjekten und Computerprogrammprodukt
DE102020129823B4 (de) 2020-11-12 2022-07-07 Sick Ag Visualisieren eines Schutzfeldes

Also Published As

Publication number Publication date
US10052765B2 (en) 2018-08-21
DE102015015503B4 (de) 2021-09-23
JP2016107379A (ja) 2016-06-20
CN105666505A (zh) 2016-06-15
US20160158937A1 (en) 2016-06-09
CN105666505B (zh) 2019-12-27

Similar Documents

Publication Publication Date Title
DE102015015503B4 (de) Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
DE102007033486B4 (de) Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE3687753T2 (de) Dreidimensionale aufzeichnungen.
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
DE202008014481U1 (de) Tragbares Roboterkontrollgerät zum Kontrollieren einer Bewegung eines Roboters
DE102005061952A1 (de) Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
DE102015000589A1 (de) Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem
EP1763845A1 (de) Verfahren und vorrichtung zur bestimmung von optischen überdeckungen mit ar-objekten
DE102017114880A1 (de) Laserbearbeitungs-Robotersystem zur Durchführung einer Laserbeareitung unter Verwendung eines Roboters
DE102005045854B3 (de) Verfahren und System zur Kalibrierung einer Kamera in Produktionsmaschinen
DE102014117346B4 (de) Roboter, Robotersteuerungsverfahren und Robotersteuerungsprogramm zur Werkstückkorrektur
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102019005297B4 (de) Unterstützungsvorrichtung für einen kooperativen Vorgang
DE102010037067B4 (de) Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters
EP3271116B1 (de) Vorrichtung und verfahren zum verschrauben von gegenständen
DE10215885A1 (de) Automatische Prozesskontrolle
DE112021004779T5 (de) Vorrichtung zum Einstellen eines Parameters, Robotersystem, Verfahren und Computerprogramm
DE112021002301T5 (de) Vorrichtung zum erhalten einer position eines visuellen sensors im steuerkoordinatensystem eines roboters, robotersystem, verfahren und computerprogramms
EP2927729B1 (de) Testvorrichtung für sichtsysteme
DE102019103360A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final