DE112021005346T5 - Anzeigevorrichtung für erweiterte Realität und Anzeigesystem für erweiterte Realität - Google Patents

Anzeigevorrichtung für erweiterte Realität und Anzeigesystem für erweiterte Realität Download PDF

Info

Publication number
DE112021005346T5
DE112021005346T5 DE112021005346.9T DE112021005346T DE112021005346T5 DE 112021005346 T5 DE112021005346 T5 DE 112021005346T5 DE 112021005346 T DE112021005346 T DE 112021005346T DE 112021005346 T5 DE112021005346 T5 DE 112021005346T5
Authority
DE
Germany
Prior art keywords
robot
augmented reality
image
display device
reality display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021005346.9T
Other languages
English (en)
Inventor
Youhei Nakada
Takeshi Motodaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Hitachi Ltd
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Fanuc Corp filed Critical Hitachi Ltd
Publication of DE112021005346T5 publication Critical patent/DE112021005346T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Gemäß der vorliegenden Erfindung kann der Arbeitsbereich eines Roboters leicht überprüft werden. Diese Augmented-Reality-Anzeigevorrichtung umfasst: eine Kamera; eine Anzeigeeinheit; und eine Anzeigesteuereinheit, die auf der Anzeigeeinheit ein von der Kamera aufgenommenes Bild eines Roboters und ein Augmented-Reality-Bild des Arbeitsbereichs des Roboters anzeigt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Anzeigevorrichtung für erweiterte Realität (augmented reality) und ein Anzeigesystem für erweiterte Realität.
  • STAND DER TECHNIK
  • Für den Fall, dass die Möglichkeit besteht, dass ein Bediener, der ein Sicherheitsüberwachungsziel ist, einen Bewegungsbereich eines Roboters betritt, ist eine Technologie bekannt, bei der der Bewegungsbereich des Roboters um den Bediener herum festgelegt wird, und wenn der Roboter den Bewegungsbereich betritt, werden Sicherheitsbewegungssteuerung, Not-Aus-Steuerung und ähnliches des Roboters durchgeführt. Siehe zum Beispiel Patentdokument 1.
  • Patentdokument 1: Ungeprüfte japanische Patentanmeldung, Veröffentlichung Nr. JP 2004-243427 A
  • OFFENBARUNG DER ERFINDUNG
  • Durch die Erfindung zu lösende Probleme
  • Da der Bediener den Bewegungsbereich des Roboters jedoch nicht visuell erkennen kann, kann es passieren, dass der Bediener fälschlicherweise in den Bewegungsbereich eintritt und den Roboter anhält. Dies senkt die Arbeitseffizienz des Roboters.
  • Daher ist es wünschenswert, den Bewegungsbereich des Roboters leicht überprüfen zu können.
  • Mittel zur Lösung der Probleme
    • (1) Ein Aspekt der vorliegenden Offenbarung ist eine Augmented-Reality-Anzeigevorrichtung, die Folgendes umfasst: eine Kamera; eine Anzeigeeinheit; und eine Anzeigesteuereinheit, die so konfiguriert ist, dass sie auf der Anzeigeeinheit ein Bild eines Roboters, das von der Kamera erfasst wurde, und ein Augmented-Reality-Bild eines Bewegungsbereichs des Roboters anzeigt.
    • (2) Ein Aspekt der vorliegenden Offenbarung ist ein Augmented-Reality-Anzeigesystem, das Folgendes umfasst: einen Roboter; und die Augmented-Reality-Anzeigevorrichtung gemäß (1).
  • Effekte der Erfindung
  • Ein Aspekt ist, dass der Bewegungsbereich des Roboters leicht überprüft werden kann.
  • Figurenliste
    • 1 ist ein funktionales Blockdiagramm, das ein funktionales Konfigurationsbeispiel eines Augmented-Reality-Anzeigesystems gemäß einer Ausführungsform zeigt;
    • 2A zeigt ein Beispiel für ein Bewegungsprogramm;
    • 2B zeigt ein Beispiel für eine Liste von Zielpositionskoordinaten, die im Bewegungsprogramm eingelernt wurden;
    • 3 zeigt ein Beispiel für die Anzeige eines Augmented-Reality-(AR) -Bildes eines Bewegungsbereichs eines Roboters;
    • 4 zeigt ein Beispiel für die Anzeige eines AR-Bildes einer Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten;
    • 5 zeigt ein Beispiel für die Anzeige des AR-Bildes des Bewegungsbereichs des Roboters und des AR-Bildes der Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten; und
    • 6 ist ein Flussdiagramm, das die Anzeigeverarbeitung einer Augmented-Reality-Anzeigevorrichtung veranschaulicht.
  • BEVORZUGTER MODUS ZUR AUSFÜHRUNG DER ERFINDUNG
  • <Eine Ausführungsform>
  • Eine Ausführungsform wird nun unter Bezugnahme auf die Zeichnungen beschrieben.
  • 1 ist ein funktionales Blockdiagramm, das ein Beispiel für die funktionale Konfiguration eines Augmented-Reality-Anzeigesystems gemäß der vorliegenden Ausführungsform zeigt.
  • Wie in 1 dargestellt, umfasst ein Augmented-Reality-Anzeigesystem 1 einen Roboter 10 und eine Augmented-Reality-Anzeigevorrichtung 20.
  • <Roboter 10>
  • Der Roboter 10 ist zum Beispiel ein Industrieroboter, wie er dem Fachmann bekannt ist. Der Roboter 10 treibt einen Servomotor (nicht gezeigt) an, der in jeder einer Vielzahl von Gelenkachsen (nicht gezeigt) angeordnet ist, die in dem Roboter 10 enthalten sind, basierend auf einem Antriebsbefehl von einer Robotersteuerungsvorrichtung (nicht gezeigt), wodurch ein bewegliches Element (nicht gezeigt) des Roboters 10 angetrieben wird.
  • < Augmented-Reality-Anzeigevorrichtung 20>
  • Die Augmented-Reality-Anzeigevorrichtung 20 ist beispielsweise ein Smartphone, ein Tablet, ein Augmented-Reality-Glas (AR), ein Mixed-Reality-Glas (MR) oder Ähnliches.
  • Wie in 1 gezeigt, enthält die Augmented-Reality-Anzeigevorrichtung 20 gemäß der vorliegenden Ausführungsform eine Steuereinheit 21, eine Kamera 22, eine Eingabeeinheit 23, eine Anzeigeeinheit 24, eine Speichereinheit 25 und eine Kommunikationseinheit 26. Die Steuereinheit 21 enthält eine Koordinatenerfassungseinheit 211, eine Informationserfassungseinheit 212, eine Abstandsberechnungseinheit 213, eine AR-Bilderzeugungseinheit 214 und eine Anzeigesteuereinheit 215.
  • Bei der Kamera 22 handelt es sich beispielsweise um eine Digitalkamera oder ähnliches, die ein Bild des Roboters 10 auf Basis einer Bedienung durch einen Benutzer aufnimmt und zweidimensionale Bilddaten erzeugt, die auf eine Ebene projiziert werden, die senkrecht zur optischen Achse der Kamera 22 verläuft. Bei den von der Kamera 22 erzeugten Bilddaten kann es sich um ein Bild mit sichtbarem Licht wie ein RGB-Farbbild handeln.
  • Die Eingabeeinheit 23 ist z.B. ein Touchpanel (nicht gezeigt) oder ähnliches, das auf der später beschriebenen Anzeigeeinheit 24 angeordnet ist, und empfängt eine Eingabeoperation von einem Bediener, der ein Benutzer ist.
  • Die Anzeigeeinheit 24 ist zum Beispiel eine Flüssigkristallanzeige (LCD) oder ähnliches. Die Anzeigeeinheit 24 zeigt ein von der Kamera 22 aufgenommenes Bild des Roboters 10 und ein Augmented-Reality-Bild (AR-Bild) eines Bewegungsbereichs des Roboters 10 an, das von einer Robotersteuerungsvorrichtung (nicht dargestellt) durch die später beschriebene Informationserfassungseinheit 212 über die später beschriebene Kommunikationseinheit 26 auf Basis eines Steuerbefehls der später beschriebenen Anzeigesteuereinheit 215 erfasst wurde.
  • Die Speichereinheit 25 ist beispielsweise ein ROM (Festwertspeicher), ein HDD (Festplattenlaufwerk) oder ähnliches und speichert beispielsweise ein Systemprogramm und ein Augmented-Reality-Anzeige-Anwendungsprogramm, die von der später beschriebenen Steuereinheit 21 ausgeführt werden. Die Speichereinheit 25 kann dreidimensionale Erkennungsmodelldaten 251 speichern.
  • Im Hinblick auf die dreidimensionalen Erkennungsmodelldaten 251 werden beispielsweise die Haltung und die Ausrichtung des Roboters 10 vorher geändert, und Merkmalsgrößen wie Kantengrößen, die aus einer Vielzahl von Bildern des Roboters 10, die von der Kamera 22 in verschiedenen Abständen und Winkeln (Neigungen) aufgenommen wurden, extrahiert wurden, werden als dreidimensionale Erkennungsmodelle gespeichert. In Bezug auf die dreidimensionalen Erkennungsmodelldaten 251 können die dreidimensionalen Koordinaten des Ursprungs (im Folgenden auch als „Roboterursprung“ bezeichnet) des Roboterkoordinatensystems des Roboters 10 im Weltkoordinatensystem, wenn ein Bild jedes dreidimensionalen Erkennungsmodells aufgenommen wird, und Informationen, die die Richtungen der X-Achse, der Y-Achse und der Z-Achse des Roboterkoordinatensystems im Weltkoordinatensystem zu diesem Zeitpunkt angeben, in Verbindung mit dem entsprechenden dreidimensionalen Erkennungsmodell gespeichert werden.
  • Der Ursprung und die Richtungen der X-Achse, der Y-Achse und der Z-Achse des Weltkoordinatensystems sind so definiert, dass sie mit der Position der Augmented-Reality-Anzeigevorrichtung 20 übereinstimmen, wenn die Augmented-Reality-Anzeigevorrichtung 20 das oben beschriebene Augmented-Reality-Anzeigeanwendungsprogramm ausführt, d.h. der Ursprung und die Richtungen der X-Achse, der Y-Achse und der Z-Achse des Kamerakoordinatensystems der Kamera 22. Wenn sich die Augmented-Reality-Anzeigevorrichtung 20 (Kamera 22) nach der Ausführung des Augmented-Reality-Anzeigeanwendungsprogramms bewegt, bewegt sich der Ursprung im Kamerakoordinatensystem vom Ursprung im Weltkoordinatensystem weg.
  • Die Kommunikationseinheit 26 ist eine Kommunikationssteuerungsvorrichtung, die Daten an ein Netzwerk wie ein drahtloses LAN (lokales Netzwerk), Wi-Fi (eingetragenes Warenzeichen) und ein Mobiltelefonnetzwerk, das Standards wie 4G und 5G entspricht, sendet und empfängt. Die Kommunikationseinheit 26 kann mit einer Robotersteuerungsvorrichtung (nicht dargestellt) zur Steuerung der Bewegung des Roboters 10 als externer Vorrichtung kommunizieren.
  • <Steuereinheit 21>
  • Die Steuereinheit 21 umfasst eine CPU (Zentraleinheit), ROM, RAM, CMOS (Komplementär-Metalloxid-Halbleiter)-Speicher und dergleichen, die so konfiguriert sind, dass sie über einen Bus miteinander kommunizieren, und die dem Fachmann bekannt sind.
  • Die CPU ist ein Prozessor, der die gesamte Augmented-Reality-Anzeigevorrichtung 20 steuert. Die CPU liest das Systemprogramm und das Augmented-Reality-Display-Anwendungsprogramm, die im ROM gespeichert sind, über den Bus und steuert die gesamte Augmented-Reality-Anzeigevorrichtung 20 in Übereinstimmung mit dem Systemprogramm und dem Augmented-Reality-Display-Anwendungsprogramm. Dabei ist die Steuereinheit 21, wie in 1 gezeigt, so konfiguriert, dass sie die Funktionen der Koordinatenerfassungseinheit 211, der Informationserfassungseinheit 212, der Abstandsberechnungseinheit 213, der AR-Bilderzeugungseinheit 214 und der Anzeigesteuereinheit 215 realisiert. Das RAM speichert eine Vielzahl von Daten wie temporäre Berechnungsdaten und Anzeigedaten. Der CMOS-Speicher wird von einer Batterie (nicht dargestellt) abgesichert und ist als nichtflüchtiger Speicher konfiguriert, in dem ein Speicherzustand auch dann beibehalten wird, wenn die Augmented-Reality-Anzeigevorrichtung 20 ausgeschaltet wird.
  • <Koordinatenerfassungseinheit 211>
  • Die Koordinatenerfassungseinheit 211 erfasst z.B. die dreidimensionalen Koordinaten des Roboterursprungs im Weltkoordinatensystem auf Basis eines von der Kamera 22 aufgenommenen Bildes des Roboters 10.
  • Konkret extrahiert die Koordinatenerfassungseinheit 211 Merkmalsgrößen, wie z.B. Kantengrößen, aus einem von der Kamera 22 aufgenommenen Bild des Roboters 10, indem sie z.B. ein bekanntes Verfahren zur dreidimensionalen Roboterkoordinatenerkennung (z.B.
    https://linx.jp/product/mvtec/halcon/feature/3d_vision.html) verwendet. Die Koordinatenerfassungseinheit 211 führt einen Abgleich zwischen den extrahierten Merkmalsgrößen und den Merkmalsgrößen der dreidimensionalen Erkennungsmodelle durch, die in den dreidimensionalen Erkennungsmodelldaten 251 gespeichert sind. Die Koordinatenerfassungseinheit 211 erfasst beispielsweise die dreidimensionalen Koordinaten des Roboterursprungs und Informationen, die die Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten des dreidimensionalen Erkennungsmodells mit dem höchsten Übereinstimmungsgrad auf Basis der Übereinstimmungsergebnisse angeben.
  • Die Koordinatenerfassungseinheit 211 erfasst die dreidimensionalen Koordinaten des Roboterursprungs und Informationen, die die Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten im Weltkoordinatensystem angeben, indem sie die dreidimensionale Roboterkoordinatenerkennungsmethode verwendet, aber die vorliegende Erfindung ist darauf nicht beschränkt. Beispielsweise kann die Koordinatenerfassungseinheit 211 eine Markierung wie ein Schachbrett an dem Roboter 10 anbringen und die dreidimensionalen Koordinaten des Roboterursprungs und Informationen, die die Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten in dem Weltkoordinatensystem angeben, aus einem Bild der Markierung erfassen, das von der Kamera 22 auf Basis einer bekannten Markierungserkennungstechnologie aufgenommen wurde.
  • Alternativ kann ein Innenraum-Positionierungsgerät, wie z.B. ein Ultrabreitband (UWB), am Roboter 10 angebracht werden, und die Koordinatenerfassungseinheit 211 kann die dreidimensionalen Koordinaten des Roboterursprungs und Informationen über die Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten im Weltkoordinatensystem von dem Innenraum-Positionierungsgerät erfassen.
  • <Informationserfassungseinheit 212>
  • Die Informationserfassungseinheit 212 erfasst beispielsweise die dreidimensionalen Koordinaten (im Folgenden auch als „dreidimensionale Koordinaten der Kamera 22“ bezeichnet) des Ursprungs des Kamerakoordinatensystems der Kamera 22 im Weltkoordinatensystem auf Basis eines Signals von einem (nicht dargestellten) Sensor wie einem GPS-Sensor oder einem elektronischen Kreisel, der in der Augmented-Reality-Anzeigevorrichtung 20 enthalten ist.
  • Die Informationserfassungseinheit 212 kann die Robotersteuerungsvorrichtung (nicht gezeigt) über die Kommunikationseinheit 26 abfragen und kann Einstellungsinformationen, die einen Bewegungsbereich des Roboters 10 anzeigen, von der Robotersteuerungsvorrichtung (nicht gezeigt) erhalten. Der Bewegungsbereich des Roboters 10 ist ein Bereich, durch den ein Teil des Roboters 10 und der gesamte Roboter 10 hindurchfahren kann, und ist im Voraus im Roboterkoordinatensystem definiert. Daher wandelt die später beschriebene AR-Bilderzeugungseinheit 214 die Einstellungsinformationen des Bewegungsbereichs des Roboters 10 in das Weltkoordinatensystem um, basierend auf den dreidimensionalen Koordinaten des Roboterursprungs und den Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten im Weltkoordinatensystem.
  • Die Informationserfassungseinheit 212 kann die Einstellungsinformationen für den Bewegungsbereich des Roboters 10 in Übereinstimmung mit einer Eingabeoperation des Bedieners über die Eingabeeinheit 23 erfassen.
  • Die Informationserfassungseinheit 212 kann über die Kommunikationseinheit 26 die Robotersteuerungsvorrichtung (nicht dargestellt) abfragen und von der Robotersteuerungsvorrichtung (nicht dargestellt) zumindest die nächsten Zielpositionskoordinaten erfassen, die in einem auszuführenden Bewegungsprogramm eingelernt wurden.
  • 2A zeigt ein Beispiel für ein Bewegungsprogramm. 2B zeigt ein Beispiel für eine Liste von Zielpositionskoordinaten, die im Bewegungsprogramm eingelernt wurden.
  • Wenn zum Beispiel die Informationserfassungseinheit 212 die Robotersteuerungsvorrichtung (nicht gezeigt) nach den nächsten Zielpositionskoordinaten fragt, falls der Block „MOVE P2“ des Programms in 2A ausgeführt wird, liest die Robotersteuerungsvorrichtung (nicht gezeigt) die Koordinaten der Zielposition P3 des nächsten Blocks „MOVE P3“ aus der Liste von 2B
  • Dadurch übernimmt die Informationserfassungseinheit 212 die Koordinaten einer Zielposition P3 als nächste Zielpositionskoordinaten von der Robotersteuerungseinrichtung (nicht gezeigt).
  • Die Koordinaten der Zielpositionen P1 bis P4 in 2B umfassen Komponenten der X-Koordinate, der Y-Koordinate, der Z-Koordinate, des Drehwinkels R um die X-Achse, des Drehwinkels P um die Y-Achse und des Drehwinkels W um die Z-Achse im Roboterkoordinatensystem.
  • <Abstandsberechnungseinheit 213>
  • Die Abstandsberechnungseinheit 213 berechnet den Abstand zwischen dem Roboter 10 und der Augmented-Reality-Anzeigevorrichtung 20 auf Basis der von der Koordinatenerfassungseinheit 211 erfassten dreidimensionalen Koordinaten des Roboterursprungs im Weltkoordinatensystem und der von der Informationserfassungseinheit 212 erfassten dreidimensionalen Koordinaten der Kamera 22 im Weltkoordinatensystem.
  • <AR-Bilderzeugungseinheit 214>
  • Die AR-Bilderzeugungseinheit 214 erzeugt beispielsweise sequentiell ein AR-Bild eines Bewegungsbereichs des Roboters 10 und ein AR-Bild einer Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten auf Basis der dreidimensionalen Koordinaten des Roboterursprungs des Roboters 10, der Richtungen der X-Achse, Y-Achse und Z-Achse der Roboterkoordinaten, der dreidimensionalen Koordinaten der Kamera 22, der Einstellungsinformationen, die den Bewegungsbereich des Roboters 10 angeben, und der nächsten Zielpositionskoordinaten des Roboters 10.
  • Spezifisch wandelt die AR-Bilderzeugungseinheit 214 beispielsweise die Einstellinformationen des Bewegungsbereichs des Roboters 10 aus dem Roboterkoordinatensystem in das Weltkoordinatensystem um, basierend auf den dreidimensionalen Koordinaten des Roboterursprungs des Roboters 10 und den Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten im Weltkoordinatensystem, und erzeugt ein AR-Bild des Bewegungsbereichs des Roboters 10.
  • Weiterhin rechnet die AR-Bilderzeugungseinheit 214 beispielsweise die nächsten Zielpositionskoordinaten des Roboters 10 aus dem Roboterkoordinatensystem in das Weltkoordinatensystem um, basierend auf den dreidimensionalen Koordinaten des Roboterursprungs des Roboters 10 und den Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten im Weltkoordinatensystem, und erzeugt ein AR-Bild einer Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten des Roboters 10.
  • < Anzeigesteuereinheit 215>
  • Die Anzeigesteuereinheit 215 zeigt beispielsweise auf der Anzeigeeinheit 24 ein von der Kamera 22 aufgenommenes Bild des Roboters 10 und ein von der AR-Bilderzeugungseinheit 214 erzeugtes AR-Bild eines Bewegungsbereichs des Roboters 10 an.
  • 3 zeigt ein Beispiel für die Anzeige eines AR-Bildes eines Bewegungsbereichs des Roboters 10.
  • Wie in 3 gezeigt, passt die Anzeigesteuereinheit 215 beispielsweise die Position und die Haltung in dem von der AR-Bilderzeugungseinheit 214 erzeugten AR-Bild in Bezug auf den Roboterursprung in dem von der Informationserfassungseinheit 212 erfassten Weltkoordinatensystem an, und überlagert das von der Kamera 22 aufgenommene Bild des Roboters 10 dem AR-Bild des Bewegungsbereichs des Roboters 10 und zeigt das überlagerte Bild an.
  • Die Anzeigesteuereinheit 215 kann die Anzeigeform des AR-Bildes des Bewegungsbereichs des Roboters 10 basierend auf dem von der Abstandsberechnungseinheit 213 berechneten Abstand zwischen dem Roboter 10 und der Augmented-Reality-Anzeigevorrichtung 20 ändern. Zum Beispiel kann die Anzeigesteuereinheit 215 in einem Fall, in dem ein Abstand α, der vom Roboter 10 entfernt ist und ein sicherer Abstand ist, und ein Abstand β (β < α), der nahe am Roboter 10 ist und ein risikoreicher Abstand ist, im Voraus vom Benutzer wie dem Bediener festgelegt werden, das AR-Bild des Bewegungsbereichs des Roboters 10 in Blau anzeigen, um anzuzeigen, dass es sicher ist, wenn der Abstand zwischen dem Roboter 10 und der Augmented-Reality-Anzeigevorrichtung 20 größer oder gleich dem Abstand α ist. Wenn der Abstand zwischen dem Roboter 10 und der Augmented-Reality-Anzeigevorrichtung 20 größer oder gleich dem Abstand β und kleiner als der Abstand α ist, kann die Anzeigesteuereinheit 215 das AR-Bild des Bewegungsbereichs des Roboters 10 in Gelb anzeigen, um darauf hinzuweisen, dass sich der Roboter 10 in der Nähe der Augmented-Reality-Anzeigevorrichtung 20 befindet. Wenn der Abstand zwischen dem Roboter 10 und der Augmented-Reality-Anzeigevorrichtung 20 kleiner als der Abstand β ist, kann die Anzeigesteuereinheit 215 das AR-Bild des Bewegungsbereichs des Roboters 10 in Rot anzeigen, um darauf hinzuweisen, dass sich die Augmented-Reality-Anzeigevorrichtung 20 in der Nähe des Roboters 10 befindet und es riskant ist.
  • Dadurch kann verhindert werden, dass der Bediener versehentlich in den Bewegungsbereich des Roboters 10 gelangt.
  • Die Anzeigesteuereinheit 215 kann beispielsweise das von der Kamera 22 aufgenommene Bild des Roboters 10 mit dem von der AR-Bilderzeugungseinheit 214 erzeugten AR-Bild der Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten überlagern und das überlagerte Bild auf der Anzeigeeinheit 24 anzeigen.
  • 4 zeigt ein Beispiel für die Anzeige des AR-Bildes der Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten.
  • Wie in 4 gezeigt, zeigt die Anzeigesteuereinheit 215 die aktuelle Zielposition P2 und die nächste Zielposition P3 des Roboters 10 an. Dadurch kann der Bediener die nächste Bewegung des Roboters 10 vorhersagen und eine Kollision mit dem Roboter 10 vermeiden.
  • Die Anzeigesteuereinheit 215 kann auch die Koordinaten der vergangenen Zielposition P1 anzeigen. In diesem Fall werden die Koordinaten der Zielposition P1 vorzugsweise in einer anderen Farbe oder Form angezeigt als die Koordinaten der Zielpositionen P2 und P3.
  • Die Anzeigesteuereinheit 215 kann zum Beispiel das von der Kamera 22 aufgenommene Bild des Roboters 10, das von der AR-Bilderzeugungseinheit 214 erzeugte AR-Bild des Bewegungsbereichs des Roboters 10 und das AR-Bild der Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten überlagern und das überlagerte Bild auf der Anzeigeeinheit 24 anzeigen.
  • 5 zeigt ein Beispiel für die Darstellung des AR-Bildes des Bewegungsbereichs des Roboters 10 und des AR-Bildes der Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten.
  • <Anzeigeverarbeitung von Augmented-Reality-Anzeigevorrichtung 20>
  • Als Nächstes werden Vorgänge im Zusammenhang mit der Anzeigeverarbeitung der Augmented-Reality-Anzeigevorrichtung 20 gemäß der Ausführungsform beschrieben.
  • 6 ist ein Flussdiagramm, das die Anzeigeverarbeitung der Augmented-Reality-Anzeigevorrichtung 20 zeigt. Der hier gezeigte Ablauf wird wiederholt ausgeführt, während die Anzeigeverarbeitung durchgeführt wird.
  • In Schritt S1 nimmt die Kamera 22 ein Bild des Roboters 10 auf Basis einer Anweisung des Bedieners über die Eingabeeinheit 23 auf.
  • In Schritt S2 erfasst die Koordinatenerfassungseinheit 211 Informationen, die die dreidimensionalen Koordinaten des Roboterursprungs im Weltkoordinatensystem angeben, und Informationen, die die Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten im Weltkoordinatensystem angeben, basierend auf dem in Schritt S1 erfassten Bild des Roboters 10 und den dreidimensionalen Erkennungsmodelldaten 251.
  • In Schritt S3 erfasst die Informationserfassungseinheit 212 die dreidimensionalen Koordinaten der Kamera 22 im Weltkoordinatensystem.
  • In Schritt S4 fragt die Informationserfassungseinheit 212 die Robotersteuerungsvorrichtung (nicht gezeigt) über die Kommunikationseinheit 26 ab und erhält von der Robotersteuerungsvorrichtung (nicht gezeigt) die Einstellungsinformationen des Bewegungsbereichs des Roboters 10.
  • In Schritt S5 fragt die Informationserfassungseinheit 212 die Robotersteuerungsvorrichtung (nicht dargestellt) über die Kommunikationseinheit 26 ab und erfasst von der Robotersteuerungsvorrichtung (nicht dargestellt) zumindest die nächsten Zielpositionskoordinaten, die in dem auszuführenden Bewegungsprogramm eingelernt wurden.
  • In Schritt S6 berechnet die Abstandsberechnungseinheit 213 den Abstand zwischen dem Roboter 10 und der Augmented-Reality-Anzeigevorrichtung 20 auf Basis der in Schritt S2 erfassten dreidimensionalen Koordinaten des Roboterursprungs in dem Weltkoordinatensystem und der in Schritt S3 erfassten dreidimensionalen Koordinaten der Kamera 22 in dem Weltkoordinatensystem.
  • In Schritt S7 erzeugt die AR-Bilderzeugungseinheit 214 ein AR-Bild des Bewegungsbereichs des Roboters 10 und ein AR-Bild der Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten auf Basis der dreidimensionalen Koordinaten des Roboterursprungs des Roboters 10, der Richtungen der X-Achse, der Y-Achse und der Z-Achse der Roboterkoordinaten, der dreidimensionalen Koordinaten der Kamera 22, der Einstellungsinformationen, die den Bewegungsbereich des Roboters 10 angeben, und der nächsten Zielpositionskoordinaten des Roboters 10.
  • In Schritt S8 zeigt die Anzeigesteuereinheit 215 auf der Anzeigeeinheit 24 das in Schritt S1 aufgenommene Bild des Roboters 10, das in Schritt S7 erzeugte AR-Bild des Bewegungsbereichs des Roboters 10 und das AR-Bild der Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten an.
  • Die Verarbeitung der Schritte S2 bis S5 kann chronologisch nacheinander oder auch parallel erfolgen.
  • Wie oben beschrieben, kann gemäß der Augmented-Reality-Anzeigevorrichtung 20 der Ausführungsform der Bewegungsbereich des Roboters 10 leicht überprüft werden, indem der Bewegungsbereich des Roboters 10 durch eine Augmented-Reality-Anzeige visualisiert wird. Infolgedessen kann die Augmented-Reality-Anzeigevorrichtung 20 den Bediener daran hindern, versehentlich in den Bewegungsbereich einzudringen, und kann die Arbeitssicherheit verbessern und gleichzeitig eine hohe Arbeitseffizienz gewährleisten.
  • Obwohl eine Ausführungsform oben beschrieben wurde, ist die vorliegende Erfindung nicht auf die oben beschriebene Ausführungsform beschränkt und umfasst Änderungen, Verbesserungen und dergleichen im Rahmen der Erreichung des Ziels.
  • <Modifikation 1>
  • In der oben beschriebenen Ausführungsform zeigt die Augmented-Reality-Anzeigevorrichtung 20 das AR-Bild des Bewegungsbereichs des Roboters 10 so an, dass sich die Farbe in Abhängigkeit von der Entfernung zum Roboter 10 ändert, aber die vorliegende Erfindung ist darauf nicht beschränkt. Zum Beispiel kann die Augmented-Reality-Anzeigevorrichtung 20 auf der Anzeigeeinheit 24 das AR-Bild des Bewegungsbereichs des Roboters 10 und eine Meldung wie „Annäherung an den Bewegungsbereich des Roboters“ in Abhängigkeit von der Entfernung vom Roboter 10 anzeigen.
  • Alternativ kann die Augmented-Reality-Anzeigevorrichtung 20 das AR-Bild des Bewegungsbereichs des Roboters 10 auf der Anzeigeeinheit 24 anzeigen und eine Meldung wie „Annäherung an den Bewegungsbereich des Roboters“ oder einen Alarmton aus einem Lautsprecher (nicht dargestellt) ausgeben, der in der Augmented-Reality-Anzeigevorrichtung 20 enthalten ist, abhängig von der Entfernung zum Roboter 10.
  • <Modifikation 2>
  • In der oben beschriebenen Ausführungsform assoziiert die Augmented-Reality-Anzeigevorrichtung 20 beispielsweise die dreidimensionalen Koordinaten der Kamera 22 mit dem Weltkoordinatensystem, wenn das Augmented-Reality-Anzeigeanwendungsprogramm ausgeführt wird, aber die vorliegende Erfindung ist darauf nicht beschränkt. Beispielsweise kann die Augmented-Reality-Anzeigevorrichtung 20 die dreidimensionalen Koordinaten der Kamera 22 im Weltkoordinatensystem unter Verwendung eines bekannten Eigenpositions-Schätzverfahrens erhalten.
  • <Modifikation 3>
  • In der oben beschriebenen Ausführungsform erfasst die Augmented-Reality-Anzeigevorrichtung 20 beispielsweise die nächsten Zielpositionskoordinaten aus der Robotersteuerungsvorrichtung (nicht gezeigt), kann aber auch alle Zielpositionskoordinaten erfassen.
  • Jede Funktion, die in der Augmented-Reality-Anzeigevorrichtung 20 gemäß der Ausführungsform enthalten ist, kann durch Hardware, Software oder eine Kombination aus diesen realisiert werden. Hier bedeutet „durch Software realisiert“, dass sie durch einen Computer realisiert wird, der ein Programm liest und ausführt.
  • Das Programm kann auf verschiedenen Arten von nichtübertragbaren, computerlesbaren Medien gespeichert und dem Computer bereitgestellt werden. Zu den nicht-transitorischen computerlesbaren Medien gehören verschiedene Arten von materiellen Speichermedien. Beispiele für nicht transitorische computerlesbare Medien sind magnetische Aufzeichnungsmedien (z.B. flexible Platten, Magnetbänder und Festplattenlaufwerke), magneto-optische Aufzeichnungsmedien (z.B. magneto-optische Platten), CD-ROMs (Nur-Lese-Speicher), CD-Rs, CD-R/Ws, Halbleiterspeicher (z.B. Mask-ROMs, PROMs (programmierbare ROMs), EPROMs (löschbare PROMs), Flash-ROMs und RAMs). Das Programm kann dem Computer mit verschiedenen Arten von transitorischen computerlesbaren Medien zur Verfügung gestellt werden. Beispiele für transitorische computerlesbare Medien sind elektrische Signale, optische Signale und elektromagnetische Wellen. Die transitorischen computerlesbaren Medien können dem Computer das Programm über einen verdrahteten Kommunikationspfad, wie z.B. ein elektrisches Kabel oder ein optischer Leiter, oder einen drahtlosen Kommunikationspfad zuführen.
  • Es ist zu beachten, dass der Schritt der Beschreibung des auf dem Aufzeichnungsmedium aufgezeichneten Programms nicht nur die chronologisch nacheinander durchgeführten Verarbeitungen umfasst, sondern auch die parallel oder einzeln durchgeführten Verarbeitungen, ohne dass diese notwendigerweise chronologisch durchgeführt werden.
  • Mit anderen Worten können die Augmented-Reality-Anzeigevorrichtung und das Augmented-Reality-Anzeigesystem der vorliegenden Offenbarung verschiedene Ausführungsformen mit den folgenden Merkmalen annehmen.
    • (1) Eine Augmented-Reality-Anzeigevorrichtung 20 der vorliegenden Offenbarung ist eine Augmented-Reality-Anzeigevorrichtung mit einer Kamera 22, einer Anzeigeeinheit 24 und einer Anzeigesteuereinheit 215, die so konfiguriert ist, dass sie auf der Anzeigeeinheit 24 ein Bild eines Roboters 10, das von der Kamera 22 aufgenommen wurde, und ein Augmented-Reality-Bild eines Bewegungsbereichs des Roboters 10 anzeigt. Gemäß der Augmented-Reality-Anzeigevorrichtung 20 kann der Bewegungsbereich des Roboters leicht überprüft werden.
    • (2) Die Augmented-Reality-Anzeigevorrichtung 20 gemäß (1) kann eine Koordinatenerfassungseinheit 211 enthalten, die so konfiguriert ist, dass sie dreidimensionale Koordinaten eines Roboterursprungs auf Basis des von der Kamera 22 erfassten Bildes des Roboters 10 erfasst, und die Anzeigesteuereinheit 215 kann das Augmented-Reality-Bild des Bewegungsbereichs des Roboters auf dem Bild des Roboters in Bezug auf den erfassten Roboterursprung anordnen und das Bild auf der Anzeigeeinheit 24 anzeigen.
  • So kann die Augmented-Reality-Anzeigevorrichtung 20 den tatsächlichen Bewegungsbereich des Roboters 10 mit dem Bewegungsbereich des AR-Bildes verknüpfen.
    • (3) Die Augmented-Reality-Anzeigevorrichtung 20 gemäß (1) oder (2) kann eine Informationserfassungseinheit 212, die dreidimensionale Koordinaten der Kamera 22 erfasst, und eine Abstandsberechnungseinheit 213, die einen Abstand zwischen dem Roboter 10 und der Augmented-Reality-Anzeigevorrichtung 20 auf Basis der dreidimensionalen Koordinaten des Roboterursprungs und der dreidimensionalen Koordinaten der Kamera 22 berechnet, umfassen, und die Anzeigesteuereinheit 215 kann so konfiguriert sein, dass sie eine Anzeigeform des Bewegungsbereichs des Roboters entsprechend dem berechneten Abstand ändert.
  • So kann die Augmented-Reality-Anzeigevorrichtung 20 verhindern, dass der Bediener versehentlich in den Bewegungsbereich des Roboters 10 gelangt.
    • (4) Die Augmented-Reality-Anzeigevorrichtung 20 gemäß (3) kann eine Kommunikationseinheit 26 enthalten, die mit einer externen Vorrichtung kommuniziert, und die Informationserfassungseinheit 212 kann Einstellungsinformationen, die den Bewegungsbereich des Roboters 10 anzeigen, aus einer Robotersteuerungsvorrichtung erfassen.
  • Auf diese Weise kann die Augmented-Reality-Anzeigevorrichtung 20 genaue Einstellungsinformationen über den Bewegungsbereich des Roboters 10 erfassen.
    • (5) Die Augmented-Reality-Anzeigevorrichtung 20 gemäß (3) oder (4) kann eine Eingabeeinheit 23 enthalten, die eine Eingabe von einem Benutzer empfängt, und die Informationserfassungseinheit 212 kann Einstellungsinformationen, die den Bewegungsbereich des Roboters 10 anzeigen, von dem Benutzer über die Eingabeeinheit 23 erfassen.
  • Auf diese Weise kann die Augmented-Reality-Anzeigevorrichtung 20 beliebige, vom Benutzer gewünschte Einstellungsinformationen des Bewegungsbereichs des Roboters 10 erfassen.
    • (6) In der Augmented-Reality-Anzeigevorrichtung 20 gemäß einem der Punkte (3) bis (5) kann die Informationserfassungseinheit 212 zumindest die nächsten Zielpositionskoordinaten des Roboters 10 erfassen, und die Anzeigesteuereinheit 215 kann auf der Anzeigeeinheit 24 ein Augmented-Reality-Bild einer Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten zusammen mit dem Augmented-Reality-Bild des Bewegungsbereichs des Roboters 10 anzeigen.
  • So kann die Augmented-Reality-Anzeigevorrichtung 20 die nächste Bewegung des Roboters 10 vorhersagen, wodurch eine Kollision zwischen dem Roboter 10 und dem Bediener vermieden werden kann.
    • (7) Ein Augmented-Reality-Anzeigesystem 1 der vorliegenden Offenbarung ist ein Augmented-Reality-Anzeigesystem, das einen Roboter 10 und die Augmented-Reality-Anzeigevorrichtung 20 gemäß einem der Punkte (1) bis (6) umfasst.
  • Mit dem Augmented-Reality-Anzeigesystem 1 können die gleichen Effekte erzielt werden wie mit den ersten bis sechsten Aspekten.
  • Bezugszeichenliste
  • 1
    Augmented-Reality-Anzeigesystem
    10
    Roboter
    20
    Augmented-Reality-Anzeigevorrichtung
    21
    Steuereinheit
    211
    Koordinatenerfassungseinheit
    212
    Informationserfassungseinheit
    213
    Abstandsberechnungseinheit
    214
    AR-Bilderzeugungseinheit
    215
    Anzeigesteuereinheit
    22
    Kamera
    23
    Eingabeeinheit
    24
    Anzeigeeinheit
    25
    Speichereinheit
    251
    Dreidimensionale Erkennungsmodelldaten
    26
    Kommunikationseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2004243427 A [0003]

Claims (7)

  1. Augmented-Reality-Anzeigevorrichtung, umfassend: eine Kamera; eine Anzeigeeinheit; und eine Anzeigesteuereinheit, die so konfiguriert ist, dass sie auf der Anzeigeeinheit ein von der Kamera aufgenommenes Bild eines Roboters und ein Augmented-Reality-Bild eines Bewegungsbereichs des Roboters anzeigt.
  2. Augmented-Reality-Anzeigevorrichtung gemäß Anspruch 1, umfassend eine Koordinatenerfassungseinheit, die so konfiguriert ist, dass sie dreidimensionale Koordinaten eines Roboterursprungs basierend auf dem von der Kamera erfassten Bild des Roboters erfasst, wobei die Anzeigesteuereinheit das Augmented-Reality-Bild des Bewegungsbereichs des Roboters auf dem Bild des Roboters in Bezug auf den erfassten Roboterursprung anordnet und das Bild auf der Anzeigeeinheit anzeigt.
  3. Augmented-Reality-Anzeigevorrichtung gemäß Anspruch 2, umfassend: eine Informationserfassungseinheit, die so konfiguriert ist, dass sie dreidimensionale Koordinaten der Kamera erfasst; und eine Entfernungsberechnungseinheit, die so konfiguriert ist, dass sie eine Entfernung zwischen dem Roboter und der Augmented-Reality-Anzeigevorrichtung auf Basis der dreidimensionalen Koordinaten des Roboterursprungs und der dreidimensionalen Koordinaten der Kamera berechnet, wobei die Anzeigesteuereinheit eine Anzeigeform des Bewegungsbereichs des Roboters entsprechend dem berechneten Abstand ändert.
  4. Augmented-Reality-Anzeigevorrichtung gemäß Anspruch 3, umfassend eine Kommunikationseinheit, die für das Kommunizieren mit einer externen Vorrichtung konfiguriert ist, wobei die Informationserfassungseinheit Einstellungsinformationen, die den Bewegungsbereich des Roboters anzeigen, von der externen Vorrichtung erwirbt.
  5. Augmented-Reality-Anzeigevorrichtung gemäß Anspruch 3 oder 4, umfassend eine Eingabeeinheit, die so konfiguriert ist, dass sie eine Eingabe von einem Benutzer empfängt, wobei die Informationserfassungseinheit Einstellungsinformationen, die den Bewegungsbereich des Roboters angeben, vom Benutzer über die Eingabeeinheit erfasst.
  6. Augmented-Reality-Anzeigevorrichtung gemäß einem der Ansprüche 3 bis 5, wobei die Informationserfassungseinheit zumindest die nächsten Zielpositionskoordinaten des Roboters erfasst, und wobei die Anzeigesteuereinheit auf der Anzeigeeinheit ein Augmented-Reality-Bild einer Bewegungstrajektorie bis zu den nächsten Zielpositionskoordinaten zusammen mit dem Augmented-Reality-Bild des Bewegungsbereichs des Roboters anzeigt.
  7. Augmented-Reality-Anzeigesystem, umfassend: einen Roboter; und die Augmented-Reality-Anzeigevorrichtung gemäß einem der Ansprüche 1 bis 6.
DE112021005346.9T 2020-12-14 2021-12-07 Anzeigevorrichtung für erweiterte Realität und Anzeigesystem für erweiterte Realität Pending DE112021005346T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020206847 2020-12-14
JP2020-206847 2020-12-14
PCT/JP2021/044866 WO2022131068A1 (ja) 2020-12-14 2021-12-07 拡張現実表示装置、及び拡張現実表示システム

Publications (1)

Publication Number Publication Date
DE112021005346T5 true DE112021005346T5 (de) 2023-08-03

Family

ID=82057686

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021005346.9T Pending DE112021005346T5 (de) 2020-12-14 2021-12-07 Anzeigevorrichtung für erweiterte Realität und Anzeigesystem für erweiterte Realität

Country Status (5)

Country Link
US (1) US20240001555A1 (de)
JP (1) JPWO2022131068A1 (de)
CN (1) CN116547115A (de)
DE (1) DE112021005346T5 (de)
WO (1) WO2022131068A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243427A (ja) 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4850984B2 (ja) * 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2018008347A (ja) * 2016-07-13 2018-01-18 東芝機械株式会社 ロボットシステムおよび動作領域表示方法
JP6385627B1 (ja) * 2017-11-07 2018-09-05 三菱電機株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP7000364B2 (ja) * 2019-01-29 2022-01-19 ファナック株式会社 ロボットシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243427A (ja) 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法

Also Published As

Publication number Publication date
US20240001555A1 (en) 2024-01-04
CN116547115A (zh) 2023-08-04
JPWO2022131068A1 (de) 2022-06-23
WO2022131068A1 (ja) 2022-06-23

Similar Documents

Publication Publication Date Title
DE102015013161B4 (de) Vorrichtung zum Einstellen eines Interferenzbereichs eines Roboters
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
DE102013012224B4 (de) Vorrichtung zum Entnehmen von lose gespeicherten Gegenständen durch einen Roboter
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE112019003204T5 (de) Visualisierung und modifizierung von arbeitsrandbereichen unter verwendung von erweiterter realität
DE102018123216A1 (de) Arbeitsgerät-Sichtsystem
DE102020201375B3 (de) Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
DE112017003143T5 (de) Tiefenbildbereitstellungsvorrichtung und -verfahren
EP2922384B1 (de) Autonomes fortbewegungsgerät
DE102018207414A1 (de) Bildverarbeitungssystem
DE102015016530B4 (de) Roboter-Identifizierungssystem
EP2598839B1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
DE102018201210A1 (de) Koordinateninformations-Umwandlungsvorrichtung und Koordinateninformations-Umwandlungsprogramm
DE102006055652A1 (de) Verfahren zur Aufarbeitung dreidimensionaler Daten und Vorrichtung zur Aufarbeitung dreidimensionaler Daten
DE102020118635A1 (de) 3D-Datenerzeugungsvorrichtung und Robotersteuersystem
DE102016109891A1 (de) Datenbrowsevorrichtung, Datenbrowseverfahren, Programm und Speichermedium
DE102018200060B4 (de) Verfahren zum Betreiben einer mobilen Arbeitsmaschine und mobile Arbeitsmaschine
DE112021003127T5 (de) Programmiervorrichtung
DE102010037067A1 (de) Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters
EP3974936B1 (de) Konfigurieren einer visualisierungsvorrichtung für einen maschinenbereich
DE102015218686A1 (de) Verfahren zum Modellieren eines dreidimensionalen Bewegungsraumes zumindest einer Lastentransporteinrichtung und/oder zumindest einer Komponente der Lastentransporteinrichtung und/oder zumindest eines von der Lastentransporteinrichtung transportierten Transportguts, Verfahren zum Betreiben einer Lastentransporteinrichtung sowie Vorrichtung
DE102018100802A1 (de) Informationsanzeigesystem
DE112021005346T5 (de) Anzeigevorrichtung für erweiterte Realität und Anzeigesystem für erweiterte Realität
EP3543901B1 (de) Vorrichtung und verfahren zur robusten ermittlung der position, ausrichtung, identität und ausgewählter zustandsinformationen von objekten

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNERS: FANUC CORPORATION, OSHINO-MURA, YAMANASHI, JP; HITACHI, LTD., TOKYO, JP