-
Hintergrund der Erfindung
-
1. Gebiet der Erfindung
-
Die vorliegende Erfindung bezieht sich auf ein Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist, der Informationen, die einem Status eines Roboters und Navigationsinformationen bei der Bedienung des Roboters entsprechen, hinzugefügt werden.
-
2. Beschreibung der verwandten Technik
-
Bei einem Robotersystem nach bisherigem Stand der Technik kann ein Status eines Roboters oder eine Tätigkeit eines Benutzers mit Hilfe einer Technik der virtuellen Realität (VR) gesteuert werden. Jedoch unterscheiden sich der Roboter und eine Roboterumgebung in der virtuellen Realität von einem realen Roboter und einer realen Umgebung durch das verringerte Ausmaß der Reproduzierbarkeit des realen Roboters und der realen Umgebung.
-
Deshalb wird in einem neueren Robotersystem eine Technik der erweiterten Realität (augmented reality AR) (beispielsweise eine AR-kompatible Anzeige) verwendet, um den Status des Roboters anzuzeigen oder die Tätigkeit des Benutzers zu unterstützen (zu navigieren). Beispielsweise offenbart
JP 2014-097539 A ein Verfahren und eine Vorrichtung, durch die ein zweibeiniger Roboter von einem Benutzer in einem Master-Slave-Verfahren fernbedient wird. Dieses Dokument beschreibt, dass der Benutzer einen Fuß bewegt, während er ein Bild in erweiterter Realität (AR) überwacht.
-
Andererseits offenbart
JP 2014-180707 A eine Robotervorrichtung mit: einem Robotersteuerteil, das einen Roboter auf der Grundlage eines Bedienprogramms bedient; einen Robotererfassungsteil, der Bilddaten erhält; einen Datenverarbeitungsteil, der einen Abschnitt zum Halten virtueller Raumdaten aufweist, und einen Erzeugungsteil für Daten eines erweiterten Realitätsraums zum Erzeugen von AR-Raumdaten durch Nutzen mindestens der Bilddaten und der virtuellen Raumdaten; und einen Anzeigeteil, der ein Bild des AR-Raums anzeigt. Dieses Dokument beschreibt, dass virtuelle Raumdaten Informationen über ein virtuelles Objekt enthalten, die durch Simulieren eines Objekts, das in einem realen Arbeitsraum des Roboters besteht, gewonnen werden.
-
Bei der Erfindung von
JP 2014-097539 A kann der Benutzer mit Hilfe des AR-Bildes die Position und Haltung eines Fußes stabilisieren. Andererseits kann bei der Erfindung von
JP 2014-097539 A ein Lehrbetrieb für den Roboter einfach und sicher ausgeführt werden, ohne eine Interferenz zwischen dem Roboter und dessen peripheren Geräten zu erzeugen, indem die AR-Raumdaten auf der Grundlage der Bilddaten des realen Roboters und der virtuellen Raumdaten einschließlich des virtuellen Objekts erzeugt werden. Im Allgemeinen wird der Status oder die Navigation (oder Bedienführung) des Roboters durch eine numerische Zahl oder ein Zeichen angezeigt, und somit beschreibt keine der Referenzen, dass der Status oder die Navigation für den Benutzer mit Hilfe der erweiterten Realität bereitgestellt wird.
-
Kurzfassung der Erfindung
-
Deshalb besteht eine Aufgabe der vorliegenden Erfindung darin, ein Robotersystem bereitzustellen, das eine mit erweiterter Realität kompatible Anzeige aufweist, die fähig ist, Informationen über den Status und/oder eine Bedienführung eines Roboters, die einem realen Bild oder einer realen Umgebung hinzugefügt sind, für einen Benutzer des Roboters bereitzustellen, um die Effizienz der vom Benutzer durchgeführten Bedienvorgänge zu verbessern.
-
Gemäß der vorliegenden Erfindung wird ein Robotersystem bereitgestellt, umfassend: einen Roboter; eine Steuerungseinheit, die den Roboter steuert; eine Bilderfassungs- und -anzeigevorrichtung, die mit der Steuerungseinheit verbunden ist und eine Funktion zum Erfassen eines Bildes einer den Roboter enthaltenden Szene und eine Funktion zum Anzeigen des Bildes in Echtzeit aufweist; und einen Messteil, der die relative Position und den Winkel zwischen dem Roboter und der Bilderfassungs- und -anzeigevorrichtung auf der Grundlage des Bildes, das in Echtzeit auf der Bilderfassungs- und -anzeigevorrichtung angezeigt wird, misst, wobei die Bilderfassungs- und -anzeigevorrichtung eine Anzeige aufweist, auf der Zusatzinformationen, die einen Status oder eine Bedienführung des Roboters darstellen, auf der Grundlage der relativen Position und des Winkels, die vom Messteil gemessen werden, mit dem Bild überlagert werden, das in Echtzeit auf der Bilderfassungs- und -anzeigevorrichtung angezeigt wird.
-
Bei einer bevorzugten Ausführungsform weist die Bilderfassungs- und -anzeigevorrichtung eine Anzeige zum Anzeigen eines Videobildes einer realen Szene auf und die Zusatzinformationen werden mit einem realen Bild des Roboters überlagert, das im Videobild enthalten ist.
-
Bei einer bevorzugten Ausführungsform weist die Bilderfassungs- und -anzeigevorrichtung eine Anzeige zum Anzeigen eines transmissiven Bildes einer realen Szene auf und die Zusatzinformationen werden mit einem realen Bild des Roboters überlagert, das im Videobild enthalten ist.
-
Bei einer bevorzugten Ausführungsform handelt es sich bei der Bilderfassungs- und -anzeigevorrichtung um ein angehängtes Lehrmodul, das mit der Steuerungseinheit verbunden ist.
-
Beispielsweise handelt es sich bei den Zusatzinformationen um ein Bild, das eine Richtung darstellt, in welcher der Roboter zur Bewegung durch manuelle Bedienung fähig ist.
-
Beispielsweise handelt es sich bei den Zusatzinformationen um ein Leuchtbild, dessen Leuchtstärke einem vorliegenden Wert einer Geschwindigkeitsüberlagerung des Roboters entspricht.
-
Beispielsweise handelt es sich bei den Zusatzinformationen um ein Leuchtbild eines Gerätes, bei dem eine Anormalität erkannt wird.
-
Kurze Beschreibung der Zeichnungen
-
Die oben genannten und sonstige Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden ersichtlicher durch die folgende Beschreibung ihrer Ausführungsformen unter Bezugnahme der beigefügten Zeichnungen:
-
1 ist eine Ansicht, die eine schematische Konfiguration eines Robotersystems gemäß einer ersten Ausführungsform der vorliegenden Erfindung veranschaulicht;
-
2 ist ein Ablaufplan, der ein Beispiel für einen Vorgang im Robotersystem der vorliegenden Erfindung zeigt;
-
3 ist eine Ansicht, die eine schematische Konfiguration eines Robotersystems gemäß einer zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht;
-
4 zeigt ein Beispiel eines konkreten Mittels zum Überlagern von Bildern in einer AR-kompatiblen Anzeige;
-
5 zeigt ein weiteres Beispiel eines konkreten Mittels zum Überlagern von Bildern in einer AR-kompatiblen Anzeige;
-
6 ist eine Ansicht, die eine schematische Konfiguration eines Robotersystems gemäß einer dritten Ausführungsform der vorliegenden Erfindung veranschaulicht;
-
7 zeigt ein Beispiel für ein Bild, das durch einen Prozess für erweiterte Realität gewonnen wurde;
-
8 zeigt ein weiteres Beispiel für ein Bild, das durch einen Prozess für erweiterte Realität gewonnen wurde;
-
9 zeigt noch ein weiteres Beispiel für ein Bild, das durch einen Prozess für erweiterte Realität gewonnen wurde.
-
Detaillierte Beschreibungen
-
1 zeigt eine schematische Konfiguration eines Robotersystems 10 gemäß einer ersten Ausführungsform der vorliegenden Erfindung. Das Robotersystem 10 beinhaltet einen realen Roboter 12, eine Robotersteuerungseinheit (im Nachfolgenden nur als Steuerungseinheit bezeichnet) 14, die den realen Roboter 12 steuert, und eine Bilderfassungs- und -anzeigevorrichtung (bzw. eine mit erweiterter Realität (AR) kompatible Anzeige) 16, die über ein Kabel oder Funk mit der Steuerungseinheit 14 verbunden ist. Die Bilderfassungs- und -anzeigevorrichtung 16 hat eine Funktion zum Erfassen eine Bildes (oder eines Videobildes) einer den realen Roboter enthaltenden Szene und eine Funktion zum Anzeigen des erfassten Bildes in Echtzeit. Bei der unten erläuterten Ausführungsform sind die Funktionen der Bilderfassungs- und -anzeigevorrichtung der Erfindung und ein Messteil für die AR-kompatible Anzeige 16 oder ein angehängtes Lehrmodul 42 bereitgestellt, wie unten beschrieben. Jedoch können einige der Funktionen für andere Mittel bereitgestellt werden.
-
Bei der Ausführungsform von 1 wird die Bilderfassungs- und -anzeigevorrichtung 16 als kopfmontierte Anzeige, die durch einen Benutzer 18 tragbar ist, veranschaulicht. Der Benutzer 18 kann eine den realen Roboter 12 enthaltende Szene in Echtzeit erfassen (erhalten), indem er eine Kamera 20, die an der kopfmontierten Anzeige 16 angeordnet ist, auf den realen Roboter 12 richtet, und kann ein AR-Bild 26 über einen Anzeigeteil 22 überwachen, wie unten beschrieben.
-
Als Nächstes wird ein Vorgang in einem Robotersystem 10 unter Bezugnahme auf einen in 2 gezeigten Ablaufplan erläutert. Zuerst wird eine den realen Roboter 12 enthaltende reale Umgebung (Szene) durch eine AR-kompatible Anzeige 16 erfasst, in der ein Computer und ein Speicher enthalten sind. Wenn das Bild des realen Roboters 12 korrekt erfasst ist (Schritt S1), wird unter einer Vielzahl von Bildmodellen 24 (siehe 1), die zuvor in einer AR-kompatiblen Anzeige 16 gespeichert wurden, ein Bildmodell, das dem Bild des realen Roboters 12, der durch die AR-kompatible Anzeige 16 erfasst wurde, am nächsten kommt, erkannt (mit anderen Worten, es wird ein Abgleich durchgeführt). Bei der Ausführungsform von 1 wird unter einer Vielzahl von Bildmodellen 24a bis 24z das Bildmodell 24a, das dem erfassten Bild des realen Roboters 12 am nächsten kommt, erkannt (oder ausgewählt).
-
Als Nächstes werden mit Hilfe der AR-kompatiblen Anzeige 16 die relative Position und der Winkel des realen Roboters 12 relativ zur (Kamera 20 der) AR-kompatiblen Anzeige 16 gemessen (Schritt S2). Wie in 1 gezeigt, werden konkret Werte, die die Position und Ausrichtung (d. h. die relative Position und den Winkel) eines repräsentativen Punktes (beispielsweise eines Werkzeugmittelpunktes) des Roboters relativ zur AR-kompatiblen Anzeige 16 zuvor mit jedem der Vielzahl von Bildmodellen in Verbindung gebracht, und dann werden die relative Position und der Winkel, der mit dem erkannten Bildmodell 24a in Verbindung gebracht wurde, als relative Position und Winkel zwischen der AR-kompatiblen Anzeige 16 und dem realen Roboter 12 gemessen. Bei der veranschaulichten Ausführungsform ist der reale Roboter 12 ein Mehrgelenkroboter mit sechs Achsen, und die relative Position und der Winkel des Werkzeugmittelpunktes des Roboters werden durch sechs Parameter (X, Y, Z, W, P, R) dargestellt.
-
Als Nächstes werden in Schritt S3 die relative Position und der Winkel, die durch die AR-kompatible Anzeige 16 gemessen werden, an die Steuerungseinheit 14 übermittelt. Im nächsten Schritt S4 werden interne Informationen des realen Roboters 12, die für den AR-Prozess erforderlich sind, von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 übermittelt.
-
Im nächsten Schritt S5 wird auf der Grundlage der von der Steuerungseinheit 14 gelieferten internen Informationen über den realen Roboter 12 ein Bild mit spezifizierten Zusatzinformationen in der AR-kompatiblen Anzeige 16 erzeugt, und der Prozess für erweiterte Realität am erfassten Bild des realen Roboters 12 durchgeführt, um den Roboter in erweiterter Realität (AR-Roboter) auf dem Anzeigeteil 22 anzuzeigen. Bei dieser Ausführungsform enthalten die internen Informationen des realen Roboters 12 die Richtung jeder Achse (X, Y, Z) eines Roboter-Koordinatensystems in Bezug auf den Werkzeugmittelpunkt. Im Bild des AR-Roboters wird ein Bild, das ein orthogonales Koordinatensystem 28 darstellt, als Zusatzinformationsbild (oder Bedienführung des realen Roboters) angezeigt und mit dem Bild des realen Roboters 12 überlagert, in dem der Werkzeugmittelpunkt als Nullpunkt des Koordinatensystems 28 festgelegt ist und die Richtung jeder Achse des Roboter-Koordinatensystems als Referenzachse des Koordinatensystems 28 festgelegt ist.
-
Durch Wiederholen der obigen Schritte S1 bis S5 in vorbestimmten Zeitintervallen wird das Bild des AR-Roboters in Echtzeit auf dem Anzeigeteil 22 angezeigt und der Benutzer 18 kann wirksam eine Lehrbedienung usw. durchführen, während er das angezeigt Bild überwacht.
-
3 zeigt eine schematische Konfiguration eines Robotersystems 10' gemäß einer zweiten Ausführungsform der vorliegenden Erfindung. Das Robotersystem 10' beinhaltet den realen Roboter 12, die Robotersteuerungseinheit 14, die den realen Roboter 12 steuert, und die Bilderfassungs- und -anzeigevorrichtung (oder eine mit erweiterter Realität (AR) kompatible Anzeige) 16, die über ein Kabel oder Funk mit der Steuerungseinheit 14 verbunden ist. Die Bilderfassungs- und -anzeigevorrichtung 16 hat eine Funktion zum Erfassen eines Videobildes einer Szene und eine Funktion zum Anzeigen des erfassten Bildes in Echtzeit.
-
Bei der Ausführungsform von 3 wird die Bilderfassungs- und -anzeigevorrichtung 16 als kopfmontierte Anzeige, die durch einen Benutzer 18 tragbar ist, veranschaulicht. Der Benutzer 18 kann ein Bild (oder ein Videobild) durch Erfassen einer den realen Roboter 12 enthaltenden Szene in Echtzeit erfassen (erhalten), indem er eine Kamera 20, die an der kopfmontierten Anzeige 16 angeordnet ist, auf den realen Roboter 12 richtet, und kann ein AR-Bild 26 über einen Anzeigeteil 22 überwachen, wie unten beschrieben.
-
Als Nächstes wird ein Vorgang in einem Robotersystem 10' unter Bezugnahme auf einen in 2 gezeigten Ablaufplan erläutert. Zuerst wird mindestens eine Markierung 30 an einem vorbestimmten Abschnitt (wie etwa an einen drehenden Körper, Oberarm oder Unterarm) des realen Roboters 12 angebracht oder daran ausgebildet, und eine den realen Roboter 12 enthaltende reale Umgebung (Szene) wird durch eine AR-kompatible Anzeige 16, in der ein Computer mit einer Bildverarbeitungsfunktion integriert ist, erfasst. Dabei wird der reale Roboter 12 so erfasst, dass die Markierung 30 im erfassten Bild enthalten ist.
-
Wenn das Bild des realen Roboters 12 mit der Markierung 30 korrekt erfasst ist (Schritt S1), wird die Bildverarbeitung der Markierung 30 durchgeführt, und die relative Position und der Winkel des realen Roboters 12 relativ zur (Kamera 20 der) AR-kompatiblen Anzeige 16 werden gemessen (Schritt S2). Auch wenn die veranschaulichte Markierung 30 vier Kreise enthält, die auf einer im Allgemeinen L-förmigen Linie angeordnet sind, kann die Markierung 30 diesbezüglich eine beliebige Form annehmen, solange die Position und Ausrichtung (eines repräsentativen Punktes) des realen Roboters 12 durch herkömmliche Bildverarbeitung erkannt werden kann.
-
Als Nächstes werden in Schritt S3 die relative Position und der Winkel, die durch die AR-kompatible Anzeige 16 gemessen werden, an die Steuerungseinheit 14 übermittelt. Im nächsten Schritt S4 wird ein Zusatzinformationsbild, das für den AR-Prozess erforderlich ist, in der Steuerungseinheit 14 erzeugt, und das erzeugte Zusatzinformationsbild wird an die AR-kompatible Anzeige 16 übermittelt. Ähnlich der ersten Ausführungsform von 1, stellt bei der zweiten Ausführungsform das erzeugte Zusatzinformationsbild das orthogonale Koordinatensystem 28 dar, bei dem der Werkzeugmittelpunkt als Nullpunkt des Koordinatensystems 28 festgelegt ist und die Richtung jeder Achse des Roboter-Koordinatensystems als Referenzachse des Koordinatensystems 28 festgelegt ist.
-
Im nächsten Schritt S5 wird in der AR-kompatiblen Anzeige 16 der Prozess der erweiterten Realität am erfassten Bild des realen Roboters 12 durchgeführt, das Bild, das das orthogonale Koordinatensystem 28 darstellt, wird mit dem Bild des realen Roboters 12 überlagert und der Roboter in erweiterter Realität (AR-Roboter) wird auf dem Anzeigeteil 22 angezeigt.
-
Durch Wiederholen der obigen Schritte S1 bis S5 in vorbestimmten Zeitintervallen wird das Bild des AR-Roboters in Echtzeit auf dem Anzeigeteil 22 angezeigt und der Benutzer 18 kann wirksam eine Lehrbedienung usw. durchführen, während er das angezeigte Bild überwacht.
-
Bei der zweiten Ausführungsform wird das Zusatzinformationsbild wie etwa das orthogonale Koordinatensystem 28 in der Steuerungseinheit 14 erzeugt. Jedoch können genauso wie in der ersten Ausführungsform die internen Informationen von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 übermittelt werden, und das Zusatzinformationsbild kann in der AR-kompatiblen Anzeige 16 erzeugt werden. Andererseits kann bei der ersten Ausführungsform das Zusatzinformationsbild wie etwa das orthogonale Koordinatensystem 28 in der Steuerungseinheit 14 erzeugt werden, und das Zusatzinformationsbild kann von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 übermittelt werden.
-
4 und 5 zeigen Beispiele für die Mittel zum Überlagern von Bildern in der AR-kompatiblen Anzeige, wie in 1 oder 3 gezeigt. Zuerst wird in 4 die AR-kompatible Anzeige 16 als videotransparentierbare kopfmontierte Anzeige veranschaulicht, die ein Videobild der realen Szene anzeigt. Konkret enthält die AR-kompatible Anzeige 16 eine Videokamera 32, die den realen Roboter 12 erfasst, und einen Bildsyntheseteil 34, der das Zusatzinformationsbild 28 von der Steuerungseinheit 14 mit einem von der Videokamera 32 erfassten Bild synthetisiert, so dass die Zusatzinformationen angezeigt und mit dem im Videobild enthaltenen realen Bild des realen Roboters 12 überlagert werden können. Dadurch kann der Benutzer 18 das Bild 26, das durch den Bildsyntheseteil 34 synthetisiert wurde, als Roboter in erweiterter Realität überwachen.
-
Andererseits ist in 5 die AR-kompatible Anzeige 16 als optisch transparentierbare kopfmontierte Anzeige veranschaulicht, die ein transmissives Bild der realen Szene anzeigt. Konkret beinhaltet die AR-kompatible Anzeige 16 einen optischen Kombinierer 36, der ein Bild des realen Roboters 12 übermittelt, und einen Projektor 38, der das Zusatzinformationsbild 28 auf den optischen Kombinierer 36 projiziert, so dass die Zusatzinformationen angezeigt und mit dem transmissiven realen Bild des realen Roboters 12 überlagert werden können. Dadurch kann der Benutzer 18 das Bild 26, das durch den optischen Kombinierer 36 kombiniert wurde, als Roboter in erweiterter Realität überwachen.
-
6 zeigt eine schematische Konfiguration eines Robotersystems 10'' gemäß einer dritten Ausführungsform der vorliegenden Erfindung. Bei der dritten Ausführungsform übernimmt ein angehängtes Roboterlehrmodul 42, an das eine Videokamera 40 montiert ist, die Funktion der AR-kompatiblen Anzeige. Konkret beinhaltet das Robotersystem 10'' den realen Roboter 12, die Robotersteuerungseinheit 14, die den realen Roboter 12 steuert, und das angehängte Roboterlehrmodul 42, das durch den Benutzer bedienbar und über Kabel oder Funk mit der Steuerungseinheit 14 verbunden ist.
-
Das angehängte Lehrmodul 42 weist eine daran montierte Videokamera 40 auf, und der Benutzer kann ein Bild (oder ein Videobild) durch Erfassen einer den realen Roboter 12 enthaltenden Szene in Echtzeit erfassen (erhalten), indem er eine Videokamera 40 auf den realen Roboter 12 richtet, und kann ein AR-Bild 26 über eine Anzeige 44 des angehängten Lehrmoduls 42 überwachen. Bei der dritten Ausführungsform kann genauso wie bei der ersten oder zweiten Ausführungsform das Zusatzinformationsbild (in diesem Fall das orthogonale Koordinatensystem 28) anzeigt und mit dem Bild des realen Roboters 12 überlagert werden.
-
7 bis 9 zeigen bevorzugte Beispiele eines Zusatzinformationsbildes, das mit dem Bild des realen Roboters 12 überlagert ist. Zuerst zeigt 7 eine Bedienführung des realen Roboters an (in diesem Fall die Richtung eines manuellen Betriebs (oder Schrittbetriebs) am Werkzeugmittelpunkt), die mit dem Bild des realen Roboters 12 überlagert ist. Konkret wird ein Pfeil, der eine Referenzrichtung darstellt (in der Zeichnung die Pfeile 46, 48 und 50, die jeweils die +X, +Y und +Z-Richtung angeben), vom Werkzeugmittelpunkt als Zusatzinformationsbild von der oben genannten Steuerungseinheit 14 an die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 übermittelt, und die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 kann das Zusatzinformationsbild anzeigen und mit dem Bild des realen Roboters 12 überlagern. Dabei ist es vorzuziehen, dass diese Referenzrichtungen so festgelegt werden, dass der reale Roboter 12 (mit seinem vorderen Ende) durch manuelle Bedienung entlang der Richtungen bewegt werden kann. Dadurch kann der Benutzer, wenn der Lehrbetrieb des realen Roboters 12 manuell durchgeführt werden soll, das vordere Ende des realen Roboters 12 präzise in die gewünschte Richtung bewegen.
-
8 zeigt ein Beispiel, bei dem die Zusatzinformationen, die den Status des realen Roboters darstellen (in diesem Fall ein Übersteuerungswert für die Geschwindigkeit (bzw. eine Geschwindigkeitsübersteuerung) des realen Roboters 12), vom AR-Prozess visuell erkannt werden können. Normalerweise wird die Geschwindigkeitsübersteuerung für den Roboter eingestellt, und der Übersteuerungswert kann unter verschiedenen Bedingungen von der Steuerungseinheit 14 geändert werden. Deshalb wird der Übersteuerungswert von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 übermittelt, und dann zeigt die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 einen leuchtenden Anzeigebereich 50 an und überlagert diesen mit dem Bild des realen Roboters 12. Ferner kann die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 eine Leuchtstärke (oder Helligkeit) des leuchtenden Anzeigebereichs 50 entsprechend einem vorliegenden Wert der Geschwindigkeitsübersteuerung variieren (beispielsweise kann die Leuchtstärke erhöht werden, wenn die Geschwindigkeitsübersteuerung hoch ist). Dadurch kann der Bediener die vorhandene Geschwindigkeitsübersteuerung intuitiv erfassen.
-
Im Beispiel von 8 wird der Bereich 50, der im Allgemeinen eine ovale Form aufweist und annähernd das Bild des realen Roboters 12 umschließt, leuchtend gemacht. Alternativ kann ein Teil oder die Gesamtheit des Bildes des realen Roboters 12 leuchtend sein, und dessen Leuchtstärke kann je nach dem vorliegenden Wert der Geschwindigkeitsübersteuerung variiert werden.
-
9 zeigt ein Beispiel, bei dem die Zusatzinformationen, die den Status des realen Roboters darstellen (in diesem Fall einen anormalen Abschnitt des realen Roboters 12), vom AR-Prozess visuell erkannt werden können. In einer Vorrichtung des realen Roboters 12, wie etwa ein Motor zum Antreiben jeder Roboterachse oder ein Drehgeber zum Erkennen der Position jeder Roboterachse, kann aufgrund einer bestimmten Ursache eine Anormalität auftreten, und eine solche Anormalität kann in vielen Fällen von der Steuerungseinheit 14 erkannt werden. Deshalb werden Informationen über die Vorrichtung mit der Anormalität von der Steuerungseinheit 14 an die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 übertragen, und dann macht die AR-kompatible Anzeige 16 oder das angehängte Lehrmodul 42 den anormalen Abschnitt (bzw. die Vorrichtung) des realen Roboters 12 leuchtend, wie in 9 gezeigt, so dass der anormale Abschnitt bzw. die anormale Vorrichtung von den anderen Abschnitten visuell unterschieden werden kann. Dadurch kann der Benutzer einfach und schnell die anormale Vorrichtung finden.
-
Im Beispiel von 9 tritt eine Anormalität in einem Motor (beispielsweise einem Servomotor) zum Antreiben eines drehbaren Körpers des realen Roboters 12 auf, und ein Bereich 52, der eine im Allgemeinen kreisförmige Form aufweist, die annähernd den Motor umschließt, wird leuchtend gemacht. Alternativ kann ein Teil oder die Gesamtheit des Motors leuchtend sein, und dessen Leuchtstärke kann je nach dem vorliegenden Wert der Geschwindigkeitsübersteuerung variiert werden.
-
Die verschiedenen Zusatzinformationen, wie in 7 bis 9 beispielhaft dargestellt, können kombiniert und angezeigt oder überlagert werden. Ferner kann die überlagerte Anzeige der Zusatzinformationen auf jede beliebige der Ausführungsformen, wie in 1, 3 und 6 gezeigt, und/oder auf die Anzeigearten, wie in 4 und 5 gezeigt, angewandt werden.
-
Beim herkömmlichen Robotersystem wird der Status des Roboters gewöhnlich durch eine numerische Zahl oder ein Zeichen dargestellt, und somit ist es schwierig, den Inhalt der Informationen intuitiv zu verstehen. Andererseits kann es der Benutzer bei der vorliegenden Erfindung mit Hilfe des erweiterten Realitätsraums so empfinden, als werde der visualisierte Status oder die Bedienführung des Roboters im realen Raum angezeigt. Deshalb kann der Benutzer die Lehrbedienung des Roboters einfach durchführen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- JP 2014-097539 A [0003, 0005, 0005]
- JP 2014-180707 A [0004]