-
Technisches Gebiet
-
Die vorliegende Erfindung betrifft eine Fernbedienungsvorrichtung.
-
Es wird die Priorität der japanischen Patentanmeldung Nr.
2019-067408 vom 29. März 2019, die hier vollständig unter Bezugnahme eingeschlossen ist, beansprucht.
-
Hintergrund
-
Das unten angegebene Patentdokument 1 beschreibt eine Fernbedienungsvorrichtung, die einen Manipulator verwendet. Die Fernbedienungsvorrichtung umfasst eine Kameraeinheit, die Bilder des Arbeitsraums eines Roboters (Manipulators) aufnimmt, ein Head-Mounted Display (HMD), das durch die Kameraeinheit aufgenommene Bilder anzeigt, eine dreidimensionale Eingabeeinrichtung, die durch einen Bediener betätigt wird, während der Bediener die Bilder des Head-Mounted Displays betrachtet, und einen Robotersteuerungscomputer.
-
Dokumente aus dem Stand der Technik
-
Patentdokument
-
[Patentdokument 1] Ungeprüfte japanische Patentanmeldung mit der Erstveröffentlichungsnummer 2000-042960
-
Zusammenfassung
-
Technisches Problem
-
In der oben beschriebenen Fernbedienungsvorrichtung bedient der Bediener den Roboter unter Verwendung der dreidimensionalen Eingabeeinrichtung, während der Bediener das Kamerabild des an dem Head-Mounted Display angezeigten Arbeitsraums betrachtet. Die Kameraeinheit ist fix installiert, und das Sichtfeld des Kamerabilds ist auf einen fixen Bereich beschränkt. Deshalb kann der Manipulator unter Umständen in einen Kontakt mit zum Beispiel einem nicht in dem Kamerabild gezeigten Objekt kommen.
-
Die vorliegende Erfindung nimmt auf die vorstehend geschilderten Umstände Bezug, wobei es eine Aufgabe der Erfindung ist, eine Fembedienvorrichtung mit einem variablen Sichtfeld vorzusehen.
-
Problemlösung
-
Eine Fernbedienvorrichtung gemäß einem ersten Aspekt der vorliegenden Erfindung umfasst: einen Sensor, der eine Distanz zwischen einem beweglichen Roboter und einem Objekt in der Umgebung des beweglichen Roboters in einem Arbeitsraum bestimmt; eine Blickwinkel-Angabeeinheit, die einen Blickwinkel für ein virtuelles dreidimensionales Bild des Arbeitsraums angibt; eine Virtuellbild-Erzeugungseinheit, die das virtuelle dreidimensionale Bild basierend auf einem Bestimmungsergebnis des Sensors und dem durch die Blickwinkel-Angabeeinheit angegebenen Blickwinkel erzeugt; eine Anzeige, die das virtuelle dreidimensionale Bild anzeigt; und eine Bedienungseinheit, die Bedienungssignale für eine Fernbedienung des beweglichen Roboters erzeugt.
-
Gemäß einem zweiten Aspekt der vorliegenden Erfindung umfasst die Fernbedienungsvorrichtung gemäß dem ersten Aspekt weiterhin: eine Bildaufnahmeeinheit, die ein tatsächliches Bild des Arbeitsraums aufnimmt; und eine Bildzusammenstellungseinheit, die das virtuelle dreidimensionale Bild und das tatsächliche Bild zusammenstellt, um ein zusammengestelltes Bild zu erzeugen, wobei die Anzeige das zusammengestellte Bild anstelle des virtuellen dreidimensionalen Bilds anzeigt.
-
Gemäß einem dritten Aspekt der vorliegenden Erfindung fügt in der Fernbedienungsvorrichtung gemäß dem zweiten Aspekt die Bildzusammenstellungseinheit Steuerinformationen des beweglichen Roboters zu dem zusammengesetzten Bild hinzu.
-
Gemäß einem vierten Aspekt der vorliegenden Erfindung enthält in der Fernbedienungsvorrichtung gemäß den ersten bis dritten Aspekten das virtuelle dreidimensionale Bild ein Objekt des beweglichen Roboters und ein Objekt eines Werkstücks, das ein Arbeitsziel für den beweglichen Roboter ist.
-
Gemäß einem fünften Aspekt der vorliegenden Erfindung umfasst in der Fernbedienungsvorrichtung gemäß den ersten bis vierten Aspekten die Anzeige eine Head-Mounted Display und umfasst die Blickwinkel-Angabeeinheit einen Bewegungssensor, der in dem Head-Mounted Display vorgesehen ist.
-
Effekte
-
Gemäß der vorliegenden Erfindung kann eine Fernbedienungsvorrichtung mit einem variablen Sichtfeld vorgesehen werden.
-
Figurenliste
-
- 1 ist eine Systemkonfiguration, die eine Gesamtkonfiguration eines Robotersystems gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
- 2 ist ein Blockdiagramm, das eine Konfiguration einer Fernbedienungsvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung zeigt.
- 3 ist eine schematische Ansicht, die ein zusammengesetztes Bild gemäß der Ausführungsform der vorliegenden Erfindung zeigt.
-
Beschreibung von Ausführungsformen
-
Im Folgenden wird eine Ausführungsform der vorliegenden Erfindung mit Bezug auf die Zeichnungen beschrieben.
-
Wie in 1 gezeigt, wird ein Robotersystem gemäß dieser Ausführungsform durch einen Roboterhauptkörper 1 und eine Fernbedienungsvorrichtung 2 konfiguriert.
-
Der Roboterhauptkörper 1 ist ein artikulierter Roboter, der vorbestimmte Arbeiten an einem Werkstück W durchführt, während er sich in einem vorbestimmten Arbeitsraum bewegt. Wie in der Zeichnung gezeigt, umfasst der Roboterhauptkörper 1 wenigstens einen beweglichen Wagen 1a, einen Manipulator 1b, ein Arbeitswerkzeug 1c, einen Sensor 1d und eine Robotersteuereinrichtung 1e. Der Roboterhauptkörper 1 entspricht einem beweglichen Roboter gemäß der vorliegenden Erfindung.
-
In dem Arbeitsraum ist das Werkstück W, das ein Arbeitsziel des Roboterhauptkörpers 1 ist, auf einem Halteständer T platziert. Der Roboterhauptkörper 1 führt vorbestimmte Arbeiten an dem auf dem Halteständer T platzierten Werkstück W aus, indem er durch die Robotersteuereinrichtung 1e gesteuert wird.
-
Der bewegliche Wagen 1a umfasst Räder und eine Antriebseinrichtung (einen Motor oder ähnliches), die die Räder antreibt, und bewegt sich auf einem Boden F des Arbeitsraums basierend auf Fahrtsteuersignalen, die von der Robotersteuereinrichtung 1e eingegeben werden. Der bewegliche Wagen 1a setzt die Position des daran montierten Manipulators 1b in dem Arbeitsraum zu einer vorbestimmten Arbeitsposition. Der Aufbau für das Bewegen des beweglichen Wagens 1a ist nicht auf Räder beschränkt und kann zum Beispiel auch Ketten, Beine oder ähnliches umfassen.
-
Der Manipulator 1b ist fix an der oberen Seite des beweglichen Wagens 1a installiert und umfasst Arme und Gelenke, die die Arme miteinander verbinden. In den Gelenken vorgesehene Motoren werden basierend auf von der Robotersteuereinrichtung 1e eingegebenen Gelenksteuersignalen betrieben, sodass der Manipulator 1b das an seinem Ende angebrachte Arbeitswerkzeug 1c bewegt. Der Manipulator 1b ist also eine mechanische Einrichtung, die die Position und die Haltung des Arbeitswerkzeugs 1c optimal in Entsprechung zu dem an dem Werkstück W durchzuführenden Arbeitsinhalt setzt.
-
Das Arbeitswerkzeug 1c ist entfembar an der Spitze des Manipulators 1b angebracht und ist ein Teil, der direkt Arbeiten an dem Werkstück W durchführt. Wenn zum Beispiel das Werkstück mechanisch bearbeitet wird, enthält das Arbeitswerkzeug 1c ein Werkzeug, das eine Scherkraft, eine Drückkraft oder ähnliches auf das Werkstück ausübt.
-
Der Sensor 1d umfasst wenigstens einen Distanzsensor und eine Kamera. Der Sensor 1d ist fix an der Vorderseite des beweglichen Wagens 1a, d.h. vor dem Manipulator 1b in dem beweglichen Wagen 1a (d.h. vor einem an dem beweglichen Wagen 1a fixierten Teil des Manipulators 1b) installiert, bestimmt die Distanz zwischen dem Roboterhauptkörper 1 und einem Objekt in der Umgebung des Roboterhauptkörpers 1 in dem Arbeitsraum und nimmt Bilder vor dem beweglichen Wagen 1a als tatsächliche Bilder des Arbeitsraums auf.
-
Die „vordere Seite des beweglichen Wagens 1a“ ist die Seite des beweglichen Wagens 1a, die dem Werkstück W zum Beispiel während Arbeitsvorgängen nahe ist. Alternativ dazu ist „die vordere Seite des beweglichen Wagens 1a“ die Seite (die kein blinder Punkt wird) des beweglichen Wagens 1a, auf welcher der Sensor 1d das Werkstück W auch dann erfassen kann, wenn sich der Manipulator 1b für Arbeitsvorgänge bewegt.
-
Das tatsächliche Bild ist ein Bewegtbild, das Bedingungen des Werkstücks W in dem Arbeitsraum und des Arbeiten an dem Werkstück durchführenden Arbeitswerkzeugs 1c zeigt. Der Sensor 1d gibt Bestimmungsergebnisse zu der Distanz in Bezug auf das in der Umgebung befindliche Objekt zu der Fernbedienungsvorrichtung 2 als Distanzbestimmungssignale aus und gibt die tatsächlichen Bilder zu der Fernbedienungsvorrichtung 2 als tatsächliche Bildsignale aus.
-
In 1 sind der Sensor 1d und die Fernbedienungsvorrichtung 2 als separate Komponenten gezeigt, wobei der Sensor 1d jedoch eine Komponente ist, die funktionell in der Fernbedienungsvorrichtung 2 enthalten ist. Der Sensor 1d entspricht einer Bildaufnahmeeinheit, die die tatsächlichen Bilder des Arbeitsraums aufnimmt. Die Kamera des Sensors 1d entspricht also der Bildaufnahmeeinheit.
-
Die Robotersteuereinrichtung 1e ist eine Steuereinrichtung, die kommunikativ mit der Fernbedienungsvorrichtung 2 in einem Bedienungsraum verbunden ist und den beweglichen Wagen 1a und den Manipulator 1b basierend auf von der Fernbedienungsvorrichtung 2 empfangenen Bedienungssignalen steuert. Die Robotersteuereinrichtung 1e ist eine Art von Computer und verarbeitet die Bedienungssignale gemäß zuvor gespeicherten Steuerprogrammen, um den beweglichen Wagen 1a und den Manipulator 1b gemäß den Bedienungssignalen zu steuern. Der Computer umfasst zum Beispiel eine CPU (eine zentrale Verarbeitungseinheit), einen Speicher wie etwa einen RAM (Direktzugriffspeicher) und einen ROM (Nur-Lese-Speicher) und eine Eingabe/Ausgabe-Einrichtung, die Signale mit externen Einrichtungen austauscht.
-
Die Robotersteuereinrichtung 1e sendet Steuerinformationen des beweglichen Wagens 1a und des Manipulators 1b an die Fernbedienungsvorrichtung 2. Die Steuerinformationen umfassen zum Beispiel den Betriebsmodus des Roboterhauptkörpers 1, die Position des beweglichen Wagens 1a und den Winkel jedes Gelenks des Manipulators 1b.
-
Die Fernbedienungsvorrichtung 2 ist in dem Bedienungsraum entfernt von dem Arbeitsraum vorgesehen und gibt Bedienungssignale zu dem Roboterhauptkörper 1 basierend auf Bedienungseingaben von einem Bediener aus. Die Fernbedienungsvorrichtung 2 ist eine Art von Computer, der die Bedienungseingaben basierend auf Bedienungsprogrammen verarbeitet, um Bedienungssignale zu erzeugen, und umfasst wie in 2 gezeigt als Funktionskomponenten wenigstens eine Virtuellbild-Erzeugungseinheit 2a, eine Bildzusammenstellungseinheit 2b, eine Anzeige 2c und eine Bedienungseinheit 2d.
-
Die Fernbedienungsvorrichtung 2 kann einen Computer umfassen, und der Computer kann die Funktionen der Virtuellbild-Erzeugungseinheit 2a und der Bildzusammenstellungseinheit 2b erfüllen. Der Computer kann zum Beispiel eine CPU (zentrale Verarbeitungseinheit), einen Speicher wie etwa einen RAM (Direktzugriffspeicher) oder einen ROM (Nur-Lese-Speicher) und eine Eingabe/Ausgabe-Einrichtung, die Signale mit externen Einrichtungen austauscht, umfassen.
-
Die Virtuellbild-Erzeugungseinrichtung 2a erzeugt virtuelle dreidimensionale Bilder des Arbeitsraums, d.h. Virtuelle-Realität-Bilder desselben. Die Virtuellbild-Erzeugungseinheit 2a erzeugt virtuelle dreidimensionale Bilder (Virtuelle-Realität-Bilder) des Arbeitsraums basierend auf den Blickwinkel-Angabesignalen, die von der weiter unten beschriebenen Anzeige 2c eingegeben werden, und auf Distanzbestimmungssignalen, die von dem Sensor (d.h. dem Distanzsensor des Sensors 1d) eingegeben werden. Das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) enthält wenigstens jeweils ein dreidimensionales Modell des Objekts des Werkstücks W und des Objekts des Roboterhauptkörpers 1.
-
In dem oben genannten virtuellen dreidimensionalen Bild (Virtuelle-Realität-Bild) wird ein Blickwinkel basierend auf den Blickwinkel-Angabesignalen gesetzt. In dem virtuellen dreidimensionalen Bild (Virtuelle-Realität-Bild) werden das Werkstück W, der Roboterhauptkörper 1 usw. als Objekte aus dem durch die Blickwinkel-Angabesignale angegebenem Blickwinkel gezeigt. Unter einem „Blickwinkel“ ist also in dieser Ausführungsform nicht nur ein Blickwinkel für das Abbilden oder visuelle Erkennen eines tatsächlichen Objekts zu verstehen, sondern auch der Blickwinkel des erzeugten, virtuellen dreidimensionalen Bilds.
-
Die Bildzusammenstellungseinheit 2b betrachtet das von der Virtuellbild-Erzeugungseinheit 2a eingegebene virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) als ein Basisbild und setzt in das virtuelle dreidimensionale Bild das von dem Sensor 1d eingegebene tatsächliche Bild des Arbeitsraums und die von der Robotersteuereinrichtung 1e eingegebenen Steuerinformationen des Roboterhauptkörpers 1 ein. Die Bildzusammenstellungseinheit 2b erzeugt ein zusammengestelltes Bild G, in dem das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) mit dem tatsächlichen Bild und den Steuerinformationen zusammengestellt ist, und gibt es an die Anzeige 2c aus.
-
3 ist ein schematisches Diagramm, das ein Beispiel für das oben genannte zusammengesetzte Bild G zeigt. Das zusammengesetzte Bild G wird erzeugt durch das Hinzufügen eines tatsächlichen Bilds g1 und eines Steuerinformationenbilds g2 zu dem virtuellen dreidimensionalen Bild (Virtuelle-Realität-Bild) des Arbeitsraums. In dem Virtuelle-Realität-Bild sind das Werkstück W an dem Halteständer T und der Roboterhauptkörper 1 als Objekte (Objekte in dem virtuellen Bild) gezeigt. In dem zusammengesetzten Bild G sind das tatsächliche Bild g1 und das Steuerinformationenbild g2 in anderen Bereichen als die Objekte des Werkstücks W und des Roboterhauptkörpers 1 in dem Virtuelle-Realität-Bild angeordnet.
-
Die Anzeige 2c ist eine Anzeigeeinrichtung, die das oben genannte zusammengesetzte Bild G anzeigt. Die Anzeige 2c sieht das zusammengesetzte Bild G für den Bediener als Unterstützungsinformationen für eine Fernbedienung des Roboterhauptkörpers 1 vor. Dabei weist die Anzeige 2c eine Form auf, die einfach für den Bediener in dem Bedienungsraum sichtbar ist, und ist zum Beispiel ein Head-Mounted Display (HMD).
-
In der Anzeige 2c ist ein Bewegungssensor 2e vorgesehen, der die Ausrichtung des Kopfs eines Trägers, d.h. des Bedieners, erfasst. Der Bewegungssensor 2e gibt Erfassungssignale aus, die die Ausrichtung des Kopfs des Bedieners für die Virtuellbild-Erzeugungseinheit 2a als die Blickwinkel-Angabesignale angeben. Der oben beschriebene Bewegungssensor 2e entspricht der Blickwinkel-Angabeeinheit, die einen Blickwinkel des virtuellen dreidimensionalen Bilds (Virtuelle-Realität-Bilds) angibt.
-
Die oben beschriebene Virtuellbild-Erzeugungseinheit 2a erhält Erfassungssignale des Bewegungssensors 2e als Blickwinkel-Angabesignale und erzeugt auf diese Weise das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild), das einen sich in Entsprechung zu der Ausrichtung des Kopfs des Bedieners ändernden Blickwinkel aufweist.
-
Die Bedienungseinheit 2d ist eine Einrichtung, zu der der Bediener Bedienungsbefehle eingibt. Die Bedienungseinheit 2d empfängt also die Bedienungsbefehle für eine Fernbedienung des Roboterhauptkörpers 1 von dem Bediener, erzeugt Bedienungssignale, die die Bedienungsbefehle angeben, und gibt die Bedienungssignale zu der Robotersteuereinrichtung 1e aus. Die Bedienungseinheit 2d umfasst zum Beispiel einen Joystick.
-
Im Folgenden wird der Betrieb der Fernbedienungsvorrichtung dieser Ausführungsform im größeren Detail beschrieben.
-
Wenn der Roboterhauptkörper 1 unter Verwendung der Fernbedienungsvorrichtung fernbedient wird, trägt der Bediener die Anzeige 2c, die das HMD ist, an seinem Gesicht und führt Bedienungseingaben an der Bedienungseinheit 2d durch. Der Bediener führt also Bedienungseingaben an der Bedienungseinheit 2d durch, während er das zusammengesetzte Bild G von 3 über die Anzeige 2c betrachtet, um den Roboterhauptkörper 1 fernzubedienen.
-
Wenn der Bediener in einer derartigen Fernbedienungsumgebung die Ausrichtung seines Kopfs ändert, wird diese Änderung durch den Bewegungssensor 2e der Anzeige 2c erfasst und in die Virtuellbild-Erzeugungseinheit 2a als das Blickwinkel-Angabesignal eingegeben. Daraus resultiert, dass die Virtuellbild-Erzeugungseinheit 2a das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) mit einem Blickwinkel in Entsprechung zu der neuen Ausrichtung des Kopfs erzeugt. Das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) mit dem neuen Blickwinkel wird von der Virtuellbild-Erzeugungseinheit 2a zu der Bildzusammensetzungseinheit 2b eingegeben.
-
Die Bildzusammensetzungseinheit 2b setzt das tatsächliche Bild und die Steuerinformationen in das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) mit dem von der Virtuellbild-Erzeugungseinheit 2a eingegebenen neuen Blickwinkel ein, um ein neues zusammengesetztes Bild zu erzeugen, und gibt das neue zusammengesetzte Bild G zu der Anzeige 2c aus. Das zusammengesetzte Bild G mit dem neuen Blickwinkel wird jedes Mal erzeugt, wenn der Bediener die Ausrichtung seines Kopfs ändert, und wird an der Anzeige 2c angezeigt.
-
Dann führt der Bediener Bedienungseingaben an der Bedienungseinheit 2d durch, indem er als Unterstützungsinformationen für die Fernbedienung auf das zusammengesetzte Bild G mit dem neuen Blickwinkel Bezug nimmt. Dann werden die Bedienungssignale gemäß den Bedienungseingaben von der Bedienungseinheit 2d zu der Robotersteuereinrichtung 1e eingegeben, sodass der bewegliche Wagen 1a, der Manipulator 1b und das Arbeitswerkzeug 1c gemäß den Bedienungseingaben betrieben werden. Der Roboterhauptkörper 1 wird also gemäß den Bedienungseingaben von dem Bediener zu der Fernbedienungseinrichtung 2 betrieben.
-
Wenn bei dieser Ausführungsform der Bediener die Ausrichtung seines Kopfs ändert, ändert sich der Blickwinkel der Objekte wie etwa des Werkstücks W und des Roboterhauptkörpers 1 in dem an der Anzeige 2c angezeigten zusammengesetzten Bild G, sodass eine Fernbedienungsvorrichtung mit einem variablen Sichtfeld vorgesehen werden kann. Gemäß dieser Ausführungsform kann der Bediener also die Distanz zwischen dem Werkstück W und dem Roboterhauptkörper 1 und die Bedingungen derselben genauer erfassen, wodurch die Arbeitseffizienz verbessert werden kann und genauere Operationen als zuvor durchgeführt werden können.
-
Insbesondere wird gemäß dieser Ausführungsform nur das Objekt des Roboterhauptkörpers 1 nicht an der Anzeige 2c angezeigt und wird das Objekt des Werkstücks W auch an der Anzeige 2c als ein virtuelles, dreidimensionales Bild (Virtuelle-Realität-Bild) angezeigt, sodass der Bediener die Positionsbeziehung zwischen dem Roboterhauptkörper 1 und dem Werkstück W genauer erkennen kann, indem er den Blickwinkel ändert. Gemäß dieser Ausführungsform kann also eine Fernbedienungsvorrichtung mit einer verbesserten Arbeitseffizienz vorgesehen werden.
-
Und weil gemäß dieser Ausführungsform das tatsächliche Bild g1 und das Steuerinformationenbild g2 an der Anzeige 2c in einem zu dem virtuellen dreidimensionalen Bild (Virtuelle-Realität-Bild) hinzugefügten Zustand angezeigt werden, kann der Bediener die Bedingungen des Arbeitsraums und den Betriebszustand des Roboterhauptkörpers 1 genauer erfassen. Deshalb kann gemäß dieser Ausführungsform auch aus diesem Grund eine Fernbedienungsvorrichtung mit einer verbesserten Arbeitseffizienz vorgesehen werden.
-
Die vorliegende Erfindung ist nicht auf die oben beschriebene Ausführungsform beschränkt, wobei zum Beispiel die folgenden Modifikationen vorgenommen werden können.
- (1) In der oben beschriebenen Ausführungsform werden das tatsächliche Bild g1 und das Steuerinformationenbild g2 zu dem virtuellen dreidimensionalen Bild (Virtuelle-Realität-Bild) hinzugefügt, wobei die vorliegende Erfindung jedoch nicht darauf beschränkt ist. Falls erforderlich, kann nur das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) an der Anzeige 2c angezeigt werden. Ein Bild, in dem nur das tatsächliche Bild g1 zu dem virtuellen dreidimensionalen Bild (Virtuelle-Realität-Bild) hinzugefügt ist, kann an der Anzeige 2c angezeigt werden.
Die Virtuellbild-Erzeugungseinheit 2a kann das von der Anzeige 2c eingegebene Blickwinkel-Angabesignal, das von dem Sensor 1d eingegebene Distanzbestimmungssignal und zuvor vorbereitete Entwurfsinformationen (z.B. CAD-Daten oder ähnliches) des Arbeitsraums kombinieren, um ein virtuelles, dreidimensionales Bild (Virtuelle-Realität-Bild) des Arbeitsraums zu erzeugen. Wenn ein virtuelles, dreidimensionales Bild, mit dem die Bedingungen des Arbeitsraums ausreichend erkannt werden können, unter Verwendung der Entwurfsinformationen des Arbeitsraums erzeugt werden können, muss die Bildzusammenstellungseinheit 2b das von der Virtuellbild-Erzeugungseinheit 2a eingegebene virtuelle dreidimensionale Bild und das von dem Sensor 1d eingegebene tatsächliche Bild des Arbeitsraums nicht zusammenstellen.
- (2) In der oben beschriebenen Ausführungsform ist der Roboterhauptkörper 1 als ein beweglicher Roboter konfiguriert, wobei die vorliegende Erfindung jedoch nicht darauf beschränkt ist. Die vorliegende Erfindung kann auch auf einen fix in dem Arbeitsraum installierten Roboter angewendet werden. Die vorliegende Erfindung kann auch auf einen Arbeitsraum angewendet werden, in dem der Roboterhauptkörper 1 fix installiert ist und sich das Werkstück W bewegt, und auf einen anderen Arbeitsraum, in dem sich der Roboterhauptkörper 1 und das Werkstück W individuell bewegen.
- (3) Das virtuelle dreidimensionale Bild (Virtuelle-Realität-Bild) der oben beschriebenen Ausführungsform umfasst wenigstens die Objekte des Werkstücks W und des Roboterhauptkörpers 1, wobei die vorliegende Erfindung jedoch nicht darauf beschränkt ist. Wenn in dem Arbeitsraum für den Betrieb des Roboterhauptkörpers 1 benötigte oder wichtige Artikel vorhanden sind, können die Artikel auch als Objekte in dem virtuellen dreidimensionalen Bild (Virtuelle-Realität-Bild) enthalten sein.
- (4) In der oben beschriebenen Ausführungsform wird das Head-Mounted Display (HMD) als die Anzeige 2c verwendet, wobei die vorliegende Erfindung jedoch nicht darauf beschränkt ist. Zum Beispiel kann die Anzeige 2c auch einen fixen Monitor umfassen. Die Blickwinkel-Angabeeinheit der vorliegenden Erfindung ist nicht auf den Bewegungssensor 2e beschränkt. Zum Beispiel kann der Bediener den Blickwinkel des virtuellen dreidimensionalen Bilds (Virtuelle-Realität-Bilds) angeben, indem er die Bedienungseinheit 2d betätigt. Die Blickwinkel-Angabeeinheit der vorliegenden Erfindung kann also einen Detektor wie etwa einen Sensor umfassen, der den Blickwinkel des Bedieners erfasst.
-
Industrielle Anwendbarkeit
-
Die vorliegende Erfindung kann auf eine Fernbedienungsvorrichtung für einen beweglichen Roboter in einem Arbeitsraum angewendet werden und kann eine Fernbedienungsvorrichtung mit einem variablen Sichtfeld vorsehen.
-
Bezugszeichenliste
-
- 1
- Roboterhauptkörper (beweglicher Roboter)
- 1a
- beweglicher Wagen
- 1b
- Manipulator
- 1c
- Arbeitswerkzeug
- 1d
- Sensor
- 1e
- Robotersteuereinrichtung
- 2
- Fernbedienungsvorrichtung
- 2a
- Virtuellbild-Erzeugungseinheit
- 2b
- Bildzusammenstellungseinheit
- 2c
- Anzeige
- 2d
- Bedienungseinheit
- 2e
- Bewegungssensor
- g1
- tatsächliches Bild
- g2
- Steuerinformationenbild
- G
- zusammengesetztes Bild
- F
- Boden
- W
- Werkstück (Objekt)
- T
- Halteständer
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-