-
Allgemeiner Stand der Technik
-
Die vorliegende Erfindung betrifft eine Roboter-Lehrvorrichtung.
-
Betriebsprogramme von Robotern werden im Allgemeinen durch eine Tastenbetätigung einer Lehrvorrichtung erstellt und bearbeitet. Die Patentoffenlegungsschrift
JP 2006-068 865 A und die Patentoffenlegungsschrift
JP 2005-148 789 A beschreiben Beispiele für eine Lehrvorrichtung, die über eine Sprecheingabefunktion verfügt. In der Patentoffenlegungsschrift
JP 2006-068 865 A heißt es, dass „im Fall der vorliegenden Erfindung dann, wenn der Betreiber für ein gewünschtes Betätigungsmenü den Sprecheingabeaktivierungsschalter 7 drückt und zu der Sprecheingabeeinheit 6 spricht, das Sprecheingabesignal durch die Sprecherkennungsverarbeitungseinheit 8 in einen Text, der dem durch die Sprecheingabeeinheit 6 eingegebenen Sprechsignal entspricht, umgewandelt wird, mit den aufgezeichneten Menüs des Speichermittels 10d verglichen wird und die aufgezeichnete entsprechende Betätigungsmenübildschirmdarstellung gewählt wird und an dem Anzeigebildschirm 5c angezeigt wird“ (Absatz 0009). Die Patentoffenlegungsschrift
JP 2005-148 789 A beschreibt eine „Programmbearbeitungsvorrichtung, die ein Sprecheingabemittel; ein Mittel das mehrere Muster zum Vervollständigen eines Satzes durch Setzen wenigstens einer Zeichenfolge an eine bestimmte Stelle speichert; ein Zeichenfolgenkandidaten-Speichermittel, das mehrere Zeichenfolgenkandidaten, die in die Muster eingesetzt werden, speichert; ein Entsprechungsbeziehungs-Speichermittel, das Entsprechungsbeziehungen zwischen Sätzen, die durch Einsetzen der Zeichenfolgenkandidaten in die Muster vervollständigt wurden, und Befehlen, die in dem Lehrprogramm des Roboters verwendet werden, speichert; ein Suchmittel, das bei Vorhandensein eines Satzes, der mit dem durch das Sprecheingabemittel eingegebenen Satz übereinstimmt, diesen übereinstimmenden Satz findet; und ein Mittel, das den durch das Suchmittel gefundenen übereinstimmenden Satz auf Basis der in dem Entsprechungsbeziehungs-Speichermittel gespeicherten Entsprechungsbeziehung in einen Roboterbefehl umwandelt und diesen Roboterbefehl in das Lehrprogramm einsetzt, umfasst“ (Anspruch 1).
-
-
Kurzdarstellung der Erfindung
-
Beim Lehren eines Roboters unter Verwendung einer Lehrvorrichtung kann es vorkommen, dass ein Betreiber parallel zu dem Lehren des Roboters eine andere Tätigkeit ausführt.
-
Der Erfindung liegt daher die Aufgabe zu Grunde, eine Roboter-Lehrvorrichtung bereitzustellen, die die Belastung für den Betreiber beim Lehren des Roboters noch weiter verringert.
-
Erfindungsgemäß wird die vorstehend genannte Aufgabe im Hinblick auf die Roboter-Lehrvorrichtugn durch den Gegenstand des Anspruchs 1 gelöst.
-
Konkret wird diese Aufgabe durch eine Roboter-Lehrvorrichtung zur Vornahme des Lehrens eines Roboters gelöst, wobei die Roboter-Lehrvorrichtung folgendes umfasst: eine Anzeigevorrichtung; ein Mikrophon, das Gesprochenes aufnimmt und ein Sprechsignal ausgibt; eine Sprecherkennungseinheit, die aus dem Sprechsignal wenigstens ein Wort, das durch das Gesprochene ausgedrückt wird, erkennt und Zeichendaten, die aus dem wenigstens einen Wort bestehen, ausgibt; eine Programmbearbeitungseinheit, die eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm des Roboters erzeugt und an der Anzeigevorrichtung anzeigt; eine Kommentareingabeeinheit, die in einem Zustand, in dem die Bearbeitungsbildschirmdarstellung für das Betriebsprogramm an der Anzeigevorrichtung angezeigt wurde, den Ausdruck, den die von der Sprecherkennungseinheit ausgegebenen Zeichendaten darstellen, als Kommentartext zu einem Befehl in dem Betriebsprogramm hinzufügt; eine Entsprechungsbeziehungs-Speichereinheit, die jeden von mehreren Arten von Befehlen, die für das Lehren des Roboters verwendet werden, in einem Zusammenhang mit einem Erkennungszielwort speichert; eine Entsprechungsbeziehungs-Ergänzungseinheit, die einen hinzugefügten Kommentartext als ein neues Erkennungszielwort ansetzt und der Entsprechungsbeziehungs-Speichereinheit dieses neue Erkennungszielwort in einem Zusammenhang mit dem Befehl in dem Betriebsprogramm, dem der Kommentartext hinzugefügt wurde, hinzufügt; eine Erkennungszielwort-Bestimmungseinheit, die bestimmt, ob in dem durch die Zeichendaten dargestellten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit gespeichertes Erkennungszielwort enthalten ist oder nicht; und eine Befehlsausführungssignal-Ausgabeeinheit, die ein Signal zur Ausführung eines Befehls, der in der Entsprechungsbeziehungs-Speichereinheit in einem Zusammenhang mit dem Erkennungszielwort, dessen Vorhandensein in dem Ausdruck der Zeichendaten bestimmt wurde, gespeichert ist, an die Robotersteuervorrichtung ausgibt.
-
Einfache Erklärung der Zeichnungen
-
Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden durch die nachstehende Erklärung einer Ausführungsform in Verbindung mit den beiliegenden Zeichnungen noch klarer werden. In den Zeichnungen
- ist 1 eine Ansicht, die den gesamten Aufbau eines Robotersystems, das eine Roboter-Lehrvorrichtung nach einer Ausführungsform enthält, darstellt;
- ist 2 ein Funktionsblockdiagramm der Roboter-Lehrvorrichtung;
- ist 3 ein Ablaufdiagramm, das die Sprecheingabeverarbeitung darstellt;
- ist 4 eine Ansicht, die ein Beispiel für eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm zeigt;
- ist 5 ein Ablaufdiagramm, das die Sprachumschaltverarbeitung darstellt;
- ist 6 ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung darstellt;
- zeigt 7 ein Beispiel für eine Meldungsbildschirmdarstellung zur Ermittlung der Ausführungserlaubnis des durch Sprechen eingegebenen Befehls;
- ist 8 ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung, dass der durch Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält, darstellt;
- zeigt 9 eine Auswahlbildschirmdarstellung als ein Beispiel für eine Liste, die bei der Sprecheingabelehrverarbeitung von 8 an der Anzeigevorrichtung angezeigt wird;
- ist 10 ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung, dass der durch Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist, darstellt; und
- zeigt 11 eine Auswahlbildschirmdarstellung als ein Beispiel für eine Liste, die bei der Sprecheingabelehrverarbeitung von 10 an der Anzeigevorrichtung angezeigt wird.
-
Ausführliche Erklärung
-
Nachstehend wird unter Bezugnahme auf die beiliegenden Zeichnungen eine Ausführungsform der vorliegenden Offenbarung erklärt. Über die einzelnen Zeichnungen hinweg sind entsprechende Aufbauelemente mit gemeinsamen Bezugszeichen versehen. Zur Erleichterung des Verständnisses ist der Maßstab dieser Zeichnungen passend verändert. Die in den Zeichnungen gezeigte Ausführungsform ist ein Beispiel für die Ausführungsweise der vorliegenden Erfindung, doch ist die vorliegende Erfindung nicht auf die dargestellte Ausführungsweise beschränkt.
-
1 ist eine Ansicht, die den gesamten Aufbau eines Robotersystems 100, das eine Roboter-Lehrvorrichtung 30 nach einer Ausführungsform enthält, darstellt. 2 ist ein Funktionsblockdiagramm der Roboter-Lehrvorrichtung 30. Wie in 1 gezeigt umfasst das Robotersystem 100 einen Roboter 10, eine Robotersteuervorrichtung 20, die den Roboter 10 steuert, und eine an die Robotersteuervorrichtung 20 angeschlossene Roboter-Lehrvorrichtung 30. Ein Mikrophon 40, das Gesprochenes aufnimmt und ein Sprechsignal ausgibt, ist drahtgebunden oder drahtlos an die Roboter-Lehrvorrichtung 30 angeschlossen. Als ein Beispiel ist das Mikrophon 40 in 1 als Mikrophon vom Headset-Typ, das ein Betreiber OP, der die Roboter-Lehrvorrichtung 30 betätigt, trägt, ausgeführt. Das Mikrophon 40 kann auch in die Roboter-Lehrvorrichtung 30 eingebaut sein.
-
Der Roboter 10 ist zum Beispiel ein vertikaler Knickarmroboter. Für den Roboter 10 können auch andere Arten von Robotern verwendet werden. Die Robotersteuervorrichtung 20 steuert den Betrieb des Roboters 10 gemäß verschiedenen Befehlen, die von der Roboter-Lehrvorrichtung 30 eingegeben werden. Die Robotersteuervorrichtung 20 kann auch als allgemeiner Computer mit einer CPU, einem ROM, einem RAM, einer Speichervorrichtung, einer Anzeigeeinheit, einer Betätigungseinheit, Schnittstellen zu externen Geräten, einer Netzwerkschnittstelle, und dergleichen aufgebaut sein. Die Roboter-Lehrvorrichtung 30 ist zum Beispiel ein Lehrbedienpanel oder ein tragbares Informationsterminal wie etwa ein Tablet-Terminal oder dergleichen. Die RoboterSteuervorrichtung 30 kann auch als allgemeiner Computer mit einer CPU, einem ROM, einem RAM, einer Speichervorrichtung, einer Anzeigeeinheit, einer Betätigungseinheit, Schnittstellen zu externen Geräten, einer Netzwerkschnittstelle, und dergleichen aufgebaut sein.
-
Die Roboter-Lehrvorrichtung 30 umfasst eine Anzeigevorrichtung 31 und eine Betätigungseinheit 32. An der Betätigungseinheit 32 sind Hardkeys (Hardwaretasten) 302 für die Lehreingabe angeordnet. Die Anzeigevorrichtung 31 weist ein Touchpanel auf, und auf dem Anzeigebildschirm der Anzeigevorrichtung 31 sind Softkeys 301 angeordnet. Der Betreiber OP kann durch Betätigen der Betätigungstasten (der Hardkeys 302 und der Softkeys 301) das Lehren oder Betätigen des Roboters 10 vornehmen. Wie in 2 gezeigt weist die Roboter-Lehrvorrichtung 30 eine Sprecherkennungseinheit 311, die aus dem von dem Mikrophon 40 eingegebenen Sprechsignal wenigstens ein Wort, das durch das Gesprochene ausgedrückt wird, erkennt und Zeichendaten, die aus dem wenigstens einen Wort bestehen, ausgibt, eine Programmbearbeitungseinheit 312, die eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm des Roboters 10 erzeugt und an der Anzeigevorrichtung 31 anzeigt, und eine Kommentareingabeeinheit 313, die in einem Zustand, in dem die Bearbeitungsbildschirmdarstellung für das Betriebsprogramm an der Anzeigevorrichtung 31 angezeigt wurde, den Ausdruck, den die von der Sprecherkennungseinheit 311 ausgegebenen Zeichendaten darstellen, als Kommentartext zu einem Befehl in dem Betriebsprogramm hinzufügt, auf. Durch diese Ausführung kann der Betreiber OP auch in einer Situation, in der beide Hände für das Lehren des Roboters 10 durch eine händische Betätigung der Roboter-Lehrvorrichtung 30 belegt sind, eine gesprochene Eingabe eines Kommentartexts zu einem Betriebsprogramm vornehmen und ein Betriebsprogramm mit einer hohen Lesbarkeit erstellen. Folglich wird die Belastung für den Betreiber beim Lehren des Roboters verringert.
-
Unter Bezugnahme auf 2 werden die Funktionen der Roboter-Lehrvorrichtung 30 näher erklärt. Die Roboter-Lehrvorrichtung 30 umfasst ferner eine Entsprechungsbeziehungs-Speichereinheit 314, die jeden von mehreren Arten von Befehlen, die für das Lehren des Roboters 10 verwendet werden, in einem Zusammenhang mit einem Erkennungszielwort speichert, eine Entsprechungsbeziehungs-Ergänzungseinheit 315, die einen hinzugefügten Kommentartext als ein neues Erkennungszielwort ansetzt und der Entsprechungsbeziehungs-Speichereinheit 314 dieses neue Erkennungszielwort in einem Zusammenhang mit dem Befehl in dem Betriebsprogramm, dem der Kommentartext hinzugefügt wurde, hinzufügt, eine Erkennungszielwort-Bestimmungseinheit 316, die bestimmt, ob in dem durch die Zeichendaten dargestellten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort enthalten ist oder nicht, und eine Befehlsausführungssignal-Ausgabeeinheit 317, die ein Signal zur Ausführung eines Befehls, der in der Entsprechungsbeziehungs-Speichereinheit 314 in einem Zusammenhang mit dem Erkennungszielwort, dessen Vorhandensein in dem Ausdruck der Zeichendaten bestimmt wurde, gespeichert ist, an die Robotersteuervorrichtung 20 ausgibt. Die einzelnen Funktionen der in 2 gezeigten Roboter-Lehrvorrichtung 30 können durch Software oder durch Zusammenwirken von Hardware und Software ausgeführt werden.
-
Als nächstes wird unter Bezugnahme auf 3 und 4 die in der Roboter-Lehrvorrichtung 30 mit dem obigen Aufbau ausgeführte Kommentareingabeverarbeitung erklärt. 3 ist ein Ablaufdiagramm der Kommentareingabeverarbeitung, und 4 zeigt ein Beispiel für eine Bearbeitungsbildschirmdarstellung an der Anzeigevorrichtung 31, wenn die Erstellung/Bearbeitung eines Betriebsprogramms vorgenommen wird. Die Kommentareingabeverarbeitung von 3 wird unter Steuerung durch die CPU der Roboter-Lehrvorrichtung 30 ausgeführt. Zu Beginn wählt der Betreiber OP durch Betätigen der Softkeys oder der Hardkeys einen Befehl in dem in Erstellung befindlichen Betriebsprogramm, bei dem eine Kommentareingabe vorgenommen werden soll, und bringt er die Roboter-Lehrvorrichtung 30 in einen Zustand, in dem sie auf die Kommentareingabe wartet (Schritt S101). In der vorliegenden Beschreibung wird der Ausdruck „Befehl“ mit einer Bedeutung verwendet, die einen Befehl (einschließlich eines Makrobefehls) an den Roboter, dem Befehl zugehörige Daten sowie andere Arten von Daten im Zusammenhang mit dem Lehren beinhaltet. Was die wie in 4 gezeigte Bearbeitungsbildschirmdarstellung 351 betrifft, wird ein Fall erklärt, bei dem dem Befehl ‚RO[1]‘ in der vierten Zeile des Betriebsprogramms der Kommentartext ‚Hand schließen‘ durch eine Sprecheingabe hinzugefügt wird. Beispielsweise wählt der Betreiber OP die vierte Zeile des Betriebsprogramms durch eine Berührungsbetätigung und gibt er an der Eingabestelle des Kommentartexts einen Code, der eine Kommentareingabe anzeigt, ein, wodurch die Roboter-Lehrvorrichtung 30 in einen Zustand gebracht wird, in dem sie auf die Kommentareingabe wartet.
-
Dann betätigt der Betreiber OP einen Sprechaktivierungsschalter 301a, der als einer der Softkeys 301 angeordnet ist, wodurch die Roboter-Lehrvorrichtung 30 in einen Zustand, in dem die Sprecheingabe aktiv ist, gebracht wird (Schritt S102). Hier ist der Zustand, in dem die Sprecheingabe aktiv ist, ein Zustand, in dem das Mikrophon 40, die Sprecherkennungseinheit 311 und die Erkennungszielwort-Bestimmungseinheit 316 arbeiten. Der Sprechaktivierungsschalter 301a kann auch als einer der Hardkeys 302 angeordnet sein. Der Sprechaktivierungsschalter 301a wirkt zum Beispiel so, dass die Sprecheingabe durch einmaliges Drücken des Softkeys oder des Hardkeys aktiviert wird und dieser Zustand beibehalten wird und die Sprecheingabe durch das nächste Drücken deaktiviert wird.
-
Dann nimmt der Betreiber OP die Sprecheingabe des Kommentartexts vor (Schritt S103). Die Sprecherkennungseinheit 311 nimmt auf Basis von Wörterbuchdaten 322 eine Sprecherkennung an dem Sprechsignal, das durch das Mikrophon 40 eingegeben wurde, vor und erkennt aus dem Sprechsignal wenigstens ein Wort. Die Wörterbuchdaten 322 weisen für mehrere Arten von Sprachen verschiedene Wörterbuchdaten, die für die Sprecherkennung erforderlich sind, wie etwa ein Tonmodell, ein Wortmodell, und dergleichen auf. Wenn kein erkanntes Wort vorhanden ist (S104: NEIN), kehrt die Verarbeitung zu Schritt S103 zurück. Wenn ein erkanntes Wort vorhanden ist (S104: JA), gibt die Roboter-Lehrvorrichtung 30 den Kommentartext in den gewählten Befehl ein (Schritt S105).
-
In der Bearbeitungsbildschirmdarstellung 351 von 4 sind ‚Werkstück halten‘ in der ersten Zeile, ‚Hand schließen‘ in der vierten Zeile, und ‚Werkstückhaltemarkierung‘ in der fünften Zeile jeweils Beispiele für Kommentartexte, die durch die Kommentareingabeverarbeitung von 3 durch Sprechen in das Betriebsprogramm eingegeben wurden. ‚Werkstück halten‘ in der ersten Zeile ist ein Kommentartext für das gesamte Betriebsprogramm von 4 und drückt aus, dass dieses Betriebsprogramm einen Betrieb vornimmt, bei dem „ein Werkstück gehalten wird“. ‚Hand schließen‘ in der vierten Zeile drückt aus, dass der Befehl 'RO[1] = EIN ein Betrieb „zum Schließen der Hand“ des Roboters 10 ist. ‚Werkstückhaltemarkierung‘ in der fünften Zeile drückt aus, dass der Befehl ‚DO[1] = EIN‘ ein Befehl zum Setzen einer Markierung, die den Werkstückhaltebetrieb ausdrückt, ist. Durch die oben beschriebene Kommentareingabeverarbeitung kann der Betreiber OP auch in einer Situation, in der beide Hände für das Lehren des Roboters 10 durch eine händische Betätigung der Roboter-Lehrvorrichtung 30 belegt sind, eine gesprochene Eingabe eines Kommentartexts zu einem Betriebsprogramm vornehmen und ein Betriebsprogramm mit einer hohen Lesbarkeit erstellen. Folglich wird die Belastung für den Betreiber beim Lehren des Roboters verringert.
-
Wie in 2 gezeigt kann die Sprecherkennungseinheit 311 über eine Sprachauswahleinheit 321, die an der Anzeigevorrichtung 31 eine Sprachauswahlbildschirmdarstellung zur Wahl der Sprache, die das Objekt für die Erkennung des Gesprochenen darstellt, anzeigt und durch eine Benutzerbetätigung eine Wahl der Sprache entgegennimmt, verfügen. Die Sprecherkennungseinheit 311 weist Wörterbuchdaten 322 für die verschiedenen Sprachen auf und kann die Worterkennung auf Basis des Sprechsignals unter Verwendung der Wörterbuchdaten für die von dem Benutzer über die Sprachauswahleinheit 321 gewählte Sprache vornehmen. Außerdem kann die Erkennungszielwort-Bestimmungseinheit 316 durch Speichern von Erkennungszielworten in verschiedenen Sprachen in der Entsprechungsbeziehungs-Speichereinheit 314 die Erkennung des Zielworts auf Basis der von dem Benutzer über die Sprachauswahleinheit 321 gewählten Sprache vornehmen.
-
Die Roboter-Lehrvorrichtung 30 (die Sprecherkennungseinheit 311) kann auch über eine Funktion verfügen, wodurch die Sprache des Gesprochenen unter Verwendung der Wörterbuchdaten 322 der mehreren Sprachen ermittelt wird und an der Anzeigevorrichtung 31 eine Meldung angezeigt wird, die zum Umschalten der gewählten Sprache zu der ermittelten Sprache auffordert, wenn sich die ermittelte Sprache von der über die Sprachauswahleinheit 321 gewählten Sprache unterscheidet. 5 ist ein Ablaufdiagramm, das eine solche Sprachumschaltverarbeitung darstellt. Die Sprachumschaltverarbeitung wird zum Beispiel in einem Zustand, in dem auf eine Kommentareingabe gewartet wird, wie bei Schritt S101 von 3, oder in einem Zustand, in dem auf eine Lehreingabe gewartet wird, ausgeführt. Zunächst betätigt der Betreiber OP den Sprechaktivierungsschalter 301a, wodurch die Sprecheingabe aktiviert wird (Schritt S201). In diesem Zustand nimmt der Betreiber OP eine Sprecheingabe vor (Schritt S202) .
-
Dann bestimmt die Roboter-Lehrvorrichtung 30 für die Sprecheingabe, ob ein erkannter Ausdruck in der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist oder nicht (Schritt S203) . Wenn ein erkannter Ausdruck in der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist (Schritt S203: JA), endet die aktuelle Sprachumschaltverarbeitung. Wenn andererseits kein erkannter Ausdruck in der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist (Schritt S203: NEIN), bestimmt die Roboter-Lehrvorrichtung 30 durch Verwenden der Wörterbuchdaten 322 der verschiedenen Sprachen, ob in der Sprecheingabe ein erkannter Ausdruck in einer anderen Sprache als der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist oder nicht (Schritt S204). Wenn als Ergebnis ein erkannter Ausdruck in einer anderen Sprache vorhanden ist (Schritt S204: JA), wird an der Anzeigevorrichtung 31 eine Meldung angezeigt, die zum Umschalten der Sprache, die das Objekt der Sprecheingabe darstellt, zu der in Schritt S204 bestimmten anderen Sprache auffordert (Schritt S205). Wenn kein erkannter Ausdruck in einer anderen Sprache vorhanden ist (Schritt S204: NEIN), kehrt die Verarbeitung zu Schritt S202 zurück.
-
Als nächstes erhält die Roboter-Lehrvorrichtung 30 eine Benutzerbetätigung, die ein Umschalten zu der in Schritt S205 vorgeschlagenen Sprache erlaubt oder nicht (Schritt S206). Wenn eine Betätigung erfolgt ist, die das Umschalten zu der vorgeschlagenen Sprache erlaubt (Schritt S206: JA), nimmt die Roboter-Lehrvorrichtung 30 das Umschalten zu der vorgeschlagenen Sprache vor (Schritt S207). Wenn andererseits eine Betätigung erfolgt ist, die das Umschalten zu der vorgeschlagenen Sprache nicht erlaubt (Schritt S206: NEIN), endet die aktuelle Sprachumschaltverarbeitung. In der Entsprechungsbeziehungs-Speichereinheit 314 sind auch Erkennungszielworte für mehrere Sprachen gespeichert. Dadurch kann die Erkennungszielwort-Bestimmungseinheit 316 im Fall eines Umschaltens der Sprache in Schritt S207 eine Erkennung von Erkennungszielworten in der Sprache, zu der umgeschaltet wurde, vornehmen.
-
Als nächstes wird die durch die Roboter-Lehrvorrichtung 30 bereitgestellte Lehrfunktion durch eine Sprecheingabe (einschließlich der Ausführung von Befehlen an den Roboter 10, der Eingabe von Befehlen in das Betriebsprogramm, usw.) erklärt. Bei der Erklärung der Vorteile der Lehrfunktion durch eine Sprecheingabe der Roboter-Lehrvorrichtung 30 soll ein Beispiel für die Betätigung im Fall der Eingabe des in 4 gezeigten Betriebsprogramms durch eine händische Betätigung erklärt werden. In der Bearbeitungsbildschirmdarstellung 351 des in 4 gezeigten Betriebsprogramms (‚Programm 1‘) wählt der Betreiber OP zum Beispiel im Fall einer Eingabe eines Befehls in die vierte Zeile die vierte Zeile durch eine Tastenbetätigung. Dann wählt der Betreiber OP durch eine Tastenbetätigung den Punkt ‚Befehl‘ (Bezugszeichen 361a) zur Befehlseingabe aus der unten in der Bearbeitungsbildschirmdarstellung 351 befindlichen Auswahlmenübildschirmdarstellung 361. Dadurch wird eine Popupmenü-Bildschirmdarstellung 362 angezeigt, in der eine Übersicht über Einteilungspunkte für die Befehle dargestellt ist. Der Betreiber OP wählt durch eine Tastenbetätigung den Punkt ‚E/A‘ (Bezugszeichen 362a) zur Eingabe eines E/A-Befehls. Dadurch wird eine Popupmenü-Bildschirmdarstellung 363 angezeigt, die einen Überblick über konkrete Befehle, die E/A-Befehlen entsprechen, zeigt. Hier wählt der Betreiber OP durch eine Tastenbetätigung den Befehl ‚RO [ ] =‘ (363a), und gibt er als Argument 1 in ‚[ ]‘ ein, und gibt er rechts von ‚=‘ ‚EIN‘ ein. Im Fall einer solchen händischen Tastenbetätigung ist es nötig, dass dem Benutzer vorab bekannt ist, dass sich der Befehl ‚RO[]=‘ unter dem Punkt E/A (Bezugszeichen 362a) in der Auswahlmenübildschirmdarstellung 361 befindet.
-
Die Roboter-Lehrvorrichtung 30 nach der vorliegenden Ausführungsform ermöglicht durch ein vorab vorgenommenes Speichern von Erkennungszielworten in der Roboter-Lehrvorrichtung 30 die Vornahme einer Eingabe usw. des gewünschten Befehls durch Aussprechen eines für den Betreiber OP leicht zu formulierenden Ausdrucks, ohne dass von dem Betreiber OP detaillierte Kenntnisse in Bezug auf den Befehl verlangt werden. Ferner zeichnet die Roboter-Lehrvorrichtung 30 den wie oben beschrieben eingegebenen Kommentartext automatisch als Erkennungszielwort auf. Dadurch kann der Betreiber OP zum Beispiel durch Aussprechen von ‚Hand schließen‘ in der Bearbeitungsbildschirmdarstellung des Betriebsprogramms den Befehl ‚RO[1]=EIN‘ eingeben, ohne eine Betätigung vorzunehmen, bei der ein wie oben beschriebenes schrittweises Durchlaufen von Menübildschirmdarstellungen erfolgt.
-
Die Lehrfunktion durch eine solche Sprecheingabe wird vorgenommen, indem die Erkennungszielwort-Bestimmungseinheit 316 bestimmt, ob in dem durch Sprechen ausgedrückten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort vorhanden ist oder nicht, und die Befehlsausführungssignal-Ausgabeeinheit 317 ein Signal zur Ausführung des Befehls, der in der Entsprechungsbeziehungs-Speichereinheit 314 in einem Zusammenhang mit dem erkannten Erkennungszielwort gespeichert ist, an die Robotersteuervorrichtung 20 ausgibt. Die nachstehende Tabelle 1 zeigt Beispiele für Informationen, die in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichert sind. In Tabelle 1 sind die vier Erkennungszielworte ‚jedeachseposition‘, ‚jedeachse‘, ‚jedeachsestelle‘, und ‚positionsanweisung‘ mit dem Befehl ‚jede Achse Position‘ in Zusammenhang gebracht. In diesem Fall kann der Betreiber OP durch Aussprechen eines beliebigen der vier Erkennungszielworte ‚jedeachseposition‘, ‚jedeachse‘, ‚jedeachsestelle‘, und ‚positionsanweisung‘ den Befehl ‚jede Achse Position‘ ausführen oder in das Betriebsprogramm eingeben. Auch mit jedem aus dem Befehl ‚lineare Position‘, dem Befehl ‚DO[]‘ und dem Befehl ‚RO[]‘ sind vier Erkennungszielworte in Zusammenhang gebracht. Tabelle 1
Programmbefehl | Erkennungszielwort 1 | Erkennungszielwort 2 | Erkennungszielwort 3 | Erkennungszielwort 4 |
jede Achse Position | jedeachseposition | jedeachse | jedeachsestelle | positionsanweisung |
lineare Position | lineareposition | linear | linearestelle | positionsanweisung |
DO [...] | dee ooh | digitaleroutput | handschließen | output |
RO [...] | err ooh | roboteroutput | werkstückhaltemarkierung | output |
-
In Tabelle 1 sind ‚dee ooh‘, ‚digitaleroutput‘ und ‚output‘ unter den vier Erkennungszielworten, die mit dem Befehl ‚DO []‘ in einen Zusammenhang gebracht wurden, vorab aufgezeichnete Erkennungszielworte, und ist ‚handschließen‘ ein Erkennungszielwort, das der Entsprechungsbeziehungs-Speichereinheit 314 durch die Entsprechungsbeziehungs-Ergänzungseinheit 315 in Verbindung mit der Sprecheingabe des Kommentartexts in das Betriebsprogramm hinzugefügt wurde. Außerdem sind in der Tabelle 1 ‚err ooh‘, ‚roboteroutput‘ und ‚output‘ unter den vier Erkennungszielworten, die mit dem Befehl ‚RO []‘ in einen Zusammenhang gebracht wurden, vorab aufgezeichnete Erkennungszielworte, und ist ‚werkstückhaltemarkierung‘ ein Erkennungszielwort, das der Entsprechungsbeziehungs-Speichereinheit 314 durch die Entsprechungsbeziehungs-Ergänzungseinheit 315 in Verbindung mit der Sprecheingabe des Kommentartexts in das Betriebsprogramm hinzugefügt wurde. Da der Entsprechungsbeziehungs-Speichereinheit 314 auf diese Weise Ausdrücke, die der Betreiber OP durch Sprechen als Kommentartexte eingegeben hat, automatisch als Erkennungszielworte hinzugefügt werden, kann der Betreiber danach durch Aussprechen von Erkennungszielworten mit einer von ihm selbst verwendeten leicht verständlichen Formulierung gewünschte Befehle ausführen lassen oder in das Betriebsprogramm eingeben.
-
6 ist ein Ablaufdiagramm, das die Lehrfunktion durch eine Sprecheingabe (nachstehend als Sprecheingabelehrverarbeitung bezeichnet) darstellt. Die Sprecheingabelehrverarbeitung von 6 wird unter Steuerung durch die CPU der Roboter-Lehrvorrichtung 30 ausgeführt. Der Betreiber OP betätigt in einem Zustand, in dem die Roboter-Lehrvorrichtung 30 eine Lehreingabe entgegennimmt, den Sprechaktivierungsschalter 301a, wodurch die Sprecheingabe aktiviert wird (Schritt S11). Dann spricht der Betreiber OP das Erkennungszielwort, das dem gewünschten Befehl entspricht, aus (Schritt S12). Als ein Beispiel wird angenommen, dass der Betreiber OP auf einen Befehl ‚HOP‘ zum Öffnen der Hand des Roboters 10 abzielt und ‚handopen‘ ausspricht. Die Roboter-Lehrvorrichtung 30 erkennt, ob der durch Sprechen eingegebene Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort enthält oder nicht (Schritt S13). Wenn in dem durch Sprechen eingegebenen Ausdruck kein Erkennungszielwort enthalten ist (S13: NEIN), kehrt die Verarbeitung zu Schritt S12 zurück. Hier wird angenommen, dass das durch den Betreiber OP ausgesprochene ‚handopen‘ als Erkennungszielwort in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichert ist. In diesem Fall wird bestimmt, dass in dem durch Sprechen eingegebenen Ausdruck ein Erkennungszielwort enthalten ist (S13: JA), und wird zu Schritt S14 übergegangen.
-
Als nächstes zeigt die Roboter-Lehrvorrichtung 30 (eine Ausführungserlaubnis-Anforderungseinheit 331) eine Meldungsbildschirmdarstellung 401 (siehe 7), die von dem Betreiber OP die Erlaubnis zur Ausführung des durch Sprechen eingegebenen Befehls verlangt, an der Anzeigevorrichtung 31 an (Schritt S14). Die Meldungsbildschirmdarstellung 401 enthält Tasten (‚ja‘, ‚nein‘), die eine Auswahlbetätigung durch den Betreiber OP im Hinblick auf eine Zustimmung zu der Ausführung des Befehls oder ihre Ablehnung entgegennehmen. In Schritt S15 wird die Auswahlbetätigung durch den Betreiber OP erhalten. Der Betreiber OP kann durch Betätigen einer Taste in der Meldungsbildschirmdarstellung 401 die Anweisung geben, ob der Befehl ‚HOP‘ ausgeführt werden soll oder nicht. Wenn eine Betätigung, die die Ausführung erlaubt, erhalten wird (S15: JA), interpretiert die Befehlsausführungssignal-Ausgabeeinheit 317, dass die Ausführung erlaubt wurde (Schritt S16), und sendet sie ein Signal zur Ausführung des Befehls an die Robotersteuervorrichtung 20 (Schritt S17). Wenn eine Betätigung, die die Ausführung nicht erlaubt, erhalten wird (S15: NEIN), kehrt die Verarbeitung zu Schritt S12 zurück.
-
Die Roboter-Lehrvorrichtung 30 kann auch so ausgeführt sein, dass sie in dem Zustand, in dem die Meldungsbildschirmdarstellung 401 angezeigt wird, die Auswahlbetätigung in Schritt S15 durch eine Sprecheingabe entgegennimmt. In diesem Fall bestimmt die Roboter-Lehrvorrichtung 30, dass die Ausführung des Befehls erlaubt wurde, wenn die Sprecherkennungseinheit 311 das Wort ‚ja‘, das die Ausführung des Befehls erlaubt, erkennen konnte. Dann sendet die Befehlsausführungssignal-Ausgabeeinheit 317 ein Signal zur Ausführung des Befehls ‚HOP‘ an die Robotersteuervorrichtung 20.
-
Die Erkennungszielwort-Bestimmungseinheit 316 kann auch so ausgeführt sein, dass sie dann, wenn in dem durch die Sprecheingabe ausgedrückten Ausdruck kein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort enthalten ist, wenigstens ein Erkennungszielwort mit einem bestimmten Zusammenhang zu dem durch die Sprecheingabe ausgedrückten Ausdruck aus der Entsprechungsbeziehungs-Speichereinheit extrahiert und an der Anzeigevorrichtung 31 eine Auswahlbildschirmdarstellung anzeigt, die die Wahl eines Befehls aus wenigstens einem Befehl, der in der Entsprechungsbeziehungs-Speichereinheit 314 mit dem extrahierten wenigstens einen Erkennungszielwort in einen Zusammenhang gebracht ist, entgegennimmt. Unter Bezugnahme auf 8 bis 11 werden zwei Beispiele für diese Funktion durch die Erkennungszielwort-Bestimmungseinheit 316 erklärt.
-
8 ist ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung zwischen einem durch Sprechen ausgedrückten Ausdruck und einem in der Entsprechungsbeziehungs-Speichereinheit 314 gespeicherten Erkennungszielwort, dass der durch das Sprechen ausgedrückte Ausdruck ein in dem Erkennungszielwort enthaltenes Wort enthält, darstellt. Da die Schritte S21 bis S27 in dem Ablaufdiagramm von 8 jeweils den gleichen Verarbeitungsinhalt wie die Schritte S11 bis S17 in 6 aufweisen, wird auf ihre Erklärung verzichtet. Wenn in Schritt S23 bestimmt wird, dass der durch Sprechen eingegebene Ausdruck kein Erkennungszielwort enthält (S23: NEIN), geht die Verarbeitung zu Schritt S28 über.
-
In Schritt S28 bestimmt die Roboter-Lehrvorrichtung 30, ob der durch das Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält oder nicht. Wenn der durch das Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält (S28: JA), extrahiert die Roboter-Lehrvorrichtung 30 Erkennungszielworte, für die die Beziehung besteht, dass der durch das Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält, aus der Erkennungszielwort-Speichereinheit 314. Dann zeigt die Roboter-Lehrvorrichtung 30 eine Liste von Befehlen, die in der Erkennungszielwort-Speichereinheit 314 mit den extrahierten Erkennungszielworten in einen Zusammenhang gebracht sind, als Kandidaten an der Anzeigevorrichtung 31 an (Schritt S29). Wenn der durch das Sprechen ausgedrückte Ausdruck kein in einem Erkennungszielwort enthaltenes Wort enthält (S28: NEIN), kehrt die Verarbeitung zu Schritt S22 zurück.
9 zeigt eine Auswahlbildschirmdarstellung 411 als ein Beispiel für eine Liste, die in Schritt S29 an der Anzeigevorrichtung 31 angezeigt wird. Wenn die Äußerung des Betreibers OP zum Beispiel wie in der nachstehenden Tabelle 2 gezeigt ‚open‘ enthält, können die Erkennungszielworte ‚handopen‘ und ‚boxopen‘ als Kandidaten extrahiert werden. Oder wenn die Äußerung des Betreibers OP wie in der nachstehenden Tabelle 2 gezeigt ‚hand‘ enthält, können die Erkennungszielworte ‚handopen‘ und ‚handclose‘ als Kandidaten extrahiert werden. Tabelle 2
Äußerung des Betreibers | Erkennungszielwort-Kandidaten |
... open | handopen boxopen |
hand ... | handopen handclose |
-
Die Auswahlbildschirmdarstellung 411 von 9 zeigt ein Beispiel für den Fall, bei dem die Erkennungszielworte ‚handopen‘ und ‚boxopen‘ als Kandidaten extrahiert wurden, wenn die Äußerung des Betreibers OP ‚open‘ enthalten hat. Die Roboter-Lehrvorrichtung 30 nimmt über die Auswahlbildschirmdarstellung 411 eine Auswahlbetätigung durch den Betreiber OP entgegen (Schritt S210). Wenn die Roboter-Lehrvorrichtung 30 über die Auswahlbildschirmdarstellung 411 eine Auswahlbetätigung, die irgendeine Operation (irgendeinen Befehl) bestimmt, erhalten hat (S210: JA), wird die bestimmte Operation (der Befehl) gewählt und ausgeführt (Schritt S211, S27). Wenn in der Auswahlbildschirmdarstellung 411 keine von dem Betreiber OP beabsichtigte Operation vorhanden ist (S210: NEIN), und der Betreiber OP in der Auswahlbildschirmdarstellung 411 ‚keines davon‘ ausgewählt hat (S212), kehrt die Verarbeitung zu Schritt S22 zurück. Durch die anhand von 8 und 9 erklärte Sprecheingabelehrverarbeitung kann der Betreiber OP auch dann den gewünschten Befehl geben, wenn die Roboter-Lehrvorrichtung 30 nur einen Teil des Inhalts der Äußerung des Betreibers OP erkennen konnte.
-
10 ist ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung zwischen einem durch Sprechen ausgedrückten Ausdruck und einem in der Entsprechungsbeziehungs-Speichereinheit 314 gespeicherten Erkennungszielwort, dass der durch Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem in der Erkennungszielwort-Speichereinheit 314 gespeicherten Erkennungszielwort ähnlich ist, darstellt. Da die Schritte S31 bis S37 in dem Ablaufdiagramm von 10 jeweils den gleichen Verarbeitungsinhalt wie die Schritte S11 bis S17 in 6 aufweisen, wird auf ihre Erklärung verzichtet. Wenn in Schritt S33 bestimmt wird, dass der durch Sprechen eingegebene Ausdruck kein Erkennungszielwort enthält (S33: NEIN), geht die Verarbeitung zu Schritt S38 über.
-
In Schritt S38 bestimmt die Roboter-Lehrvorrichtung 30, ob der durch das Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist, oder nicht. Wenn der durch das Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist (S38: JA), extrahiert die Roboter-Lehrvorrichtung 30 Erkennungszielworte, für die die Beziehung besteht, dass der durch das Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist, aus der Erkennungszielwort-Speichereinheit 314. Als ein Beispiel kann die Roboter-Lehrvorrichtung 30 (die Erkennungszielwort-Bestimmungseinheit 316) über Wörterbuchdaten verfügen, in denen Ausdrücke, die Erkennungszielworte bilden, und Ausdrücke mit einer ähnlichen Bedeutung wie diese Ausdrücke in einen Zusammenhang gebracht sind. Dann zeigt die Roboter-Lehrvorrichtung 30 eine Liste von Befehlen, die in der Erkennungszielwort-Speichereinheit 314 mit dem extrahierten Erkennungszielwort in einen Zusammenhang gebracht sind, als Kandidaten an der Anzeigevorrichtung 31 an (Schritt S39).
11 zeigt eine Auswahlbildschirmdarstellung 421 als ein Beispiel für eine Liste, die in Schritt S39 an der Anzeigevorrichtung 31 angezeigt wird. Wenn die Äußerung des Betreibers OP zum Beispiel wie in der nachstehenden Tabelle 3 gezeigt ‚handöffnen‘ oder ‚diehandöffnen‘ lautet, kann die Roboter-Lehrvorrichtung 30 den Inhalt dieser Äußerung interpretieren und ‚handopen‘ als Erkennungszielwort mit einem ähnlichen Inhalt wie dem geäußerten Inhalt extrahieren. Oder wenn die Äußerung des Betreibers OP wie in der nachstehenden Tabelle 3 gezeigt ‚handschließen‘ oder ‚diehandschließen‘ lautet, kann die Roboter-Lehrvorrichtung 30 den Inhalt dieser Äußerung interpretieren und ‚handclose‘ als Erkennungszielwort mit einem ähnlichen Inhalt wie dem geäußerten Inhalt extrahieren. Tabelle 3
Äußerung des Betreibers | Erkennungszielwort-Kandidaten |
handöffnen diehandöffnen | handopen |
handschließen diehandschließen | handclose |
-
Die Auswahlbildschirmdarstellung 421 von 11 ist ein Beispiel für einen Fall, in dem bei der Äußerung ‚handöffnen‘ durch den Betreiber OP das Erkennungszielwort ‚handopen‘ als Kandidat extrahiert wurde. Die Roboter-Lehrvorrichtung 30 nimmt über die Auswahlbildschirmdarstellung 421 eine Auswahlbetätigung durch den Betreiber OP entgegen (Schritt S310). Wenn die Roboter-Lehrvorrichtung 30 über die Auswahlbildschirmdarstellung 421 eine Auswahlbetätigung, die irgendeine Operation (irgendeinen Befehl) bestimmt, erhalten hat (S310: JA), wird die bestimmte Operation (der Befehl) gewählt und ausgeführt (Schritt S311, S37). Wenn in der Auswahlbildschirmdarstellung 421 keine beabsichtigte Operation vorhanden ist (S310: NEIN), und der Betreiber OP in der Auswahlbildschirmdarstellung 421 ‚keines davon‘ ausgewählt hat (S312), kehrt die Verarbeitung zu Schritt S32 zurück. Durch die anhand von 10 und 11 erklärte Sprecheingabelehrverarbeitung kann die Roboter-Lehrvorrichtung 30 in Schritt S38 auf der Grundlage dessen, ob in dem erkannten Ausdruck ein Ausdruck, der einem in einem Erkennungszielwort enthaltenen Ausdruck ähnlich ist, enthalten ist oder nicht, entscheiden, welches Erkennungszielwort dadurch eigentlich beabsichtigt war. Folglich kann der Betreiber OP einen gewünschten Befehl auch dann erteilen, wenn er sich das Erkennungszielwort nicht richtig gemerkt hat.
-
Die Programmbearbeitungseinheit 312 kann auch eine Betriebsprogramm-Erstellungseinheit 391 umfassen, die unter Verwendung des wenigstens einen Worts, das durch die Sprecherkennungseinheit 311 erkannt wurde, als Dateibezeichnung eine Neuerstellung einer Datei eines Betriebsprogramms vornimmt. Beispielsweise erstellt die Betriebsprogramm-Erstellungseinheit 391 unter Verwendung eines durch Sprechen eingegebenen Worts als Dateibezeichnung neu ein Betriebsprogramm, wenn an der Roboter-Lehrvorrichtung 30 eine bestimmte Tastenbetätigung, die ein Betriebsprogramm neu erstellt, vorgenommen wurde und der Sprechaktivierungsschalter 301a betätigt wurde.
-
Außerdem kann die Roboter-Lehrvorrichtung 30 ferner eine Betriebsprogramm-Speichereinheit 318 umfassen, die mehrere Betriebsprogramme speichert, und kann die Programmbearbeitungseinheit 312 ferner eine Betriebsprogramm-Auswahleinheit 392 umfassen, die auf der Basis wenigstens eines Erkennungszielworts, das durch die Sprecherkennungseinheit 311 erkannt wurde, ein Betriebsprogramm als Gegenstand für die Erstellung einer Bearbeitungsbildschirmdarstellung aus den mehreren in der Betriebsprogramm-Speichereinheit 318 gespeicherten Betriebsprogrammen wählt. Beispielsweise wählt die Betriebsprogramm-Auswahleinheit 392 ein Betriebsprogramm, das dem durch Sprechen eingegebenen Wort entspricht, als Bearbeitungsobjekt, wenn an der Roboter-Lehrvorrichtung 30 eine Tastenbetätigung zum Anzeigen einer Liste der in der Betriebsprogramm-Speichereinheit 318 gespeicherten Betriebsprogramme vorgenommen wurden und der Sprechaktivierungsschalter 301a betätigt wurde.
-
Die Programme zur Ausführung der bei der oben beschriebenen Ausführungsform gezeigten Sprecheingabeverarbeitung ( 3), Sprachumschaltverarbeitung (5) und Sprecheingabelehrverarbeitung (6, 8, 10) können auf verschiedene Arten von computerlesbaren Aufzeichnungsmedien (zum Beispiel einen ROM, einen EEPROM, einen Halbleiterspeicher wie etwa einen Flash-Speicher, ein magnetisches Aufzeichnungsmedium, eine optische Platte wie einen CD-ROM einen DVD-ROM usw.) aufgezeichnet werden.