DE102020110614B4 - Roboter-lehrvorrichtung - Google Patents

Roboter-lehrvorrichtung Download PDF

Info

Publication number
DE102020110614B4
DE102020110614B4 DE102020110614.9A DE102020110614A DE102020110614B4 DE 102020110614 B4 DE102020110614 B4 DE 102020110614B4 DE 102020110614 A DE102020110614 A DE 102020110614A DE 102020110614 B4 DE102020110614 B4 DE 102020110614B4
Authority
DE
Germany
Prior art keywords
unit
recognition target
robot
target word
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020110614.9A
Other languages
English (en)
Other versions
DE102020110614A1 (de
Inventor
Teppei HOSHIYAMA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102020110614A1 publication Critical patent/DE102020110614A1/de
Application granted granted Critical
Publication of DE102020110614B4 publication Critical patent/DE102020110614B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Educational Technology (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Roboter-Lehrvorrichtung (30) zur Vornahme des Lehrens eines Roboters, wobei die Roboter-Lehrvorrichtung (30) umfasst:eine Anzeigevorrichtung (31);ein Mikrophon (40), das Gesprochenes aufnimmt und ein Sprechsignal ausgibt;eine Sprecherkennungseinheit (311), die aus dem Sprechsignal wenigstens ein Wort, das durch das Gesprochene ausgedrückt wird, erkennt und Zeichendaten, die aus dem wenigstens einen Wort bestehen, ausgibt;eine Programmbearbeitungseinheit (312), die eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm des Roboters erzeugt und an der Anzeigevorrichtung (31) anzeigt;eine Kommentareingabeeinheit (313), die in einem Zustand, in dem die Bearbeitungsbildschirmdarstellung für das Betriebsprogramm an der Anzeigevorrichtung (31) angezeigt wurde, den Ausdruck, den die von der Sprecherkennungseinheit (311) ausgegebenen Zeichendaten darstellen, als Kommentartext zu einem Befehl in dem Betriebsprogramm hinzufügt;eine Entsprechungsbeziehungs-Speichereinheit (314), die jeden von mehreren Arten von Befehlen, die für das Lehren des Roboters verwendet werden, in einem Zusammenhang mit einem Erkennungszielwort speichert;eine Entsprechungsbeziehungs-Ergänzungseinheit (315), die einen hinzugefügten Kommentartext als ein neues Erkennungszielwort ansetzt und der Entsprechungsbeziehungs-Speichereinheit (314) dieses neue Erkennungszielwort in einem Zusammenhang mit dem Befehl in dem Betriebsprogramm, dem der Kommentartext hinzugefügt wurde, hinzufügt;eine Erkennungszielwort-Bestimmungseinheit (316), die bestimmt, ob in dem durch die Zeichendaten dargestellten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit (314) gespeichertes Erkennungszielwort enthalten ist oder nicht; undeine Befehlsausführungssignal-Ausgabeeinheit (317), die ein Signal zur Ausführung eines Befehls, der in der Entsprechungsbeziehungs-Speichereinheit (314) in einem Zusammenhang mit dem Erkennungszielwort, dessen Vorhandensein in dem Ausdruck der Zeichendaten bestimmt wurde, gespeichert ist, an die Robotersteuervorrichtung (20) ausgibt.

Description

  • Allgemeiner Stand der Technik
  • Die vorliegende Erfindung betrifft eine Roboter-Lehrvorrichtung.
  • Betriebsprogramme von Robotern werden im Allgemeinen durch eine Tastenbetätigung einer Lehrvorrichtung erstellt und bearbeitet. Die Patentoffenlegungsschrift JP 2006-068 865 A und die Patentoffenlegungsschrift JP 2005-148 789 A beschreiben Beispiele für eine Lehrvorrichtung, die über eine Sprecheingabefunktion verfügt. In der Patentoffenlegungsschrift JP 2006-068 865 A heißt es, dass „im Fall der vorliegenden Erfindung dann, wenn der Betreiber für ein gewünschtes Betätigungsmenü den Sprecheingabeaktivierungsschalter 7 drückt und zu der Sprecheingabeeinheit 6 spricht, das Sprecheingabesignal durch die Sprecherkennungsverarbeitungseinheit 8 in einen Text, der dem durch die Sprecheingabeeinheit 6 eingegebenen Sprechsignal entspricht, umgewandelt wird, mit den aufgezeichneten Menüs des Speichermittels 10d verglichen wird und die aufgezeichnete entsprechende Betätigungsmenübildschirmdarstellung gewählt wird und an dem Anzeigebildschirm 5c angezeigt wird“ (Absatz 0009). Die Patentoffenlegungsschrift JP 2005-148 789 A beschreibt eine „Programmbearbeitungsvorrichtung, die ein Sprecheingabemittel; ein Mittel das mehrere Muster zum Vervollständigen eines Satzes durch Setzen wenigstens einer Zeichenfolge an eine bestimmte Stelle speichert; ein Zeichenfolgenkandidaten-Speichermittel, das mehrere Zeichenfolgenkandidaten, die in die Muster eingesetzt werden, speichert; ein Entsprechungsbeziehungs-Speichermittel, das Entsprechungsbeziehungen zwischen Sätzen, die durch Einsetzen der Zeichenfolgenkandidaten in die Muster vervollständigt wurden, und Befehlen, die in dem Lehrprogramm des Roboters verwendet werden, speichert; ein Suchmittel, das bei Vorhandensein eines Satzes, der mit dem durch das Sprecheingabemittel eingegebenen Satz übereinstimmt, diesen übereinstimmenden Satz findet; und ein Mittel, das den durch das Suchmittel gefundenen übereinstimmenden Satz auf Basis der in dem Entsprechungsbeziehungs-Speichermittel gespeicherten Entsprechungsbeziehung in einen Roboterbefehl umwandelt und diesen Roboterbefehl in das Lehrprogramm einsetzt, umfasst“ (Anspruch 1).
  • Weitere Lehrvorrichtungen sind beispielsweise aus EP 2 557 466 B1 , US 2019/0 077 009 A1 , US 7 643 907 B2 und JP 2003-080 482 A bekannt. Die EP 2 963 641 A1 und US 2015/0 161 099 A1 beschreiben unter anderem Spracherkennung in Verbindung mit Maschinen.
  • Kurzdarstellung der Erfindung
  • Beim Lehren eines Roboters unter Verwendung einer Lehrvorrichtung kann es vorkommen, dass ein Betreiber parallel zu dem Lehren des Roboters eine andere Tätigkeit ausführt.
  • Der Erfindung liegt daher die Aufgabe zu Grunde, eine Roboter-Lehrvorrichtung bereitzustellen, die die Belastung für den Betreiber beim Lehren des Roboters noch weiter verringert.
  • Erfindungsgemäß wird die vorstehend genannte Aufgabe im Hinblick auf die Roboter-Lehrvorrichtugn durch den Gegenstand des Anspruchs 1 gelöst.
  • Konkret wird diese Aufgabe durch eine Roboter-Lehrvorrichtung zur Vornahme des Lehrens eines Roboters gelöst, wobei die Roboter-Lehrvorrichtung folgendes umfasst: eine Anzeigevorrichtung; ein Mikrophon, das Gesprochenes aufnimmt und ein Sprechsignal ausgibt; eine Sprecherkennungseinheit, die aus dem Sprechsignal wenigstens ein Wort, das durch das Gesprochene ausgedrückt wird, erkennt und Zeichendaten, die aus dem wenigstens einen Wort bestehen, ausgibt; eine Programmbearbeitungseinheit, die eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm des Roboters erzeugt und an der Anzeigevorrichtung anzeigt; eine Kommentareingabeeinheit, die in einem Zustand, in dem die Bearbeitungsbildschirmdarstellung für das Betriebsprogramm an der Anzeigevorrichtung angezeigt wurde, den Ausdruck, den die von der Sprecherkennungseinheit ausgegebenen Zeichendaten darstellen, als Kommentartext zu einem Befehl in dem Betriebsprogramm hinzufügt; eine Entsprechungsbeziehungs-Speichereinheit, die jeden von mehreren Arten von Befehlen, die für das Lehren des Roboters verwendet werden, in einem Zusammenhang mit einem Erkennungszielwort speichert; eine Entsprechungsbeziehungs-Ergänzungseinheit, die einen hinzugefügten Kommentartext als ein neues Erkennungszielwort ansetzt und der Entsprechungsbeziehungs-Speichereinheit dieses neue Erkennungszielwort in einem Zusammenhang mit dem Befehl in dem Betriebsprogramm, dem der Kommentartext hinzugefügt wurde, hinzufügt; eine Erkennungszielwort-Bestimmungseinheit, die bestimmt, ob in dem durch die Zeichendaten dargestellten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit gespeichertes Erkennungszielwort enthalten ist oder nicht; und eine Befehlsausführungssignal-Ausgabeeinheit, die ein Signal zur Ausführung eines Befehls, der in der Entsprechungsbeziehungs-Speichereinheit in einem Zusammenhang mit dem Erkennungszielwort, dessen Vorhandensein in dem Ausdruck der Zeichendaten bestimmt wurde, gespeichert ist, an die Robotersteuervorrichtung ausgibt.
  • Einfache Erklärung der Zeichnungen
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden durch die nachstehende Erklärung einer Ausführungsform in Verbindung mit den beiliegenden Zeichnungen noch klarer werden. In den Zeichnungen
    • ist 1 eine Ansicht, die den gesamten Aufbau eines Robotersystems, das eine Roboter-Lehrvorrichtung nach einer Ausführungsform enthält, darstellt;
    • ist 2 ein Funktionsblockdiagramm der Roboter-Lehrvorrichtung;
    • ist 3 ein Ablaufdiagramm, das die Sprecheingabeverarbeitung darstellt;
    • ist 4 eine Ansicht, die ein Beispiel für eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm zeigt;
    • ist 5 ein Ablaufdiagramm, das die Sprachumschaltverarbeitung darstellt;
    • ist 6 ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung darstellt;
    • zeigt 7 ein Beispiel für eine Meldungsbildschirmdarstellung zur Ermittlung der Ausführungserlaubnis des durch Sprechen eingegebenen Befehls;
    • ist 8 ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung, dass der durch Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält, darstellt;
    • zeigt 9 eine Auswahlbildschirmdarstellung als ein Beispiel für eine Liste, die bei der Sprecheingabelehrverarbeitung von 8 an der Anzeigevorrichtung angezeigt wird;
    • ist 10 ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung, dass der durch Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist, darstellt; und
    • zeigt 11 eine Auswahlbildschirmdarstellung als ein Beispiel für eine Liste, die bei der Sprecheingabelehrverarbeitung von 10 an der Anzeigevorrichtung angezeigt wird.
  • Ausführliche Erklärung
  • Nachstehend wird unter Bezugnahme auf die beiliegenden Zeichnungen eine Ausführungsform der vorliegenden Offenbarung erklärt. Über die einzelnen Zeichnungen hinweg sind entsprechende Aufbauelemente mit gemeinsamen Bezugszeichen versehen. Zur Erleichterung des Verständnisses ist der Maßstab dieser Zeichnungen passend verändert. Die in den Zeichnungen gezeigte Ausführungsform ist ein Beispiel für die Ausführungsweise der vorliegenden Erfindung, doch ist die vorliegende Erfindung nicht auf die dargestellte Ausführungsweise beschränkt.
  • 1 ist eine Ansicht, die den gesamten Aufbau eines Robotersystems 100, das eine Roboter-Lehrvorrichtung 30 nach einer Ausführungsform enthält, darstellt. 2 ist ein Funktionsblockdiagramm der Roboter-Lehrvorrichtung 30. Wie in 1 gezeigt umfasst das Robotersystem 100 einen Roboter 10, eine Robotersteuervorrichtung 20, die den Roboter 10 steuert, und eine an die Robotersteuervorrichtung 20 angeschlossene Roboter-Lehrvorrichtung 30. Ein Mikrophon 40, das Gesprochenes aufnimmt und ein Sprechsignal ausgibt, ist drahtgebunden oder drahtlos an die Roboter-Lehrvorrichtung 30 angeschlossen. Als ein Beispiel ist das Mikrophon 40 in 1 als Mikrophon vom Headset-Typ, das ein Betreiber OP, der die Roboter-Lehrvorrichtung 30 betätigt, trägt, ausgeführt. Das Mikrophon 40 kann auch in die Roboter-Lehrvorrichtung 30 eingebaut sein.
  • Der Roboter 10 ist zum Beispiel ein vertikaler Knickarmroboter. Für den Roboter 10 können auch andere Arten von Robotern verwendet werden. Die Robotersteuervorrichtung 20 steuert den Betrieb des Roboters 10 gemäß verschiedenen Befehlen, die von der Roboter-Lehrvorrichtung 30 eingegeben werden. Die Robotersteuervorrichtung 20 kann auch als allgemeiner Computer mit einer CPU, einem ROM, einem RAM, einer Speichervorrichtung, einer Anzeigeeinheit, einer Betätigungseinheit, Schnittstellen zu externen Geräten, einer Netzwerkschnittstelle, und dergleichen aufgebaut sein. Die Roboter-Lehrvorrichtung 30 ist zum Beispiel ein Lehrbedienpanel oder ein tragbares Informationsterminal wie etwa ein Tablet-Terminal oder dergleichen. Die RoboterSteuervorrichtung 30 kann auch als allgemeiner Computer mit einer CPU, einem ROM, einem RAM, einer Speichervorrichtung, einer Anzeigeeinheit, einer Betätigungseinheit, Schnittstellen zu externen Geräten, einer Netzwerkschnittstelle, und dergleichen aufgebaut sein.
  • Die Roboter-Lehrvorrichtung 30 umfasst eine Anzeigevorrichtung 31 und eine Betätigungseinheit 32. An der Betätigungseinheit 32 sind Hardkeys (Hardwaretasten) 302 für die Lehreingabe angeordnet. Die Anzeigevorrichtung 31 weist ein Touchpanel auf, und auf dem Anzeigebildschirm der Anzeigevorrichtung 31 sind Softkeys 301 angeordnet. Der Betreiber OP kann durch Betätigen der Betätigungstasten (der Hardkeys 302 und der Softkeys 301) das Lehren oder Betätigen des Roboters 10 vornehmen. Wie in 2 gezeigt weist die Roboter-Lehrvorrichtung 30 eine Sprecherkennungseinheit 311, die aus dem von dem Mikrophon 40 eingegebenen Sprechsignal wenigstens ein Wort, das durch das Gesprochene ausgedrückt wird, erkennt und Zeichendaten, die aus dem wenigstens einen Wort bestehen, ausgibt, eine Programmbearbeitungseinheit 312, die eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm des Roboters 10 erzeugt und an der Anzeigevorrichtung 31 anzeigt, und eine Kommentareingabeeinheit 313, die in einem Zustand, in dem die Bearbeitungsbildschirmdarstellung für das Betriebsprogramm an der Anzeigevorrichtung 31 angezeigt wurde, den Ausdruck, den die von der Sprecherkennungseinheit 311 ausgegebenen Zeichendaten darstellen, als Kommentartext zu einem Befehl in dem Betriebsprogramm hinzufügt, auf. Durch diese Ausführung kann der Betreiber OP auch in einer Situation, in der beide Hände für das Lehren des Roboters 10 durch eine händische Betätigung der Roboter-Lehrvorrichtung 30 belegt sind, eine gesprochene Eingabe eines Kommentartexts zu einem Betriebsprogramm vornehmen und ein Betriebsprogramm mit einer hohen Lesbarkeit erstellen. Folglich wird die Belastung für den Betreiber beim Lehren des Roboters verringert.
  • Unter Bezugnahme auf 2 werden die Funktionen der Roboter-Lehrvorrichtung 30 näher erklärt. Die Roboter-Lehrvorrichtung 30 umfasst ferner eine Entsprechungsbeziehungs-Speichereinheit 314, die jeden von mehreren Arten von Befehlen, die für das Lehren des Roboters 10 verwendet werden, in einem Zusammenhang mit einem Erkennungszielwort speichert, eine Entsprechungsbeziehungs-Ergänzungseinheit 315, die einen hinzugefügten Kommentartext als ein neues Erkennungszielwort ansetzt und der Entsprechungsbeziehungs-Speichereinheit 314 dieses neue Erkennungszielwort in einem Zusammenhang mit dem Befehl in dem Betriebsprogramm, dem der Kommentartext hinzugefügt wurde, hinzufügt, eine Erkennungszielwort-Bestimmungseinheit 316, die bestimmt, ob in dem durch die Zeichendaten dargestellten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort enthalten ist oder nicht, und eine Befehlsausführungssignal-Ausgabeeinheit 317, die ein Signal zur Ausführung eines Befehls, der in der Entsprechungsbeziehungs-Speichereinheit 314 in einem Zusammenhang mit dem Erkennungszielwort, dessen Vorhandensein in dem Ausdruck der Zeichendaten bestimmt wurde, gespeichert ist, an die Robotersteuervorrichtung 20 ausgibt. Die einzelnen Funktionen der in 2 gezeigten Roboter-Lehrvorrichtung 30 können durch Software oder durch Zusammenwirken von Hardware und Software ausgeführt werden.
  • Als nächstes wird unter Bezugnahme auf 3 und 4 die in der Roboter-Lehrvorrichtung 30 mit dem obigen Aufbau ausgeführte Kommentareingabeverarbeitung erklärt. 3 ist ein Ablaufdiagramm der Kommentareingabeverarbeitung, und 4 zeigt ein Beispiel für eine Bearbeitungsbildschirmdarstellung an der Anzeigevorrichtung 31, wenn die Erstellung/Bearbeitung eines Betriebsprogramms vorgenommen wird. Die Kommentareingabeverarbeitung von 3 wird unter Steuerung durch die CPU der Roboter-Lehrvorrichtung 30 ausgeführt. Zu Beginn wählt der Betreiber OP durch Betätigen der Softkeys oder der Hardkeys einen Befehl in dem in Erstellung befindlichen Betriebsprogramm, bei dem eine Kommentareingabe vorgenommen werden soll, und bringt er die Roboter-Lehrvorrichtung 30 in einen Zustand, in dem sie auf die Kommentareingabe wartet (Schritt S101). In der vorliegenden Beschreibung wird der Ausdruck „Befehl“ mit einer Bedeutung verwendet, die einen Befehl (einschließlich eines Makrobefehls) an den Roboter, dem Befehl zugehörige Daten sowie andere Arten von Daten im Zusammenhang mit dem Lehren beinhaltet. Was die wie in 4 gezeigte Bearbeitungsbildschirmdarstellung 351 betrifft, wird ein Fall erklärt, bei dem dem Befehl ‚RO[1]‘ in der vierten Zeile des Betriebsprogramms der Kommentartext ‚Hand schließen‘ durch eine Sprecheingabe hinzugefügt wird. Beispielsweise wählt der Betreiber OP die vierte Zeile des Betriebsprogramms durch eine Berührungsbetätigung und gibt er an der Eingabestelle des Kommentartexts einen Code, der eine Kommentareingabe anzeigt, ein, wodurch die Roboter-Lehrvorrichtung 30 in einen Zustand gebracht wird, in dem sie auf die Kommentareingabe wartet.
  • Dann betätigt der Betreiber OP einen Sprechaktivierungsschalter 301a, der als einer der Softkeys 301 angeordnet ist, wodurch die Roboter-Lehrvorrichtung 30 in einen Zustand, in dem die Sprecheingabe aktiv ist, gebracht wird (Schritt S102). Hier ist der Zustand, in dem die Sprecheingabe aktiv ist, ein Zustand, in dem das Mikrophon 40, die Sprecherkennungseinheit 311 und die Erkennungszielwort-Bestimmungseinheit 316 arbeiten. Der Sprechaktivierungsschalter 301a kann auch als einer der Hardkeys 302 angeordnet sein. Der Sprechaktivierungsschalter 301a wirkt zum Beispiel so, dass die Sprecheingabe durch einmaliges Drücken des Softkeys oder des Hardkeys aktiviert wird und dieser Zustand beibehalten wird und die Sprecheingabe durch das nächste Drücken deaktiviert wird.
  • Dann nimmt der Betreiber OP die Sprecheingabe des Kommentartexts vor (Schritt S103). Die Sprecherkennungseinheit 311 nimmt auf Basis von Wörterbuchdaten 322 eine Sprecherkennung an dem Sprechsignal, das durch das Mikrophon 40 eingegeben wurde, vor und erkennt aus dem Sprechsignal wenigstens ein Wort. Die Wörterbuchdaten 322 weisen für mehrere Arten von Sprachen verschiedene Wörterbuchdaten, die für die Sprecherkennung erforderlich sind, wie etwa ein Tonmodell, ein Wortmodell, und dergleichen auf. Wenn kein erkanntes Wort vorhanden ist (S104: NEIN), kehrt die Verarbeitung zu Schritt S103 zurück. Wenn ein erkanntes Wort vorhanden ist (S104: JA), gibt die Roboter-Lehrvorrichtung 30 den Kommentartext in den gewählten Befehl ein (Schritt S105).
  • In der Bearbeitungsbildschirmdarstellung 351 von 4 sind ‚Werkstück halten‘ in der ersten Zeile, ‚Hand schließen‘ in der vierten Zeile, und ‚Werkstückhaltemarkierung‘ in der fünften Zeile jeweils Beispiele für Kommentartexte, die durch die Kommentareingabeverarbeitung von 3 durch Sprechen in das Betriebsprogramm eingegeben wurden. ‚Werkstück halten‘ in der ersten Zeile ist ein Kommentartext für das gesamte Betriebsprogramm von 4 und drückt aus, dass dieses Betriebsprogramm einen Betrieb vornimmt, bei dem „ein Werkstück gehalten wird“. ‚Hand schließen‘ in der vierten Zeile drückt aus, dass der Befehl 'RO[1] = EIN ein Betrieb „zum Schließen der Hand“ des Roboters 10 ist. ‚Werkstückhaltemarkierung‘ in der fünften Zeile drückt aus, dass der Befehl ‚DO[1] = EIN‘ ein Befehl zum Setzen einer Markierung, die den Werkstückhaltebetrieb ausdrückt, ist. Durch die oben beschriebene Kommentareingabeverarbeitung kann der Betreiber OP auch in einer Situation, in der beide Hände für das Lehren des Roboters 10 durch eine händische Betätigung der Roboter-Lehrvorrichtung 30 belegt sind, eine gesprochene Eingabe eines Kommentartexts zu einem Betriebsprogramm vornehmen und ein Betriebsprogramm mit einer hohen Lesbarkeit erstellen. Folglich wird die Belastung für den Betreiber beim Lehren des Roboters verringert.
  • Wie in 2 gezeigt kann die Sprecherkennungseinheit 311 über eine Sprachauswahleinheit 321, die an der Anzeigevorrichtung 31 eine Sprachauswahlbildschirmdarstellung zur Wahl der Sprache, die das Objekt für die Erkennung des Gesprochenen darstellt, anzeigt und durch eine Benutzerbetätigung eine Wahl der Sprache entgegennimmt, verfügen. Die Sprecherkennungseinheit 311 weist Wörterbuchdaten 322 für die verschiedenen Sprachen auf und kann die Worterkennung auf Basis des Sprechsignals unter Verwendung der Wörterbuchdaten für die von dem Benutzer über die Sprachauswahleinheit 321 gewählte Sprache vornehmen. Außerdem kann die Erkennungszielwort-Bestimmungseinheit 316 durch Speichern von Erkennungszielworten in verschiedenen Sprachen in der Entsprechungsbeziehungs-Speichereinheit 314 die Erkennung des Zielworts auf Basis der von dem Benutzer über die Sprachauswahleinheit 321 gewählten Sprache vornehmen.
  • Die Roboter-Lehrvorrichtung 30 (die Sprecherkennungseinheit 311) kann auch über eine Funktion verfügen, wodurch die Sprache des Gesprochenen unter Verwendung der Wörterbuchdaten 322 der mehreren Sprachen ermittelt wird und an der Anzeigevorrichtung 31 eine Meldung angezeigt wird, die zum Umschalten der gewählten Sprache zu der ermittelten Sprache auffordert, wenn sich die ermittelte Sprache von der über die Sprachauswahleinheit 321 gewählten Sprache unterscheidet. 5 ist ein Ablaufdiagramm, das eine solche Sprachumschaltverarbeitung darstellt. Die Sprachumschaltverarbeitung wird zum Beispiel in einem Zustand, in dem auf eine Kommentareingabe gewartet wird, wie bei Schritt S101 von 3, oder in einem Zustand, in dem auf eine Lehreingabe gewartet wird, ausgeführt. Zunächst betätigt der Betreiber OP den Sprechaktivierungsschalter 301a, wodurch die Sprecheingabe aktiviert wird (Schritt S201). In diesem Zustand nimmt der Betreiber OP eine Sprecheingabe vor (Schritt S202) .
  • Dann bestimmt die Roboter-Lehrvorrichtung 30 für die Sprecheingabe, ob ein erkannter Ausdruck in der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist oder nicht (Schritt S203) . Wenn ein erkannter Ausdruck in der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist (Schritt S203: JA), endet die aktuelle Sprachumschaltverarbeitung. Wenn andererseits kein erkannter Ausdruck in der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist (Schritt S203: NEIN), bestimmt die Roboter-Lehrvorrichtung 30 durch Verwenden der Wörterbuchdaten 322 der verschiedenen Sprachen, ob in der Sprecheingabe ein erkannter Ausdruck in einer anderen Sprache als der durch die Sprachauswahleinheit 321 gewählten Sprache vorhanden ist oder nicht (Schritt S204). Wenn als Ergebnis ein erkannter Ausdruck in einer anderen Sprache vorhanden ist (Schritt S204: JA), wird an der Anzeigevorrichtung 31 eine Meldung angezeigt, die zum Umschalten der Sprache, die das Objekt der Sprecheingabe darstellt, zu der in Schritt S204 bestimmten anderen Sprache auffordert (Schritt S205). Wenn kein erkannter Ausdruck in einer anderen Sprache vorhanden ist (Schritt S204: NEIN), kehrt die Verarbeitung zu Schritt S202 zurück.
  • Als nächstes erhält die Roboter-Lehrvorrichtung 30 eine Benutzerbetätigung, die ein Umschalten zu der in Schritt S205 vorgeschlagenen Sprache erlaubt oder nicht (Schritt S206). Wenn eine Betätigung erfolgt ist, die das Umschalten zu der vorgeschlagenen Sprache erlaubt (Schritt S206: JA), nimmt die Roboter-Lehrvorrichtung 30 das Umschalten zu der vorgeschlagenen Sprache vor (Schritt S207). Wenn andererseits eine Betätigung erfolgt ist, die das Umschalten zu der vorgeschlagenen Sprache nicht erlaubt (Schritt S206: NEIN), endet die aktuelle Sprachumschaltverarbeitung. In der Entsprechungsbeziehungs-Speichereinheit 314 sind auch Erkennungszielworte für mehrere Sprachen gespeichert. Dadurch kann die Erkennungszielwort-Bestimmungseinheit 316 im Fall eines Umschaltens der Sprache in Schritt S207 eine Erkennung von Erkennungszielworten in der Sprache, zu der umgeschaltet wurde, vornehmen.
  • Als nächstes wird die durch die Roboter-Lehrvorrichtung 30 bereitgestellte Lehrfunktion durch eine Sprecheingabe (einschließlich der Ausführung von Befehlen an den Roboter 10, der Eingabe von Befehlen in das Betriebsprogramm, usw.) erklärt. Bei der Erklärung der Vorteile der Lehrfunktion durch eine Sprecheingabe der Roboter-Lehrvorrichtung 30 soll ein Beispiel für die Betätigung im Fall der Eingabe des in 4 gezeigten Betriebsprogramms durch eine händische Betätigung erklärt werden. In der Bearbeitungsbildschirmdarstellung 351 des in 4 gezeigten Betriebsprogramms (‚Programm 1‘) wählt der Betreiber OP zum Beispiel im Fall einer Eingabe eines Befehls in die vierte Zeile die vierte Zeile durch eine Tastenbetätigung. Dann wählt der Betreiber OP durch eine Tastenbetätigung den Punkt ‚Befehl‘ (Bezugszeichen 361a) zur Befehlseingabe aus der unten in der Bearbeitungsbildschirmdarstellung 351 befindlichen Auswahlmenübildschirmdarstellung 361. Dadurch wird eine Popupmenü-Bildschirmdarstellung 362 angezeigt, in der eine Übersicht über Einteilungspunkte für die Befehle dargestellt ist. Der Betreiber OP wählt durch eine Tastenbetätigung den Punkt ‚E/A‘ (Bezugszeichen 362a) zur Eingabe eines E/A-Befehls. Dadurch wird eine Popupmenü-Bildschirmdarstellung 363 angezeigt, die einen Überblick über konkrete Befehle, die E/A-Befehlen entsprechen, zeigt. Hier wählt der Betreiber OP durch eine Tastenbetätigung den Befehl ‚RO [ ] =‘ (363a), und gibt er als Argument 1 in ‚[ ]‘ ein, und gibt er rechts von ‚=‘ ‚EIN‘ ein. Im Fall einer solchen händischen Tastenbetätigung ist es nötig, dass dem Benutzer vorab bekannt ist, dass sich der Befehl ‚RO[]=‘ unter dem Punkt E/A (Bezugszeichen 362a) in der Auswahlmenübildschirmdarstellung 361 befindet.
  • Die Roboter-Lehrvorrichtung 30 nach der vorliegenden Ausführungsform ermöglicht durch ein vorab vorgenommenes Speichern von Erkennungszielworten in der Roboter-Lehrvorrichtung 30 die Vornahme einer Eingabe usw. des gewünschten Befehls durch Aussprechen eines für den Betreiber OP leicht zu formulierenden Ausdrucks, ohne dass von dem Betreiber OP detaillierte Kenntnisse in Bezug auf den Befehl verlangt werden. Ferner zeichnet die Roboter-Lehrvorrichtung 30 den wie oben beschrieben eingegebenen Kommentartext automatisch als Erkennungszielwort auf. Dadurch kann der Betreiber OP zum Beispiel durch Aussprechen von ‚Hand schließen‘ in der Bearbeitungsbildschirmdarstellung des Betriebsprogramms den Befehl ‚RO[1]=EIN‘ eingeben, ohne eine Betätigung vorzunehmen, bei der ein wie oben beschriebenes schrittweises Durchlaufen von Menübildschirmdarstellungen erfolgt.
  • Die Lehrfunktion durch eine solche Sprecheingabe wird vorgenommen, indem die Erkennungszielwort-Bestimmungseinheit 316 bestimmt, ob in dem durch Sprechen ausgedrückten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort vorhanden ist oder nicht, und die Befehlsausführungssignal-Ausgabeeinheit 317 ein Signal zur Ausführung des Befehls, der in der Entsprechungsbeziehungs-Speichereinheit 314 in einem Zusammenhang mit dem erkannten Erkennungszielwort gespeichert ist, an die Robotersteuervorrichtung 20 ausgibt. Die nachstehende Tabelle 1 zeigt Beispiele für Informationen, die in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichert sind. In Tabelle 1 sind die vier Erkennungszielworte ‚jedeachseposition‘, ‚jedeachse‘, ‚jedeachsestelle‘, und ‚positionsanweisung‘ mit dem Befehl ‚jede Achse Position‘ in Zusammenhang gebracht. In diesem Fall kann der Betreiber OP durch Aussprechen eines beliebigen der vier Erkennungszielworte ‚jedeachseposition‘, ‚jedeachse‘, ‚jedeachsestelle‘, und ‚positionsanweisung‘ den Befehl ‚jede Achse Position‘ ausführen oder in das Betriebsprogramm eingeben. Auch mit jedem aus dem Befehl ‚lineare Position‘, dem Befehl ‚DO[]‘ und dem Befehl ‚RO[]‘ sind vier Erkennungszielworte in Zusammenhang gebracht. Tabelle 1
    Programmbefehl Erkennungszielwort 1 Erkennungszielwort 2 Erkennungszielwort 3 Erkennungszielwort 4
    jede Achse Position jedeachseposition jedeachse jedeachsestelle positionsanweisung
    lineare Position lineareposition linear linearestelle positionsanweisung
    DO [...] dee ooh digitaleroutput handschließen output
    RO [...] err ooh roboteroutput werkstückhaltemarkierung output
  • In Tabelle 1 sind ‚dee ooh‘, ‚digitaleroutput‘ und ‚output‘ unter den vier Erkennungszielworten, die mit dem Befehl ‚DO []‘ in einen Zusammenhang gebracht wurden, vorab aufgezeichnete Erkennungszielworte, und ist ‚handschließen‘ ein Erkennungszielwort, das der Entsprechungsbeziehungs-Speichereinheit 314 durch die Entsprechungsbeziehungs-Ergänzungseinheit 315 in Verbindung mit der Sprecheingabe des Kommentartexts in das Betriebsprogramm hinzugefügt wurde. Außerdem sind in der Tabelle 1 ‚err ooh‘, ‚roboteroutput‘ und ‚output‘ unter den vier Erkennungszielworten, die mit dem Befehl ‚RO []‘ in einen Zusammenhang gebracht wurden, vorab aufgezeichnete Erkennungszielworte, und ist ‚werkstückhaltemarkierung‘ ein Erkennungszielwort, das der Entsprechungsbeziehungs-Speichereinheit 314 durch die Entsprechungsbeziehungs-Ergänzungseinheit 315 in Verbindung mit der Sprecheingabe des Kommentartexts in das Betriebsprogramm hinzugefügt wurde. Da der Entsprechungsbeziehungs-Speichereinheit 314 auf diese Weise Ausdrücke, die der Betreiber OP durch Sprechen als Kommentartexte eingegeben hat, automatisch als Erkennungszielworte hinzugefügt werden, kann der Betreiber danach durch Aussprechen von Erkennungszielworten mit einer von ihm selbst verwendeten leicht verständlichen Formulierung gewünschte Befehle ausführen lassen oder in das Betriebsprogramm eingeben.
  • 6 ist ein Ablaufdiagramm, das die Lehrfunktion durch eine Sprecheingabe (nachstehend als Sprecheingabelehrverarbeitung bezeichnet) darstellt. Die Sprecheingabelehrverarbeitung von 6 wird unter Steuerung durch die CPU der Roboter-Lehrvorrichtung 30 ausgeführt. Der Betreiber OP betätigt in einem Zustand, in dem die Roboter-Lehrvorrichtung 30 eine Lehreingabe entgegennimmt, den Sprechaktivierungsschalter 301a, wodurch die Sprecheingabe aktiviert wird (Schritt S11). Dann spricht der Betreiber OP das Erkennungszielwort, das dem gewünschten Befehl entspricht, aus (Schritt S12). Als ein Beispiel wird angenommen, dass der Betreiber OP auf einen Befehl ‚HOP‘ zum Öffnen der Hand des Roboters 10 abzielt und ‚handopen‘ ausspricht. Die Roboter-Lehrvorrichtung 30 erkennt, ob der durch Sprechen eingegebene Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort enthält oder nicht (Schritt S13). Wenn in dem durch Sprechen eingegebenen Ausdruck kein Erkennungszielwort enthalten ist (S13: NEIN), kehrt die Verarbeitung zu Schritt S12 zurück. Hier wird angenommen, dass das durch den Betreiber OP ausgesprochene ‚handopen‘ als Erkennungszielwort in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichert ist. In diesem Fall wird bestimmt, dass in dem durch Sprechen eingegebenen Ausdruck ein Erkennungszielwort enthalten ist (S13: JA), und wird zu Schritt S14 übergegangen.
  • Als nächstes zeigt die Roboter-Lehrvorrichtung 30 (eine Ausführungserlaubnis-Anforderungseinheit 331) eine Meldungsbildschirmdarstellung 401 (siehe 7), die von dem Betreiber OP die Erlaubnis zur Ausführung des durch Sprechen eingegebenen Befehls verlangt, an der Anzeigevorrichtung 31 an (Schritt S14). Die Meldungsbildschirmdarstellung 401 enthält Tasten (‚ja‘, ‚nein‘), die eine Auswahlbetätigung durch den Betreiber OP im Hinblick auf eine Zustimmung zu der Ausführung des Befehls oder ihre Ablehnung entgegennehmen. In Schritt S15 wird die Auswahlbetätigung durch den Betreiber OP erhalten. Der Betreiber OP kann durch Betätigen einer Taste in der Meldungsbildschirmdarstellung 401 die Anweisung geben, ob der Befehl ‚HOP‘ ausgeführt werden soll oder nicht. Wenn eine Betätigung, die die Ausführung erlaubt, erhalten wird (S15: JA), interpretiert die Befehlsausführungssignal-Ausgabeeinheit 317, dass die Ausführung erlaubt wurde (Schritt S16), und sendet sie ein Signal zur Ausführung des Befehls an die Robotersteuervorrichtung 20 (Schritt S17). Wenn eine Betätigung, die die Ausführung nicht erlaubt, erhalten wird (S15: NEIN), kehrt die Verarbeitung zu Schritt S12 zurück.
  • Die Roboter-Lehrvorrichtung 30 kann auch so ausgeführt sein, dass sie in dem Zustand, in dem die Meldungsbildschirmdarstellung 401 angezeigt wird, die Auswahlbetätigung in Schritt S15 durch eine Sprecheingabe entgegennimmt. In diesem Fall bestimmt die Roboter-Lehrvorrichtung 30, dass die Ausführung des Befehls erlaubt wurde, wenn die Sprecherkennungseinheit 311 das Wort ‚ja‘, das die Ausführung des Befehls erlaubt, erkennen konnte. Dann sendet die Befehlsausführungssignal-Ausgabeeinheit 317 ein Signal zur Ausführung des Befehls ‚HOP‘ an die Robotersteuervorrichtung 20.
  • Die Erkennungszielwort-Bestimmungseinheit 316 kann auch so ausgeführt sein, dass sie dann, wenn in dem durch die Sprecheingabe ausgedrückten Ausdruck kein in der Entsprechungsbeziehungs-Speichereinheit 314 gespeichertes Erkennungszielwort enthalten ist, wenigstens ein Erkennungszielwort mit einem bestimmten Zusammenhang zu dem durch die Sprecheingabe ausgedrückten Ausdruck aus der Entsprechungsbeziehungs-Speichereinheit extrahiert und an der Anzeigevorrichtung 31 eine Auswahlbildschirmdarstellung anzeigt, die die Wahl eines Befehls aus wenigstens einem Befehl, der in der Entsprechungsbeziehungs-Speichereinheit 314 mit dem extrahierten wenigstens einen Erkennungszielwort in einen Zusammenhang gebracht ist, entgegennimmt. Unter Bezugnahme auf 8 bis 11 werden zwei Beispiele für diese Funktion durch die Erkennungszielwort-Bestimmungseinheit 316 erklärt.
  • 8 ist ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung zwischen einem durch Sprechen ausgedrückten Ausdruck und einem in der Entsprechungsbeziehungs-Speichereinheit 314 gespeicherten Erkennungszielwort, dass der durch das Sprechen ausgedrückte Ausdruck ein in dem Erkennungszielwort enthaltenes Wort enthält, darstellt. Da die Schritte S21 bis S27 in dem Ablaufdiagramm von 8 jeweils den gleichen Verarbeitungsinhalt wie die Schritte S11 bis S17 in 6 aufweisen, wird auf ihre Erklärung verzichtet. Wenn in Schritt S23 bestimmt wird, dass der durch Sprechen eingegebene Ausdruck kein Erkennungszielwort enthält (S23: NEIN), geht die Verarbeitung zu Schritt S28 über.
  • In Schritt S28 bestimmt die Roboter-Lehrvorrichtung 30, ob der durch das Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält oder nicht. Wenn der durch das Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält (S28: JA), extrahiert die Roboter-Lehrvorrichtung 30 Erkennungszielworte, für die die Beziehung besteht, dass der durch das Sprechen ausgedrückte Ausdruck ein in einem Erkennungszielwort enthaltenes Wort enthält, aus der Erkennungszielwort-Speichereinheit 314. Dann zeigt die Roboter-Lehrvorrichtung 30 eine Liste von Befehlen, die in der Erkennungszielwort-Speichereinheit 314 mit den extrahierten Erkennungszielworten in einen Zusammenhang gebracht sind, als Kandidaten an der Anzeigevorrichtung 31 an (Schritt S29). Wenn der durch das Sprechen ausgedrückte Ausdruck kein in einem Erkennungszielwort enthaltenes Wort enthält (S28: NEIN), kehrt die Verarbeitung zu Schritt S22 zurück. 9 zeigt eine Auswahlbildschirmdarstellung 411 als ein Beispiel für eine Liste, die in Schritt S29 an der Anzeigevorrichtung 31 angezeigt wird. Wenn die Äußerung des Betreibers OP zum Beispiel wie in der nachstehenden Tabelle 2 gezeigt ‚open‘ enthält, können die Erkennungszielworte ‚handopen‘ und ‚boxopen‘ als Kandidaten extrahiert werden. Oder wenn die Äußerung des Betreibers OP wie in der nachstehenden Tabelle 2 gezeigt ‚hand‘ enthält, können die Erkennungszielworte ‚handopen‘ und ‚handclose‘ als Kandidaten extrahiert werden. Tabelle 2
    Äußerung des Betreibers Erkennungszielwort-Kandidaten
    ... open handopen boxopen
    hand ... handopen handclose
  • Die Auswahlbildschirmdarstellung 411 von 9 zeigt ein Beispiel für den Fall, bei dem die Erkennungszielworte ‚handopen‘ und ‚boxopen‘ als Kandidaten extrahiert wurden, wenn die Äußerung des Betreibers OP ‚open‘ enthalten hat. Die Roboter-Lehrvorrichtung 30 nimmt über die Auswahlbildschirmdarstellung 411 eine Auswahlbetätigung durch den Betreiber OP entgegen (Schritt S210). Wenn die Roboter-Lehrvorrichtung 30 über die Auswahlbildschirmdarstellung 411 eine Auswahlbetätigung, die irgendeine Operation (irgendeinen Befehl) bestimmt, erhalten hat (S210: JA), wird die bestimmte Operation (der Befehl) gewählt und ausgeführt (Schritt S211, S27). Wenn in der Auswahlbildschirmdarstellung 411 keine von dem Betreiber OP beabsichtigte Operation vorhanden ist (S210: NEIN), und der Betreiber OP in der Auswahlbildschirmdarstellung 411 ‚keines davon‘ ausgewählt hat (S212), kehrt die Verarbeitung zu Schritt S22 zurück. Durch die anhand von 8 und 9 erklärte Sprecheingabelehrverarbeitung kann der Betreiber OP auch dann den gewünschten Befehl geben, wenn die Roboter-Lehrvorrichtung 30 nur einen Teil des Inhalts der Äußerung des Betreibers OP erkennen konnte.
  • 10 ist ein Ablaufdiagramm, das die Sprecheingabelehrverarbeitung bei Bestehen der Beziehung zwischen einem durch Sprechen ausgedrückten Ausdruck und einem in der Entsprechungsbeziehungs-Speichereinheit 314 gespeicherten Erkennungszielwort, dass der durch Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem in der Erkennungszielwort-Speichereinheit 314 gespeicherten Erkennungszielwort ähnlich ist, darstellt. Da die Schritte S31 bis S37 in dem Ablaufdiagramm von 10 jeweils den gleichen Verarbeitungsinhalt wie die Schritte S11 bis S17 in 6 aufweisen, wird auf ihre Erklärung verzichtet. Wenn in Schritt S33 bestimmt wird, dass der durch Sprechen eingegebene Ausdruck kein Erkennungszielwort enthält (S33: NEIN), geht die Verarbeitung zu Schritt S38 über.
  • In Schritt S38 bestimmt die Roboter-Lehrvorrichtung 30, ob der durch das Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist, oder nicht. Wenn der durch das Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist (S38: JA), extrahiert die Roboter-Lehrvorrichtung 30 Erkennungszielworte, für die die Beziehung besteht, dass der durch das Sprechen ausgedrückte Ausdruck einen Ausdruck enthält, dessen Bedeutung einem Erkennungszielwort ähnlich ist, aus der Erkennungszielwort-Speichereinheit 314. Als ein Beispiel kann die Roboter-Lehrvorrichtung 30 (die Erkennungszielwort-Bestimmungseinheit 316) über Wörterbuchdaten verfügen, in denen Ausdrücke, die Erkennungszielworte bilden, und Ausdrücke mit einer ähnlichen Bedeutung wie diese Ausdrücke in einen Zusammenhang gebracht sind. Dann zeigt die Roboter-Lehrvorrichtung 30 eine Liste von Befehlen, die in der Erkennungszielwort-Speichereinheit 314 mit dem extrahierten Erkennungszielwort in einen Zusammenhang gebracht sind, als Kandidaten an der Anzeigevorrichtung 31 an (Schritt S39). 11 zeigt eine Auswahlbildschirmdarstellung 421 als ein Beispiel für eine Liste, die in Schritt S39 an der Anzeigevorrichtung 31 angezeigt wird. Wenn die Äußerung des Betreibers OP zum Beispiel wie in der nachstehenden Tabelle 3 gezeigt ‚handöffnen‘ oder ‚diehandöffnen‘ lautet, kann die Roboter-Lehrvorrichtung 30 den Inhalt dieser Äußerung interpretieren und ‚handopen‘ als Erkennungszielwort mit einem ähnlichen Inhalt wie dem geäußerten Inhalt extrahieren. Oder wenn die Äußerung des Betreibers OP wie in der nachstehenden Tabelle 3 gezeigt ‚handschließen‘ oder ‚diehandschließen‘ lautet, kann die Roboter-Lehrvorrichtung 30 den Inhalt dieser Äußerung interpretieren und ‚handclose‘ als Erkennungszielwort mit einem ähnlichen Inhalt wie dem geäußerten Inhalt extrahieren. Tabelle 3
    Äußerung des Betreibers Erkennungszielwort-Kandidaten
    handöffnen diehandöffnen handopen
    handschließen diehandschließen handclose
  • Die Auswahlbildschirmdarstellung 421 von 11 ist ein Beispiel für einen Fall, in dem bei der Äußerung ‚handöffnen‘ durch den Betreiber OP das Erkennungszielwort ‚handopen‘ als Kandidat extrahiert wurde. Die Roboter-Lehrvorrichtung 30 nimmt über die Auswahlbildschirmdarstellung 421 eine Auswahlbetätigung durch den Betreiber OP entgegen (Schritt S310). Wenn die Roboter-Lehrvorrichtung 30 über die Auswahlbildschirmdarstellung 421 eine Auswahlbetätigung, die irgendeine Operation (irgendeinen Befehl) bestimmt, erhalten hat (S310: JA), wird die bestimmte Operation (der Befehl) gewählt und ausgeführt (Schritt S311, S37). Wenn in der Auswahlbildschirmdarstellung 421 keine beabsichtigte Operation vorhanden ist (S310: NEIN), und der Betreiber OP in der Auswahlbildschirmdarstellung 421 ‚keines davon‘ ausgewählt hat (S312), kehrt die Verarbeitung zu Schritt S32 zurück. Durch die anhand von 10 und 11 erklärte Sprecheingabelehrverarbeitung kann die Roboter-Lehrvorrichtung 30 in Schritt S38 auf der Grundlage dessen, ob in dem erkannten Ausdruck ein Ausdruck, der einem in einem Erkennungszielwort enthaltenen Ausdruck ähnlich ist, enthalten ist oder nicht, entscheiden, welches Erkennungszielwort dadurch eigentlich beabsichtigt war. Folglich kann der Betreiber OP einen gewünschten Befehl auch dann erteilen, wenn er sich das Erkennungszielwort nicht richtig gemerkt hat.
  • Die Programmbearbeitungseinheit 312 kann auch eine Betriebsprogramm-Erstellungseinheit 391 umfassen, die unter Verwendung des wenigstens einen Worts, das durch die Sprecherkennungseinheit 311 erkannt wurde, als Dateibezeichnung eine Neuerstellung einer Datei eines Betriebsprogramms vornimmt. Beispielsweise erstellt die Betriebsprogramm-Erstellungseinheit 391 unter Verwendung eines durch Sprechen eingegebenen Worts als Dateibezeichnung neu ein Betriebsprogramm, wenn an der Roboter-Lehrvorrichtung 30 eine bestimmte Tastenbetätigung, die ein Betriebsprogramm neu erstellt, vorgenommen wurde und der Sprechaktivierungsschalter 301a betätigt wurde.
  • Außerdem kann die Roboter-Lehrvorrichtung 30 ferner eine Betriebsprogramm-Speichereinheit 318 umfassen, die mehrere Betriebsprogramme speichert, und kann die Programmbearbeitungseinheit 312 ferner eine Betriebsprogramm-Auswahleinheit 392 umfassen, die auf der Basis wenigstens eines Erkennungszielworts, das durch die Sprecherkennungseinheit 311 erkannt wurde, ein Betriebsprogramm als Gegenstand für die Erstellung einer Bearbeitungsbildschirmdarstellung aus den mehreren in der Betriebsprogramm-Speichereinheit 318 gespeicherten Betriebsprogrammen wählt. Beispielsweise wählt die Betriebsprogramm-Auswahleinheit 392 ein Betriebsprogramm, das dem durch Sprechen eingegebenen Wort entspricht, als Bearbeitungsobjekt, wenn an der Roboter-Lehrvorrichtung 30 eine Tastenbetätigung zum Anzeigen einer Liste der in der Betriebsprogramm-Speichereinheit 318 gespeicherten Betriebsprogramme vorgenommen wurden und der Sprechaktivierungsschalter 301a betätigt wurde.
  • Die Programme zur Ausführung der bei der oben beschriebenen Ausführungsform gezeigten Sprecheingabeverarbeitung ( 3), Sprachumschaltverarbeitung (5) und Sprecheingabelehrverarbeitung (6, 8, 10) können auf verschiedene Arten von computerlesbaren Aufzeichnungsmedien (zum Beispiel einen ROM, einen EEPROM, einen Halbleiterspeicher wie etwa einen Flash-Speicher, ein magnetisches Aufzeichnungsmedium, eine optische Platte wie einen CD-ROM einen DVD-ROM usw.) aufgezeichnet werden.

Claims (10)

  1. Roboter-Lehrvorrichtung (30) zur Vornahme des Lehrens eines Roboters, wobei die Roboter-Lehrvorrichtung (30) umfasst: eine Anzeigevorrichtung (31); ein Mikrophon (40), das Gesprochenes aufnimmt und ein Sprechsignal ausgibt; eine Sprecherkennungseinheit (311), die aus dem Sprechsignal wenigstens ein Wort, das durch das Gesprochene ausgedrückt wird, erkennt und Zeichendaten, die aus dem wenigstens einen Wort bestehen, ausgibt; eine Programmbearbeitungseinheit (312), die eine Bearbeitungsbildschirmdarstellung für ein Betriebsprogramm des Roboters erzeugt und an der Anzeigevorrichtung (31) anzeigt; eine Kommentareingabeeinheit (313), die in einem Zustand, in dem die Bearbeitungsbildschirmdarstellung für das Betriebsprogramm an der Anzeigevorrichtung (31) angezeigt wurde, den Ausdruck, den die von der Sprecherkennungseinheit (311) ausgegebenen Zeichendaten darstellen, als Kommentartext zu einem Befehl in dem Betriebsprogramm hinzufügt; eine Entsprechungsbeziehungs-Speichereinheit (314), die jeden von mehreren Arten von Befehlen, die für das Lehren des Roboters verwendet werden, in einem Zusammenhang mit einem Erkennungszielwort speichert; eine Entsprechungsbeziehungs-Ergänzungseinheit (315), die einen hinzugefügten Kommentartext als ein neues Erkennungszielwort ansetzt und der Entsprechungsbeziehungs-Speichereinheit (314) dieses neue Erkennungszielwort in einem Zusammenhang mit dem Befehl in dem Betriebsprogramm, dem der Kommentartext hinzugefügt wurde, hinzufügt; eine Erkennungszielwort-Bestimmungseinheit (316), die bestimmt, ob in dem durch die Zeichendaten dargestellten Ausdruck ein in der Entsprechungsbeziehungs-Speichereinheit (314) gespeichertes Erkennungszielwort enthalten ist oder nicht; und eine Befehlsausführungssignal-Ausgabeeinheit (317), die ein Signal zur Ausführung eines Befehls, der in der Entsprechungsbeziehungs-Speichereinheit (314) in einem Zusammenhang mit dem Erkennungszielwort, dessen Vorhandensein in dem Ausdruck der Zeichendaten bestimmt wurde, gespeichert ist, an die Robotersteuervorrichtung (20) ausgibt.
  2. Roboter-Lehrvorrichtung (30) nach Anspruch 1, wobei die Sprecherkennungseinheit (311) eine Sprachauswahleinheit (321) aufweist, die eine Betätigungseingabe zur Auswahl der Sprache, welche das Objekt für die Erkennung durch die Sprecherkennungseinheit (311) darstellt, entgegennimmt, wobei die Sprecherkennungseinheit (311) die Erkennung wenigstens eines Worts auf der Basis der über die Sprachauswahleinheit (321) gewählten Sprache vornimmt.
  3. Roboter-Lehrvorrichtung (30) nach Anspruch 2, wobei die Erkennungszielwort-Bestimmungseinheit (316) auf der Basis der über die Sprachauswahleinheit (321) gewählten Sprache bestimmt, ob das Erkennungszielwort in dem durch die Zeichendaten dargestellten Ausdruck enthalten ist oder nicht.
  4. Roboter-Lehrvorrichtung (30) nach Anspruch 2 oder 3, wobei die Sprecherkennungseinheit (311) Wörterbuchdaten (322) für mehrere Sprachen aufweist, unter Verwendung der Wörterbuchdaten (322) für die mehreren Sprachen die Sprache des Gesprochenen ermittelt, und an der Anzeigeeinheit eine Meldung anzeigen lässt, die zum Umschalten der gewählten Sprache zu der ermittelten Sprache auffordert, wenn sich die ermittelte Sprache von der über die Sprachauswahleinheit (321) gewählten Sprache unterscheidet.
  5. Roboter-Lehrvorrichtung (30) nach einem der Ansprüche 1 bis 4, wobei die Befehlsausführungssignal-Ausgabeeinheit (317) eine Ausführungserlaubnis-Anforderungseinheit (331) umfasst, die vor der Ausgabe eines Signals zur Ausführung des Befehls ein Bild, das eine Meldung, die eine Erlaubnis zur Ausführung verlangt, darstellt, an der Anzeigevorrichtung (31) anzeigen lässt.
  6. Roboter-Lehrvorrichtung (30) nach Anspruch 5, wobei die Ausführungserlaubnis-Anforderungseinheit (331) auf Basis einer Eingabebetätigung über die Betätigungstasten bestimmt, ob die Ausführung des Befehls erlaubt wurde oder nicht.
  7. Roboter-Lehrvorrichtung (30) nach Anspruch 5, wobei die Ausführungserlaubnis-Anforderungseinheit (331) auf Basis wenigstens eines Worts, das als Sprechsignal eingegeben und durch die Sprecherkennungseinheit (311) erkannt wurde, bestimmt, ob die Ausführung des Befehls erlaubt wurde oder nicht.
  8. Roboter-Lehrvorrichtung (30) nach einem der Ansprüche 1 bis 7, wobei die Erkennungszielwort-Bestimmungseinheit (316) dann, wenn in dem durch die Zeichendaten dargestellten Ausdruck kein in der Entsprechungsbeziehungs-Speichereinheit (314) gespeichertes Erkennungszielwort enthalten ist, wenigstens ein Erkennungszielwort mit einem bestimmten Zusammenhang zu dem durch die Zeichendaten dargestellten Ausdruck aus der Entsprechungsbeziehungs-Speichereinheit (314) extrahiert und an der Anzeigevorrichtung (31) eine Auswahlbildschirmdarstellung anzeigt, die eine Eingabebetätigung zur Wahl eines Befehls aus wenigstens einem Befehl, der in der Entsprechungsbeziehungs-Speichereinheit (314) mit dem extrahierten wenigstens einen Erkennungszielwort in einen Zusammenhang gebracht ist, entgegennimmt.
  9. Roboter-Lehrvorrichtung (30) nach einem der Ansprüche 1 bis 8, wobei die Programmbearbeitungseinheit (312) eine Betriebsprogramm-Erstellungseinheit (391) umfasst, die unter Verwendung des wenigstens einen Worts, das durch die Sprecherkennungseinheit (311) erkannt wurde, als Dateibezeichnung eine Neuerstellung einer Datei eines Betriebsprogramms vornimmt.
  10. Roboter-Lehrvorrichtung (30) nach einem der Ansprüche 1 bis 9, ferner umfassend eine Betriebsprogramm-Speichereinheit (318), die mehrere Betriebsprogramme speichert, wobei die Programmbearbeitungseinheit (312) eine Betriebsprogramm-Auswahleinheit (392) umfasst, die auf der Basis wenigstens eines Erkennungszielworts, das durch die Sprecherkennungseinheit (311) erkannt wurde, ein Betriebsprogramm als Gegenstand für die Erstellung einer Bearbeitungsbildschirmdarstellung aus den mehreren in der Betriebsprogramm-Speichereinheit (318) gespeicherten Betriebsprogrammen wählt.
DE102020110614.9A 2019-04-26 2020-04-20 Roboter-lehrvorrichtung Active DE102020110614B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019086731A JP7063844B2 (ja) 2019-04-26 2019-04-26 ロボット教示装置
JP2019-086731 2019-04-26

Publications (2)

Publication Number Publication Date
DE102020110614A1 DE102020110614A1 (de) 2020-10-29
DE102020110614B4 true DE102020110614B4 (de) 2024-06-06

Family

ID=72839765

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020110614.9A Active DE102020110614B4 (de) 2019-04-26 2020-04-20 Roboter-lehrvorrichtung

Country Status (4)

Country Link
US (1) US20200338736A1 (de)
JP (1) JP7063844B2 (de)
CN (1) CN111843986A (de)
DE (1) DE102020110614B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11731271B2 (en) * 2020-06-30 2023-08-22 Microsoft Technology Licensing, Llc Verbal-based focus-of-attention task model encoder
WO2023144969A1 (ja) * 2022-01-27 2023-08-03 ファナック株式会社 教示装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003080482A (ja) 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
JP2005148789A (ja) 2003-11-11 2005-06-09 Fanuc Ltd 音声入力によるロボット教示プログラム編集装置
JP2006068865A (ja) 2004-09-03 2006-03-16 Yaskawa Electric Corp 産業用ロボットのプログラミングペンダント
US7643907B2 (en) 2005-02-10 2010-01-05 Abb Research Ltd. Method and apparatus for developing a metadata-infused software program for controlling a robot
US20150161099A1 (en) 2013-12-10 2015-06-11 Samsung Electronics Co., Ltd. Method and apparatus for providing input method editor in electronic device
EP2963641A1 (de) 2014-06-30 2016-01-06 Xerox Corporation Spracherkennung
EP2557466B1 (de) 2011-08-11 2019-03-13 Kabushiki Kaisha Yaskawa Denki Tragbare Fernsteuerung und Robotersystem
US20190077009A1 (en) 2017-09-14 2019-03-14 Play-i, Inc. Robot interaction system and method

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6252930A (ja) * 1985-09-02 1987-03-07 Canon Inc 半導体製造装置
JPH10322596A (ja) * 1997-05-16 1998-12-04 Sanyo Electric Co Ltd 静止画表示装置及びハイビジョン静止画装置
JP2001051694A (ja) * 1999-08-10 2001-02-23 Fujitsu Ten Ltd 音声認識装置
JP4200608B2 (ja) * 1999-09-03 2008-12-24 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
JP2003145470A (ja) * 2001-11-08 2003-05-20 Toshiro Higuchi マイクロマニピュレータ操作制御装置、マイクロマニピュレータ操作制御方法およびマイクロマニピュレータ操作制御プログラム
JP5776544B2 (ja) * 2011-12-28 2015-09-09 トヨタ自動車株式会社 ロボットの制御方法、ロボットの制御装置、及びロボット
JP5968578B2 (ja) * 2014-04-22 2016-08-10 三菱電機株式会社 ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム
JP2015229234A (ja) * 2014-06-06 2015-12-21 ナブテスコ株式会社 作業ロボットの教示データ生成装置及び教示データ生成方法
JP2015231659A (ja) * 2014-06-11 2015-12-24 キヤノン株式会社 ロボット装置
KR20160090584A (ko) * 2015-01-22 2016-08-01 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9794292B2 (en) * 2015-10-26 2017-10-17 Amazon Technologies, Inc. Providing fine-grained access remote command execution for virtual machine instances in a distributed computing environment
JP2017102516A (ja) * 2015-11-30 2017-06-08 セイコーエプソン株式会社 表示装置、通信システム、表示装置の制御方法、及び、プログラム
CN106095109B (zh) * 2016-06-20 2019-05-14 华南理工大学 基于手势和语音进行机器人在线示教的方法
JP6581056B2 (ja) * 2016-09-13 2019-09-25 ファナック株式会社 ロボット制御部と通信する教示操作盤を備えたロボットシステム
CN106363637B (zh) * 2016-10-12 2018-10-30 华南理工大学 一种机器人快速示教方法及装置
JP6751658B2 (ja) * 2016-11-15 2020-09-09 クラリオン株式会社 音声認識装置、音声認識システム
JP6833600B2 (ja) * 2017-04-19 2021-02-24 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
CN107351058A (zh) * 2017-06-08 2017-11-17 华南理工大学 基于增强现实的机器人示教方法
JP2019057123A (ja) * 2017-09-21 2019-04-11 株式会社東芝 対話システム、方法、及びプログラム
CN108284452A (zh) * 2018-02-11 2018-07-17 遨博(北京)智能科技有限公司 一种机器人的控制方法、装置和系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003080482A (ja) 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
JP2005148789A (ja) 2003-11-11 2005-06-09 Fanuc Ltd 音声入力によるロボット教示プログラム編集装置
JP2006068865A (ja) 2004-09-03 2006-03-16 Yaskawa Electric Corp 産業用ロボットのプログラミングペンダント
US7643907B2 (en) 2005-02-10 2010-01-05 Abb Research Ltd. Method and apparatus for developing a metadata-infused software program for controlling a robot
EP2557466B1 (de) 2011-08-11 2019-03-13 Kabushiki Kaisha Yaskawa Denki Tragbare Fernsteuerung und Robotersystem
US20150161099A1 (en) 2013-12-10 2015-06-11 Samsung Electronics Co., Ltd. Method and apparatus for providing input method editor in electronic device
EP2963641A1 (de) 2014-06-30 2016-01-06 Xerox Corporation Spracherkennung
US20190077009A1 (en) 2017-09-14 2019-03-14 Play-i, Inc. Robot interaction system and method

Also Published As

Publication number Publication date
JP2020182988A (ja) 2020-11-12
JP7063844B2 (ja) 2022-05-09
US20200338736A1 (en) 2020-10-29
DE102020110614A1 (de) 2020-10-29
CN111843986A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
DE68926845T2 (de) Maschinenübersetzungssystem
DE60202453T2 (de) Synchronisierung eines audio- und eines text-cursors während der editierung
DE60031113T2 (de) Automatisiertes übertragungssystem und -verfahren mit zwei instanzen zur sprachumwandlung und rechnergestützter korrektur
DE102020110614B4 (de) Roboter-lehrvorrichtung
DE60209103T2 (de) Texteditierung von erkannter sprache bei gleichzeitiger wiedergabe
DE60033106T2 (de) Korrektur der Betriebsartfehler, Steuerung oder Diktieren, in die Spracherkennung
DE3910467C2 (de) Verfahren und Vorrichtung zur Erzeugung von Berichten
DE69630928T2 (de) Vorrichtung und Verfahren zum Anzeigen einer Übersetzung
DE60125696T2 (de) Universelle Fernsteuerung geeignet zum Empfang von Spracheingaben
DE69834553T2 (de) Erweiterbares spracherkennungssystem mit einer audio-rückkopplung
EP1282112B1 (de) Verfahren zur Unterstützung des Korrekturlesens eines spracherkannten Textes mit an die Erkennungszuverlässigkeit angepasstem Wiedergabegeschwindigkeitsverlauf
DE60216096T2 (de) Informationsverarbeitungsvorrichtung und -verfahren und programmprodukt
JP2003514261A (ja) インターネットページのハイパーリンクを作動させる音声認識方法
DE69819690T2 (de) Spracherkennungsvorrichtung unter verwendung eines befehlslexikons
DE102004026504A1 (de) System und Verfahren zum automatischen Ausfüllen von Anmerkungen in der Ultraschallbildgebung
DE102020110626B4 (de) Roboter-lehrvorrichtung
DE69736014T2 (de) Verteiltes allzweck-steuerungssystem für operationssäle
DE102020110620A1 (de) Roboter-lehrvorrichtung
EP0814457B1 (de) Verfahren zur automatischen Erkennung eines gesprochenen Textes
EP1220201A2 (de) Verfahren und System zur automatischen Aktionssteuerung bei Vorträgen
JP2000330683A (ja) ヘルプメッセージ出力装置
DE3438333A1 (de) Sprachempfindliche vorrichtung
EP3791386A1 (de) Effiziente dialoggestaltung
DE112021007479T5 (de) Spracherkennungsvorrichtung
EP1466318A1 (de) Spracherkenner und betriebsverfahren für einen solchen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division