DE10241980A1 - Informationsverarbeitungssystem und -verfahren, welche mit einem Spracheingabebefehl betrieben werden - Google Patents

Informationsverarbeitungssystem und -verfahren, welche mit einem Spracheingabebefehl betrieben werden

Info

Publication number
DE10241980A1
DE10241980A1 DE10241980A DE10241980A DE10241980A1 DE 10241980 A1 DE10241980 A1 DE 10241980A1 DE 10241980 A DE10241980 A DE 10241980A DE 10241980 A DE10241980 A DE 10241980A DE 10241980 A1 DE10241980 A1 DE 10241980A1
Authority
DE
Germany
Prior art keywords
command
input
voice
information processing
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10241980A
Other languages
English (en)
Inventor
Toshikazu Yokota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE10241980A1 publication Critical patent/DE10241980A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

Wenn in einem Navigationssystem (1, 15) ein Befehl eines bezüglich der Sprache erkennbaren Typs manuell eingegeben wird, wird ein Benutzer durch Anzeigen eines Anwendungsfelds und eines Befehls auf einem Anzeigegerät (5) dahingehend benachrichtigt, daß ein Befehl als Sprache eingegeben werden kann. Wenn beispielsweise ein Menüfeld im Ansprechen auf manuelle Eingaben von Befehlen angezeigt wird, stellt das Anzeigegerät (5) eine visuelle Führung durch Anzeige einer Nachricht "Sie können Sprachnachrichten eingeben. Äußern Sie "Menüfeld" in einem Abbildungsfeld." bereit. Zusätzlich oder alternativ kann eine Sprachführung durch Ertönen lassen derselben Nachricht aus dem Lautsprecher (11) bereitgestellt werden. Der somit benachrichtigte Benutzer kann Befehle als Sprache das nächste Mal eingeben, während eine manuelle Eingabeausführung durch einen Schalter (3) oder dergleichen aufgehoben ist.

Description

  • Die vorliegende Erfindung bezieht sich auf ein Informationsverarbeitungssystem und -verfahren, welche mit Sprach- bzw. Stimmbefehlen betrieben werden, die von Benutzern des Systems eingegeben werden.
  • Es wird vorgeschlagen, ein Informationsverarbeitungssystem wie ein Navigationssystem derart zu konstruieren, daß es verschiedene Ausführungsbefehle des Benutzers interaktiv empfängt und vorbestimmte Operationen entsprechend den eingegebenen Befehlen ausführt. Dieses System verwendet im allgemeinen eine Befehlseingabevorrichtung wie einem Berührungsschalter, eine Fernbedienung oder eine Tastatur, welche die Eingabe verschiedener Ausführungsbefehle manuell durch den Benutzer ermöglicht.
  • Zusätzlich zu dem manuellen Eingabegerät wird ein Spracheingabegerät für ein Kraftfahrzeugnavigationssystem aus Gründen der Fahrsicherheit vorgeschlagen, da das Spracheingabegerät nicht die Aufmerksamkeit des Fahrers in Bezug auf das Eingabegerät selbst oder ein Anzeigefeld erfordert. Somit wird es bevorzugt, daß das System wenigstens einige der vom Benutzer eingegebenen Befehle mittels sowohl eines Spracherkennungsverfahrens als auch eines anderen Verfahrens akzeptiert.
  • Jedoch im Falle von Spracheingaben müssen sich die Benutzer stets an die Spracheingabebefehle erinnern. Sogar wenn die Spracheingabebefehle in einem Bedienerhandbuch oder dergleichen definiert sind, ist es nicht praktikabel, sich jedesmal auf das Handbuch zu beziehen, wenn der Benutzer die Eingabe von Sprachbefehlen versucht.
  • Aufgabe der vorliegenden Erfindung ist es, ein Informationsverarbeitungssystem und -verfahren zu schaffen, welche es ermöglichen, daß ein Spracheingabegerät häufiger ohne Schwierigkeiten verwendet werden kann.
  • Die Lösung der Aufgabe erfolgt durch die Merkmale der unabhängigen Patentansprüche.
  • Entsprechend der vorliegenden Erfindung empfängt ein Informationsverarbeitungssystem wie ein Navigationssystem manuell Befehle und führt eine vorbestimmte Verarbeitung im Ansprechen auf die eingegebenen Befehle durch. Das System überprüft ebenfalls, ob ein extern von einem Benutzer aufgebrachter eingegebener Befehl ein vorbestimmter bezüglich der Sprache erkennbarer Befehl ist, und gibt eine Mitteilung dahingehend aus, daß der eingegebene Befehl von einem Typ ist, der sogar dann erkennbar ist, wenn er als Sprache eingegeben wird.
  • Vorzugsweise wird die Mitteilung hörbar oder sichtbar ausgegeben und enthält den Sprachbefehl selbst und eine Bedingung bzw. einen Zustand, bei welchem der Sprachbefehl erkennbar ist. Die Ausgabe der Mitteilung kann von dem Benutzer selektiv ermöglicht oder außer Betrieb gesetzt werden.
  • Die vorliegende Erfindung wird in der nachfolgenden Beschreibung unter Bezugnahme auf die Zeichnung erläutert.
  • Fig. 1 zeigt ein Blockdiagramm, welches ein Informationsverarbeitungssystem einer Ausführungsform der vorliegenden Erfindung darstellt;
  • Fig. 2 zeigt ein Flußdiagramm, welches einen Spracherkennungsausführungsführer bei der Ausführungsform darstellt;
  • Fig. 3 zeigt ein schematisches Diagramm, welches ein Beispiel eines visuellen Führers und eines Sprachführers bei der Ausführungsform darstellt; und
  • Fig. 4 zeigt ein Flußdiagramm, welches eine Spracherkennungsverarbeitung bei der Ausführungsform darstellt.
  • Entsprechend Fig. 1 ist ein Informationsverarbeitungssystem, welches ein Steuergerät 1 und ein Navigationsgerät 15 enthält, derart in einem Fahrzeug angebracht, daß das Steuergerät 1 das Navigationsgerät 15 steuert, während ein Aufeinanderwirken mit Bedienern (meistens mit einem Fahrer) über Sprache erfolgt. Das Steuergerät 1 ist mit einem Schalter 3, einem Anzeigegerät 5, einem Mikrofon 7, einem Sprechschalter 9 und einem Lautsprecher 11 zusätzlich zu dem Navigationsgerät 15 verbunden, welches den gegenwärtigen Ort des Fahrzeugs erfaßt und eine Reiseroutenführung bereitstellt. Der Schalter 3 gestattet es den Benutzern, verschiedene Befehle und externe Daten durch eine manuelle Ausführung einzugeben, und das Anzeigegerät 5 dient der visuellen Anzeige von Bildern. Das Mikrofon 7 dient der Eingabe von Sprachbefehlen während der Betätigung des Sprechschalters 9, und der Lautsprecher 11 dient zur Ausgabe von Sprache.
  • Das Navigationsgerät 15 besitzt bekanntermaßen ein GPS-Gerät zum Erfassen der gegenwärtigen Funktion eines Fahrzeugs, einen CD-ROM oder DVD, welches Routenführungsdaten wie Kartendaten, Ortsnamendaten und Anlagenamendaten (facility name data) speichert, eine CD-ROM-Ansteuerung zum Wiedererlangen von Daten von dem CD-ROM und eine Ausführungstastatur, um es den Benutzern zu ermöglichen, manuell verschiedene Ausführungsbefehle einzugeben. Wenn ein Benutzer ein Ziel und einen Ausführungsbefehl für eine Routenführung zu dem Ziel durch Betätigen der Tastatur eingibt, liefert das Navigationsgerät 15 eine Routenführung durch Anzeige des gegenwärtigen Orts des Fahrzeugs und der empfohlenen Reiseroute zu dem Ziel auf einer Straßenkarte auf dem Anzeigegerät 5. Das Anzeigegerät 5 zeigt nicht nur Straßenkarten für eine Routenführung, sondern ebenfalls viele andere visuelle Bilder wie ein Informationserlangungsmenü an.
  • Das Steuergerät 1 enthält einen Steuerabschnitt 50, einen Eingabeabschnitt 23, einen Ausgabeabschnitt 25, einen Spracheingabeabschnitt 27, einen Spracherkennungsabschnitt 30, einen Sprachausgabeabschnitt 28 und einen Gerätesteuerungsschnittstellenabschnitt 29. Der Steuerabschnitt 50 weist einen Mikrocomputer auf, welcher eine CPU, einen ROM, einen RAM und dergleichen enthält. Der Eingabeabschnitt 23 dient der Eingabe von Befehlen und Daten, welche von dem Schalter 3 angelegt werden. Der Bildausgabeabschnitt 27 dient der Umwandlung von digitalen Bilddaten in analoge Bildsignale und der Ansteuerung des Anzeigegeräts 5, um Bilder entsprechend den Bildsignalen anzuzeigen. Der Spracheingabeabschnitt 27 dient der Umwandlung von Sprachsignalen, welche von dem Mikrofon 7 angelegt werden, in Digitaldaten. Der Spracherkennungsabschnitt 30 dient zum Erkennen und Wiedererlangen von Schlüsselwörtern (gesprochenen Schlüsselwörtern), welche ein Benutzer gesprochen hat, aus Sprachsignalen, welche von dem Spracheingabeabschnitt 27 angelegt werden. Der Sprachausgabeabschnitt 28 dient zum Umwandeln von digitalen Textdaten, welche von dem Steuerabschnitt 50 erzeugt werden, in analoge Sprachsignale, um den Lautsprecher 11 anzusteuern. Der Gerätesteuerungsschnittstellenabschnitt 29 dient zum funktionellen Verbinden des Navigationsgeräts 15 und des Steuerabschnitts 50 derart, daß das Navigationsgerät 15 und der Steuerabschnitt 50 für eine Datenübertragung untereinander geeignet sind.
  • Der Sprechschalter 9 ist dazu vorgesehen, eine Spracheingabe durch das Mikrofon 7 lediglich dann zu ermöglichen, wenn er betätigt wird. Wenn jedoch keine Spracheingabe für eine vorbestimmte Zeitperiode erfaßt wird, nachdem der Sprechschalter 9 betätigt worden ist, um die Spracheingabe zu ermöglichen, wird die Spracheingabe nach dieser Periode in dem Steuergerät 1 nicht verarbeitet. Für diese Operation überwacht der Spracheingabeabschnitt 27 den Zeitpunkt der Betätigung des Sprechschalters 9.
  • Der Spracheingabeabschnitt 27 teilt eine bestimmte Periode eines Rahmensignals, beispielsweise eine Periode von einigen zehn Millisekunden, zu jedem festgelegten Intervall auf und überprüft, ob der derart aufgeteilte Rahmen Sprache oder lediglich Rauschen ohne Sprache enthält, so daß ein charakteristischer Betrag der eingegebenen Sprache analysiert wird. Diese Prüfoperation der Sprachperiode oder Rauschperiode ist nötig, da das von dem Mikrofon 7 angelegte Eingabesignal sowohl Sprache als auch Rauschen enthält. Als beispielhaftes Verfahren zum Bestimmen der Sprachperiode oder der Rauschperiode ist es bekannt, eine Kurzzeitenergie (short-time power) des Eingabesignals zu jedem festgelegten Zeitintervall zu messen und zu überprüfen, ob die gemessene Kurzzeitenergie einen vorbestimmten Schwellenwert überschreitet und eine Mehrzahl von Malen fortfährt. Wenn die Periode als Sprachperiode bestimmt wird, wird das Eingabesignal entsprechend der Periode an den Spracherkennungsabschnitt 30 angelegt.
  • Der Spracherkennungsabschnitt 30 enthält einen Prüfabschnitt 31 und einen Erkennungswörterbuchabschnitt 32. Der Wörterbuchabschnitt 32 speichert Wörterbuchdaten, welche eine ID und eine Struktur aus einer Mehrzahl von Schlüsselwörtern aufweist, welche von dem Steuergerät 1 zu erkennen sind. Jene Schlüsselwörter sind als Wörter definiert, welche Benutzer aussprechen werden, um das Navigationsgerät 15, usw. zu betätigen. Der Prüfabschnitt 31 überprüft die von dem Spracheingabegerät 27 angelegten Sprachdaten durch einen Vergleich derselben mit den gespeicherten Daten des Wörterbuchabschnitts 32. Der Prüfabschnitt 31 gibt ein Erkennungsergebnis dem Steuerabschnitt 50 aus. Das Erkennungsergebnis ist als ID eines Schlüsselworts definiert, welches die höchste Erkennungsrate besitzt.
  • Der Steuerabschnitt 50 macht die Erfassungsergebnisse fertig und führt eine darauffolgende Verarbeitung aus, welche ein Senden der Daten zu dem Navigationsgerät 50 durch die Schnittstelle 29 und ein Anweisen des Navigationsgeräts 15 zur Ausführung einer vorbestimmten Verarbeitung enthalten kann, wenn das Erfassungsergebnis fertiggemacht worden ist. Beispielsweise kann das Navigationsgerät 15 angewiesen werden, ein Reiseziel für eine Navigationsverarbeitung im Ansprechen auf die Eingabe des Ziels von dem Steuerabschnitt 50 festzulegen. Unter Verwendung des Spracherkennungsabschnitts 30 wie oben beschrieben können Befehle wie das Reiseziel durch Sprechen ohne manuelles Betätigen des Ausführungsschalters 3 oder der Fernbedienung 15a des Navigationsgeräts 15 eingegeben werden. Der Steuerabschnitt 50 gibt ebenfalls die von dem Spracherkennungsabschnitt 30 angelegten Erkennungsergebnisse dem Sprachausgabeabschnitt 28 als Textdaten derart aus, daß jedes Erkennungsergebnis von dem Lautsprecher 11 zur Bestätigung von dem Benutzer oder für andere Zwecke mittels Sprache ausgegeben werden kann.
  • Das von dem Spracherkennungsabschnitt 30 dem Steuerabschnitt 50 angelegte Erkennungsergebnis kann mehr als eine von höchstmöglichen Strukturen oder lediglich eine höchstmögliche Struktur aus den höchstmöglichen Strukturen sein. In der folgenden Beschreibung wird angenommen, daß lediglich eine höchstmögliche Struktur dem Steuerabschnitt 50 wenn nicht anders bestimmt angelegt wird.
  • Das Steuergerät 1, insbesondere der Steuerabschnitt 50, ist darauf programmiert, die in Fig. 2 dargestellte Verarbeitung für eine Spracherkennung auszuführen.
  • Zuerst wird in einem Schritt S10 überprüft, ob sich das Navigationsgerät 15 in Betrieb befindet. Bei dieser Ausführungsform muß die Navigation ausgeführt werden, da einem Benutzer mitgeteilt wird, daß ein Befehl ebenfalls als Sprache eingegeben werden kann, wenn der durch den Schalter 3 oder die Fernbedienung 15a manuell eingegebene Befehl von einem vorbestimmten bezüglich der Sprache erkennbaren Typ ist. Wenn das Navigationsgerät 15 sich in Betrieb befindet (JA in S10), wird in einem Schritt S20 des weiteren geprüft, ob ein Befehl entsprechend einem vorbestimmten bezüglich der Sprache erkennbaren Typ durch den Schalter 3 oder dergleichen eingegeben worden ist. Der bezüglich der Sprache erkennbare Typ ist als Befehl zum Anzeigen eines Menüfelds, als Befehl zum Auswählen einer Reiseroutenfestlegungsoperation oder einer Informationssuchoperation, als Befehl zum Festlegen eines Ziels auf einem Reiseroutenfestlegungsfeld und anderer ähnlicher Befehle definiert.
  • Wenn der manuell eingegebene Befehl vom bezüglich der Sprache erkennbaren Typ ist (JA in S20), wird einem Benutzer mitgeteilt, daß der Befehl, welcher manuell eingegeben wird, ebenfalls als Sprache eingegeben werden kann. Diese Mitteilung oder Führung kann von einem Benutzer selektiv festgelegt werden, d. h. sie kann lediglich bereitgestellt werden, wenn ein Benutzer eine entsprechende Auswahl getroffen hat. Um dieses selektive Festlegen zu ermöglichen, wird ein Festlegungsfeld auf dem Anzeigegerät 5 angezeigt, wenn der Schalter 3 oder dergleichen auf eine vorbestimmte Weise oder eine Sequenz manuell betätigt wird. Das Festlegungsfeld zeigt zu wählende Gegenstände "FESTLEGUNG EINER VISUELLEN FÜHRUNG: JA/NEIN" und "FESTLEGUNG EINER FÜHRUNG MITTELS SPRACHE: JA/NEIN" als Teil einer Spracherkennungsausführungsführung derart an, daß JA oder NEIN auf dem Feld von einem Benutzer gewählt werden kann. Wenn "JA" bezüglich der Festlegung einer visuellen Führung gewählt wird, wird eine Ausführungsbetriebsart zur Bereitstellung einer Führung für das Festlegen einer visuellen Führung durch das Anzeigegerät 5 festgelegt. Wenn ähnlich "JA" bezüglich der Festlegung einer Führung durch Sprache gewählt wird, wird eine Ausführungsbetriebsart zur Bereitstellung einer Führung für die Festlegung einer Führung durch Sprache durch den Lautsprecher 11 festgelegt. Wenn "JA" für beide Festlegungen gewählt wird, werden jeweils eine visuelle Führung und eine Führung durch Sprache auf dem Anzeigegerät 5 bzw. dem Lautsprecher 11 vorgesehen.
  • Es wird in einem Schritt S30 geprüft, ob "JA" für das Festlegen der visuellen Führung auf dem Anzeigegerät 5 gewählt worden ist. Wenn "NEIN" gewählt worden ist (NEIN im Schritt S30), wird weiter in einem Schritt S40 geprüft, ob "JA" für die Festlegung der Führung durch Sprache auf dem Anzeigegerät gewählt worden ist. Wenn "NEIN" gewählt worden ist (NEIN im Schritt S40), wird die Verarbeitung ohne eine Führung bezüglich der Eingabe von Sprachbefehlen beendet. Wenn "JA" für die Festlegung der Führung durch Sprache gewählt worden ist (JA im Schritt S40), wird lediglich die Führung durch Sprache bezüglich der Eingabe von Sprachbefehlen von dem Lautsprecher 11 in einem Schritt S50 bereitgestellt.
  • Wenn "JA" für das Festlegen der visuellen Führung gewählt worden ist (JA im Schritt S30), wird in einem Schritt S60 auf dieselbe Weise wie in dem Schritt S40 geprüft, ob "JA" für die Festlegung der Führung mit Sprache gewählt worden ist. Wenn das Ergebnis der Prüfung in dem Schritt S60 NEIN oder JA ist, wird entweder lediglich die visuelle Führung in einem Schritt S70 durch das Anzeigegerät 5 oder es werden sowohl die visuelle Führung als auch die Führung durch Sprache durch das Anzeigegerät 5 bzw. den Lautsprecher 11 bereitgestellt.
  • In dem Falle der visuellen Führung steuert der Steuerabschnitt 50 den Bildschirmausgabeabschnitt 25, um ein Anwendungsfeld 5b und eine Nachricht (Befehl) auf einem Anzeigefeld 5a des Anzeigegeräts 5 wie in Fig. 3 dargestellt anzuzeigen. Wenn beispielsweise der Schalter 3 oder dergleichen bedient wird, um ein Menüfeld anzuzeigen, zeigt das Anzeigegerät 5 eine Nachricht an, d. h. "Sie können Sprachbefehle eingeben. Äußern Sie "Menüfeld" bezüglich des Abbildungsfelds." In dem Fall der Sprachführung steuert der Steuerabschnitt 50 den Sprachausgabeabschnitt 28 dahingehend, daß dieselbe von der im Anzeigegerät 5 bereitgestellte Nachricht von dem Lautsprecher 11 durch Sprache ausgegeben wird.
  • Wenn gewünscht wird, beispielsweise ein Menüfeld anzuzeigen, kann ein Anzeigefeld durch Eingabe eines Befehls "Menüfeld" in verschiedene Zustände umgeändert werden. Bei dieser Ausführungsform wird der Abbildungsfeldanzeigezustand als einer von beispielhaften Zuständen zum Anzeigen des Menüfelds gewählt, da das Abbildungsfeld als anfängliches Feld bei dem Navigationssystem oft angezeigt wird.
  • Einem Benutzer, dem somit mitgeteilt wird und der lernt, daß Sprachbefehle ebenfalls akzeptiert werden, wird es ermöglicht, Befehle (beispielsweise "Menüfeld") durch Sprache in einem Zustand anzugeben, bei welchem das Abbildungsfeld vom nächsten Mal an angezeigt wird.
  • Der Steuerabschnitt 50 wird weiter programmiert, um die in Fig. 4 dargestellte Spracherkennungsverarbeitung auszuführen.
  • Zuerst wird in einem Schritt S100 geprüft, ob der Sprechschalter betätigt (eingeschaltet) worden ist. Im positiven Fall wird die Sprachkomponente in einem Schritt S200 extrahiert. In diesem Sprachextrahierungsschritt wird der Spracheingabeabschnitt 27 in Bezug auf eine Bestimmung dahingehend gesteuert, ob die von dem Mikrofon 7 erzeugten Ausgabedaten in der Sprachperiode oder der Rauschperiode und die extrahierten Daten in der Sprachperiode befindlich sind. Diese extrahierten Daten werden dem Spracherkennungsabschnitt 30 ausgegeben. Danach werden in einem Schritt S300 die extrahierten Daten einem Spracherkennungsprozeß unterworfen. Das Ergebnis dieses Erkennungsprozesses wird als Sprache von dem Lautsprecher 11 durch den Sprachausgabeabschnitt 28 zurückgegeben und ebenfalls auf dem Anzeigegerät 5 durch den Feldausgabeabschnitt 25 in einem Schritt S400 angezeigt, so daß der Benutzer seine Zustimmung oder Nichtzustimmung bezüglich des Erkennungsergebnisses durch den Schalter 3 oder das Mikrofon 7 eingeben kann.
  • Danach wird in einem Schritt S500 geprüft, ob der Benutzer dem Erkennungsergebnis (richtige Erkennung) zustimmt. Wenn das Erkennungsergebnis unrichtig ist (NEIN in dem Schritt S500), kehrt die Verarbeitung zu dem Schritt S100 zurück, um die obigen Schritte zu wiederholen. Wenn das Ergebnis richtig ist (JA in dem Schritt S500), wird das Erkennungsergebnis beendet oder in einem Schritt S600 festgelegt, und es wird ein Postbeendigungsprozeß in einem Schritt S700 ausgeführt. Wenn das beendete Erkennungsergebnis "Menüfeld" ist, enthält der Prozeß in dem Schritt S600 die Ausgabe verschiedener Daten in Bezug auf das Menüfeld dem Navigationsgerät 15 durch die Gerätesteuerungsschnittstelle 29.
  • Bei der obigen Ausführungsform meldet das Steuergerät, daß der manuelle Eingabebefehl ebenfalls in Sprache verfügbar ist, wenn dem so sei. Als Ergebnis kann der derart benachrichtigte Benutzer Befehle in Sprache anstelle von manuell betätigten Schaltern vom nächsten Mal an eingeben und die Befehlseingabeoperation vereinfachen.
  • Da das Anwendungsfeld für eine Sprachbefehlseingabe und der Befehl dafür gemeldet werden, lernt der Benutzer detailliert, in welchem Zustand und wie der Sprachbefehl eingegeben werden kann. Dieses führt zu einer hilfreichen Führung für Benutzer, die nicht so sehr mit der Sprachbefehlseingabeoperation vertraut sind.
  • Wenn ein Benutzer einmal mit der Sprachbefehlseingabeoperation vertraut ist, wird die Wiederholung derselben Führung lästig. Jedoch kann dieser Nachteil durch die Wahl "NEIN" überwunden werden, wenn das Führungsfestlegungsfeld auf dem Anzeigegerät 5 angezeigt wird, so daß die Wahl "NEIN" in den Schritten S30, S40 und S50 von Fig. 2 geprüft werden kann.
  • Die obige Ausführungsform kann auf viele Arten einschließlich der folgenden Modifizierungen modifiziert werden.
    • 1. Für den Fall, daß der Benutzer, der einmal den Befehl für die Spracheingabeoperation gelernt hat, sich nicht an den Befehl erinnern kann, wird es bevorzugt, die Historie der Sprachbefehle in einem Speicher 50a des Steuerabschnitts 50 oder in einem externen Speicher derart zu speichern, daß der gespeicherte Befehl auf Anforderung des Benutzers wiedererlangt werden kann. Beispielsweise kann eine Nachricht wie "Ein Menüfeld oder eine Spracheingabe werden in einem Abbildungsfeld bewirkt." als Historie angezeigt werden. Die Anzahl von tatsächlich eingegebenen Sprachbefehlen kann auf eine vorbestimmte Anzahl derart beschränkt werden, daß lediglich eine Mehrzahl der letzten gespeichert werden kann, während ältere aufgehoben und in der Reihenfolge von dem letzten an angezeigt werden.
    • 2. Das Steuergerät 1 kann in Verbindung mit verschiedenen Geräten außer dem Fahrzeugnavigationssystem verwendet werden. Derartige Geräte beinhalten eine Klimaanlage, ein Tongerät, ein mit elektrischem Antrieb versehenes Fenster, ein Rückspiegel und dergleichen. Wenn es in Verbindung mit einer Klimaanlage verwendet wird, kann die Sprachbefehlseingabe für eine variable Festlegung einer Zellensolltemperatur, die Wahl einer Klimatisierungsbetriebsart (Kühlung, Heizung, Trocknung) oder einer Wahl einer Luftflußrichtung bewirkt werden.
  • Vorstehend wurden ein Informationsverarbeitungssystem und -verfahren offenbart, welche mit einem Spracheingabebefehl betrieben werden. Wenn in einem Navigationssystem (1, 15) ein Befehl eines bezüglich der Sprache erkennbaren Typs manuell eingegeben wird, wird ein Benutzer durch Anzeigen eines Anwendungsfelds und eines Befehls auf einem Anzeigegerät (5) dahingehend benachrichtigt, daß ein Befehl als Sprache eingegeben werden kann. Wenn beispielsweise ein Menüfeld im Ansprechen auf manuelle Eingaben von Befehlen angezeigt wird, stellt das Anzeigegerät (5) eine visuelle Führung durch Anzeige einer Nachricht "Sie können Sprachnachrichten eingeben. Äußern Sie "Menüfeld" in einem Abbildungsfeld." bereit. Zusätzlich oder alternativ kann eine Sprachführung durch Ertönen lassen derselben Nachricht aus dem Lautsprecher (11) bereitgestellt werden. Der somit benachrichtigte Benutzer kann Befehle als Sprache das nächste Mal eingeben, während eine manuelle Eingabeausführung durch einen Schalter (3) oder dergleichen aufgehoben ist.

Claims (10)

1. Informationsverarbeitungssystem (1, 15), welches eine vorbestimmte Verarbeitung im Ansprechen auf eingegebene Befehle durchführt, wobei das System (1, 15):
eine Prüfeinrichtung (50) zum Überprüfen, ob ein von einem Benutzer extern verwendeter Eingabebefehl ein vorbestimmter bezüglich der Sprache erkennbarer Befehl ist; und
eine Ausgabeeinrichtung (5, 11, 25, 28, 50) zur Ausgabe einer Meldung dahingehend aufweist, daß der eingegebene Befehl sogar dann erkennbar ist, wenn er als Sprachbefehl eingegeben wird.
2. Informationsverarbeitungssystem (1, 15) nach Anspruch 1, dadurch gekennzeichnet, daß die Ausgabeeinrichtung (5, 11, 25, 28, 50) wenigstens einen Lautsprecher (11) oder ein Anzeigegerät (5) enthält, welches die Meldung hörbar oder sichtbar ausgibt.
3. Informationsverarbeitungssystem (1, 15) nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Meldung den Sprachbefehl selbst und einen Zustand aufweist, bei welchem der Sprachbefehl erkennbar ist.
4. Informationsverarbeitungssystem (1, 15) nach einem der Ansprüche 1 bis 3, gekennzeichnet durch eine Wahleinrichtung (5, 25, 50) zum Ermöglichen einer Wahl der Ausführung oder Nichtausführung der Ausgabe der Meldung durch den Benutzer.
5. Informationsverarbeitungssystem (1, 15) nach einem der Ansprüche 1 bis 4, gekennzeichnet durch eine Speichereinrichtung (50a) zur Speicherung des Sprachbefehls, welcher von dem Benutzer eingegeben wird, so daß der gespeicherte Sprachbefehl als Teil der Meldung ausgegeben wird.
6. Informationsverarbeitungssystem (1, 15) nach einem der Ansprüche 1 bis 5, gekennzeichnet durch
einen Schalter (3) zur manuellen Eingabe von vorbestimmten Ausführungsbefehlen durch den Benutzer;
ein Navigationsgerät (15), welches im Ansprechen auf die vorbestimmten Ausführungsbefehle betätigt wird, die von dem Schalter (3) eingegeben werden,
wobei der Sprachbefehl einer der vorbestimmten Ausführungsbefehle ist.
7. Informationsverarbeitungsverfahren, welches eine vorbestimmte Verarbeitung im Ansprechen auf eingegebene Befehle durchführt, mit den Schritten:
Prüfen (S20), ob ein manuell von einem Benutzer verwendeter Eingabebefehl ein vorbestimmter bezüglich der Sprache erkennbarer Befehl ist; und
Ausgeben (S50, S70, S80) einer Meldung dahingehend, daß der eingegebene Befehl von einem Typ ist, der sogar dann erkennbar ist, wenn er als Sprache eingegeben wird.
8. Informationsverarbeitungsverfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Ausgabeschritt (S50, S70, S80) die Meldung hörbar oder sichtbar durch einen Lautsprecher (11) oder ein Anzeigegerät (5) ausgibt und die Meldung den Sprachbefehl selbst und einen Zustand aufweist, bei welchem der Sprachbefehl erkennbar ist.
9. Informationsverarbeitungsverfahren nach einem der Ansprüche 7 oder 8, gekennzeichnet durch ein Ermöglichen (S30, S40, S60) der Wahl der Ausführung oder Nichtausführung der Ausgabe der Meldung durch den Benutzer.
10. Informationsverarbeitungsverfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, daß der Befehl des Sprachbefehls einer von durch den Benutzer eingegebenen vorbestimmten Ausführungsbefehlen zum Betätigen eines Navigationsgeräts (15) ist.
DE10241980A 2001-10-03 2002-09-11 Informationsverarbeitungssystem und -verfahren, welche mit einem Spracheingabebefehl betrieben werden Withdrawn DE10241980A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001307540A JP2003114698A (ja) 2001-10-03 2001-10-03 コマンド受付装置及びプログラム

Publications (1)

Publication Number Publication Date
DE10241980A1 true DE10241980A1 (de) 2003-04-10

Family

ID=19126987

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10241980A Withdrawn DE10241980A1 (de) 2001-10-03 2002-09-11 Informationsverarbeitungssystem und -verfahren, welche mit einem Spracheingabebefehl betrieben werden

Country Status (3)

Country Link
US (1) US20030065515A1 (de)
JP (1) JP2003114698A (de)
DE (1) DE10241980A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10349165A1 (de) * 2003-10-22 2005-05-19 Ernst Völlm Vorrichtung zur integrierten Steuerung und Nutzung von Unterhaltungs- und Informationseinrichtungen

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005007317A1 (de) * 2005-02-17 2006-08-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Sprachsteuerung eines Gerätes oder eines Systems in einem Kraftfahrzeug
JP2007052397A (ja) * 2005-07-21 2007-03-01 Denso Corp 操作装置
CN101291484A (zh) * 2007-04-16 2008-10-22 鸿富锦精密工业(深圳)有限公司 移动通信终端设备及其通信方法
JP4915665B2 (ja) * 2007-04-18 2012-04-11 パナソニック株式会社 音声認識機能付き操作器
JP5906615B2 (ja) * 2011-08-31 2016-04-20 アイシン・エィ・ダブリュ株式会社 音声認識装置、音声認識方法、及び音声認識プログラム
JP2013072974A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 音声認識装置、方法及びプログラム
CA2807615C (en) 2012-03-08 2020-06-30 Simplehuman, Llc Vanity mirror
KR101330671B1 (ko) * 2012-09-28 2013-11-15 삼성전자주식회사 전자장치, 서버 및 그 제어방법
CN103869948B (zh) * 2012-12-14 2019-01-15 联想(北京)有限公司 语音命令处理方法和电子设备
JP6482911B2 (ja) 2014-07-01 2019-03-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御方法および電気機器
CA2922596C (en) 2015-03-06 2023-10-24 Simplehuman, Llc Vanity mirror
CN105157719A (zh) * 2015-08-26 2015-12-16 惠州华阳通用电子有限公司 一种导航画面的显示方法及装置
KR20180084392A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10869537B2 (en) 2017-03-17 2020-12-22 Simplehuman, Llc Vanity mirror
KR102480728B1 (ko) * 2017-11-10 2022-12-23 삼성전자주식회사 전자장치 및 그 제어방법
CA3037704A1 (en) * 2018-03-22 2019-09-22 Simplehuman, Llc Voice-activated vanity mirror
EP3931615A1 (de) 2019-03-01 2022-01-05 Simplehuman LLC Kosmetikspiegel

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69634474T2 (de) * 1996-01-31 2006-04-27 Nokia Corp. Interaktives Verfahren zur Sprachsteuerung zwischen einem Telefon und einem Benutzer
ATE239336T1 (de) * 1998-09-22 2003-05-15 Nokia Corp Verfahren und vorrichtung zur konfiguration eines spracherkennungssystems
US6308157B1 (en) * 1999-06-08 2001-10-23 International Business Machines Corp. Method and apparatus for providing an event-based “What-Can-I-Say?” window

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10349165A1 (de) * 2003-10-22 2005-05-19 Ernst Völlm Vorrichtung zur integrierten Steuerung und Nutzung von Unterhaltungs- und Informationseinrichtungen

Also Published As

Publication number Publication date
JP2003114698A (ja) 2003-04-18
US20030065515A1 (en) 2003-04-03

Similar Documents

Publication Publication Date Title
DE10241980A1 (de) Informationsverarbeitungssystem und -verfahren, welche mit einem Spracheingabebefehl betrieben werden
EP1986889B1 (de) Vorrichtung und verfahren zur interaktiven informationsausgabe und/oder hilfestellung für den benutzer eines kraftfahrzeugs
EP2200858B1 (de) Fahrzeugsystem mit hilfefunktionalität
DE112007003024B4 (de) Fahrzeugmontierte Spracherkennungsvorrichtung
DE10330274A1 (de) Sprachgesteuertes System
DE102010038174A1 (de) Emotive Vorrichtung zur Informationsübermittlung in einem Kraftfahrzeug
DE102017216837A1 (de) Gestik- und Mimiksteuerung für ein Fahrzeug
DE102020109360A1 (de) System und Verfahren zur Automatisierung von Fahrzeugfunktionen
DE102012200609A1 (de) Gerät und Verfahren für das Bearbeiten eines Sprachbefehls
WO2005022511A1 (de) Unterstützungsverfahren für sprachdialoge zur bedienung von kraftfahrzeugfunktionen
DE102014012550A1 (de) Kraftfahrzeug-Bedienungsvorrichtung
DE102012008260A1 (de) Verfahren zum interaktiven Erlernen eines in einem Fahrzeug vorhandenen Fahrerassistenzsystems im Fahrbetrieb
EP2727773A1 (de) Verfahren zum Aktivieren einer Sprachinteraktion mit einem Insassen eines Fahrzeugs und Sprachinteraktionssystem für ein Fahrzeug
EP1930201A1 (de) Verfahren zur Möglichkeit der Anpassung der Fahrsituation eines von einem Fahrer geführten Fahrzeugs
WO2018010853A1 (de) Steuervorrichtung und verfahren zum sprachbasierten betreiben eines kraftfahrzeugs
DE102016211034A1 (de) Informationsbereitstellungsvorrichtung für ein Fahrzeug
DE10147738A1 (de) Sprachführungs-Umschalteinrichtung
WO2021023728A1 (de) Verfahren zum bereitstellen einer funktion einer funktionseinheit eines kraftfahrzeugs, assistenzsystem sowie kraftfahrzeug
WO2014117932A1 (de) Systeminitiierte hilfefunktion pro fahrt und/oder pro nutzer für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung
DE19839466A1 (de) Verfahren und Steuereinrichtung zur Bedienung technischer Einrichtungen eines Fahrzeugs
DE102015015486B3 (de) Verfahren zur automatischen Streckenführung eines Kraftfahrzeugs und Kraftfahrzeug mit Navigationssystem
DE102019112412A1 (de) System und verfahren zur unterstützung des fahrers eines fahrzeugs sowie fahrzeug, insbesondere kraftfahrzeug
EP3469581B1 (de) Verfahren zum betreiben eines kraftfahrzeugs mit einer bedienvorrichtung
DE112019006803T5 (de) Hilfssystem zur Unterstützung des automatischen Parkens
DE10038485C2 (de) Vorrichtung zur Durchführung eines Fahrer-Sehtests

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee