DE102006049561A1 - Spracherkennungsbasierte Gerät-Steuerungsvorrichtung - Google Patents

Spracherkennungsbasierte Gerät-Steuerungsvorrichtung Download PDF

Info

Publication number
DE102006049561A1
DE102006049561A1 DE102006049561A DE102006049561A DE102006049561A1 DE 102006049561 A1 DE102006049561 A1 DE 102006049561A1 DE 102006049561 A DE102006049561 A DE 102006049561A DE 102006049561 A DE102006049561 A DE 102006049561A DE 102006049561 A1 DE102006049561 A1 DE 102006049561A1
Authority
DE
Germany
Prior art keywords
unit
user
elements
speech
learning level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006049561A
Other languages
English (en)
Inventor
Hisayuki Wako Nagashima
Masashi Wako Satomura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102006049561A1 publication Critical patent/DE102006049561A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung wird zur Verfügung gestellt, welche das Sprachäußerung-Lernniveau eines Benutzers richtig bestimmen kann, so dass für eine effektive Interaktion gesorgt wird. Es enthält eine Spracheingabe-Einheit 2 zum Empfangen von Sprachäußerung-Eingabe von einem Benutzer, eine Spracherkennungseinheit 3 zum Erkennen der Sprachäußerung-Eingabe, eine Antwort-Ausgabe-Einheit 10 zur Ausgabe einer Antwort an den Benutzer, und eine Gerät-Steuereinheit 11 zur Steuerung eines Gerätes auf Basis von einem Erkennungsergebnis der Spracherkennungseinheit 3. Des Weiteren enthält es eine Eingabeelement-Anzahl-Ermittelungseinheit 4 zur Ermittelung der Anzahl identifizierter Elemente aus der erkannten Sprachäußerung, wobei diese aus einer vorgegebenen Anzahl von Elementen, welche zur Steuerung des Gerätes notwendig sind, stammen, eine Eingabeelement-Referenzanzahl-Festlegungseinheit 6 zur Festlegung eines Referenzwertes für die Anzahl an von aus der Sprachäußerung identifizierten Elementen, eine Eingabeelement-Anzahl-Vergleichseinheit 7 zum Vergleichen der von der Eingabeelement-Anzahl-Erkennungseinheit 4 erkannten Anzahl an Elementen mit dem von der Referenz-Eingabeelement-Anzahl-Festlegungseinheit 6 festgelegten Referenz-Wert, eine Geschicklichkeitsniveau-Bestimmungseinheit 8 zur Bestimmung des Sprachäußerung-Geschicklichkeitsniveaus des Benutzers aufgrund eines Vergleichsergebnisses, und eine Antwort-Steuereinheit 9 zur Steuerung der ...

Description

  • Erfindungsgebit
  • Die vorliegende Erfindung bezieht sich auf eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung für die Erkennung einer Sprachäußerung-Eingabe von einem Benutzer, für die Interaktion mit dem Benutzer durch das dem Benutzer Antworten auf Basis des Erkennungsergebnisses, und für die Ermittelung von Informationen zur Steuerung des Gerätes.
  • Stand der Technik
  • In den vergangenen Jahren wurde zum Beispiel in einem System, durch das ein Benutzer Waren kauft, ein Gerät bedient, oder ähnliches, eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung für die Erkennung von Sprachäußerung-Eingabe von einem Benutzer und für die Ermittelung von Information benutzt, welche notwendig sind für das Kaufen von Waren, Bedienen des Gerätes oder ähnlichem. Diese Art von spracherkennungsbasierte Gerät-Steuerungsvorrichtung interagiert mit dem Benutzer durch Erkennung von Sprachäußerung-Eingabe (Sprachäußerung) von dem Benutzer, durch das dem Benutzer Antworten (Ausgabe von einem Sprach-Führer) auf Basis des Erkennungsergebnisses und das Auffordern des Benutzers zur nächsten Sprachäußerung-Eingabe. Danach ermittelt die spracherkennungsbasierte Gerät-Steuerungsvorrichtung notwendige Informationen für den Wareneinkauf, die Geräte-Bedienung oder ähnlichem aus dem Erkennungsergebnis der Interaktion mit dem Benutzer.
  • Wenn ein Sprachführer oder ein interaktiver Vorgang unabhängig von dem Benutzer oder der Situation des Benutzers festgelegt wird, kann bei dieser Art von spracherkennungsbasierter Gerät-Steuerungsvorrichtung eine effiziente Interaktion in manchen Fällen nicht erzielt werden. Zum Beispiel ist ein Sprachführer, welcher auf einen Benutzer ausgerichtet ist, der die Sprachäußerung-Eingabe in eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung nicht gewohnt ist, für einen Benutzer überflüssig, der mit der Sprachäußerung-Eingabe in eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung vertraut ist. Deshalb ist das System, welches mit einer auf diesen Typ von Sprachführer festgelegten spracherkennungsbasierten Gerät-Steuerungsvorrichtung arbeitet, für den Benutzer mit Sprachäußerung-Eingabe-Erfahrung unbequem zu bedienen. Dem entsprechend wurde schon eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung zum Ermitteln eines Sprachäußerung-Lernniveaus des Benutzers und zum Ändern einer Antwort an den Benutzer auf Basis eines Ermittelungsergebnisses vorgeschlagen (siehe, zum Beispiel, japanische Patent-Offenlegungsschrift Nr. 2000-194386 (im nachfolgenden als Patent-Dokument 1 bezeichnet)).
  • Ein Spracherkennung-Antwort-System, welches die spracherkennungsbasierte Gerät-Steuerungsvorrichtung im Patent-Dokument 1 ist, erkennt Sprachäußerung-Eingabe von einem Benutzer über ein Telefon und antwortet dem Benutzer. Wenn das Spracherkennung-Antwort-System zum Beispiel auf ein Fluglinien-Reservierungssystem angewendet wird, nimmt es die Flughafen-Namen von Abflug- und Zielort, das Datum und die Uhrzeit des Abflugs und ähnliches durch eine Telefon-Interaktion mit dem Benutzer durch Spracherkennung auf.
  • In diesem Fall umfasst das Spracherkennung-Antwort-System eine Lernniveau-Ermittlungseinheit zur Ermittlung eines Sprachäußerung-Lernniveaus des Benutzers und eine Sprach-Steuerungseinheit zur Steuerung eines interaktiven Vorgangs (Inhalt des Sprachführers und Sprach-Tempo des Sprachführers) mit dem Benutzer auf Basis eines Ermittlungsergebnisses der Lernniveau-Ermittlungseinheits. Die Lernniveau-Ermittlungseinheit ermittelt, dass das Lernniveau höher ist, wenn Zeit A und Zeit T kürzer werden und die Anzahl von Sprachäußerungslauten N kleiner werden, und dass das Lernniveau kleiner ist, wenn Zeit A und Zeit T länger werden und die Anzahl von Sprachäußerungslauten N größer werden, wobei A ein Zeitperiode von dem Beginn der Ausgabe des Sprachführers bis zum Beginn der Sprachäußerung des Benutzers ist, T eine Zeitperiode der Sprachäußerung des Benutzers, und N die Anzahl der Sprachlaute des Benutzers (die Anzahl der Sprachäußerungsworte des Benutzers). Dann gibt die Sprach-Steuerungseinheit einen kurzen und knappen Sprachführer mit einer hohen Geschwindigkeit aus, falls das Lernniveau des Benutzers relativ hoch ist, oder es gibt einen detaillierten Sprachführer mit einer niedrigen Geschwindigkeit aus, falls das Lernniveau des Benutzers relativ niedrig ist, durch Verwendung des auf Basis des Ermittlungsergebnisses der Lernniveau-Ermittlungseinheit ermittelten Inhaltes des Sprachführers und des ermittelten Sprachtempos.
  • Die Sprachäußerungsneigung, wie zum Beispiel die Sprachäußerungszeit und die Anzahl von Sprachäußerungslauten, hängt auch von den individuellen Vorlieben des Benutzers ab. Deshalb bedeuten eine lange Sprachäußerungszeit und eine große Anzahl an Sprachäußerungslauten nicht notwendigerweise ein niedriges Sprachäußerung-Lernniveau. Selbst wenn das Sprachäußerungstempo niedrig ist, kann zum Beispiel das Sprachäußerung-Lernniveau des Benutzers sogar dann als hoch erachtet werden, wenn jede der notwendigen Informationen ohne Fehler eingegeben werden. Wenn deshalb das Sprachäußerung-Lernniveau des Benutzers auf Basis der Sprachäußerungszeit oder der Anzahl der Sprachlaute ermittelt wird, wie in dem im Patent-Dokument 1 offenbarten Spracherkennung-Antwort-System, kann das Lernniveau nicht richtig ermittelt werden und dies kann zu einem Problem führen, das in manchen Fällen ineffiziente Interaktion hervorruft.
  • Offenbarung der Erfindung
  • Es ist ein Ziel der vorliegenden Erfindung oben genanntes Problem zu lösen und eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung bereitzustellen, welche fähig ist, das Sprachäußerung-Lernniveau eines Benutzers richtig zu ermitteln, so dass eine effiziente Interaktion bereitgestellt wird.
  • Nach einem Merkmal der vorliegenden Erfindung wird eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung zur Verfügung gestellt, welche eine für das Empfangen von Sprachäußerung-Eingabe von einem Benutzer ausgelegte Sprachäußerung-Eingabe-Einheit aufweist, sowie eine für die Erkennung der in die Sprachäußerung-Eingabe-Einheit eingegebenen Sprachäußerung ausgelegte Spracherkennungseinheit, und eine für die Ausgabe einer Antwort an den Benutzer ausgelegte Antwort-Ausgabe-Einheit, sowie eine für die Steuerung eines Gerätes auf Basis eines Erkennungsergebnisses der Spracherkennungseinheit ausgelegte Gerät-Steuereinheit, wobei die spracherkennungsbasierte Gerät-Steuerungsvorrichtung umfasst: eine Eingabeelement-Anzahl-Ermittelungseinheit, welche ausgelegt ist, um in der von der Spracherkennungseinheit erkannten Sprachäußerung die Anzahl identifizierter Elemente unter einer vorgegebenen, für die Steuerung des Gerätes erforderlichen Anzahl an Elementen zu ermitteln; eine Eingabeelement-Referenzanzahl-Festlegungseinheit, welche ausgelegt ist, um einen Referenz-Wert für die Anzahl an von aus der Sprache identifizierten Elementen, auf Basis des Inhaltes der Sprachäußerung-Eingabe, festzulegen; eine Eingabeelement-Anzahl-Vergleichseinheit, welche ausgelegt ist, um die Anzahl der von der Eingabeelement-Anzahl-Ermittelungseinheit ermittelten Elemente mit dem von der Eingabeelement-Referenzanzahl-Festlegungseinheit festgelegten Referenzwert für die Anzahl an Elementen zu vergleichen; eine Lernniveau-Bestimmungseinheit, welche aufgebaut ist, um ein Sprachäußerung-Lernniveau des Benutzers auf Basis eines Vergleichsergebnisses der Eingabeelement-Anzahl-Vergleichseinheit zu bestimmen; und eine Antwort-Steuereinheit zur Steuerung der Antwort-Ausgabe von der Antwort-Ausgabe-Einheit, entsprechend dem von der Lernniveau-Bestimmungseinheit bestimmten Lernniveau (ein erster Aspekt der Erfindung).
  • Entsprechend der spracherkennungsbasierten Gerät-Steuerungsvorrichtung des ersten Aspektes der Erfindung ermittelt die Eingabeelement-Anzahl-Ermittelungseinheit in der von der Spracherkennungseinheit erkannten Sprachäußerung die Anzahl identifizierter Elemente unter einer vorgegebenen, für die Steuerung des Gerätes erforderlichen Anzahl an Elementen. Hierbei ist zu bemerken, dass zur Steuerung des Gerätes erforderliche Elemente zum Beispiel ein zu steuerndes Objekt (Gerät-Typ), einen zu steuernden Inhalt für jedes zu steuernde Objekt und einen Parameter für jeden zu steuernden Inhalt umfasst. Die Anzahl an erforderlichen Elementen ist dann eine vorher, entsprechend dem zu steuerndem Objekt und Inhalt, festgelegte Anzahl. Die Eingabeelement-Referenzanzahl-Festlegungseinheit legt den Referenz-Wert für die Anzahl an von aus der Sprache identifizierten Elementen, auf Basis des Inhaltes der Sprachäußerung-Eingabe, fest. Als Referenz-Wert ist es möglich zum Beispiel einen gegebenen Wert zu verwenden, welcher einer vorher ermittelten Anzahl identifizierter Elemente aus einer typischen Sprachäußerung eines Benutzers entspricht.
  • Falls der Benutzer mit der Sprachäußerung zur Steuerung des Gerätes vertraut ist, wird angenommen, dass der Benutzer mehr Elemente mit einer einzigen Sprachäußerung eingeben kann. Deshalb bestimmt die Lernniveau-Bestimmungseinheit das Sprachäußerung-Lernniveau des Benutzers auf Basis des Vergleichsergebnisses der Eingabeelement-Anzahl-Vergleichseinheit. So wird das Sprachäußerung-Lernniveau des Benutzers auf Basis der Anzahl an Elementen bestimmt, die mit einer einzigen Sprachäußerung eingegeben werden kann. Deshalb wird das Sprachäußerung-Lernniveau des Benutzers zur Steuerung des Gerätes richtig bestimmt, unabhängig von den Sprachäußerungsneigungen des Benutzers, wie zum Beispiel das Sprachäußerungstempo und die Anzahl von Sprachäußerungslauten. Danach steuert die Antwort-Steuereinheit die Antwort-Ausgabe von der Antwort-Ausgabe-Einheit, entsprechend des von der Lernniveau-Bestimmungseinheit bestimmten Lernniveaus. Nach der vorliegenden Erfindung wird der Benutzer zur Eingabe der nächsten Sprachäußerung durch die Ausgabe der wie oben beschrieben gesteuerten Antwort aufgefordert, wodurch eine effiziente Interaktion erzielt wird.
  • Außerdem umfasst die spracherkennungsbasierte Gerät-Steuerungsvorrichtung nach dem ersten Aspekt bevorzugt des weiteren eine Lernniveau-Speicher-Einheit zur aktualisierenden Speicherung eines temporären Sprachäußerung-Lernniveaus eines Benutzers, und die Eingabeelement-Referenzanzahl-Festlegungseinheit legt den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen auf Basis des temporären Lernniveaus des Benutzers fest, welches von der Lernniveau-Speichereinheit gespeichert wird (ein zweiter Aspekt der Erfindung).
  • Nach dem zweiten Aspekt der Erfindung speichert die Lernniveau-Speicher-Einheit aktualisierend das temporäre Sprachäußerung-Lernniveau des Benutzers. Für das temporäre Sprachäußerung-Lernniveau des Benutzers kann zum Beispiel ein gegebener Wert verwendet werden, welcher vorher von dem Benutzer festgelegt wurde, oder ein gegebener Wert, welcher auf Basis des in vorangegangenen Sprachäußerungen ermittelten Sprachäußerung-Lernniveaus des Benutzers festgelegt wurde. Dann legt die Eingabeelement-Referenzanzahl-Festlegungseinheit den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen auf Basis des temporären Lernniveaus des Benutzers fest, welches in der Lernniveau-Speichereinheit gespeichert wird. Folglich wird der Referenzwert auf Basis des temporären Lernniveaus festgelegt, und das Lernniveau wird als Ergebnis des Vergleichs mit dem Referenzwert ermittelt, wodurch das aktuelle Lernniveau relativ zu dem temporären Lernniveau ermittelt werden kann. Dadurch kann zum Beispiel das aktuelle Lernniveau ermittelt werden, wobei darin die Tendenz des Lernniveaus des Benutzers in der vorherigen Sprachäußerung mehr wiedergegeben wird.
  • Falls außerdem in der spracherkennungsbasierten Gerät-Steuerungsvorrichtung, nach dem zweiten Aspekt der Erfindung, das Gerät eine Mehrzahl von Gerätetypen beinhaltet, speichert die Lernniveau-Speichereinheit bevorzugt das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp, legt die Eingabeelement-Referenzanzahl-Festlegungseinheit den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen bevorzugt für jeden Gerätetyp fest, vergleicht die Eingabeelement-Anzahl-Vergleichseinheit die Anzahl der von der Eingabeelement-Anzahl-Erkennungseinheit erkannten Elemente bevorzugt mit dem für jeden Gerätetyp festgelegten Referenz-Wert für die Anzahl an Elementen, und die Lernniveau-Bestimmungseinheit bestimmt das Sprachäußerung-Lernniveau des Benutzers bevorzugt für jeden Gerätetyp auf Basis eines Vergleichsergebnisses der Eingabeelement-Anzahl-Vergleichseinheit (ein dritter Aspekt der Erfindung).
  • Genauer, falls es eine Mehrzahl von Geräte-Typen gibt, dann ist es benutzerabhängig, welcher Geräte-Typ häufig benutzt wird, und deshalb kann das Lernniveau als abhängig vom Geräte-Typ angesehen werden. In diesem Fall speichert die Lernniveau-Speichereinheit das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp und für jeden Funktionsobjekt-Typ, und die Eingabeelement-Referenzanzahl-Festlegungseinheit legt den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen für jeden Gerätetyp fest. Die Eingabeelement-Anzahl-Vergleichseinheit vergleicht die Anzahl der von der Eingabeelement-Anzahl-Erkennungseinheit erkannten Elemente mit dem für jeden Gerätetyp festgelegten Referenz-Wert für die Anzahl an Elementen. Deshalb bestimmt die Lernniveau-Bestimmungseinheit das Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp. Folglich kann, sogar wenn zum Beispiel eine Mehrzahl an Geräte-Typen vorhanden sind und das Sprachäußerung-Lernniveau des Benutzers vom Geräte-Typ abhängt, das Sprachäußerung-Lernniveau des Benutzers für jedes Gerät richtig bestimmt werden.
  • Falls außerdem in der spracherkennungsbasierten Gerät-Steuerungsvorrichtung nach dem dritten Aspekt der Erfindung eine Mehrzahl der Gerätetypen jeweils mit einer Mehrzahl von Funktionsobjekt-Typen ausgestattet sind, welche von dem Benutzer bedient werden können, und die vorgegebene Anzahl von Elementen, welche zur Steuerung des Gerätes erforderlich sind, Elemente beinhalten, die für die Bedienung der Funktionsobjekte erforderlich sind, speichert die Lernniveau-Speichereinheit das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp und für jeden Funktionsobjekt-Typ, legt die Eingabeelement-Referenzanzahl-Festlegungseinheit den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen für jeden Gerätetyp und für jeden Funktionsobjekt-Typ fest, vergleicht die Eingabeelement-Anzahl-Vergleichseinheit die Anzahl der von der Eingabeelement-Anzahl-Erkennungseinheit erkannten Elemente mit dem für jeden Gerätetyp und für jeden Funktionsobjekt-Typ festgelegten Referenz-Wert für die Anzahl an Elementen, und die Lernniveau-Bestimmungseinheit bestimmt das Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp und für jeden Funktionsobjekt-Typ auf Basis eines Vergleichsergebnisses der Eingabeelement-Anzahl-Vergleichseinheit (ein vierter Aspekt der Erfindung).
  • Genauer, falls eine Mehrzahl der Geräte-Typen jeweils mit einer Mehrzahl von Funktionsobjekt-Typen ausgestattet sind, welche von dem Benutzer bedient werden können, dann umfasst die vorgegebene, zur Steuerung des Gerätes erforderliche Anzahl von Elementen zur Bedienung der Funktionsobjekte erforderliche Elemente, und die Elemente hängen von jedem Funktionsobjekt ab. In diesem Fall variieren die häufig benutzten Geräte unter den Benutzern und des Weiteren variieren die häufig benutzten Funktionsobjekte unter den Geräten, und deshalb kann das Lernniveau als variierend unter den Geräte-Typen und Funktionsobjekt-Typen angesehen werden. In diesem Fall speichert die Lernniveau-Speichereinheit das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp und für jeden Funktionsobjekt-Typ, und die Eingabeelement-Referenzanzahl-Festlegungseinheit legt den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen für jeden Gerätetyp und für jeden Funktionsobjekt-Typ fest. Danach vergleicht die Eingabeelement-Anzahl-Vergleichseinheit die Anzahl der von der Eingabeelement-Anzahl-Erkennungseinheit erkannten Elemente mit dem für jeden Gerätetyp und für jeden Funktionsobjekt-Typ festgelegten Referenz-Wert für die Anzahl an Elementen. Daher bestimmt die Lernniveau-Bestimmungseinheit das Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp und für jeden Funktionsobjekt-Typ. Sogar wenn zum Beispiel eine Mehrzahl von Geräte-Typen jeweils mit einer Mehrzahl von durch den Benutzer bedienbaren Funktionsobjekt-Typen ausgestattet sind, und das Sprachäußerung-Lernniveau des Benutzers vom Geräte-Typ und vom Funktionsobjekt-Typ abhängt, kann folglich das Sprachäußerung-Lernniveau des Benutzers für jedes Gerät und jedes Funktionsobjekt richtig bestimmt werden.
  • Außerdem aktualisiert, in der spracherkennungsbasierten Gerät-Steuerungsvorrichtung nach dem zweiten bis dem vierten Aspekt der Erfindung, bevorzugt die Lernniveau-Speichereinheit das in der Lernniveau-Speichereinheit abgespeicherte temporäre Sprachäußerung-Lernniveau des Benutzers auf Grund eines Bestimmungsergebnisses der Lernniveau-Bestimmungseinheit (ein fünfter Aspekt der Erfindung).
  • Nach dem fünften Aspekt der Erfindung aktualisiert bevorzugt die Lernniveau-Speichereinheit das in der Lernniveau-Speichereinheit abgespeicherte temporäre Sprachäußerung-Lernniveau des Benutzers auf Grund eines Bestimmungsergebnisses der Lernniveau-Bestimmungseinheit. In diesem Fall, falls die Lernniveau-Bestimmungseinheit das Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ bestimmt, aktualisiert die Lernniveau-Speichereinheit das temporäre Sprachäußerung-Lernniveau des Benutzers, welches für jeden Geräte-Typ gespeichert ist. Falls die Lernniveau-Bestimmungseinheit das Sprachäußerung-Lernniveau des Benutzers für jedes Gerät und für jeden Funktionsobjekt-Typ bestimmt, aktualisiert die Lernniveau-Speichereinheit das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ und für jeden Funktionsobjekt-Typ. Dadurch wird der Referenzwert für das Bestimmen des Lernniveaus auf Grund des geeignet aktualisierten temporären Lernniveaus festgelegt, und daher wird das aktuelle Lernniveau genauer ermittelt.
  • Desweiteren kann das Lernniveau des Benutzers als mit dem Anfrage-Inhalt variierend angenommen werden, falls es eine große Anzahl an erforderlichen Elementen gibt und eine Vielfalt an Antworten (Anfragen) von der obigen Antwort-Ausgabe-Einheit ausgegeben werden. Zum Beispiel variiert das Lernniveau in manchen Fällen mit fortschreitender Interaktion, da der Benutzer mit einigen Anfragen vertraut oder mit anderen Anfragen nicht vertraut ist. Deswegen wird, nach der vorliegenden Erfindung, das temporäre Lernniveau richtig aktualisiert, der Referenzwert wird auf Grund des temporären Lernniveaus festgelegt, und das Lernniveau wird durch Vergleich mit dem Referenzwert bestimmt. Folglich wird das Sprachäußerung-Lernniveau des Benutzers richtig bestimmt, sogar wenn es während der Interaktion variiert.
  • Desweiteren, in der spracherkennungsbasierten Gerät-Steuerungsvorrichtung nach dem ersten bis fünften Aspekt der Erfindung, umfasst die Antwort-Steuerungseinheit bevorzugt eine Einheit zur Steuerung einer Antwort auf so eine Weise, dass der Benutzer zur Eingabe einer festgelegten Anzahl von Elementen aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit bestimmten Lernniveaus festgelegt wird, und wobei die festgelegte Anzahl von Elementen zu der zur Steuerung des Gerätes erforderlichen Anzahl von Elementen gehören und unter diesen gegebenenfalls Elemente vorhanden sind, welche nicht identifiziert wurden aus der von der Spracherkennungseinheit erkannten Sprachäußerung (ein sechster Aspekt der Erfindung).
  • Falls es Elemente gibt, welche nicht aus der von der Spracherkennungseinheit erkannten Sprachäußerung identifiziert wurden, und aus der vorgegebenen, zur Steuerung des Gerätes erforderlichen Anzahl von Elementen stammen, müssen nach dem sechsten Aspekt der Erfindung die nicht identifizierten Elemente durch nachfolgende Interaktion mit dem Benutzer eingegeben werden. Folglich gibt die Antwort-Ausgabe-Einheit eine Antwort (Sprach-Führer) aus, welche den Benutzer auffordert die nicht identifizierten Elemente einzugeben. In dieser Ausgabe steuert die Antwort-Steuereinheit die Antwort so, dass der Benutzer zur Eingabe der festgelegten Anzahl von Elementen unter der Anzahl nicht identifizierter Elemente aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit bestimmten Lernniveaus festgelegt wird. Zum Beispiel legt die Antwort-Steuereinheit die festgelegte Anzahl auf einen höheren Wert fest, wenn das Lernniveau höher wird.
  • Falls eine Mehrzahl von Geräte-Typen vorhanden ist und das Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ ermittelt wird, dann ist die vorgegebene, für die Steuerung des Gerätes erforderliche Anzahl an Elementen genau die Anzahl, welche für den jeweiligen Geräte-Typ ermittelt wurde. Falls eine Mehrzahl der Gerätetypen jeweils mit einer Mehrzahl von Funktionsobjekt-Typen ausgestattet sind, welche von dem Benutzer bedient werden können, und das Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ und für jeden Funktionsobjekt-Typ ermittelt wird, dann ist die vorgegebene, für die Steuerung des Gerätes erforderliche Anzahl an Elementen genau die Anzahl, welche für den jeweiligen Geräte-Typ und Funktionsobjekt-Typ ermittelt wurde.
  • Wenn zum Beispiel der Benutzer mit Sprachäußerung zur Steuerung des Gerätes vertraut ist und viele Elemente mit einer Sprachäußerung eingeben kann, wird dadurch ein Sprach-Führer so ausgegeben, dass er den Benutzer zur Eingabe von vielen Elementen auffordert. Auf der anderen Seite, falls der Benutzer mit Sprachäußerung zur Steuerung des Gerätes nicht vertraut ist und nicht viele Elemente mit einer Sprachäußerung eingeben kann, wird dadurch ein Sprach-Führer so ausgegeben, dass er den Benutzer zur Eingabe von jeweils nur einem Element auffordert. Daher wird nach der vorliegenden Erfindung eine geeignete Antwort von der Antwort-Ausgabe-Einheit ausgegeben, wobei das Sprachäußerung-Lernniveau des Benutzers berücksichtigt wird, wodurch eine effektive Interaktion durchgeführt wird.
  • Die spracherkennungsbasierte Gerät-Steuerungsvorrichtung nach der vorliegenden Erfindung ist auf einem beweglichen Körper angebracht, wie zum Beispiel ein Fahrzeug, und wird von einem Fahrer des beweglichen Körpers benützt, um ein Gerät zu steuern. In dieser Situation, zum Beispiel während des Fahrens eines Fahrzeuges, hängt die notwendige Konzentration des Fahrers auf das Fahren von einer Fahr-Beanspruchung des Fahrers ab, welche von Fahrzeug-Betriebsbedingungen oder ähnlichem verursacht wird. Wenn deshalb die spracherkennungsbasierte Gerät-Steuerungsvorrichtung auf einem beweglichen Körper angebracht ist, umfasst diese bevorzugt des weiteren ein Fahr-Beanspruchung-Erkennungselement zur Erkennung einer Fahrbeanspruchung des Benutzers, welcher der Fahrer des beweglichen Körpers ist, und die Eingabeelement-Referenzanzahl-Festlegungseinheit legt den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau-Speicher-Einheit gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit erkannten Fahr-Beanspruchung fest. Insbesondere wenn die spracherkennungsbasierte Gerät-Steuerungsvorrichtung die Lernniveau-Speicher-Einheit umfasst, umfasst sie bevorzugt des Weiteren eine Fahr-Beanspruchung-Erkennungseinheit zur Erkennung einer Fahr-Beanspruchung des Benutzers, welcher der Fahrer des beweglichen Körpers ist, und die Eingabeelement-Referenzanzahl-Festlegungseinheit legt den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau-Speicher-Einheit gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers gemäß der Art des Inhaltes der Sprachäußerungseingabe, und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit erkannten Fahr-Beanspruchung fest (ein siebter Aspekt der Erfindung).
  • Entsprechend dem oben genannten erkennt die Fahr-Beanspruchung-Erkennungseinheit die Fahrbeanspruchung des Benutzers als ein Fahrer des beweglichen Körpers. Zum Beispiel im Fall eines Fahrzeuges kann die Fahrbeanspruchung anhand einer Fahrzeug-Geschwindigkeit, einer Lenkungsbedienung, einer Bremsbedienung, Transpiration an den Handflächen, oder ähnlichem bestimmt werden. Falls außerdem zum Beispiel die Fahr-Beanspruchung hoch ist, muss der Benutzer sich stark auf das Fahren konzentrieren, und deswegen wird angenommen, dass der Benutzer sich weniger auf das Steuern des Gerätes konzentriert und weniger Elemente mit einer Sprachäußerung eingeben kann, im Vergleich zu einer Eingabe bei niedriger Fahr-Beanspruchung. Falls das Lernniveau dann auf Basis eines Vergleichergebnisses mit dem gleichen, zu einem Zeitpunkt niedriger Fahr-Beanspruchung festgelegten, Referenzwert ermittelt wird, wird das Sprachäußerung-Lernniveau des Benutzers eventuell niedriger als das wirkliche Lernniveau ermittelt.
  • Wegen dieses Problems legt die Eingabeelement-Referenzanzahl-Festlegungseinheit den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit erkannten Fahrbeanspruchung fest, zusätzlich zu dem Inhalt der Sprachäußerung des Benutzers und des temporären, in der Lernniveau-Speichereinheit gespeicherten Sprachäußerung-Lernniveaus des Benutzers. Dies ermöglicht das Festlegen des Referenzwertes unter Berücksichtigung der Fahrbeanspruchung des Benutzers als Fahrer, und daher wird das wirkliche Sprachäußerung-Lernniveau des Benutzers sogar während des Fahrens ermittelt.
  • Falls das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ abgespeichert wird und der Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen für jeden Geräte-Typ festgelegt wird, wird somit das Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ ermittelt. Falls das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ und jeden Funktionsobjekt-Typ abgespeichert wird, und der Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen für jeden Geräte-Typ und jeden Funktionsobjekt-Typ festgelegt wird, wird somit das Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ und jeden Funktionsobjekt-Typ ermittelt.
  • Desweiteren, falls die spracherkennungsbasierte Gerät-Steuerungsvorrichtung nach der vorliegenden Erfindung die Fahr-Beanspruchung-Erkennungseinheit umfasst (der siebte Aspekt der Erfindung), umfasst die Antwort-Steuereinheit bevorzugt eine Einheit, welche ausgelegt ist, um eine Antwort so zu steuern, dass der Benutzer zur Eingabe einer festgelegten Anzahl von Elementen aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit bestimmten Lernniveaus und der von der Fahr-Beanspruchung-Erkennungseinheit erkannten Fahr-Beanspruchung festgelegt wird, und wobei die festgelegte Anzahl von Elementen zu der zur Steuerung des Gerätes erforderlichen Anzahl von Elementen gehören und unter diesen gegebenenfalls Elemente vorhanden sind, welche nicht identifiziert wurden aus der von der Spracherkennungseinheit erkannten Sprachäußerung (ein achter Aspekt der Erfindung).
  • Demnach, falls es Elemente gibt, welche nicht aus der von der Spracherkennungseinheit erkannten Sprachäußerung identifiziert wurden, und aus der vorgegebenen, zur Steuerung des Gerätes erforderlichen Anzahl von Elementen stammen, müssen die nicht identifizierten Elemente durch nachfolgende Interaktion mit dem Benutzer eingegeben werden. Folglich gibt die Antwort-Ausgabe-Einheit eine Antwort (Sprach-Führer) aus, welche den Benutzer auffordert die nicht identifizierten Elemente einzugeben. In dieser Ausgabe steuert die Antwort-Steuereinheit die Antwort so, dass der Benutzer zur Eingabe der festgelegten Anzahl von Elementen unter der Anzahl nicht identifizierter Elemente aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit bestimmten Lernniveaus und der von der Fahr-Beanspruchung-Erkennungseinheit erkannten Fahrbeanspruchung festgelegt wird. Zum Beispiel legt die Antwort-Steuereinheit die festgelegte Anzahl auf einen höheren Wert fest, wenn das Lernniveau höher wird, und legt die festgelegte Anzahl auf einen relativ niedrigen Wert fest, wenn die Fahr-Beanspruchung höher wird.
  • Falls es eine Mehrzahl an Geräte-Typen gibt und das Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ ermittelt wird, dann ist die vorgegebene, für die Steuerung des Gerätes erforderliche Anzahl an Elementen genau die Anzahl, welche für den jeweiligen Geräte-Typ ermittelt wurde. Falls außerdem eine Mehrzahl der Gerätetypen jeweils mit einer Mehrzahl von Funktionsobjekt-Typen ausgestattet sind, welche von dem Benutzer bedient werden können, und das Sprachäußerung-Lernniveau des Benutzers für jeden Geräte-Typ und für jeden Funktionsobjekt-Typ ermittelt wird, dann ist die vorgegebene, für die Steuerung des Gerätes erforderliche Anzahl an Elementen genau die Anzahl, welche für den jeweiligen Geräte-Typ und Funktionsobjekt-Typ ermittelt wurde.
  • Wenn zum Beispiel der Benutzer mit Sprachäußerung zur Steuerung des Gerätes vertraut ist und viele Elemente mit einer Sprachäußerung eingeben kann, wird dadurch ein Sprach-Führer so ausgegeben, dass er den Benutzer zur Eingabe von vielen Elementen auffordert. Auf der anderen Seite, falls der Benutzer mit Sprachäußerung zur Steuerung des Gerätes nicht vertraut ist und nicht viele Elemente mit einer Sprachäußerung eingeben kann, wird dadurch ein Sprach-Führer so ausgegeben, dass er den Benutzer zur Eingabe von einem Element nach dem anderen auffordert. Falls zum Beispiel die Fahr-Beanspruchung hoch ist und der Benutzer sich stark auf das Fahren konzentrieren muss und sich weniger auf das Steuern des Gerätes konzentriert, wird ein Sprach-Führer so ausgegeben, dass er den Benutzer zur Eingabe von weniger Elementen auffordert, als wenn die Fahr-Beanspruchung niedrig ist. Daher wird nach der vorliegenden Erfindung eine geeignete Antwort von der Antwort-Ausgabe-Einheit ausgegeben, wobei das Sprachäußerung-Lernniveau des Benutzers und die Fahrbeanspruchung des Benutzers berücksichtigt wird, wodurch eine effektive Interaktion durchgeführt wird.
  • Kurze Beschreibung der Figuren
  • 1 ist ein Funktionsblock-Diagramm einer spracherkennungsbasierten Gerät-Steuerungsvorrichtung nach der vorliegenden Erfindung.
  • 2 bis 7 sind Ablaufdiagramme von spracherkennungsbasierter Ablaufsteuerung einer Gerätesteuerung der in 1 dargestellten spracherkennungsbasierten Gerät-Steuerungsvorrichtung.
  • 8 ist ein Beispiel einer Interaktion in der in 1 dargestellten spracherkennungsbasierten Gerät-Steuerungsvorrichtung.
  • Genauer, 2 ist ein Ablaufdiagramm, welches einen allgemeinen Ablauf (Ablaufsteuerung einer spracherkennungsbasierten Gerät-Steuerungsvorrichtung) der in 1 dargestellten spracherkennungsbasierten Gerät-Steuerungsvorrichtung zeigt. 3 ist ein Ablaufdiagramm, welches die Ablaufsteuerung zur Analyse einer Eingabe-Äußerung in der Ablaufsteuerung der spracherkennungsbasierten Gerät-Steuerungsvorrichtung zeigt, die in 2 dargestellt ist. 4 ist ein Ablaufdiagramm, welches die Ablaufsteuerung zum Lesen eines temporären Geschicklichkeitsniveaus in der Ablaufsteuerung der spracherkennungsbasierten Gerät-Steuerungsvorrichtung zeigt, die in 2 dargestellt ist. 5 ist ein Ablaufdiagramm, welches die Ablaufsteuerung zum Festlegen des Referenz-Wertes für die Anzahl an Eingabe-Elementen in der Ablaufsteuerung der spracherkennungsbasierten Gerät-Steuerungsvorrichtung zeigt, die in 2 dargestellt ist. 6 ist ein Ablaufdiagramm, welches die Ablaufsteuerung zum Ermitteln eines Geschicklichkeitsniveaus in der Ablaufsteuerung der spracherkennungsbasierten Gerät-Steuerungsvorrichtung zeigt, die in 2 dargestellt ist. 7 ist ein Ablaufdiagramm, welches die Ablaufsteuerung zum Ermitteln einer Anfrage in der Ablaufsteuerung der spracherkennungsbasierten Gerät-Steuerungsvorrichtung zeigt, die in 2 dargestellt ist.
  • Beschreibung bevorzugter Ausführungsformen der Erfindung
  • Eine Ausführungsform der vorliegenden Erfindung wird im Folgenden, unter Bezugnahme auf die beiliegenden Zeichnungen, beschrieben.
  • Bezug nehmend auf 1 ist eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 eine von einem Microcomputer oder ähnlichem gebildete elektronische Einheit, welche Ablaufsteuerungseinrichtungen aufweist, wie zum Beispiel eine Spracheingabe-Einheit 2 zum Erhalten von Sprachäußerung-Eingabe von einem Fahrer, eine Spracherkennungseinheit 3 zum Erkennen der Sprachäußerung-Eingabe, eine Antwort-Ausgabe-Einheit 10 zum Ausgeben einer Antwort an den Fahrer, eine Gerät-Steuerungseinheit 11 zum Steuern eines Gerätes auf Basis des Erkennungsergebnisses, und eine Fahr-Beanspruchung-Erkennungseinheit 12 zum Erkennen einer Fahr-Beanspruchung des Fahrers. Diese spracherkennungsbasierte Gerät-Steuerungsvorrichtung ist an einem Fahrzeug 13 befestigt.
  • Desweiteren umfasst die spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 eine Eingabeelement-Anzahl-Ermittelungseinheit 4, welche ausgelegt ist, um in der von der Spracherkennungseinheit erkannten Sprachäußerung die Anzahl identifizierter Elemente (Eingabe-Element-Anzahl) unter einer vorgegebenen, für die Steuerung des Gerätes erforderlichen Anzahl an Elementen zu ermitteln, eine Geschicklichkeitsniveau-Datenbank 5 zum Speichern eines temporären Sprachäußerung-Geschicklichkeitsniveaus des Fahrers, eine Eingabeelement-Referenzanzahl-Festlegungseinheit 6 zur Festlegung eines Referenzwertes für die Eingabeelement-Anzahl auf Basis temporären Sprachäußerung-Geschicklichkeitsniveaus und der Fahrbeanspruchung des Fahrers, eine Eingabeelement-Anzahl-Vergleichseinheit 7, welche ausgelegt ist, um die Eingabeelement-Anzahl mit dem Referenzwert für die Eingabeelement-Anzahl zu vergleichen, eine Geschicklichkeitsniveau-Bestimmungseinheit 8, welche aufgebaut ist, um ein Sprachäußerung-Geschicklichkeitsniveau des Benutzers auf Basis eines Vergleichsergebnisses zu bestimmen, und eine Antwort-Steuereinheit 9 zur Steuerung der Antwort-Ausgabe entsprechend dem bestimmten Geschicklichkeitsniveau.
  • Die Spracheingabe-Einheit 2 wird zum Erhalten von Sprachäußerung-Eingabe von dem Fahrer des Fahrzeugs 13 verwendet, und ist aus einem Mikrofon oder ähnlichem aufgebaut.
  • Die Spracherkennungseinheit 3 betreibt Spracherkennungsablaufsteuerung, wie zum Beispiel Syntax-Analyse der in die Spracheingabe-Einheit 2 eingegebenen Sprachäußerung-Eingabe, und extrahiert ein Schlagwort. Es ist möglich für die Spracherkennungsablaufsteuerung eine allgemeine Methode zu verwenden, wie in dem Patent-Dokument 1 offenbart.
  • Die Antwort-Ausgabe-Einheit 10 wird zum Ausgeben einer Antwort (Sprach-Führer) an den Fahrer des Fahrzeugs 13 verwendet, und ist aus einem Lautsprecher oder ähnlichem aufgebaut. Die Antwort wird durch eine Stimme ausgegeben, zum Beispiel durch Sprachsynthese-Ablaufsteuerung wie Text-To-Speech (TTS).
  • Die Gerät-Steuerungseinheit 11 steuert das am Fahrzeug 13 befestigte Gerät auf Basis von Angaben über eine vorgegebenene Anzahl an Elementen (wird später beschrieben), welche zum Steuern des Gerätes erforderlich sind, und welche aus der von der Spracherkennungseinheit 3 erkannten Sprachäußerung identifiziert wurden.
  • Obwohl nicht dargestellt können die zu steuernden Geräte grob in folgende Kategorien eingeordnet werden: Audio-System, Navigationssystem und Klimaanlage, welche in dieser Ausführungsform am Fahrzeug 13 befestigt sind. Im Nachfolgenden werden diese eingeordneten Geräte allgemein als Anwendungen bezeichnet.
  • Außerdem sind für jede Anwendung bereitgestellte Funktionselemente (Gerät, Inhalt und ähnliches) vorher festgelegt, und die Elemente werden durch die Gerät-Steuerungseinheit 11 als Funktionsobjekte der jeweiligen Anwendung gesteuert. Falls zum Beispiel die Anwendung ein „Audio-System" ist, dann sind die Funktionsobjekte (Geräte) ein CD-Spieler, ein DVD-Spieler, ein Radio, ein MP3-Spieler, ein Lautsprecher und ähnliches. Falls zum Beispiel des Weiteren die Anwendung ein Navigations-System ist, dann sind die Funktionsobjekte (Inhalt) interessante Lagepunkte („point of interest", POI), eine Landkarte und ähnliches.
  • Die Fahr-Beanspruchung-Erkennungseinheit 12 erkennt die Fahrbeanspruchung des Fahrers des beweglichen Körpers 13 anhand einer Fahrzeug-Geschwindigkeit, einer Lenkungsbedienung, einer Bremsbedienung, Transpiration an den Handflächen, oder ähnlichem mittels eines Sensors oder anderen Geräten. Die Fahr-Beanspruchung des Fahrers ist ein Wert, der aussagt, in welchem Maße sich der Fahrer auf das Fahren konzentriert oder in welchem Maße sich der Fahrer auf das Fahren konzentrieren sollte. In diesem Fall zum Beispiel, je höher die Fahrzeug-Geschwindigkeit ist, je größer die Lenkungsbedienung ist, je höher die Frequenz der Bremsbedienung ist, oder je höher die Transpiration an den Handflächen ist, desto höher ist die betrachtete Fahrbeanspruchung.
  • Die Eingabeelement-Anzahl-Ermittelungseinheit 4 ermittelt Angaben über eine vorgegebene Anzahl an Elementen (Eingabe-Werte der jeweiligen Elemente), welche für die Steuerung des Gerätes erforderlich sind, auf Basis eines Schlagwortes, welches von der Spracherkennungseinheit 3 extrahiert wurde. Die Eingabeelement-Anzahl-Ermittelungseinheit 4 ermittelt dann die Anzahl von Elementen, dessen Eingabewerte identifiziert wurden (Eingabe-Element-Anzahl).
  • Die zur Steuerung des Gerätes erforderlichen Elemente umfassen: „Anwendung" als ein Element zur Bestimmung einer Anwendung; „Funktionsobjekt" als ein Element zur Bestimmung eines Funktionsobjektes, mit dem jede Anwendung ausgestattet ist; „Funktionsinhalt" als ein Element zur Bestimmung eines Funktionsinhaltes für jedes Funktionsobjekt; und „Funktionsparameter" als ein Element zur Bestimmung eines für die Funktion jedes Funktionsinhaltes erforderlichen Parameter. Genauer, der „Funktionsparameter" ist aus einer Gesamtanzahl N von Funktionsparametern zusammengesetzt {Funktionsparameter 1, Funktionsparameter 2, ---, Funktionsparameter N}. Die Gesamtanzahl N von Funktionsparametern und der konkrete Inhalt der Funktionsparameter sind vorher festgelegt, entsprechend einer Kombination der Anwendung, des Funktionsobjektes und des Funktionsinhaltes. Die Gesamtanzahl (gegebene Anzahl) an Elementen, die zur Steuerung des Gerätes erforderlich sind, erhält man durch N+3.
  • Angaben über den „Funktionsinhalt" sind zum Beispiel „Wiedergabe", „Stop" und ähnliches, falls die Angabe über das „Funktionsobjekt" „CD" ist. Wenn zum Beispiel des Weiteren Angaben über {Anwendung, Funktionsobjekt, Funktionsinhalt} jeweils {Audio-System, CD, Wiedergabe} sind, dann ist die Gesamtanzahl N der Funktionsparameter 2. „Funktionsparameter 1" ist „CD-Name", was ein Element zur Angabe des Namens der wiederzugebenden CD ist, und „Funktionsparameter 2" ist „Lied-Nummer", was ein Element zur Angabe der ordinalen Position ist, an welcher das wiederzugebende Musikstück auf der CD beginnt.
  • Die Geschicklichkeitsniveau-Datenbank 5 (Lernniveau-Speicher-Einheit in der vorliegenden Erfindung) ist ein Speicher-Medium wie zum Beispiel CD-ROM, DVD, HDD oder dergleichen, auf welchem das temporäre Sprachäußerung-Lernniveau eines Benutzers aktualisierend gespeichert wird. Das temporäre Sprachäußerung-Lernniveau eines Benutzers ist ein Wert, welcher auf Basis des in vorangegangenen Sprachäußerungen des Benutzers ermittelten Sprachäußerung-Lernniveaus festgelegt wurde.
  • Das temporäre Sprachäußerung-Geschicklichkeitsniveau (Sprachäußerung-Lernniveau) des Benutzers ist ein Wert, welcher aussagt, in welchem Maße der Fahrer mit Sprachäußerung zur Steuerung des Gerätes vertraut ist. In dieser Ausführung ist der Wert des Geschicklichkeitsniveaus auf 1 bis 3 gesetzt. Je höher der Wert des Geschicklichkeitsniveaus ist, desto höher ist das Geschicklichkeitsniveau des Fahrers, was besagt, dass der Fahrer mehr mit der Sprachäußerung zur Steuerung des Gerätes vertraut ist.
  • Die Geschicklichkeitsniveau-Datenbank 5 speichert ein temporäres Sprachäußerung-Geschicklichkeitsniveau des Fahrers für jede „Anwendung" und ein temporäres Sprachäußerung-Geschicklichkeitsniveau des Fahrers für jedes „Funktionsobjekt". Der Wert des temporären Geschicklichkeitsniveaus für jede Anwendung wird auf einen Mittelwert der temporären Geschicklichkeitsniveaus jeder Funktionsobjekte, welche für diese Anwendung ausgebildet sind, gesetzt (jeder Bruchteil nach dem Dezimalpunkt wird gerundet, d.h. es wird auf eine ganze Zahl gerundet).
  • Zum Beispiel, falls die Anwendung ein „Audio-System" ist, wie in Tabelle 1 dargestellt, speichert die Geschicklichkeitsniveau-Datenbank 5 den Wert 2 als das Geschicklichkeitsniveau für das „Audio-System", und speichert {2, 1, 3, 1, 3} als temporäre Geschicklichkeitsniveaus für die Funktionsobjekte {CD, DVD, Radio, MP3, Lautsprecher} des Audio-Systems.
  • [Tabelle 1]
    Figure 00190001
  • Die Eingabeelement-Referenzanzahl-Festlegungseinheit 6 liest das in der Geschicklichkeitsdatenbank 5 gespeicherte temporäre Sprachäußerung-Geschicklichkeitsniveau des Benutzers aus, entsprechend dem Anwendungstyp oder dem Funktionsobjekt-Typ, der aus der Sprachäußerung durch die Spracherkennungseinheit 3 identifiziert wurde. Dann legt es einen Referenzwert für die Anzahl an Elementen fest, deren Eingabewerte aus der Sprachäußerung identifiziert werden (Eingabeelement-Anzahl), auf Basis des ausgelesenen temporären Geschicklichkeitsniveaus und der durch die Fahrbeanspruchung-Erkennungseinheit 12 erkannten Fahrbeanspruchung des Fahrers.
  • Die Eingabeelement-Anzahl-Vergleichseinheit 7 vergleicht die von der Eingabeelement-Anzahl-Erkennungseinheit 4 erkannte Eingabeelement-Anzahl mit dem von der Eingabeelement-Referenzanzahl-Festlegungseinheit 6 festgelegten Referenz-Wert für die Eingabeelement-Anzahl.
  • Die Geschicklichkeitsniveau-Bestimmungseinheit 8 (die Lernniveau-Bestimmungseinheit in der vorliegenden Erfindung) bestimmt das Sprachäußerung-Geschicklichkeitsniveau des Fahrers relativ zu dem aus der Geschicklichkeitsniveau-Datenbank 5 ausgelesenen Wert, entsprechend dem Vergleichsergebnis der Eingabeelement-Anzahl-Vergleichseinheit 7. Zudem aktualisiert die Geschicklichkeitsniveau-Bestimmungseinheit 8 den Wert des temporären Sprachäußerung-Geschicklichkeitsniveau des Fahrers, welcher in der Geschicklichkeitsniveau-Datenbank 5 auf Basis des Bestimmungsergebnisses gespeichert ist.
  • Die Antwort-Steuereinheit 9 steuert die Antwort-Ausgabe der Antwort-Ausgabe-Einheit 10 entsprechend dem Geschicklichkeitsniveau, welches von der Geschicklichkeitsniveau-Bestimmungseinheit bestimmt wurde, und entsprechend der durch die Fahrbeanspruchung-Erkennungseinheit 12 erkannten Fahrbeanspruchung. Genauer, die Antwort-Steuereinheit 9 erzeugt den Inhalt einer Ausgabe-Anwort (eine Anfrage zur Aufforderung des Benutzers zur Eingabe der nächsten Sprachäußerung oder eine Antwort zur Benachrichtigung des Benutzers, dass die Funktion oder ähnliches abgeschlossen wurde) durch das Kombinieren vorher gespeicherter Stimmen, Phrasen, Texte und ähnlichem. Des Weiteren bestimmt die Antwort-Steuereinheit 9 die Geschwindigkeit und die Lautstärke der Antwort bei der Ausgabe.
  • Im Anschluss wird die Operation (spracherkennungsbasierte Ablaufsteuerung einer Gerätesteuerung) der spracherkennungsbasierten Gerät-Steuerungsvorrichtung 1 entsprechend dieser Ausführungsform beschrieben, unter Bezug auf die Ablaufdiagramme in 2 bis 6. In 2, 3, 4, 5, 6 und 7 ist jeweils ein Ablaufdiagramm dargestellt, welches die gesamte Operation (die Hauptroutine-Ablaufsteuerung der spracherkennungsbasierten Gerät-Steuerungsvorrichtung 1) der Ablaufsteuerung der spracherkennungsbasierten Gerätesteuerung zeigt, welches die Ablaufsteuerung (Unterroutine-Ablaufsteuerung) zur Analyse einer Eingabe-Äußerung zeigt, welches die Ablaufsteuerung (Unterroutine-Ablaufsteuerung) zum Lesen eines temporären Geschicklichkeitsniveaus zeigt, welches die Ablaufsteuerung (Unterroutine-Ablaufsteuerung) zum Festlegen eines Referenz-Wertes für die Anzahl an Eingabe-Elementen zeigt, welches die Ablaufsteuerung (Unterroutine-Ablaufsteuerung) zum Ermitteln eines Geschicklichkeitsniveaus zeigt, und welches die Ablaufsteuerung (Unterroutine-Ablaufsteuerung) zum Ermitteln einer Anfrage zeigt.
  • Bezug nehmend auf 2, als erstes wird die erste Sprachäußerung (Sprachäußerung zum Starten der Gerätesteuerung) von dem Fahrer des Fahrzeugs 13 in die Spracheingabe-Einheit 2 in Schritt 001 eingegeben. Anschließend wird die Sprachäußerung-Eingabe im Schritt 002 analysiert. Die Ablaufsteuerung zur Analyse der Sprachäußerung-Eingabe wird wie in 3 dargestellt ausgeführt. Als erstes führt in Schritt 101 die Spracherkennungseinheit 3 Spracherkennung-Ablaufsteuerung aus, wie zum Beispiel Syntax-Analyse bezüglich der Sprachäußerung, welche in die Spracheingabe-Einheit 2 eingegeben wurde, um ein Schlagwort in der Syntax zu extrahieren. Danach liest die Eingabeelement-Anzahl-Erkennungseinheit 4 Daten aus einem Eingabeelement-Zwischenspeicher in Schritt 102.
  • Der Eingabeelement-Zwischenspeicher wird zum Speichern von Angaben (Eingabe-Werte der jeweiligen Elemente) über eine gegebene Anzahl von Elementen benutzt, welche zur Steuerung des Gerätes erforderlich sind. Der Eingabeelement-Zwischenspeicher speichert Angaben über die Elemente {Anwendung, Funktionsobjekt, Funktionsinhalt, und Funktionsparameter 1 bis Funktionsparameter N}. Nur die Elemente {Anwendung, Funktionsobjekt, und Funktionsinhalt} sind in einem Anfangszustand bereitgestellt, und „unbestimmt" wird als Angabe für jedes Element gespeichert, um anzuzeigen, dass kein Eingabewert für das jeweilige Element identifiziert wurde.
  • Danach wählt in Schritt 103 die Eingabeelement-Anzahl-Erkennungseinheit 4 ein Schlagwort aus, welches jedem Element entspricht, um den Eingabewert des jeweiligen Elementes aus der Sprachäußerung zu identifizieren. Falls in Schritt 103 zunächst irgendein „unbestimmtes" Element unter {Anwendung, Funktionsobjekt, und Funktionsinhalt} in den aus dem Eingabeelement-Zwischenspeicher gelesenen Angaben ist, dann wählt die Eingabeelement-Anzahl-Erkennungseinheit 4 ein Schlagwort aus, dass dem „unbestimmten" Element entspricht, um den Eingabewert des Elements zu identifizieren. Falls „Anwendung" in den Elementen {Anwendung, Funktionsobjekt, und Funktionsinhalt} unbestimmt ist, wird als erstes die Ablaufsteuerung zur Identifikation des Eingabewertes von „Anwendung" durchgeführt.
  • Nachdem „Anwendung" definiert wurde, wird die Ablaufsteuerung zur Identifikation des Eingabewertes von „Funktionsobjekt" durchgeführt. Nachdem „ Funktionsobjekt " definiert wurde, wird die Ablaufsteuerung zur Identifikation des Eingabewertes von „ Funktionsinhalt " durchgeführt. Die Eingabewerte der Elemente werden also sequentiell identifiziert.
  • Falls danach immer noch unbestimmte Elemente in {Anwendung, Funktionsobjekt, und Funktionsinhalt} als Ergebnis der Identifizierung der Eingabewerte in Schritt 103 sind, geht die Ablaufsteuerung zu Schritt 104 weiter, in welchem die Eingabeelement-Anzahl-Erkennungseinheit 4 die Anzahl der Elemente ermittelt, deren Eingabewerte identifiziert sind (Eingabeelement-Anzahl n), und die Ablaufsteuerung geht zu Schritt 105 weiter. Falls andererseits alle Elemente in {Anwendung, Funktionsobjekt, und Funktionsinhalt} als Ergebnis der Identifizierung der Eingabewerte in Schritt 103 definiert sind, legt die Eingabeelement-Anzahl-Erkennungseinheit 4 konkrete Inhalte für die Gesamtzahl N an Funktionsparametern fest, entsprechend der Kombination der Elemente. An diesem Punkt sind die Angaben über die Funktionsparameter „unbestimmt". Die Eingabeelement-Anzahl-Erkennungseinheit 4 wählt dann ein den Elementen des jeweiligen Funktionsparameters, dessen Inhalt festgelegt wurde, entsprechendes Schlagwort aus, und identifiziert den Eingabewert für das entsprechende Element. Danach geht die Ablaufsteuerung zu Schritt 104 weiter, in welchem die Eingabeelement-Anzahl-Erkennungseinheit 4 die Anzahl der Elemente ermittelt, deren Eingabewerte identifiziert sind (Eingabeelement-Anzahl n), und dann geht die Ablaufsteuerung zu Schritt 105 weiter.
  • Falls alle Element unter {Anwendung, Funktionsobjekt, und Funktionsinhalt} in den aus dem Eingabeelement-Zwischenspeicher gelesenen Angaben definiert sind, und konkrete Inhalte für die Gesamtzahl N an Funktionsparametern in Schritt 103 entsprechend der Kombination der Elemente festgelegt wurden, dann wählt die Eingabeelement-Anzahl-Erkennungseinheit 4 ein Schlagwort aus, das einem „unbestimmten" Element des Funktionsparameters entspricht, und identifiziert den Eingabewert für das Element. Danach geht die Ablaufsteuerung zu Schritt 104 weiter, in welchem die Eingabeelement-Anzahl-Erkennungseinheit 4 die Anzahl der Elemente ermittelt, deren Eingabewerte identifiziert sind (Eingabeelement-Anzahl n), und dann geht die Ablaufsteuerung zu Schritt 105 weiter.
  • In Schritt 105 speichert der Eingabeelement-Zwischenspeicher Angaben über die Elemente, deren Eingabewerte identifiziert wurden. Falls in Schritt 103 ein Funktionsparameter festgelegt wurde, wird das Element des Funktionsparameters den in dem Eingabeelement-Zwischenspeicher gespeicherten Elementen hinzugefügt. Zusätzlich wird „unbestimmt" als Angabe über das Element des Funktionsparameters gespeichert, dessen Eingabewert noch nicht identifiziert wurde.
  • Falls es eine Sprachäußerung-Eingabe gibt, wie zum Beispiel „Spiele das zweite Lied auf der dritten CD ab", dann werden Angaben wie {Audio-System, CD, Wiedergabe, Disk 3, Lied 2} für die Elemente {Anwendung, Funktionsobjekt, Funktionsinhalt, CD Name, Liednummer} in dem Eingabeelement-Zwischenspeicher gespeichert, wie in Tabelle 2 dargestellt.
  • [Tabelle 2]
    Figure 00230001
  • Zurück zu 1, es wird bestimmt, ob die Anwendung in Schritt 003 definiert wurde oder nicht. Falls NEIN das Bestimmungsergebnis von Schritt 003 ist (die Anwendung ist nicht definiert), geht die Ablaufsteuerung zu Schritt 008 weiter, in welchem die Geschicklichkeitsniveau-Bestimmungseinheit 8 das Geschicklichkeitsniveau S (das Geschicklichkeitsniveau, welches wie später beschrieben in Schritt 010 zur Erzeugung einer Anfrage verwendet wird) auf 1 gesetzt, und dann geht die Ablaufsteuerung zu Schritt 009 weiter. Dadurch wird das Geschicklichkeitsniveau S auf den niedrigsten möglichen Wert 1 bestimmt, falls die Anwendung aus der Sprachäußerung-Eingabe nicht definiert werden kann (falls kein Eingabewert für das Element identifiziert wurde).
  • Falls JA das Bestimmungsergebnis von Schritt 003 ist (die Anwendung ist definiert), geht die Ablaufsteuerung zu den unten beschriebenen Schritten 004 bis 007 weiter. Als erstes wird in Schritt 004 das temporäre Sprachäußerung-Geschicklichkeitsniveau des Fahrers aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Die Ablaufsteuerung zum Lesen des temporären Geschicklichkeitsniveaus wird, wie in 4 dargestellt, ausgeführt. Als erstes wird in Schritt 201 ermittelt, ob das Funktionsobjekt definiert ist oder nicht. Falls JA das Bestimmungsergebnis von Schritt 201 ist, geht die Ablaufsteuerung zu Schritt 202 weiter, um ein temporäres, zu dem definierten Funktionsobjekt gehörendes Geschicklichkeitsniveau S0 zu lesen, welches aus der Menge der temporären Geschicklichkeitsniveaus der jeweiligen Funktionsobjekte stammt. Falls NEIN das Bestimmungsergebnis von Schritt 201 ist, geht die Ablaufsteuerung zu Schritt 203 weiter, um ein temporäres, zu der definierten Anwendung gehörendes Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 auszulesen, welches aus der Menge der temporären Geschicklichkeitsniveaus der jeweiligen Anwendungen stammt.
  • Zurücklehrend zu 2 wird danach in Schritt 005 ein Referenzwert r für die Eingabe-Element-Anzahl festgesetzt. Die Ablaufsteuerung zur Festlegung des Referenzwertes r der Eingabe-Element-Anzahl wird wie in 5 dargestellt ausgeführt. Als erstes überprüft in Schritt 301 die Eingabeelement-Referenzanzahl-Festlegungseinheit 6 welchen Wert von 1 bis 3 das temporäre, aus der Geschicklichkeitsniveau-Datenbank 5 ausgelesene Geschicklichkeitsniveau S0 hat. Falls in Schritt 301 für S0 das Überprüfungsergebnis 1 ist, geht die Ablaufsteuerung zu Schritt 302 weiter, und setzt den Referenzwert r der Eingabe-Element-Anzahl auf 1.
  • Falls in Schritt 301 für S0 das Überprüfungsergebnis 2 ist, geht die Ablaufsteuerung zu Schritt 303 weiter, in dem die Eingabeelement-Referenzanzahl-Festlegungseinheit 6 den Referenzwert r der Eingabe-Element-Anzahl auf den größeren Wert von einer vorhergesagten Eingabe-Element-Anzahl p/2 und 1 festlegt (jeder Bruchteil nach dem Dezimalpunkt wird gerundet, d.h. es wird auf eine ganze Zahl gerundet). Im obigen entspricht die vorhergesagte Eingabe-Element-Anzahl p einer vorhergesagten minimalen Anzahl an Eingabe-Elementen, welche von einem Fahrer mit dem höchsten Geschicklichkeitsniveau eingegeben werden können. Zum Beispiel kann in der ersten Sprachäußerung erwartet werden, dass der Fahrer mit dem höchsten Geschicklichkeitsniveau mindestens alle Elemente von {Anwendung, Funktionsobjekt, und Funktionsinhalt} eingeben kann. Daher wird 3 für die vorhergesagte Eingabe-Element-Anzahl p verwendet.
  • Falls in Schritt 301 für S0 das Überprüfungsergebnis 3 ist, geht die Ablaufsteuerung zu Schritt 304 weiter, in dem die Eingabeelement-Referenzanzahl-Festlegungseinheit 6 den Referenzwert r der Eingabe-Element-Anzahl auf den Wert der vorhergesagten Eingabe-Element-Anzahl p festlegt. Je höher der Wert des temporären Geschicklichkeitsniveaus S0 ist, desto höher wird der Referenzwert r gesetzt, entsprechend dem temporären Geschicklichkeitsniveaus S0 durch die obigen Schritte 301 bis 304.
  • Danach geht die Ablaufsteuerung zu Schritt 305 weiter, in dem die Fahrbeanspruchung-Erkennungseinheit 12 eine Fahrbeanspruchung des Fahrers anhand einer Fahrzeug-Geschwindigkeit, einer Lenkungsbedienung, einer Bremsbedienung, Transpiration an den Handflächen, oder ähnlichem bestimmt. Dann wird die bestimmte Fahrbeanspruchung digitalisiert. Anschließend wird ermittelt, ob die bestimmte Fahrbeanspruchung über einem Grenzwert liegt oder nicht. Falls JA das Ergebnis von Schritt 305 ist, geht die Ablaufsteuerung zu Schritt 306 weiter, in welchem die Eingabeelement-Referenzanzahl-Festlegungseinheit 6 den Referenzwert r der Eingabe-Element-Anzahl auf einen Wert festsetzt, den man durch das Teilen des in einem der Schritte 302 bis 304 festgesetzten Referenzwertes r durch 2 erhält (jeder Bruchteil nach dem Dezimalpunkt wird gerundet, d.h. es wird auf eine ganze Zahl gerundet). Danach geht die Ablaufsteuerung zu Schritt 005 in 2 zurück. Falls NEIN das Ergebnis von Schritt 305 ist, geht die Ablaufsteuerung direkt zu Schritt 005 in 2 zurück. Falls die Fahrbeanspruchung hoch ist, wird dadurch der Referenzwert r auf einen relativ niedrigen Wert gesetzt, entsprechend der Fahrbeanspruchung des Fahrers.
  • Anschließend geht die Ablaufsteuerung zu Schritt 006 weiter, um das Sprachäußerung-Geschicklichkeitsniveau S des Fahrers zu ermitteln. Das ermittelte Geschicklichkeitsniveau S wird für das Funktionsobjekt ermittelt, falls das Funktionsobjekt definiert ist, oder wird für die Anwendung ermittelt, falls die Anwendung, jedoch nicht das Funktionsobjekt definiert ist. Die Ablaufsteuerung zum Ermitteln des Geschicklichkeitsniveaus S wird wie in 6 dargestellt ausgeführt. Als erstes berechnet die Eingabeelement-Anzahl-Vergleichseinheit 7 in Schritt 401 eine Differenz d (=n-r) zwischen der Eingabe-Element-Anzahl n und dem Referenzwert r für die Eingabe-Element-Anzahl. Anschließend vergleicht die Eingabeelement-Anzahl-Vergleichseinheit 7 den berechneten Wert der Differenz mit 0.
  • Falls d>0 das Ergebnis des Vergleiches in Schritt 401 ist, geht die Ablaufsteuerung zu Schritt 402 weiter, in dem die Geschicklichkeitsniveau-Bestimmungseinheit 8 das Geschicklichkeitsniveau S auf einen um 1 größeren Wert als das temporäre Geschicklichkeitsniveau S0 setzt (S=S0+1). Falls S0+1 größer als 3 ist, setzt die Geschicklichkeitsniveau-Bestimmungseinheit 8 das Geschicklichkeitsniveau S auf 3. Falls d=0 das Ergebnis des Vergleiches in Schritt 401 ist, geht die Ablaufsteuerung zu Schritt 403 weiter, in dem die Geschicklichkeitsniveau-Bestimmungseinheit 8 das Geschicklichkeitsniveau S auf den gleichen Wert wie das temporäre Geschicklichkeitsniveau S0 setzt (S=S0). Falls d<0 das Ergebnis des Vergleiches in Schritt 401 ist, geht die Ablaufsteuerung zu Schritt 402 weiter, in dem die Geschicklichkeitsniveau-Bestimmungseinheit 8 das Geschicklichkeitsniveau S auf einen um 1 kleineren Wert als das temporäre Geschicklichkeitsniveau S0 setzt (S=S0-1 ). Die Geschicklichkeitsniveau-Bestimmungseinheit 8 setzt das Geschicklichkeitsniveau S auf 1, falls S0-1 kleiner als 1 ist.
  • Dadurch wird das Sprachäußerung-Geschicklichkeitsniveau S des Benutzers entsprechend der Fähigkeit des Benutzers bestimmt, eine große Anzahl an Elementen mit einer Sprachäußerung einzugeben oder nicht. Dementsprechend wird das Sprachäußerung-Geschicklichkeitsniveau S des Benutzers zur Steuerung des Gerätes unabhängig von der Sprachäußerungsneigung des Benutzers, wie zum Beispiel das Sprachäußerungstempo und die Anzahl von Sprachäußerungslauten, richtig bestimmt. Bei dieser Bestimmung wird das Geschicklichkeitsniveau S durch Vergleich mit dem Referenzwert r bestimmt, welcher auf Basis des temporären Geschicklichkeitsniveaus S0 festgelegt ist. Dadurch wird das aktuelle Geschicklichkeitsniveau S relativ zu dem temporären Geschicklichkeitsniveau S0 festgelegt.
  • Zurückkehrend zu 2 wird danach in Schritt 007 das in der Geschicklichkeitsniveau-Datenbank 5 gespeicherte temporäre Geschicklichkeitsniveau S0 mit dem bestimmten Geschicklichkeitsniveau S aktualisiert. Falls dann das temporäre Geschicklichkeitsniveau S zu einer Anwendung gehört, wird das in der Geschicklichkeitsniveau-Datenbank 5 gespeicherte temporäre Geschicklichkeitsniveau S0 für die entsprechende Anwendung aktualisiert. Falls das temporäre Geschicklichkeitsniveau S zu einem Funktionsobjekt gehört, wird das in der Geschicklichkeitsniveau-Datenbank 5 gespeicherte temporäre Geschicklichkeitsniveau S0 für das entsprechende Funktionsobjekt aktualisiert. Dadurch wird der Referenzwert r zur Bestimmung des Geschicklichkeitsniveaus S in der nächsten Sprachausgabe entsprechend dem richtig aktualisierten temporären Geschicklichkeitsniveau S0 festgelegt.
  • Anschließend wird in Schritt 009 bestimmt, ob die Sprachäußerung des Fahrers vollständig ist oder nicht. Falls alle Eingabewerte der zur Steuerung des Gerätes erforderlichen Elemente identifiziert wurden, wird die Sprachäußerung als vollständig befunden.
  • Falls NEIN das Ermittlungsergebnis von Schritt 009 ist, geht die Ablaufsteuerung zu Schritt 010 weiter, um eine Anfrage an den Fahrer zu erzeugen und auszugeben. Die Ablaufsteuerung zur Erzeugung und Ausgabe einer Anfrage wird wie in 7 dargestellt ausgeführt. Als erstes überprüft die Antwort-Steuereinheit 9 in Schritt 501 welchen Wert von 1 bis 3 das in Schritt 006 oder 008 festgelegte Geschicklichkeitsniveau S hat.
  • Falls das Überprüfungsergebnis von Schritt 501 den Wert 1 ergibt (Geschicklichkeitsniveau S=1), geht die Ablaufsteuerung zu Schritt 502 weiter, in dem die Antwort-Steuereinheit 9 die Anzahl der Anfrage-Elemente (Anfrage-Element-Anzahl q) auf 1 festlegt, was den Benutzer zur Eingabe in der nächsten Sprachäußerung auffordert. Falls in Schritt 501 das Überprüfungsergebnis 2 ist (Geschicklichkeitsniveau S=2), geht die Ablaufsteuerung zu Schritt 503 weiter, in dem die Antwort-Steuereinheit 9 die Anfrage-Element-Anzahl q auf den größeren Wert von der Nichteingabe-Element-Anzahl s/2 und 1 festlegt (jeder Bruchteil nach dem Dezimalpunkt wird gerundet, d.h. es wird auf eine ganze Zahl gerundet). Im oben stehenden entspricht die Nichteingabe-Element-Anzahl s der Anzahl der Elemente, deren Eingabewerte nicht identifiziert werden konnten, jedoch zu den Elementen gehören, die zur Steuerung des Gerätes erforderlichen sind. Falls in Schritt 501 das Überprüfungsergebnis 3 ist (Geschicklichkeitsniveau S=3), geht die Ablaufsteuerung zu Schritt 504 weiter, in dem die Antwort-Steuereinheit 9 die Anfrage-Element-Anzahl q auf den Wert der Nichteingabe-Element-Anzahl s festlegt. Durch die oben genannten Schritte 501 bis 504 wird mit ansteigendem Geschicklichkeitsniveau S die Anfrage-Element-Anzahl q auf einen größeren Wert gesetzt, entsprechend dem Wert des Geschicklichkeitsniveaus S.
  • Anschließend geht die Ablaufsteuerung zu Schritt 505 weiter, in welchem ermittelt wird, ob die Fahrbeanspruchung des Fahrers einen gegebenen Grenzwert übersteigt oder nicht. Falls JA das Ergebnis von Schritt 505 ist, geht die Ablaufsteuerung zu Schritt 506 weiter, in welchem die Antwort-Steuereinheit 9 die Anfrage-Element-Anzahl q auf einen Wert festsetzt, den man durch das Teilen der in einem der Schritte 502 bis 504 festgesetzten Anfrage-Element-Anzahl q durch 2 erhält (jeder Bruchteil nach dem Dezimalpunkt wird gerundet, d.h. es wird auf eine ganze Zahl gerundet). Danach geht die Ablaufsteuerung zu Schritt 507 weiter. Falls NEIN das Ergebnis von Schritt 505 ist, geht die Ablaufsteuerung direkt zu Schritt 507 weiter. Falls die Fahrbeanspruchung hoch ist, wird dadurch die Anfrage-Element-Anzahl q auf einen relativ niedrigen Wert gesetzt, entsprechend der Fahrbeanspruchung des Fahrers.
  • Anschließend erzeugt die Antwort-Steuereinheit 9 in Schritt 507 eine Anfrage, welche zur Eingabe eines Elements der Anfrage-Element-Anzahl q unter den Elementen mit noch nicht identifizierten Eingabewerten auffordert. Falls zum Beispiel kein Eingabewert für ein Element identifiziert wurde während die Anfrage-Element-Anzahl q 1 ist, wird eine Anfrage ausgegeben, welche zur Eingabe von „Anwendung" auffordert. Falls außerdem zum Beispiel nur der Eingabewert der „Anwendung" identifiziert wurde während die Anfrage-Element-Anzahl q 1 ist, wird eine Anfrage ausgegeben, welche zur Eingabe von „Funktionsobjekt" auffordert. Falls die Anfrage-Element-Anzahl q extrem hoch ist, wird eine Anfrage erzeugt in der die Anfrage-Element-Anzahl q auf einen bestimmten Maximalwert begrenzt ist. Anschließend wird in Schritt 508 die erzeugte Anfrage durch die Antwort-Ausgabe-Einheit 10 ausgegeben. Dadurch wird eine passende Anfrage, welche zur Eingabe der nächsten Sprachäußerung des Fahrers auffordert, entsprechend dem Geschicklichkeitsniveau und der Fahrbeanspruchung des Fahrers erzeugt. Dann fordert die Ausgabe der auf diese Art erzeugten Anfrage zur Eingabe der nächsten Sprachäußerung des Fahrers auf, wodurch eine effiziente Sprachäußerung erzielt wird.
  • Anschließend, zurückkehrend zu Schritt 001 in 2, gibt der Fahrer die zweite Sprachäußerung ein. Wie bei der ersten Sprachäußerung wird die Ablaufsteuerung der Schritte 001 bis 008 durchgeführt. Bei der zweiten Sprachäußerung (die Sprachäußerung auf die Anfrage-Ausgabe von der Antwort-Ausgabe-Einheit 10) wird jedoch der gleiche Wert wie die in den obigen Schritten 502 und 503 verwendete Nichteingabe-Element-Anzahl s (=die Anfrage-Element-Anzahl q bei einem Fahrer mit dem höchsten Geschicklichkeitsniveau) für die vorhergesagte Eingabe-Element-Anzahl p in den Schritten 303 und 304 der 5 verwendet, bei der Ablaufsteuerung zur Festlegung des Referenzwertes r der Eingabe-Element-Anzahl in Schritt 005. Falls die Anfrage-Element-Anzahl q in Schritt 507 begrenzt ist, wird der gleiche Wert wie der vorgegebene Maximalwert für die vorhergesagte Eingabe-Element-Anzahl p verwendet.
  • Anschließend wird in Schritt 009 ermittelt, ob die Interaktion mit dem Fahrer abgeschlossen ist oder nicht. Falls NEIN das Ermittlungsergebnis von Schritt 009 ist, geht die Ablaufsteuerung zu Schritt 010 weiter, in dem die Antwort-Steuereinheit 9 eine Anfrage an den Fahrer erzeugt. Dann wird die erzeugte Anfrage von der Antwort-Ausgabe-Einheit 10 ausgegeben.
  • Anschließend wird die gleiche Ablaufsteuerung wie in den obigen Schritten 001 bis 008 für die nachfolgende Sprachäußerung wiederholt, bis das Ermittlungsergebnis von Schritt 009 JA ist.
  • Falls JA das Ermittlungsergebnis von Schritt 009 ist, geht die Ablaufsteuerung zu Schritt 011 weiter, in dem die Antwort-Steuereinheit 9 zum Beispiel eine Antwort erzeugt, in der Eingabewerte für jedes identifizierte Element bestätigt werden (eine Antwort zur Benachrichtigung des Fahrers über die Eingabewerte von jedem Element). Dann wird die erzeugte Antwort von der Antwort-Ausgabe-Einheit 10 ausgegeben. Anschließend steuert in Schritt 012 die Gerät-Steuerungseinheit 11 das Gerät auf Basis der Angaben über das Element, dessen Eingabewerte identifiziert wurden. Anschließend wird in Schritt 013 der Eingabeelement-Zwischenspeicher initialisiert (zurückgesetzt) und die Ablaufsteuerung wird beendet. Wenn der Eingabeelement- Zwischenspeicher initialisiert wird, wird das temporäre, oben definierte Geschicklichkeitsniveau für die Anwendung durch einen Mittelwert (jeder Bruchteil nach dem Dezimalpunkt wird gerundet, d.h. es wird auf eine ganze Zahl gerundet) der temporären Geschicklichkeitsniveaus aller Funktionsobjekte dieser Anwendung in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert. Durch die oben beschriebene Ablaufsteuerung wird das Sprachäußerung-Geschicklichkeitsniveau des Fahrers für jede Sprachäußerung richtig bestimmt, und Informationen zur Steuerung des Gerätes (Angaben über die zur Steuerung des Gerätes erforderlichen Elemente) werden durch eine effiziente Interaktion eingeholt.
  • Der oben beschriebene Arbeitsablauf wird nun im Folgenden detailliert beschrieben, unter Bezugnahme auf ein in 8(a) bis 8(c) dargestelltes Interaktionsbeispiel. Als erstes wird das Interaktionsbeispiel in 8(a) beschrieben. Das Interaktionsbeispiel in 8(a) stellt eine Situation dar, in welcher der Fahrer eine CD abspielt. In diesem Interaktionsbeispiel wird angenommen, dass das temporäre Geschicklichkeitsniveau S0 in der Geschicklichkeitsniveau-Datenbank 5 gleich 2 ist, falls die Anwendung ein „Audio-System" ist, und gleich 2 ist, falls das Funktionsobjekt „CD" ist. Des Weiteren wird angenommen, dass die Fahrbeanspruchung des Fahrers gleich oder geringer als ein Grenzwert ist.
  • In dem Interaktionsbeispiel in 8(a) gibt der Fahrer als erstes in Schritt 001 eine Sprachäußerung ein, wie zum Beispiel „Spiele eine CD ab!". Anschließend wird in Schritt 002 die Sprachäußerung analysiert, was die Identifizierung der Eingabewerte der Elemente {Anwendung, Funktionsobjekt, Funktionsinhalt} jeweils als {Audio-System, CD, Wiedergabe} zur Folge hat. Des Weiteren werden Funktionsparameter entsprechend der Kombination von {Audio-System, CD, Wiedergabe} festgelegt. In diesem Fall sind die Funktionsparameter „CD-Name", was ein Parameter zur Spezifikation der wiederzugebenden CD ist, „Lied-Nummer", was ein Parameter zur Spezifikation der ordinalen Position ist, an welcher sich das wiederzugebende Musikstück auf der CD befindet. Die Eingabewerte der Elemente „CD-Name" und „Lied-Nummer" sind aus der Sprachäußerung nicht identifiziert, deswegen wird die Eingabe-Element-Anzahl n auf 3 gesetzt. Anschließend werden die Angaben für „Anwendung", „Funktionsobjekt" und „Funktionsinhalt", deren Eingabewerte identifiziert wurden, in dem Eingabeelement-Zwischenspeicher gespeichert. Des Weiteren wird „unbestimmt" als Angabe für „CD-Name" und „Lied-Nummer" gespeichert.
  • Anschließend ist die Anwendung in Schritt 003 schon als „Audio-System" definiert, und deswegen geht die Ablaufsteuerung zu Schritt 004 weiter. Das Funktionsobjekt ist in Schritt 004 als „CD" definiert, und deswegen wird das für „CD" auf 2 gesetzte temporäre Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Anschließend ist in Schritt 005 das temporäre Geschicklichkeitsniveau S0 gleich 2, die vorhergesagte Eingabe-Element-Anzahl p ist auf 3 gesetzt (ein vorgegebener Wert), da es die erste Sprachäußerung ist, und die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, weshalb der Referenzwert r auf 2 gesetzt wird (r=p/2).
  • Anschließend wird in Schritt 006 das Geschicklichkeitsniveau S auf 3 gesetzt, entsprechend d=n-r=1>0 (S=S0+1). Falls der Fahrer als mit Sprachäußerung vertraut erachtet wird, wie in dem Fall, in dem alle Elemente von {Anwendung, Funktionsobjekt, und Funktionsinhalt} mit der ersten Sprachäußerung identifiziert wurden, wird auf diese Weise das Geschicklichkeitsniveau S auf das höchste Niveau 3 bestimmt, was höher ist als das temporäre Geschicklichkeitsniveau S0, welches auf 2 gesetzt ist.
  • Anschließend wird in Schritt 007 das temporäre Geschicklichkeitsniveau S0 für „CD" auf 3 in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert. Anschließend gibt es Elemente, deren Eingabewerte in Schritt 009 noch nicht identifiziert wurden (in diesem Fall „CD-Name" und „Lied-Nummer"), und deswegen geht die Ablaufsteuerung zu Schritt 010 weiter.
  • In Schritt 010 ist das Geschicklichkeitsniveau S gleich 3, die Nichteingabe-Element-Anzahl s wird auf 2 gesetzt, da die Anzahl der Elemente deren Eingabewerte nicht identifiziert wurden 2 ist, die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, und deswegen wird die Anfrage-Element-Anzahl q auf 2 gesetzt (q=s). Dann wird eine Anfrage „Bitte geben Sie den CD-Namen oder den Musiker-Namen und die Lied-Nummer ein!" erzeugt, die zur Eingabe von „CD-Name" und „Lied-Nummer" auffordert. Die Anfrage wird dann durch eine Stimme an den Fahrer ausgegeben. Falls der Fahrer ein hohes Geschicklichkeitsniveau S hat und als mit Sprachäußerung vertraut erachtet wird, wird auf diese Weise eine Anfrage ausgegeben, die zur Eingabe aller übrigen Elemente auffordert.
  • Anschließend gibt der Fahrer in Schritt 001 eine Sprachäußerung „Spiele die Honda-CD von Anfang an ab!" auf die ausgegebene Anfrage ein. In Schritt 002 werden die Eingabewerte der Elemente „CD-Name" und „Lied-Nummer" jeweils als „Honda" und „Anfang" identifiziert, und die Element-Anzahl n wird auf 2 gesetzt. Dann werden die Angaben über die Elemente „CD-Name" und „Lied-Nummer", deren Eingabewerte identifiziert wurden, in dem Eingabeelement-Zwischenspeicher gespeichert.
  • Anschließend ist die Anwendung in Schritt 003 schon als „Audio-System" definiert, und deswegen geht die Ablaufsteuerung zu Schritt 004 weiter. Das Funktionsobjekt ist in Schritt 004 als „CD" definiert, und deswegen wird das für „CD" auf 3 gesetzte temporäre Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Anschließend ist in Schritt 005 das temporäre Geschicklichkeitsniveau S0 gleich 3, die vorhergesagte Eingabe-Element-Anzahl p ist auf 2 gesetzt (=Nichteingabe-Element-Anzahl s), da die Sprachäußerung auf die ausgegebene Anfrage gemacht wurde, und die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, weshalb der Referenzwert r auf 2 gesetzt wird (r=p).
  • Anschließend wird in Schritt 006 das Geschicklichkeitsniveau S auf 3 gesetzt, entsprechend d=n-r=0 (S=S0). Falls alle Eingabewerte der Elemente, nach denen in der Anfrage gefragt wurden, aus der eingegebenen Sprachäußerung identifiziert werden können, wird auf diese Weise das Geschicklichkeitsniveau S auf den gleichen Wert wie das temporäre Geschicklichkeitsniveau S0 festgelegt.
  • Anschließend sind in Schritt 009 alle Eingabewerte der fünf, zur Steuerung des Gerätes (Audio-System) erforderlichen Elemente identifiziert, und deswegen wird ermittelt, dass die Interaktion abgeschlossen ist. Die Ablaufsteuerung geht dann zu Schritt 011 weiter. In Schritt 001 wird ein Antwort, wie zum Beispiel zur Bestätigung der identifizierten Eingabewerte der Elemente, ausgegeben: „Dann spiele ich die Honda-CD von Anfang an ab". Anschließend wird die Honda CD in Schritt 012 abgespielt. Als nächstes wird in Schritt 013 der Eingabeelement-Zwischenspeicher initialisiert, das temporäre Geschicklichkeitsniveau S0 für „Audio-System" wird in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert, und die Ablaufsteuerung wird beendet. Durch die oben beschriebene Ablaufsteuerung wird das Sprachäußerung-Geschicklichkeitsniveau S des Fahrers richtig bestimmt, und dadurch wird das Gerät durch eine effiziente Interaktion gesteuert.
  • Das Interaktionsbeispiel in 8(b) wird im Folgenden beschrieben. Das Interaktionsbeispiel in 8(b) stellt eine Situation dar, in welcher der Fahrer eine Suchfunktion durchführt, unter Verwendung der POI-Suchfunktion eines Navigationssystems. In diesem Interaktionsbeispiel wird angenommen, dass das temporäre Geschicklichkeitsniveau S0 in der Geschicklichkeitsniveau-Datenbank 5 gleich 2 ist, falls die Anwendung ein „Navigationssystem" ist, und gleich 2 ist, falls das Funktionsobjekt „POI" ist. Des Weiteren wird angenommen, dass die Fahrbeanspruchung des Fahrers gleich oder geringer als ein Grenzwert ist.
  • In dem Interaktionsbeispiel in 8(b) gibt der Fahrer als erstes in Schritt 001 eine Sprachäußerung ein, wie zum Beispiel „Suche einen Supermarkt!". Anschließend wird in Schritt 002 die Sprachäußerung analysiert, was die Identifizierung der Eingabewerte der Elemente {Anwendung, Funktionsobjekt, Funktionsinhalt} jeweils als {Navigationssystem, POI, Suche} zur Folge hat. Des Weiteren werden Funktionsparameter entsprechend der Kombination von {Navigationssystem, POI, Suche} festgelegt. In diesem Fall sind die Funktionsparameter „Suchbedingung", was ein Parameter zur Spezifikation einer Suchbedingung zur Suche nach Informationen ist, und „Einengende Bedingung 1" sowie „Einengende Bedingung 2", was Parameter zur Spezifikation von einer vorgegebenen Zahl (zum Beispiel zwei) an einengenden Bedingungen zur Einengung eingeholter Informationen sind. Dann wird der Eingabewert der „Suchbedingung" als „ein Supermarkt" aus der Sprachäußerung identifiziert. Die Eingabewerte der Elemente „ Einengende Bedingung 1" und „ Einengende Bedingung 2" sind aus der Sprachäußerung nicht identifiziert, deswegen wird die Eingabe-Element-Anzahl n auf 4 gesetzt. Anschließend werden die Angaben für „Anwendung", „Funktionsobjekt", „Funktionsinhalt" und „Suchbedingung", deren Eingabewerte identifiziert wurden, in dem Eingabeelement-Zwischenspeicher gespeichert. Des Weiteren wird „unbestimmt" als Angabe für „Einengende Bedingung 1" und „Einengende Bedingung 2" gespeichert.
  • Anschließend ist die Anwendung in Schritt 003 schon als „Navigationssystem" definiert, und deswegen geht die Ablaufsteuerung zu Schritt 004 weiter. Das Funktionsobjekt ist in Schritt 004 als „POI" definiert, und deswegen wird das für „POI" auf 2 gesetzte temporäre Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Anschließend ist in Schritt 005 das temporäre Geschicklichkeitsniveau S0 gleich 2, die vorhergesagte Eingabe-Element-Anzahl p ist auf 3 gesetzt (ein vorgegebener Wert), da es die erste Sprachäußerung ist, und die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, weshalb der Referenzwert r auf 2 gesetzt wird (r=p/2).
  • Anschließend wird in Schritt 006 das Geschicklichkeitsniveau S auf 3 gesetzt, entsprechend d=n-r=2>0 (S=S0+1). Falls der Fahrer als mit Sprachäußerung vertraut erachtet wird, wie in dem Fall, in dem alle Elemente von {Anwendung, Funktionsobjekt, und Funktionsinhalt} mit der ersten Sprachäußerung identifiziert wurden, und des Weiteren die Eingabewerte der „Funktionsparameter" identifiziert wurden, wird auf diese Weise das Geschicklichkeitsniveau S auf das höchste Niveau 3 bestimmt, was höher ist als das temporäre Geschicklichkeitsniveau S0, welches auf 2 gesetzt ist.
  • Anschließend wird in Schritt 007 das temporäre Geschicklichkeitsniveau S0 für „POI" auf 3 in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert. Anschließend gibt es Elemente, deren Eingabewerte in Schritt 009 noch nicht identifiziert wurden (in diesem Fall „Einengende Bedingung 1" und „Einengende Bedingung 2"), und deswegen geht die Ablaufsteuerung zu Schritt 010 weiter.
  • In Schritt 010 ist das Geschicklichkeitsniveau S gleich 3, die Nichteingabe-Element-Anzahl s wird auf 2 gesetzt, da die Anzahl der Elemente deren Eingabewerte nicht identifiziert wurden 2 ist, die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, und deswegen wird die Anfrage-Element-Anzahl q auf 2 gesetzt (q=s). Dann wird eine Anfrage „Bitte geben Sie die Art des Supermarktes und zusätzliche Suchbedingungen ein!" erzeugt, die zur Eingabe von „Einengende Bedingung 1" und „Einengende Bedingung 2" auffordert. Im Speziellen sind hier die „Einengende Bedingung 1" ein Parameter zur Spezifikation des Typs (Markenbezeichnung) des Supermarktes, auf der Basis, dass die Angabe über „Suchbedingung" der „Supermarkt" ist. Die Anfrage wird dann durch eine Stimme an den Fahrer ausgegeben. Falls der Fahrer ein hohes Geschicklichkeitsniveau S hat und als mit Sprachäußerung vertraut erachtet wird, wird auf diese Weise eine Anfrage ausgegeben, die zur Eingabe aller übrigen Elemente auffordert.
  • Anschließend gibt der Fahrer in Schritt 001 die Sprachäußerung „Irgendein am nächsten gelegener!" ein. In Schritt 002 werden die Eingabewerte der Elemente „Einengende Bedingung 1" und „Einengende Bedingung 2" jeweils als „nicht bestimmt" und „Nächster" identifiziert, und die Eingabe-Element-Anzahl n wird auf 2 gesetzt. Dann werden die Angaben über die Elemente „Einengende Bedingung 1" und „Einengende Bedingung 2", deren Eingabewerte identifiziert wurden, in dem Eingabeelement-Zwischenspeicher gespeichert.
  • Anschließend ist die Anwendung in Schritt 003 als „Navigationssystem" definiert. Deswegen geht die Ablaufsteuerung zu Schritt 004 weiter, in dem das Funktionsobjekt als „POI" definiert ist, und deswegen wird das für „POI" auf 3 gesetzte temporäre Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Anschließend ist in Schritt 005 das temporäre Geschicklichkeitsniveau S0 gleich 3, die vorhergesagte Eingabe-Element-Anzahl p ist auf 2 gesetzt (=Nichteingabe-Element-Anzahl s), da die Sprachäußerung auf die ausgegebene Anfrage gemacht wurde, und die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, weshalb der Referenzwert r auf 2 gesetzt wird (r=p).
  • Anschließend wird in Schritt 006 das Geschicklichkeitsniveau S auf 3 gesetzt, entsprechend d=n-r=0 (S=S0). Falls alle Eingabewerte der Elemente, nach denen in der Anfrage gefragt wurden, aus der eingegebenen Sprachäußerung identifiziert werden können, wird auf diese Weise das Geschicklichkeitsniveau S auf den gleichen Wert wie das temporäre Geschicklichkeitsniveau S0 festgelegt.
  • Anschließend sind in Schritt 009 alle Eingabewerte der sechs, zur Steuerung des Gerätes (Navigationssystem) erforderlichen Elemente identifiziert, und deswegen wird ermittelt, dass die Interaktion abgeschlossen ist. Die Ablaufsteuerung geht dann zu Schritt 011 weiter. In Schritt 001 wird ein Antwort, wie zum Beispiel zur Bestätigung der identifizierten Eingabewerte der Elemente, ausgegeben: „Dann zeige ich Ihnen den Weg zum nächsten Honda-Markt-Geschäft!". Anschließend präsentiert das Navigationssystem dem Fahrer in Schritt 012 eine Fahrroute zu dem nächsten Honda-Markt-Geschäft oder ähnlichem. Als nächstes wird in Schritt 013 der Eingabeelement-Zwischenspeicher initialisiert, das temporäre Geschicklichkeitsniveau S0 für „Navigationssystem" wird in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert, und die Ablaufsteuerung wird beendet. Durch die oben beschriebene Ablaufsteuerung wird das Sprachäußerung-Geschicklichkeitsniveau S des Fahrers richtig bestimmt, und dadurch wird das Gerät durch eine effiziente Interaktion gesteuert.
  • Als nächstes wird das Interaktionsbeispiel in 8(c) beschrieben. Das Interaktionsbeispiel in 8(c) stellt eine Situation dar, in welcher der Fahrer eine CD abspielt. In diesem Interaktionsbeispiel wird angenommen, dass das temporäre Geschicklichkeitsniveau S0 in der Geschicklichkeitsniveau-Datenbank 5 gleich 2 ist, falls die Anwendung ein „Audio-System" ist, und gleich 2 ist, falls das Funktionsobjekt „CD" ist. Des Weiteren wird angenommen, dass die Fahrbeanspruchung des Fahrers gleich oder geringer als ein Grenzwert ist.
  • In dem Interaktionsbeispiel in 8(c) gibt der Fahrer als erstes in Schritt 001 eine Sprachäußerung ein, wie zum Beispiel „Ich möchte Musik hören!". Anschließend wird in Schritt 002 die Sprachäußerung analysiert, was die Identifizierung des Eingabewertes des Elementes „Anwendung als „Audio-System" zur Folge hat. Da der Eingabewerte von „Funktionsobjekt" nicht identifiziert wurde, ist der Eingabewert von „Funktionsinhalt" nicht identifiziert und jegliche Funktionsparameter werden auch nicht festgelegt. Die Eingabe-Element-Anzahl n wird auf 1 gesetzt. Anschließend wird die Angabe für „Anwendung", deren Eingabewert identifiziert wurde, in dem Eingabeelement-Zwischenspeicher gespeichert.
  • Anschließend ist die Anwendung in Schritt 003 schon als „Audio-System" definiert, und deswegen geht die Ablaufsteuerung zu Schritt 004 weiter. In Schritt 004 ist das Funktionsobjekt nicht definiert, und deswegen wird das für „Audio-System" auf 2 gesetzte temporäre Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Anschließend ist in Schritt 005 das temporäre Geschicklichkeitsniveau S0 gleich 2, die vorhergesagte Eingabe-Element-Anzahl p ist auf 3 gesetzt (ein vorgegebener Wert), da es die erste Sprachäußerung ist, und die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, weshalb der Referenzwert r auf 2 gesetzt wird (r=p/2).
  • Anschließend wird in Schritt 006 das Geschicklichkeitsniveau S auf 1 gesetzt, entsprechend d=n-r=-1<0 (S=S0-1). Falls der Fahrer als mit Sprachäußerung nicht vertraut erachtet wird, wie in dem Fall, in dem nur der Eingabewert des Elementes „Anwendung" mit der ersten Sprachäußerung identifiziert wurde, wird auf diese Weise das Geschicklichkeitsniveau S auf das Niveau 1 bestimmt, was niedriger ist als das temporäre Geschicklichkeitsniveau S0, welches auf 2 gesetzt ist.
  • Anschließend wird in Schritt 007 das temporäre Geschicklichkeitsniveau S0 für „Audio-System" auf 1 in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert. Anschließend gibt es Elemente, deren Eingabewerte in Schritt 009 noch nicht identifiziert wurden (in diesem Fall „Funktionsobjekt" und „Funktionsinhalt"), und deswegen geht die Ablaufsteuerung zu Schritt 010 weiter.
  • In Schritt 010 wird die Anfrage-Element-Anzahl q auf 1 gesetzt (ein vorgegebener Wert), da das Geschicklichkeitsniveau S gleich 1 und die Fahrbeanspruchung gleich oder niedriger als der Grenzwert ist. Dann wird eine Anfrage „Bitte wählen Sie ein zu steuerndes Gerät aus, wie CD, DVD oder Radio!" erzeugt, die zur Eingabe von „Funktionsobjekt" auffordert. Die Anfrage wird dann durch eine Stimme an den Fahrer ausgegeben. Falls der Fahrer ein niedriges Geschicklichkeitsniveau S hat und als mit Sprachäußerung nicht vertraut erachtet wird, wird auf diese Weise eine Anfrage ausgegeben, die zur Eingabe von einem Element nach dem anderen auffordert.
  • Anschließend gibt der Fahrer in Schritt 001 eine Sprachäußerung „Spiele die Honda-CD ab!" auf die ausgegebene Anfrage ein. In Schritt 002 werden die Eingabewerte der Elemente „Funktionsobjekt" und „Funktionsinhalt" jeweils als „CD" und „Wiedergabe" identifiziert. Des Weiteren werden Funktionsparameter entsprechend der Kombination von {Audio-System, CD, Wiedergabe} festgelegt. In diesem Fall sind die Funktionsparameter „CD-Name", was ein Parameter zur Spezifikation der wiederzugebenden CD ist, „Lied-Nummer", was ein Parameter zur Spezifikation der ordinalen Position ist, an welcher sich das wiederzugebende Musikstück auf der CD befindet. Dann wird der Eingabewerte des Elementes „CD-Name" aus der Sprachäußerung als „Honda" identifiziert. Der Eingabewert von „Lied-Nummer" ist nicht identifiziert, so dass die Eingabe-Element-Anzahl n auf 3 gesetzt wird. Anschließend werden die Angaben für „Funktionsobjekt", „Funktionsinhalt" und „CD-Name", deren Eingabewerte identifiziert wurden, in dem Eingabeelement-Zwischenspeicher gespeichert. Zusätzlich wird „unbestimmt" als Angabe für „Lied-Nummer" gespeichert.
  • Anschließend ist die Anwendung in Schritt 003 als „Audio-System" definiert. Deswegen geht die Ablaufsteuerung zu Schritt 004 weiter, in dem das Funktionsobjekt als „CD" definiert ist, und deswegen wird das für „CD" auf 2 gesetzte temporäre Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Wenn das Funktionsobjekt definiert ist, wird dadurch das aktuelle Sprachäußerung-Geschicklichkeitsniveau S auf Grundlage des temporären Geschicklichkeitsniveaus S0 für jedes Funktionsobjekt festgelegt. Sogar wenn das Geschicklichkeitsniveau S des Fahrers von dem Funktionsobjekt abhängt, wird dadurch das aktuelle Sprachäußerung-Geschicklichkeitsniveau richtig bestimmt. Anschließend ist in Schritt 005 das temporäre Geschicklichkeitsniveau S0 gleich 2, die vorhergesagte Eingabe-Element-Anzahl p wird auf 2 gesetzt (=Nichteingabe-Element-Anzahl s), da die Sprachäußerung auf die ausgegebene Anfrage gemacht wurde, und die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, weshalb der Referenzwert r auf 1 gesetzt wird (r=p/2).
  • Anschließend wird in Schritt 006 das Geschicklichkeitsniveau S auf 3 gesetzt, entsprechend d=n-r=2>0 (S=S0+1). Falls aus der Sprachäußerung Eingabewerte von mehr Elementen identifiziert werden, als nach deren Eingabe in der Anfrage gefragt wurde, wird auf diese Weise das Geschicklichkeitsniveau S auf das höchste Niveau 3 bestimmt, was höher ist als das temporäre Geschicklichkeitsniveau S0, welches auf 2 gesetzt ist.
  • Anschließend wird in Schritt 007 das temporäre Geschicklichkeitsniveau für „CD" in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert. Anschließend gibt es Elemente, deren Eingabewerte in Schritt 009 noch nicht identifiziert wurden (in diesem Fall „Lied-Nummer"), und deswegen geht die Ablaufsteuerung zu Schritt 010 weiter.
  • In Schritt 010 ist das Geschicklichkeitsniveau S gleich 3, die Nichteingabe-Element-Anzahl s wird auf 1 gesetzt, da die Anzahl der Elemente deren Eingabewerte nicht identifiziert wurden 1 ist, die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, und deswegen wird die Anfrage-Element-Anzahl q auf 1 gesetzt (q=s). Dann wird eine Anfrage „Bitte geben Sie die Lied-Nummer ein!" erzeugt, die zur Eingabe von „Lied-Nummer" auffordert. Die Anfrage wird dann durch eine Stimme an den Fahrer ausgegeben. Falls der Fahrer ein hohes Geschicklichkeitsniveau S hat und als mit Sprachäußerung vertraut erachtet wird, wird auf diese Weise eine Anfrage ausgegeben, die zur Eingabe aller übrigen Elemente auffordert.
  • Anschließend gibt der Fahrer in Schritt 001 eine Sprachäußerung „Von Anfang an!" auf die ausgegebene Anfrage ein. In Schritt 002 wird der Eingabewert des Elementes „Lied-Nummer" als „Anfang" identifiziert, und die Element-Anzahl n wird auf 1 gesetzt. Dann wird die Angabe über das Element „Lied-Nummer", dessen Eingabewert identifiziert wurde, in dem Eingabeelement-Zwischenspeicher gespeichert.
  • Anschließend ist die Anwendung in Schritt 003 schon als „Audio-System" definiert, und deswegen geht die Ablaufsteuerung zu Schritt 004 weiter. Das Funktionsobjekt ist in Schritt 004 als „CD" definiert, und deswegen wird das für „CD" auf 3 gesetzte temporäre Geschicklichkeitsniveau S0 aus der Geschicklichkeitsniveau-Datenbank 5 gelesen. Anschließend ist in Schritt 005 das temporäre Geschicklichkeitsniveau S0q gleich 3, die vorhergesagte Eingabe-Element-Anzahl p ist auf 1 gesetzt (=Nichteingabe-Element-Anzahl s), da es die erste Sprachäußerung auf die ausgegebene Anfrage ist, und die Fahrbeanspruchung ist gleich oder niedriger als der Grenzwert, weshalb der Referenzwert r auf 1 gesetzt wird (r=p).
  • Anschließend wird in Schritt 006 das Geschicklichkeitsniveau S auf 3 gesetzt, entsprechend d=n-r=0 (S=S0). Falls alle Eingabewerte der Elemente, nach denen in der Anfrage gefragt wurden, aus der eingegebenen Sprachäußerung identifiziert werden können, wird auf diese Weise das Geschicklichkeitsniveau S auf den gleichen Wert wie das temporäre Geschicklichkeitsniveau S0 festgelegt.
  • Anschließend wird in Schritt 007 das temporäre Geschicklichkeitsniveau für „CD" in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert.
  • Anschließend sind in Schritt 009 alle Eingabewerte der fünf, zur Steuerung des Gerätes (Audio-System) erforderlichen Elemente identifiziert, und deswegen wird ermittelt, dass die Interaktion abgeschlossen ist. Die Ablaufsteuerung geht dann zu Schritt 011 weiter. In Schritt 001 wird ein Antwort, wie zum Beispiel zur Bestätigung der identifizierten Eingabewerte der Elemente, ausgegeben: „Dann spiele ich die Honda-CD von Anfang an ab!". Anschließend wird in Schritt 012 die Honda-CD von Anfang an wiedergegeben. Als nächstes wird in Schritt 013 der Eingabeelement-Zwischenspeicher initialisiert, das temporäre Geschicklichkeitsniveau S0 für „Audio-System" wird in der Geschicklichkeitsniveau-Datenbank 5 aktualisiert, und die Ablaufsteuerung wird beendet. Durch die oben beschriebene Ablaufsteuerung wird das Sprachäußerung-Geschicklichkeitsniveau S des Fahrers richtig bestimmt, und dadurch wird das Gerät durch eine effiziente Interaktion gesteuert.
  • Obwohl die oben beschriebene Ausführungsform mit einer Fahrbeanspruchung-Erkennungseinheit 12 ausgestattet ist, kann die Fahrbeanspruchung-Erkennungseinheit 12 weggelassen werden. In diesem Fall benutzt die Eingabeelement-Referenzanzahl-Festlegungseinheit 6 direkt den Referenzwert r der Eingabe-Element-Anzahl, welcher in den Schritten 302 bis 304 entsprechend dem temporären Geschicklichkeitsniveau S0 ermittelt wurde. Zusätzlich benutzt die Antwort-Steuereinheit 9 direkt die in den Schritten 502 bis 504 ermittelte Anfrage-Element-Anzahl q.
  • Obwohl in der oben beschriebenen Ausführungsform das in der Geschicklichkeitsniveau-Datenbank 5 gespeicherte temporäre Geschicklichkeitsniveau S0 für jede Sprachäußerung aktualisiert wird (Schritt 007 in 2), kann des Weiteren das temporäre Geschicklichkeitsniveau S0 auch zu bestimmten Zeitpunkten aktualisiert werden, um die Tendenz einer Veränderung des Geschicklichkeitsniveaus S des Benutzers in vorherigen Sprachäußerungen wiederzuspiegeln.
  • Während in der oben beschriebenen Ausführungsform der Benutzer, welcher die Spracheingabe macht, der Fahrer des Fahrzeugs 13 ist, kann des Weiteren der Benutzer auch ein anderer Fahrzeuginsasse als der Fahrer sein.
  • Während in der oben beschriebenen Ausführungsform die spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 an einem Fahrzeug 13 befestigt ist, kann diese auch an einem anderen beweglichen Objekt befestigt sein, welches kein Fahrzeug ist.
  • Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung wird zu Verfügung gestellt, welche das Sprachäußerung-Lernniveau eines Benutzers richtig bestimmen kann, so dass für eine effektive Interaktion gesorgt wird. Es enthält eine Spracheingabe-Einheit 2 zum Empfangen von Sprachäußerung-Eingabe von einem Benutzer, eine Spracherkennungseinheit 3 zum Erkennen der Sprachäußerung-Eingabe, eine Antwort-Ausgabe-Einheit 10 zur Ausgabe einer Antwort an den Benutzer, und eine Gerät-Steuereinheit 11 zur Steuerung eines Gerätes auf Basis von einem Erkennungsergebnis der Spracherkennungseinheit 3. Desweiteren enthält es eine Eingabeelement-Anzahl-Ermittelungseinheit 4 zur Ermittelung der Anzahl identifizierter Elemente aus der erkannten Sprachäußerung, wobei diese aus einer vorgegebenen Anzahl von Elementen, welche zur Steuerung des Gerätes notwendig sind, stammen, eine Eingabeelement-Referenzanzahl-Festlegungseinheit 6 zur Festlegung eines Referenzwertes für die Anzahl an von aus der Sprachäußerung identifizierten Elementen, eine Eingabeelement-Anzahl-Vergleichseinheit 7 zum Vergleichen der von der Eingabeelement-Anzahl-Erkennungseinheit 4 erkannten Anzahl an Elementen mit dem von der Referenz-Eingabeelement-Anzahl-Festlegungseinheit 6 festgelegten Referenz-Wert, eine Geschicklichkeitsniveau-Bestimmungseinheit 8 zur Bestimmung des Sprachäußerung-Geschicklichkeitsniveaus des Benutzers auf Basis eines Vergleichsergebnisses, und eine Antwort-Steuereinheit 9 zur Steuerung der Antwort-Ausgabe entsprechend des bestimmten Geschicklichkeitsniveaus.

Claims (20)

  1. Spracherkennungsbasierte Gerät-Steuerungsvorrichtung (1), welche eine für das Empfangen von Sprachäußerung-Eingabe von einem Benutzer ausgelegte Sprachäußerung-Eingabe-Einheit (2) aufweist, eine für die Erkennung der in die Sprachäußerung-Eingabe-Einheit (2) eingegebenen Sprachäußerung ausgelegte Spracherkennungseinheit (3), eine für die Ausgabe einer Antwort an den Benutzer ausgelegte Antwort-Ausgabe-Einheit (10), und eine für die Steuerung eines Gerätes auf Basis eines Erkennungsergebnisses der Spracherkennungseinheit (3) ausgelegte Gerät-Steuereinheit (11), wobei die spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 umfasst: eine Eingabeelement-Anzahl-Ermittelungseinheit (4), welche ausgelegt ist, um in der von der Spracherkennungseinheit (3) erkannten Sprachäußerung die Anzahl identifizierter Elemente unter einer vorgegebenen, für die Steuerung des Gerätes erforderlichen Anzahl an Elementen, zu ermitteln; eine Eingabeelement-Referenzanzahl-Festlegungseinheit (6), welche ausgelegt ist, um einen Referenz-Wert für die Anzahl an von aus der Sprache identifizierten Elementen, auf Basis des Inhaltes der Sprachäußerung-Eingabe, festzulegen; eine Eingabeelement-Anzahl-Vergleichseinheit (7), welche ausgelegt ist, um die Anzahl der von der Eingabeelement-Anzahl-Ermittelungseinheit (4) ermittelten Elemente mit dem von der Eingabeelement-Referenzanzahl-Festlegungseinheit (6) festgelegten Referenzwert für die Anzahl an Elementen, zu vergleichen; eine Lernniveau-Bestimmungseinheit (8), welche eingerichtet ist, um ein Sprachäußerung-Lernniveau des Benutzers auf Basis eines Vergleichsergebnisses der Eingabeelement-Anzahl-Vergleichseinheit (7) zu bestimmen; und eine Antwort-Steuereinheit (9), welche eingerichtet ist, um die Antwort-Ausgabe von der Antwort-Ausgabe-Einheit (10) entsprechend des von der Lernniveau-Bestimmungseinheit (8) bestimmten Lernniveaus zu steuern.
  2. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch (1), des Weiteren umfassend eine Lernniveau-Speicher-Einheit (5), welche für das aktualisierende Speichern eines temporären Sprachäußerung-Lernniveaus eines Benutzers ausgelegt ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen auf Basis des temporären Sprachäußerung-Lernniveaus des Benutzers festlegt, welches von der Lernniveau-Speicher-Einheit (5) gespeichert ist.
  3. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 2, wobei: das Gerät eine Mehrzahl von Gerätetypen beinhaltet; die Lernniveau-Speicher-Einheit (5) das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp speichert; die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen für jeden Gerätetyp festlegt; die Eingabeelement-Anzahl-Vergleichseinheit (7) die Anzahl der von der Eingabeelement-Anzahl-Erkennungseinheit (4) erkannten Elemente mit dem für jeden Gerätetyp festgelegten Referenz-Wert für die Anzahl an Elementen vergleicht; und die Lernniveau-Bestimmungseinheit (8) das Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp auf Basis eines Vergleichsergebnisses der Eingabeelement-Anzahl-Vergleichseinheit (7) bestimmt.
  4. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 3, wobei: eine Mehrzahl der Gerätetypen jeweils mit einer Mehrzahl von Funktionsobjekt-Typen ausgestattet sind, welche von dem Benutzer bedient werden können; die vorgegebene Anzahl von Elementen, welche zur Steuerung des Gerätes erforderlich sind, Elemente die für die Bedienung der Funktionsobjekte erforderlich sind beinhalten; die Lernniveau-Speicher-Einheit (5) das temporäre Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp und für jeden Funktionsobjekt-Typ speichert; die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenzwert für die Anzahl von aus der Sprache identifizierten Elementen für jeden Gerätetyp und für jeden Funktionsobjekt-Typ festlegt; die Eingabeelement-Anzahl-Vergleichseinheit (7) die Anzahl der von der Eingabeelement-Anzahl-Erkennungseinheit (4) erkannten Elemente mit dem für jeden Gerätetyp und für jeden Funktionsobjekt-Typ festgelegten Referenz-Wert für die Anzahl an Elementen vergleicht; und die Lernniveau-Bestimmungseinheit (8) das Sprachäußerung-Lernniveau des Benutzers für jeden Gerätetyp und für jeden Funktionsobjekt-Typ auf Basis eines Vergleichsergebnisses der Eingabeelement-Anzahl-Vergleichseinheit (7) bestimmt.
  5. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 2, wobei die Lernniveau-Speicher-Einheit (5) das in der Lernniveau-Speicher-Einheit (5) abgespeicherte temporäre Sprachäußerung-Lernniveau des Benutzers auf Grund eines Bestimmungsergebnisses der Lernniveau-Bestimmungseinheit (8) aktualisiert.
  6. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 3, wobei die Lernniveau-Speicher-Einheit (5) das in der Lernniveau-Speicher-Einheit (5) abgespeicherte temporäre Sprachäußerung-Lernniveau des Benutzers auf Grund eines Bestimmungsergebnisses der Lernniveau-Bestimmungseinheit (8) aktualisiert.
  7. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 4, wobei die Lernniveau-Speicher-Einheit (5) das in der Lernniveau-Speicher-Einheit (5) abgespeicherte temporäre Sprachäußerung-Lernniveau des Benutzers auf Grund eines Bestimmungsergebnisses der Lernniveau-Bestimmungseinheit (8) aktualisiert.
  8. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 1, wobei die Antwort-Steuereinheit (9) eine Einheit enthält, welche ausgelegt ist, um eine Antwort so zu steuern, dass der Benutzer zur Eingabe einer festgelegten Anzahl von Elementen aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit (8) bestimmten Lernniveaus festgelegt wird, und wobei die festgelegte Anzahl von Elementen zu der zur Steuerung des Gerätes erforderlichen Anzahl von Elementen gehören und unter diesen gegebenenfalls Elemente vorhanden sind, welche nicht identifiziert wurden aus der von der Spracherkennungseinheit (3) erkannten Sprachäußerung.
  9. Eine spracherkennungsbasierte Gerät Steuerungsvorrichtung 1 nach Anspruch 2, wobei die Antwort-Steuereinheit (9) eine Einheit enthält, welche ausgelegt ist, um eine Antwort so zu steuern, dass der Benutzer zur Eingabe einer festgelegten Anzahl von Elementen aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit (8) bestimmten Lernniveaus festgelegt wird, und wobei die festgelegte Anzahl von Elementen zu der zur Steuerung des Gerätes erforderlichen Anzahl von Elementen.gehören und unter diesen gegebenenfalls Elemente vorhanden sind, welche nicht identifiziert wurden aus der von der Spracherkennungseinheit (3) erkannten Sprachäußerung.
  10. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 1, an einem beweglichen Körper (13) angebracht und des weiteren umfassend eine Fahr-Beanspruchung-Erkennungseinheit (12), welche für die Erkennung einer Fahr-Beanspruchung des Benutzers ausgelegt ist, welcher der Fahrer des beweglichen Körpers (13) ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des Inhaltes der Sprachäußerung-Eingabe und der von der Fahr-Beanspruchung-Erkennungseinheit (12) erfassten Fahr-Beanspruchung festlegt.
  11. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 2, an einem beweglichen Körper (13) angebracht und des weiteren umfassend eine Fahr-Beanspruchung-Erkennungseinheit (12), welche für die Erkennung einer Fahr-Beanspruchung des Benutzers ausgelegt ist, welcher der Fahrer des beweglichen Körpers (13) ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau-Speicher-Einheit (5) gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit (12) erfassten Fahr-Beanspruchung festlegt.
  12. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 3, an einem beweglichen Körper (13) angebracht und des weiteren umfassend eine Fahr-Beanspruchung-Erkennungseinheit (12), welche für die Erkennung einer Fahr-Beanspruchung des Benutzers ausgelegt ist, welcher der Fahrer des beweglichen Körpers ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau-Speicher-Einheit (5) gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit (12) erfassten Fahr-Beanspruchung festlegt.
  13. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 4, an einem beweglichen Körper (13) angebracht und des weiteren umfassend eine Fahr-Beanspruchung-Erkennungseinheit (12), welche für die Erkennung einer Fahr-Beanspruchung des Benutzers ausgelegt ist, welcher der Fahrer des beweglichen Körpers (13) ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau-Speicher-Einheit (5) gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit (12) erfassten Fahr-Beanspruchung festlegt.
  14. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 5, an einem beweglichen Körper (13) angebracht und des weiteren umfassend eine Fahr-Beanspruchung-Erkennungseinheit (12), welche für die Erkennung einer Fahr-Beanspruchung des Benutzers ausgelegt ist, welcher der Fahrer des beweglichen Körpers (13) ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau- Speicher-Einheit (5) gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit (12) erkannten Fahr-Beanspruchung festlegt.
  15. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 6, an einem beweglichen Körper (13) angebracht und des weiteren umfassend eine Fahr-Beanspruchung-Erkennungseinheit (12), welche für die Erkennung einer Fahr-Beanspruchung des Benutzers ausgelegt ist, welcher der Fahrer des beweglichen Körpers (13) ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau-Speicher-Einheit (5) gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit (12) erkannten Fahr-Beanspruchung festlegt.
  16. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 7, an einem beweglichen Körper (13) angebracht und des weiteren umfassend eine Fahr-Beanspruchung-Erkennungseinheit (12), welche für die Erkennung einer Fahr-Beanspruchung des Benutzers ausgelegt ist, welcher der Fahrer des beweglichen Körpers (13) ist, wobei die Eingabeelement-Referenzanzahl-Festlegungseinheit (6) den Referenz-Wert für die Anzahl von aus der Sprache identifizierten Elementen auf Grund des von der Lernniveau-Speicher-Einheit (5) gespeicherten temporären Sprachäußerung-Lernniveaus des Benutzers und auf Grund der von der Fahr-Beanspruchung-Erkennungseinheit (12) erkannten Fahr-Beanspruchung festlegt.
  17. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 10, wobei die Antwort-Steuereinheit (9) eine Einheit enthält, welche ausgelegt ist, um eine Antwort so zu steuern, dass der Benutzer zur Eingabe einer festgelegten Anzahl von Elementen aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit (8) bestimmten Lernniveaus und der von der Fahr-Beanspruchung-Erkennungseinheit (12) erkannten Fahr-Beanspruchung festgelegt wird, und wobei die festgelegte Anzahl von Elementen zu der zur Steuerung des Gerätes erforderlichen Anzahl von Elementen gehören und unter diesen gegebenenfalls Elemente vorhanden sind, welche nicht identifiziert wurden aus der von der Spracherkennungseinheit (3) erkannten Sprachäußerung.
  18. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 nach Anspruch 11, wobei die Antwort-Steuereinheit (9) eine Einheit enthält, welche ausgelegt ist, um eine Antwort so zu steuern, dass der Benutzer zur Eingabe einer festgelegten Anzahl von Elementen aufgefordert wird, wobei die festgelegte Anzahl entsprechend des von der Lernniveau-Bestimmungseinheit (8) bestimmten Lernniveaus und der von der Fahr-Beanspruchung-Erkennungseinheit (12) erkannten Fahr-Beanspruchung festgelegt wird, und wobei die festgelegte Anzahl von Elementen zu der zur Steuerung des Gerätes erforderlichen Anzahl von Elementen.gehören und unter diesen gegebenenfalls Elemente vorhanden sind, welche nicht identifiziert wurden aus der von der Spracherkennungseinheit (3) erkannten Sprachäußerung.
  19. Ein Verfahren zum Steuern eines Gerätes auf Basis von Spracherkennung, welches ein Sprachäußerung-Eingabe-Schritt (001) zum Empfangen von Sprachäußerung-Eingabe von einem Benutzer hat, ein Spracherkennungsschritt (002) zum Erkennen der in den Sprachäußerung-Eingabe-Schritt (001) eingegebenen Spracheäußerung, ein Antwort-Ausgabe-Schritt (010) zur Ausgabe einer Antwort an den Benutzer, und ein Gerät-Steuer-Schritt (012) zum Steuern eines Gerätes auf Basis eines Erkennungsergebnisses des Spracherkennungsschrittes (002), wobei das Verfahren folgende Schritte umfasst: ein Eingabeelement-Anzahl-Ermittelungsschritt (104), welcher ausgelegt ist, um in der von dem Spracherkennungsschritt (002) erkannten Sprachäußerung die Anzahl identifizierter Elemente unter einer vorgegebenen, für die Steuerung des Gerätes erforderlichen Anzahl an Elementen, zu ermitteln; ein Eingabeelement-Referenzanzahl-Festlegungsschritt (005), welcher ausgelegt ist, um einen Referenz-Wert für die Anzahl an von aus der Sprache identifizierten Elementen, auf Basis des Inhaltes der Sprachäußerung-Eingabe, festzulegen; ein Eingabeelement-Anzahl-Vergleichsschritt (401), welcher ausgelegt ist, um die Anzahl der von dem Eingabeelement-Anzahl-Ermittelungsschritt (104) ermittelten Elemente mit dem von dem Eingabeelement-Referenzanzahl-Festlegungsschritt (005) festgelegten Referenzwert für die Anzahl an Elementen, zu vergleichen; ein Lernniveau-Bestimmungsschritt (402 bis 404), welcher eingerichtet ist, um ein Sprachäußerung-Lernniveau des Benutzers auf Basis eines Vergleichsergebnisses des Eingabeelement-Anzahl-Vergleichsschrittes (401) zu bestimmen; und ein Antwort-Steuerschritt (010), welcher eingerichtet ist, um die Antwort-Ausgabe von dem Antwort-Ausgabe-Schritt (508) zu steuern, entsprechend des von dem Lernniveau-Bestimmungsschritt (402 bis 404) bestimmten Lernniveaus.
  20. Eine spracherkennungsbasierte Gerät-Steuerungsvorrichtung (1), welche ein für das Empfangen von Sprachäußerung-Eingabe von einem Benutzer ausgelegtes Sprachäußerung-Eingabe-Mittel (2) aufweist, sowie ein für die Erkennung der in das Sprachäußerung-Eingabe-Mittel (2) eingegebenen Sprache ausgelegtes Spracherkennungsmittel (3), ein für die Ausgabe einer Antwort an den Benutzer ausgelegtes Antwort-Ausgabe-Mittel (10), und ein für die Steuerung eines Gerätes auf Basis eines Erkennungsergebnisses des Spracherkennungsmittel (3) ausgelegtes Gerät-Steuermittel (11), wobei die spracherkennungsbasierte Gerät-Steuerungsvorrichtung 1 umfasst: ein Eingabeelement-Anzahl-Ermittelungsmittel (4), welches ausgelegt ist, um in der von dem Spracherkennungsmittel (3) erkannten Sprachäußerung die Anzahl identifizierter Elemente unter einer vorgegebenen, für die Steuerung des Gerätes erforderlichen Anzahl an Elementen, zu ermitteln; ein Eingabeelement-Referenzanzahl-Festlegungsmittel (6), welches ausgelegt ist, um einen Referenz-Wert für die Anzahl an von aus der Sprache identifizierten Elementen, auf Basis des Inhaltes der Sprachäußerung-Eingabe, festzulegen; ein Eingabeelement-Anzahl-Vergleichsmittel (7), welches ausgelegt ist, um die Anzahl der von dem Eingabeelement-Anzahl-Ermittelungsmittel (4) ermittelten Elemente mit dem von dem Eingabeelement-Referenzanzahl-Festlegungsmittel (6) festgelegten Referenzwert für die Anzahl an Elementen, zu vergleichen; ein Lernniveau-Bestimmungsmittel (8), welches eingerichtet ist, um ein Sprachäußerung-Lernniveau des Benutzers auf Basis eines Vergleichsergebnisses des Eingabeelement-Anzahl-Vergleichsmittels (7) zu bestimmen; und ein Antwort-Steuermittel (9), welches eingerichtet ist, um die Antwort-Ausgabe von dem Antwort-Ausgabe-Mittel (10) entsprechend des von dem Lernniveau-Bestimmungsmittels (8) bestimmten Lernniveaus zu steuern.
DE102006049561A 2005-10-20 2006-10-20 Spracherkennungsbasierte Gerät-Steuerungsvorrichtung Ceased DE102006049561A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005305684A JP4260788B2 (ja) 2005-10-20 2005-10-20 音声認識機器制御装置
JP2005-305684 2005-10-20

Publications (1)

Publication Number Publication Date
DE102006049561A1 true DE102006049561A1 (de) 2007-04-26

Family

ID=37905531

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006049561A Ceased DE102006049561A1 (de) 2005-10-20 2006-10-20 Spracherkennungsbasierte Gerät-Steuerungsvorrichtung

Country Status (3)

Country Link
US (1) US7933776B2 (de)
JP (1) JP4260788B2 (de)
DE (1) DE102006049561A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220892A1 (de) * 2013-10-15 2015-04-16 Continental Automotive Gmbh Vorrichtung und Verfahren für ein Sprachbediensystem

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4915665B2 (ja) * 2007-04-18 2012-04-11 パナソニック株式会社 音声認識機能付き操作器
JP4715805B2 (ja) * 2007-05-10 2011-07-06 トヨタ自動車株式会社 車載情報検索装置
JP5281659B2 (ja) * 2009-01-20 2013-09-04 旭化成株式会社 音声対話装置、対話制御方法及び対話制御プログラム
US8731939B1 (en) * 2010-08-06 2014-05-20 Google Inc. Routing queries based on carrier phrase registration
JP5673330B2 (ja) * 2011-04-25 2015-02-18 株式会社デンソー 音声入力装置
EP2707872A2 (de) 2011-05-12 2014-03-19 Johnson Controls Technology Company Adaptive spracherkennungssysteme und verfahren
US9536528B2 (en) 2012-07-03 2017-01-03 Google Inc. Determining hotword suitability
JP5999839B2 (ja) * 2012-09-10 2016-09-28 ルネサスエレクトロニクス株式会社 音声案内システム及び電子機器
JP6122642B2 (ja) * 2013-01-10 2017-04-26 株式会社Nttドコモ 機能実行システム及び発話例出力方法
JP6282516B2 (ja) 2014-04-08 2018-02-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 複数機器の音声操作システム、音声操作方法及び、プログラム
US9472196B1 (en) 2015-04-22 2016-10-18 Google Inc. Developer voice actions system
US10008201B2 (en) * 2015-09-28 2018-06-26 GM Global Technology Operations LLC Streamlined navigational speech recognition
US10706853B2 (en) * 2015-11-25 2020-07-07 Mitsubishi Electric Corporation Speech dialogue device and speech dialogue method
US10229671B2 (en) * 2015-12-02 2019-03-12 GM Global Technology Operations LLC Prioritized content loading for vehicle automatic speech recognition systems
WO2017100167A1 (en) * 2015-12-06 2017-06-15 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
US9740751B1 (en) 2016-02-18 2017-08-22 Google Inc. Application keywords
US9922648B2 (en) 2016-03-01 2018-03-20 Google Llc Developer voice actions system
US9691384B1 (en) 2016-08-19 2017-06-27 Google Inc. Voice action biasing system
CN106128457A (zh) * 2016-08-29 2016-11-16 昆山邦泰汽车零部件制造有限公司 一种对话机器人的控制方法
JP6689215B2 (ja) * 2017-01-25 2020-04-28 株式会社日立製作所 システム及び対話情報の出力方法
JP7004955B2 (ja) * 2017-12-11 2022-01-21 トヨタ自動車株式会社 サービス提供装置、サービス提供プログラム及び音声認識によるサービスを提供する方法
JP6996632B2 (ja) * 2018-08-06 2022-01-18 日産自動車株式会社 音声対話装置、音声対話システム、及び音声対話装置の制御方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3943295A (en) * 1974-07-17 1976-03-09 Threshold Technology, Inc. Apparatus and method for recognizing words from among continuous speech
GB1557286A (en) * 1975-10-31 1979-12-05 Nippon Electric Co Speech recognition
US4227176A (en) * 1978-04-27 1980-10-07 Dialog Systems, Inc. Continuous speech recognition method
US5425129A (en) * 1992-10-29 1995-06-13 International Business Machines Corporation Method for word spotting in continuous speech
US6144938A (en) 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
AU7518098A (en) 1998-06-09 1999-12-30 Swisscom Ag Method for managing an automatic telephone information service and adapted automatic information system
JP2000194386A (ja) 1998-12-24 2000-07-14 Omron Corp 音声認識応答装置及び方法
GB9926134D0 (en) * 1999-11-05 2000-01-12 Ibm Interactive voice response system
US7024366B1 (en) * 2000-01-10 2006-04-04 Delphi Technologies, Inc. Speech recognition with user specific adaptive voice feedback
US6560576B1 (en) * 2000-04-25 2003-05-06 Nuance Communications Method and apparatus for providing active help to a user of a voice-enabled application
DE10035869A1 (de) 2000-07-14 2002-01-24 Deutsche Telekom Ag Verfahren zur Vereinfachung der Diaglogführung in Sprachdialog-Systemen
DE10046359A1 (de) 2000-09-20 2002-03-28 Philips Corp Intellectual Pty Dialogsystem
DE10110977C1 (de) 2001-03-07 2002-10-10 Siemens Ag Bereitstellen von Hilfe-Informationen in einem Sprachdialogsystem
US20020147593A1 (en) * 2001-04-06 2002-10-10 International Business Machines Corporation Categorized speech-based interfaces
US7573986B2 (en) * 2001-07-18 2009-08-11 Enterprise Integration Group, Inc. Method and system for interjecting comments to improve information presentation in spoken user interfaces
US7920682B2 (en) * 2001-08-21 2011-04-05 Byrne William J Dynamic interactive voice interface
US7313526B2 (en) * 2001-09-05 2007-12-25 Voice Signal Technologies, Inc. Speech recognition using selectable recognition modes
US7050976B1 (en) * 2001-09-26 2006-05-23 Sprint Spectrum L.P. Method and system for use of navigation history in a voice command platform
US7292152B2 (en) * 2003-06-12 2007-11-06 Temic Automotive Of North America, Inc. Method and apparatus for classifying vehicle operator activity state
WO2005008627A1 (en) 2003-07-18 2005-01-27 Philips Intellectual Property & Standards Gmbh Method of controlling a dialoging process
DE10342541A1 (de) 2003-09-15 2005-05-12 Daimler Chrysler Ag Arbeitsbelastungsabhängige Dialogführung
DE10348408A1 (de) 2003-10-14 2005-05-19 Daimlerchrysler Ag Nutzeradaptive Dialogunterstützung für Sprachdialogsysteme
US7742580B2 (en) * 2004-02-05 2010-06-22 Avaya, Inc. Methods and apparatus for context and experience sensitive prompting in voice applications
US7904300B2 (en) * 2005-08-10 2011-03-08 Nuance Communications, Inc. Supporting multiple speech enabled user interface consoles within a motor vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220892A1 (de) * 2013-10-15 2015-04-16 Continental Automotive Gmbh Vorrichtung und Verfahren für ein Sprachbediensystem

Also Published As

Publication number Publication date
US7933776B2 (en) 2011-04-26
US20070094033A1 (en) 2007-04-26
JP4260788B2 (ja) 2009-04-30
JP2007114475A (ja) 2007-05-10

Similar Documents

Publication Publication Date Title
DE102006049561A1 (de) Spracherkennungsbasierte Gerät-Steuerungsvorrichtung
DE602005004503T2 (de) Multilinguale Spracherkennung
DE102013222507B4 (de) Verfahren zum Adaptieren eines Sprachsystems
DE102013223036B4 (de) Adaptionsverfahren für Sprachsysteme
DE60213195T2 (de) Verfahren, System und Computerprogramm zur Sprach-/Sprechererkennung unter Verwendung einer Emotionszustandsänderung für die unüberwachte Anpassung des Erkennungsverfahrens
DE60213595T2 (de) Hintergrundlernen von sprecherstimmen
DE102007015497B4 (de) Spracherkennungsvorrichtung und Spracherkennungsprogramm
DE69829235T2 (de) Registrierung für die Spracherkennung
DE69814195T2 (de) Vorrichtung zur Sprechererkennung
DE60009583T2 (de) Sprecheradaptation auf der Basis von Stimm-Eigenvektoren
DE60201262T2 (de) Hierarchische sprachmodelle
DE112016006496T5 (de) Stimmerkennungsvorrichtung
DE112018002857T5 (de) Sprecheridentifikation mit ultrakurzen Sprachsegmenten für Fern- und Nahfeld-Sprachunterstützungsanwendungen
DE60215272T2 (de) Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen
DE60124559T2 (de) Einrichtung und verfahren zur spracherkennung
DE60313706T2 (de) Spracherkennungs- und -antwortsystem, Spracherkennungs- und -antwortprogramm und zugehöriges Aufzeichnungsmedium
DE102020205786A1 (de) Spracherkennung unter verwendung von nlu (natural language understanding)-bezogenem wissen über tiefe vorwärtsgerichtete neuronale netze
EP1264302B1 (de) Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
DE102014017384B4 (de) Kraftfahrzeug-Bedienvorrichtung mit Korrekturstrategie für Spracherkennung
EP0994461A2 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
DE102014201676B4 (de) Verfahren für das Steuern des Dialogs von Sprachsystemen
DE112014007015T5 (de) Spracherkennungssystem
DE376501T1 (de) Spracherkennungssystem.
DE102013222757A1 (de) Adaptionsverfahren und -systeme für Sprachsysteme
DE69738116T2 (de) Lokalisierung eines Musters in einem Signal

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final