DE60024506T2 - Verfahren zur mehrstufigen Spracherkennung und Funkübertragungsvorrichtung zur Steuerung durch Sprache - Google Patents

Verfahren zur mehrstufigen Spracherkennung und Funkübertragungsvorrichtung zur Steuerung durch Sprache Download PDF

Info

Publication number
DE60024506T2
DE60024506T2 DE60024506T DE60024506T DE60024506T2 DE 60024506 T2 DE60024506 T2 DE 60024506T2 DE 60024506 T DE60024506 T DE 60024506T DE 60024506 T DE60024506 T DE 60024506T DE 60024506 T2 DE60024506 T2 DE 60024506T2
Authority
DE
Germany
Prior art keywords
recognition
confidence value
command
recognition result
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60024506T
Other languages
English (en)
Other versions
DE60024506D1 (de
Inventor
Kari Laurila
Juha Iso-Sipilä
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of DE60024506D1 publication Critical patent/DE60024506D1/de
Application granted granted Critical
Publication of DE60024506T2 publication Critical patent/DE60024506T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Erkennen von Sprache gemäß dem Oberbegriff des beiliegenden Anspruchs 1, eine Spracherkennungsvorrichtung gemäß dem Oberbegriff des beiliegenden Anspruchs 7, und eine Funkübertragungsvorrichtung zur Steuerung durch Sprache gemäß dem Oberbegriff des beiliegenden Anspruchs 8.
  • Zum Erleichtern der Benutzung von Funkübertragungsvorrichtungen sind so genannte Freisprechvorrichtungen entwickelt worden, wobei die Funkübertragungsvorrichtungen durch Sprache gesteuert werden kann. So kann Sprache benutzt werden, um verschiedene Funktionen der Funkübertragungsvorrichtungen zu steuern, wie z. B. Ein- und Ausschalten, Übertragung/Empfang, Steuerung der Lautstärke, Auswahl der Telefonnummer, Beantworten eines Anrufs, wodurch es insbesondere bei Benutzung eines Fahrzeugs für den Benutzer leichter ist, sich auf das Fahren zu konzentrieren.
  • Ein Nachteil einer von Sprache gesteuerten Funkübertragungsvorrichtung ist der, dass die Spracherkennung nicht fehlerfrei ist. In einem Fahrzeug weist das Hintergrundgeräusch, das von der Umgebung erzeugt wird, eine hohe Lautstärke auf, so dass es schwierig ist, Sprache zu erkennen. Aufgrund der Unzuverlässigkeit der Spracherkennung haben Benutzer von Funkübertragungsvorrichtungen bisher wenig Interesse an der Steuerung durch Sprache gezeigt. Die Erkennungsfähigkeiten gegenwärtiger Spracherkenner sind nicht sehr gut, insbesondere unter schwierigen Bedingungen wie z. B. in einem sich fortbewegenden Fahrzeug, wo die hohe Lautstärke des Hintergrundgeräuschs eine zuverlässige Erkennung von Worten stark behindert. Falsche Erkennungsentscheidungen verursachen die meisten Probleme normalerweise in der Einrichtung der Benutzerschnittstelle, da falsche Erkennungsentscheidungen unerwünschte Funktionen in Gang setzen könne, wie z. B. das Abbrechen der Verbindung während eines Gesprächs, was natürlich besonders störend für den Benutzer ist. Ein Ergebnis einer falschen Erkennungsentscheidung kann sein, dass ein Anruf an eine falsche Nummer geleitet wird. Aus diesem Grund ist die Benutzerschnittstelle so entworfen, dass der Benutzer normalerweise gebeten wird, einen Befehl zu wiederholen, wenn der Spracherkenner sich der vom Benutzer geäußerten Worte nicht ausreichend sicher ist.
  • Fast alle Spracherkennungsvorrichtungen basieren auf dem Funktionsprinzip, dass ein vom Nutzer geäußertes Wort anhand eines normalerweise ziemlich komplizierten Verfahrens mit einer Gruppe von Referenzwörtern verglichen wird, die zuvor im Speicher der Spracherkennungsvorrichtung gespeichert wurden. Spracherkennungsvorrichtungen berechnen normalerweise einen Wert für jedes Referenzwort, um zu beschreiben, wie stark das vom Benutzer geäußerte Wort dem Referenzwort ähnelt. Die Erkennungsentscheidung erfolgt zuletzt auf der Basis dieser Werte, so dass die Entscheidung die ist, das Referenzwort zu wählen, dem das geäußerte Wort am meisten ähnelt. Die bekanntesten Verfahren zum Vergleich zwischen dem geäußerten Wort und den Referenzwörtern sind dynamische Zeitverzerrung (DTW – Dynamic Time Warping) und das statistische Hidden-Markov-Modell (HMM).
  • Sowohl im DTW- als auch im HMM-Verfahren wird ein unbekanntes Sprachmuster mit bekannten Referenzmustern verglichen. Bei der dynamischen Zeitverzerrung wird das Sprachmuster in mehrere Frames eingeteilt, und der lokale Abstand zwischen dem Sprachmuster, das in jedem Frame enthalten ist, und dem entsprechenden Sprachsegment des Referenzmusters wird berechnet. Dieser Abstand wird berechnet, indem die Sprachsegmente und die ihnen entsprechenden Sprachsegmente des Referenzmusters miteinander verglichen werden, und er ist also eine Art Zahlenwert für die durch den Vergleich ermittelten Differenzen. Für nahe beieinander liegende Sprachsegmente wird normalerweise ein geringerer Abstand erzielt als für weiter voneinander entfernte Sprachsegmente. Auf der Basis der lokalen Abstände, die so ermittelt werden, wird durch Benutzung eines Algorithmus ein minimaler Weg zwischen den Anfangs- und Endpunkten des Worts gesucht. Durch dynamische Zeitverzerrung wird ein Abstand zwischen dem geäußerten Wort und dem Referenzwort ermittelt. Beim HMM-Verfahren werden Sprachmuster erzeugt, und diese Stufe der Sprachmustererzeugung wird anhand eines Zustandsänderungsmodells gemäß dem Markov-Verfahren modelliert. Das betreffende Zustandsänderungsmodell ist also das HMM. In diesem Fall erfolgt die Spracherkennung empfangener Sprachmuster durch die Bestimmung einer Beobachtungswahrscheinlichkeit für die Sprachmuster anhand des Hidden-Markov-Modells. Bei Spracherkennung mit Hilfe des HMM-Verfahrens wird zunächst ein HMM-Modell für jedes zu erkennende Wort gebildet, d. h. für jedes Referenzwort. Diese HMM-Modelle werden im Speicher der Spracherkennungsvorrichtung gespeichert. Wenn die Spracherkennungsvorrichtung ein Sprachmuster empfängt, wird für jedes HMM-Modell im Speicher eine Beobachtungswahrscheinlichkeit berechnet, und als Erkennungsergebnis wird für das HMM-Modell ein entsprechendes Wort mit der höchsten Beobachtungswahrscheinlichkeit ermittelt. Es wird also für jedes Referenzwort die Wahrscheinlichkeit berechnet, mit der das Wort vom Benutzer geäußert wird. Die oben erwähnte höchste Beobachtungswahrscheinlichkeit beschreibt die Ähnlichkeit des empfangenen Sprachmusters und des diesem am nächsten kommenden HMM-Modells, d. h. des diesem am nächsten kommenden Sprachmusters.
  • In gegenwärtigen Systemen berechnet also die Spracherkennungsvorrichtung einen bestimmten Wert für die Referenzwörter auf Basis des vom Benutzer geäußerten Worts. Beim DTW-Verfahren ist der Wert der Abstand zwischen den Worten, und beim HMM-Verfahren ist der Wert die Wahrscheinlichkeit der Übereinstimmung zwischen dem geäußerten Wort und dem HMM-Modell. Wenn das HMM-Verfahren benutzt wird, wird für die Spracherkennungsvorrichtungen normalerweise eine bestimmte Schwellenwahrscheinlichkeit eingestellt, die das wahrscheinlichste Referenzwort überschreiten muss, damit die Erkennungsentscheidung fallen kann. Ein anderer Faktor, der die Erkennungsentscheidung beeinflusst, kann z. B. die Differenz zwischen den Wahrscheinlichkeiten des wahrscheinlichsten und des nächst wahrscheinlichen Wortes sein, die ausreichend groß sein muss, um eine Erkennungsentscheidung zu fällen. Es ist also möglich, dass bei einem Hintergrundgeräusch mit hoher Lautstärke das Referenzwort im Speicher basierend auf dem vom Benutzer geäußerten Wort, z. B. dem Wort „Ja", bei jedem Versuch die höchste Wahrscheinlichkeit im Verhältnis zu anderen Referenzwörtern erzielt, z. B. die Wahrscheinlichkeit 0,8. Wenn die Schwellenwahrscheinlichkeit beispielsweise 0,9 ist, wird die Erkennung nicht akzeptiert, und der Benutzer muss den Befehl möglicherweise mehrmals wiederholen, bis die Schwellenwahrscheinlichkeit überschritten wird und die Spracherkennungsvorrichtung den Befehl akzeptiert, obwohl die Wahrscheinlichkeit dem akzeptablen Wert sehr nahe gekommen sein kann. Dies ist für den Benutzer sehr irritierend.
  • Außerdem wird die Spracherkennung von der Tatsache behindert, dass verschiedene Benutzer dieselben Wörter in unterschiedlicher Art äußern, weshalb die Spracherkennungsvorrichtung besser arbeitet, wenn sie von dem einen Benutzer benutzt wird, als wenn sie von einem anderen Benutzer benutzt wird. Es ist mit den bekannten Techniken sehr schwierig, das Sicherheitsniveau von Spracherkennungsvorrichtung so anzupassen, dass alle Benutzer berücksichtigt werden. Beim Anpassen des benötigten Sicherheitsniveaus, z. B. für das Wort „Ja" bei üblichen Spracherkennungsvorrichtungen, wird der benötigte Schwellenwert normalerweise gemäß den so genannten schlechtesten Sprechern eingestellt. Es tritt also das Problem auf, dass auch Wörter, die „Ja" sehr nahe kommen, fälschlicherweise akzeptiert werden. Das Problem wird durch die Tatsache verschärft, dass in einigen Situationen ein bloßes Hintergrundgeräusch als Befehlswort erkannt werden kann. Bei üblichen Spracherkennungsvorrichtungen wird versucht, eine passende Balance zu finden, bei der ein bestimmter Teil der Benutzer große Probleme mit der Akzeptanz ihrer Wörter hat und die Anzahl der fälschlich akzeptierten Wörter ausreichend gering ist. Wenn die Spracherkennungsvorrichtung so angepasst wird, dass eine minimale Anzahl von Benutzern Probleme mit der Akzeptanz ihrer Wörter hat, bedeutet das für die Praxis, dass die Anzahl der fälschlich akzeptierten Wörter ansteigt. Wenn eine so fehlerfreie Erkennung wie möglich zum Ziel gesetzt wird, hat andererseits eine steigende Anzahl von Benutzern Schwierigkeiten mit der Akzeptanz der von ihnen geäußerten Befehle.
  • In der Spracherkennung werden Fehler im Allgemeinen in drei Kategorien eingeteilt:
  • – Einfügungsfehler
  • Der Benutzer sagt nichts, aber trotzdem wird ein Befehlswort erkannt, oder der Benutzer sagt ein Wort, das kein Befehl ist, und es wird trotzdem ein Befehlswort erkannt.
  • – Auslassungsfehler
  • Der Benutzer sagt ein Wort, aber nichts wird erkannt.
  • – Ersetzungsfehler
  • Das vom Benutzer geäußerte Befehlswort wird als ein anderes Befehlswort erkannt.
  • Bei einer theoretischen optimalen Lösung begeht die Spracherkennungsvorrichtung keinen der genannte Fehler. In praktischen Situationen, wie sie bereits oben beschrieben wurden, begeht die Spracherkennungsvorrichtung jedoch Fehler jeder der genannten Kategorien. Zur Nutzbarkeit der Benutzerschnittstelle ist es wichtig, eine Spracherkennungsvorrichtung derart zu gestalten, dass der relative Anteil der verschiedenen Fehlertypen optimal ist. Bei der Sprachaktivierung beispielsweise, bei der eine durch Sprache aktivierte Vorrichtung stundenlang auf ein bestimmtes Aktivierungswort wartet, ist es wichtig, dass die Vorrichtung nicht irrtümlich aktiviert wird. Es ist des Weiteren wichtig, dass die vom Benutzer geäußerten Befehlswörter mit guter Genauigkeit erkannt werden. In diesem Fall ist es allerdings wichtiger, dass keine irrtümliche Aktivierung stattfindet. In der Praxis bedeutet das, dass der Benutzer das geäußerte Befehlswort öfter wiederholen muss, damit es mit ausreichender Wahrscheinlichkeit erkannt wird.
  • Bei der Erkennung einer Zahlenfolge sind fast alle Fehler von gleicher Signifikanz. Jeder Fehler bei der Erkennung von Zahlen einer Reihe resultiert in einer falschen Zahlenfolge. Auch die Situation, in der ein Benutzer nichts sagt und trotzdem eine Zahl erkannt wird, ist unpraktisch für den Benutzer. Eine Situation, in der der Benutzer eine Zahl undeutlich äußert und die Zahl nicht erkannt wird, kann vom Benutzer korrigiert werden, indem er die Zahlen deutlicher äußert.
  • Die Erkennung eines einzelnen Befehlsworts ist gegenwärtig eine sehr typische Funktion in der Spracherkennung. Beispielsweise kann die Spracherkennungsvorrichtung den Benutzer fragen: „Möchten Sie einen Anruf annehmen?", woraufhin vom Benutzer die Antwort „Ja" oder „Nein" erwartet wird. In solchen Situationen, in denen relativ wenige alternative Befehlsworte vorliegen, werden die Befehlswörter oft, wenn überhaupt, dann richtig erkannt. Mit anderen Worten, die Anzahl der Ersetzungsfehler ist in einer solchen Situation sehr gering. Das größte Problem bei der Erkennung einzelner Befehlswörter ist, dass ein geäußerter Befehl gar nicht erkannt wird, oder dass ein irrelevantes Wort als Befehl erkannt wird. Im Folgenden werden drei unterschiedliche alternative Situationen für dieses Beispiel vorgestellt:
    • 1) Eine sprachgesteuerte Vorrichtung fragt den Benutzer: „Möchten Sie einen Anruf annehmen?", worauf der Benutzer undeutlich „Ja...ja" antwortet. Die Vorrichtung erkennt die Antwort des Benutzers nicht und fragt den Benutzer wieder: „Möchten Sie einen Anruf annehmen? Antworten Sie ,Ja' oder ,Nein'," so dass der Benutzer leicht frustriert werden kann, wenn die Vorrichtung den Benutzer häufig um eine Wiederholung des geäußerten Wortes bittet.
    • 2) Die Vorrichtung fragt den Benutzer wieder: „Möchten Sie einen Anruf annehmen?", worauf der Benutzer deutlich „Ja" antwortet. Allerdings erkennt die Vorrichtung dies nicht sicher und verlangt eine Bestätigung: „Haben Sie ,Ja' gesagt?", worauf der Benutzer wieder mit „Ja" antwortet. Auch jetzt konnte keine verlässliche Erkennung erzielt werden, so dass die Vorrichtung wieder fragt: „Haben Sie ,Ja' gesagt?" Der Nutzer muss wieder die Antwort „Ja" wiederholen, damit die Vorrichtung die Erkennung abschließen kann.
    • 3) In einer dritten Beispielsituation fragt die sprachgesteuerte Vorrichtung den Benutzer, ob er/sie einen Anruf annehmen möchte. Daraufhin murmelt der Benutzer etwas Undeutliches, und trotzdem interpretiert die Vorrichtung die Äußerung des Benutzers als das Befehlswort „Ja" und informiert den Benutzer: „Gut, der Anruf wird durchgestellt." In dieser Situation also liegt die Interpretation der vagen Äußerung des Benutzers durch die Vorrichtung näher am Wort „Ja" als am Wort „Nein". In dieser Situation kommt es leicht dazu, dass Wörter, die einem Befehlswort ähneln, fälschlicherweise akzeptiert werden.
  • Bei dem Stand der Technik entsprechenden Spracherkennungsverfahren ist es typisch, bei der Erkennung eines Befehlswortes ein Zeitfenster einer bestimmten Länge zu benutzen, innerhalb dessen der Benutzer das Befehlswort äußern muss. Bei einem anderen dem Stand der Technik entsprechenden Spracherkennungsverfahren wird die Erkennungswahrscheinlichkeit für das vom Benutzer geäußerte Wort berechnet, und falls die Wahrscheinlichkeit einen vorgegebenen Schwellenwert nicht überschreitet, wird der Benutzer gebeten, das Befehlswort zu wiederholen, woraufhin eine neue Berechnung der Erkennungswahrscheinlichkeit anhand der Wahrscheinlichkeitsberechnung der letzten Erkennungszeit erfolgt. Die Erkennungsentscheidung wird getroffen, wenn die Schwellenwahrscheinlichkeit unter Berücksichtigung der letzten Wahrscheinlichkeiten erreicht wird. Bei diesem Verfahren kann die Benutzung der Wiederholung leicht zu einem Anstieg der Wahrscheinlichkeit des oben genannten Einfügungsfehlers führen, wobei nach dem Wiederholen eines Wortes außerhalb des Vokabulars dieses leichter als ein Befehlswort erkannt wird.
  • Das Dokument EP-A-0 651 372 offenbart eine automatische Spracherkennungsverarbeitung mit Hilfe von Konfidenzmessungen. Die Benutzerschnittstelle ist dynamisch gesteuert, basierend auf dem Grad an Vertrauen in die Ergebnisse des automatischen Spracherkennungsprozesses. In dem System von D1 wird ein Konfindenzwertvektor für jede gesprochene Einheit erzeugt, welcher die Ähnlichkeit dieser Äußerung zu jedem Modell anzeigt. Die Funktion der Differenz zwischen den zwei höchsten Annäherungswerten wird benutzt, um den Konfidenzgrad zu bestimmen, dass die „Beste Wahl"-Interpretation einer Äußerung tatsächlich die „richtige" Wahl ist. Mit anderen Worten, zwei oder mehr Konfidenzgrade werden für jede Äußerung berechnet.
  • Das Dokument US-A-5 737 724 offenbart Spracherkennung mit Hilfe permissiver Erkennungskriterien für eine wiederholte Sprachäußerung. Die Erkennung basiert auf einer Analyse einer ersten und einer zweiten Äußerung. Die erste Äußerung wird mit ein oder zwei Sprachmodellen verglichen, um Ähnlichkeitsmessdaten für jeden Vergleich dieser Art zu bestimmen. Das Sprachmodell, das am besten auf die erste Äußerung passt, wird anhand der Ähnlichkeitsmessdaten bestimmt. Der Ähnlichkeitsmesswert, der dem passendsten Sprachmodell entspricht, wird analysiert, um zu bestimmen, ob der Ähnlichkeitsmesswert ein erstes Erkennungskriterium erfüllt. Die zweite Äußerung wird mit einem oder mehreren Sprachmodellen, die mit dem passendsten Modell assoziiert sind, verglichen, um einen Ähnlichkeitsmesswert der zweiten Äußerung für jeden Vergleich dieser Art zu bestimmen. Die Ähnlichkeitsmessdaten werden analysiert, um zu bestimmen, ob der Ähnlichkeitsmesswert oder die Ähnlichkeitsmesswerte ein zweites Erkennungskriterium erfüllen.
  • Das Dokument US-A-5 794 194 offenbart die Worterfassung in einer Umgebung wechselnder Lautstärke. Durch Analyse der zu erkennenden Sprachmuster werden Niedrig- und hochdimensionale Merkmalparameter erzielt. Mehrere Ähnlichkeitswerte zwischen jedem der Merkmalvektorkandidaten werden berechnet, und die Referenzmuster werden in einem Erkennungslexikon gespeichert. Ein Erkennungsergebnis wählt Referenzmuster, die in dem Erkennungslexikon gespeichert sind, wenn ihre Ähnlichkeit größer ist als ein vorgegebener Schwellenwert.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein verbessertes Spracherkennungsverfahren sowie eine sprachgesteuerte Funkübertragungsvorrichtung bereitzustellen, bei der die Spracherkennung im Vergleich zum Stand der Technik gesichert ist. Die Erfindung beruht auf der Idee, dass die Erkennungswahrscheinlichkeit, die für ein geäußertes Befehlswort berechnet wird, mit der Wahrscheinlichkeit für Hintergrundgeräusch verglichen wird, wobei der so erzielte Konfidenzwert benutzt wird, um herzuleiten, ob die Erkennung positiv war. Wenn der Konfidenzwert unterhalb einer vorgegebenen Schwelle für eine positive Erkennung bleibt, wird das Zeitfenster, das für die Erkennung benutzt wird, gedehnt, und eine neue Erkennung wird für die wiederholte Äußerung des Befehlswortes durchgeführt. Wenn das wiederholte Befehlswort nicht mit einem ausreichenden Konfidenzwert erkannt werden kann, wird trotzdem ein Vergleich zwischen den vom Benutzer geäußerten Befehlswörtern durchgeführt; auf diese Weise wird für den Fall, dass die Erkennung der vom Benutzer geäußerten Wörter anzeigt, dass der Benutzer dasselbe Befehlswort zweimal hintereinander geäußert hat, die Erkennung akzeptiert. Das erfindungsgemäße Verfahren ist der kennzeichnende Teil des beiliegenden Anspruchs 1. Die Spracherkennungsvorrichtung gemäß der vorliegenden Erfindung ist hauptsächlich durch das gekennzeichnet, was im kennzeichnenden Teil des beiliegenden Anspruchs 7 vorgestellt ist. Des Weiteren ist die Funkübertragungsvorrichtung gemäß der vorliegenden Erfindung durch das gekennzeichnet, was im kennzeichnenden Teil des beiliegenden Anspruchs 8 vorgestellt ist.
  • Die vorliegende Erfindung bietet signifikante Vorteile gegenüber den dem Stand der Technik entsprechenden Verfahren und Vorrichtungen zur Spracherkennung. Beim erfindungsgemäßen Verfahren wird, wenn die Erkennung nicht sicher ist, die Zeit zum Interpretieren des Befehlsworts verlängert, während der der Benutzer die Möglichkeit hat, das gegebene Befehlswort zu wiederholen. Gemäß der Erfindung ist es zusätzlich möglich, bei Bedarf die Wiederholung des Befehlswortes effektiv zu benutzen, indem ein Vergleich mit dem zuvor vom Benutzer geäußerten Befehlswort vorgenommen wird, wobei dieser Vergleich die Erkennung des Befehlswortes wesentlich verbessert. Außerdem wird die Wahrscheinlichkeit von Situationen, in denen ein Befehlswort erkannt wird, obwohl der Benutzt kein Befehlswort geäußert hat, wesentlich reduziert. Das erfindungsgemäße Verfahren macht es möglich, Konfidenzgrade zu benutzen, bei denen die Anzahl der fehlerhaft erkannten Befehlswörter minimal ist. Benutzer, deren Sprachbefehle bei Lösungen gemäß dem Stand der Technik nicht leicht akzeptiert werden, können durch Wiederholen des Befehlswortes gemäß der vorliegenden Erfindung die Wahrscheinlichkeit der Akzeptanz der geäußerten Sprachbefehle wesentlich erhöhen.
  • Im Folgenden soll die Erfindung unter Bezugnahme auf die beiliegenden Figuren genauer beschrieben werden.
  • 1 zeigt Erkennungsschwellenwerte, die in dem Verfahren gemäß einer vorteilhaften Ausführungsform der Erfindung benutzt werden.
  • 2 zeigt ein Verfahren gemäß einer vorteilhaften Ausführungsform der Erfindung, vorgestellt in einer Zustandsmaschinendarstellung,
  • 3 illustriert das zeitliche Verzerren von Merkmalvektoren,
  • 4 illustriert den Vergleich von zwei Wörtern in einem Histogramm und
  • 5 illustriert eine Funkübertragungsvorrichtung gemäß einer vorteilhaften Ausführungsform der Erfindung in einem vereinfachten schematischen Diagramm.
  • Im Folgenden soll die Funktion der Spracherkennungsvorrichtung gemäß einer vorteilhaften Ausführungsform der Erfindung beschrieben werden. In dem Verfahren wird ein vom Benutzer geäußertes Befehlswort erkannt, indem in bekannter Weise die Wahrscheinlichkeit dafür berechnet wird, wie ähnlich das geäußerte Wort verschiedenen Befehlswörtern ist. Anhand dieser für die Befehlswörter berechneten Wahrscheinlichkeiten wird das Befehlswort mit der höchsten Wahrscheinlichkeit vorteilhaft gewählt. Anschließend wird die Wahrscheinlichkeit, die für das erkannte Wort berechnet wurde, mit der Wahrscheinlichkeit verglichen, die von einem Hintergrundgeräusch-Modell erzeugt wird. Das Hintergrundgeräusch-Modell repräsentiert allgemeine Hintergrundgeräusche sowie alle Wörter, die keine Befehlswörter sind. Auf diese Weise wird hier eine Wahrscheinlichkeit für die Möglichkeit berechnet, dass das erkannte Wort nur ein Hintergrundgeräusch oder ein anderes Wort als das Befehlswort ist. Anhand dieses Vergleichs wird ein erster Konfidenzwert erzielt, um anzuzeigen, wie sicher das Wort erkannt wurde. 1 zeigt die Bestimmung der Konfidenz dieser Erkennung durch Benutzen von Schwellenwerten und dem Konfidenzwert. Bei dem Verfahren gemäß einer vorteilhaften Ausführungsform der Erfindung wird ein erster Schwellenwert bestimmt, der in der beiliegenden Figur mit dem Bezugszeichen Y versehen ist. Es handelt sich um den für den Schwellenwert festgelegten Grenzwert, bei dem die Erkennung sicher ist (der Konfidenzwert ist höher als oder gleich dem ersten Schwellenwert Y). Bei dem Verfahren gemäß einer zweiten vorteilhaften Ausführungsform der Erfindung wird außerdem ein zweiter Schwellenwert bestimmt, der in der beiliegenden Figur mit dem Bezugszeichen A versehen ist. Er zeigt an, ob die Erkennung unsicher war (der Konfidenzwert ist höher als oder gleich dem zweiten Schwellenwert A, aber kleiner als der erste Schwellenwert Y), oder sehr unsicher (der Schwellenwert ist kleiner als der zweite Schwellenwert A).
  • Bei der Zustandsmaschinendarstellung aus 2 repräsentiert Zustand 1 die Erkennung eines Befehlswortes. Bei diesem Schritt der Erkennung des Befehlswortes werden Wahrscheinlichkeiten anhand des Befehlswortes bestimmt, das vom Benutzer für verschiedene Befehlswörter im Vokabular der Spracherkennungsvorrichtung geäußert wurde. Das Befehlswort, das dem vom Benutzer geäußerten Sprachbefehl entspricht, wird gewählt, und ist vorläufig das Befehlswort mit der höchsten Wahrscheinlichkeit. Für das gewählte Befehlswort wird der Konfidenzwert bestimmt und mit dem ersten Schwellenwert Y und dem zweiten Schwellenwert A verglichen, um herzuleiten, ob die Erkennung sicher, unsicher oder sehr unsicher war. Wenn der Konfidenzwert höher oder gleich dem ersten Schwellenwert 6 ist, geht die Operation zu Zustand 4 über, um die Erkennung zu akzeptieren. Wenn der Konfidenzwert unter dem zweiten Schwellenwert A bleibt, geht die Operation zu Zustand 5 über, um die Erkennung des Befehlswortes zu beenden, d. h. die Erkennung zurückzuweisen. Wenn der Konfidenzwert höher oder gleich dem zweiten Schwellenwert A, aber kleiner als der erste Schwellenwert Y war, war die Erkennung unsicher, und die Operation geht zu Zustand 2 über. So wird das Fenster gedehnt, d. h. der Benutzer hat mehr Zeit, das geäußerte Befehlswort zu wiederholen. Die Operation kann auch wegen eines falschen Wortes zu diesem Zustand 2 übergehen, z. B. weil ein Wort vom Benutzer sehr undeutlich geäußert wurde oder wegen falscher Erkennung aufgrund von Hintergrundgeräusch. In diesem Zustand 2 wird für die Dauer des gedehnten Zeitfensters auf die Wiederholung des Befehlswortes gewartet. Wenn der Benutzer das Befehlswort innerhalb dieses Zeitfensters wiederholt, wird das Befehlswort erkannt, und der Konfidenzwert wird berechnet, wie oben bezüglich Zustand 1 dargestellt. Wenn zu diesem Zeitpunkt der berechnete Konfidenzwert anzeigt, dass das Befehlswort, das bei diesem zweiten Schritt geäußert wurde, mit ausreichender Sicherheit erkannt wurde, geht die Operation zu Zustand 4 über, und die Erkennung wird akzeptiert. In einer Situation beispielsweise, in der der Benutzer im Zustand 1 etwas Undeutliches gesagt hat, aber in Zustand 2 das richtige Befehlswort geäußert hat, kann die Erkennung allein auf Basis des in Zustand 2 geäußerten Befehlswortes erfolgen. So erfolgt kein Vergleich zwischen dem ersten und dem zweiten geäußerten Befehlswort, denn dies könnte leicht zu einer weniger sicheren Erkennung führen.
  • Wenn allerdings das Befehlswort in Zustand 2 nicht mit ausreichender Sicherheit erkannt werden kann, geht die Operation zu Zustand 3 über, um die wiederholten Befehlsworte zu vergleichen. Wenn der Vergleich anzeigt, dass das vom Benutzer wiederholte Befehlswort dem Befehlswort, das der Benutzer zuerst geäußert hatte, sehr ähnlich ist, d. h. wahrscheinlich dasselbe Wort zweimal hintereinander geäußert wurde, wird die Erkennung akzeptiert, und die Operation geht zu Zustand 4 über. Wenn allerdings der Vergleich anzeigt, dass der Benutzer wahrscheinlich nicht dasselbe Wort zweimal gesagt hat, geht die Operation zu Zustand 5 über, und die Erkennung wird zurückgewiesen.
  • Wenn also bei dem erfindungsgemäßen Verfahren der erste Schritt eine unsichere Erkennung anzeigt, erfolgt eine zweite Erkennung, und zwar vorzugsweise nach einem als solchen bekannten Verfahren. Wenn der zweite Schritt keine ausreichende Sicherheit der Erkennung leistet, wird ein Vergleich der Wiederholungen vorteilhaft wie folgt ausgeführt. In Zustand 1 werden Merkmalvektoren, die von dem vom Benutzer geäußerten Befehlswort gebildet wurden, in einem Sprachantwortspeicher 4 gespeichert (5). Solche Merkmalvektoren werden von der Sprache typischerweise in Intervallen von 10 ms erfasst, d. h. etwa 100 Merkmalvektoren pro Sekunde. In Zustand 2 werden ebenfalls Merkmalvektoren im Sprachantwortspeicher 4 gespeichert, die während dieses Zustands geäußert wurden. Anschließend geht die Erkennung in den Zustand 3 über, in dem diese gespeicherten Merkmalvektoren vorzugsweise durch dynamische Zeitverzerrung verglichen werden. 3 stellt die dynamische Zeitverzerrung von Merkmalvektoren in vereinfachter Weise dar. Oben in der Figur sind Merkmalvektoren dargestellt, die von der ersten Erkennung erzeugt wurden und mit dem Bezugszeichen V1 versehen sind, und unten in der Figur sind dementsprechend Merkmalvektoren dargestellt, die von der zweiten Erkennung erzeugt wurden und die mit dem Bezugszeichen V2 versehen sind. In diesem Beispiel war das erste Wort länger als das zweite Wort, d. h. der Benutzer hat das Wort beim zweiten Schritt schneller gesagt, oder die betreffenden Wörter sind verschieden. Für die Merkmalvektoren des kürzeren Wortes, in diesem Fall des zweiten Wortes, werden ein oder mehr Merkmalvektoren des längeren Worts gefunden, indem die Merkmalvektoren der zwei Wörter durch Zeitverzerrung so verarbeitet werden, dass sie einander optimal entsprechen. Für dieses Beispiel sind diese Ergebnisse der Zeitverzerrung durch gestrichelte Linien in 3 dargestellt. Die Distanz zwischen den Wörtern wird berechnet, z. B. als ein euklidischer Abstand zwischen den verzerrten Merkmalsvektoren. Wenn der berechnete Abstand klein ist, kann angenommen werden, dass die betroffenen Wörter verschieden sind. 4 zeigt ein Beispiel dieses Vergleichs als Histogramm. Das Histogramm umfasst zwei verschiedene Vergleiche: Den Vergleich zwischen zwei identischen Wörtern (in durchgehenden Linien dargestellt) und einen Vergleich zwischen zwei verschiedenen Wörtern (in gestrichelten Linien dargestellt). Die horizontale Achse ist der logarithmische Wert des berechneten Abstands zwischen den Merkmalsvektoren, wobei ein kleinerer Wert einen kleineren Abstand anzeigt, und die vertikale Achse ist der Histogrammwert. Je kleiner also insbesondere die Histogrammwerte sind, d. h. der berechnete Abstand sehr klein ist, desto höher ist die Wahrscheinlichkeit, dass die verglichenen Wörter identisch sind.
  • 5 zeigt eine Funkübertragungsvorrichtung 1, wie z. B. ein GSM-Mobiltelefon, das durch Sprachbefehle gesteuert wird, gemäß einer vorteilhaften Ausführungsform der Erfindung. Nur die zum Verstehen der Erfindung nötigsten Blöcke sind in 5 dargestellt. Eine Sprachsteuerungseinheit 2 umfasst vorzugsweise ein Spracherkennungsmittel 3, einen Sprachantwortspeicher 4, einen Prozessor 5, einen Lesespeicher (ROM) 6, einen RAM-Speicher 7, einen Sprachgenerator 8 und ein Schnittstellenmittel 9. Ein Befehlswort kann eingegeben werden, z. B. über ein Mikrofon 10a in der Funkübertragungsvorrichtung 1, oder über ein Mikrofon 10b in einer Freisprechvorrichtung 17. Anweisungen und Informationen an den Benutzer können beispielsweise mit dem Sprachgenerator 8 entweder über einen Lautsprecher 11a, der in die Funkübertragungsvorrichtung 1 eingebaut ist, oder über einen Lautsprecher 11b in der Freisprechvorrichtung 17 erzeugt werden. Die erfindungsgemäße Sprachsteuerungseinheit 2 kann auch ohne den Sprachgenerator 8 benutzt werden, wobei Anweisungen und Informationen an den Benutzer vorzugsweise im Textformat auf einem Anzeigemittel 13 in der Telekommunikationsvorrichtung übertragen werden. Eine weitere Möglichkeit ist, die Anweisungen und Informationen sowohl als Audio- als auch als Textnachricht an den Benutzer zu übermitteln. Der Sprachantwortspeicher 4 oder ein Teil desselben kann auch in Verbindung mit dem RAM-Speicher 7 benutzt werden, oder er kann in einem möglichen allgemeinen Speicherplatz der Funkübertragungsvorrichtung eingebaut sein.
  • Im Folgenden soll der Betrieb der erfindungsgemäßen Funkübertragungsvorrichtung weiter beschrieben werden. Damit die Sprachsteuerung funktionieren kann, müssen der Sprachsteuerungseinheit 2 normalerweise alle zu benutzenden Befehlswörter beigebracht werden. Sie wurden ihr vorzugsweise zum Zeitpunkt der Herstellung der Vorrichtung beigebracht, z. B. indem Muster, die den Befehlswörtern entsprechen, im Sprachantwortspeicher 4 gespeichert werden.
  • Beim Schritt der Erkennung eines Befehlswortes wird das vom Benutzer geäußerte Befehlswort von einem Mikrofon 10a, 10b in ein elektrisches Signal umgewandelt und an die Sprachsteuerungseinheit 2 übertragen. In der Sprachsteuerungseinheit 2 wandelt das Spracherkennungsmittel 3 das geäußerte Befehlswort in Merkmalvektoren um die im Sprachantwortspeicher 4 gespeichert sind. Die Sprachsteuerungseinheit 2 berechnet außerdem für jedes Befehlswort im Vokabular der Sprachsteuerungseinheit 2 eine Wahrscheinlichkeit, um anzuzeigen, mit welcher Wahrscheinlichkeit das vom Benutzer geäußerte Befehlswort ein bestimmtes Befehlswort im Vokabular ist. Danach prüft die Sprachsteuerungseinheit 2, welches Befehlswort im Vokabular den höchsten Wahrscheinlichkeitswert aufweist, wobei dieses Wort vorläufig als ein erkanntes Befehlswort ausgewählt wird. Die berechnete Wahrscheinlichkeit für dieses Wort wird weiter mit einer Wahrscheinlichkeit verglichen, die für das Hintergrundgeräuschmuster erzeugt wird, um einen Konfidenzwert zu bestimmen. Dieser Konfidenzwert wird von der Sprachsteuerungseinheit 2 mit dem ersten Schwellenwert Y verglichen, der im Speicher der Sprachsteuerungseinheit gespeichert ist, und zwar vorzugsweise in einem Lesespeicher 6. Wenn der Vergleich ergibt, dass der Konfidenzwert höher als oder gleich dem ersten Schwellenwert Y ist, schließt die Sprachsteuerungseinheit 2 daraus, dass das vom Benutzer geäußerte Befehlswort das Wort mit dem höchsten Wahrscheinlichkeitswert war. Die Sprachsteuerungseinheit 2 wandelt dieses Befehlswort in ein entsprechendes Steuerungssignal um, z. B. das Signal zum Drücken des Knopfes, der dem Befehlswort entspricht, welches über die Schnittstelle 9 an Steuerblock 16 der Funkübertragungsvorrichtung usw. übertragen wird. Der Steuerblock 16 interpretiert den Befehl und führt ihn entsprechend aus, in einer per se bekannten Art und weise. Beispielsweise kann der Benutzer eine gewünschte Telefonnummer durch Sagen derselben oder durch Drücken der entsprechenden Knöpfe eingeben.
  • Falls der oben beschriebene Vergleich ergab, dass der Konfidenzwert niedriger als der erste Schwellenwert Y ist, erfolgt ein zweiter Vergleich mit dem zweiten Schwellenwert A. Wenn der Vergleich ergibt, dass der Konfidenzwert größer als oder gleich dem zweiten Schwellenwert A ist, dehnt die Sprachsteuerungseinheit 2 die Frist aus, die für das Erkennen des Befehlswortes festgelegt ist, und wartet, ob der Benutzer das Befehlswort noch einmal äußert. Wenn die Sprachsteuerungseinheit 2 feststellt, dass der Benutzer innerhalb der Frist einen Sprachbefehl äußert, zieht die Sprachsteuerungseinheit alle oben bei der Beschreibung der vorteilhaften Ausführungsform der Erfindung vorgestellten Messwerte hinzu, d. h. sie bildet die Merkmalvektoren und speichert sie in Sprachantwortspeicher 4 und berechnet die Wahrscheinlichkeiten und einen neuen Konfidenzwert. Als nächstes erfolgt ein neuer Vergleich zwischen dem Konfidenzwert und dem ersten Schwellenwert Y. Wenn der Konfidenzwert größer als oder gleich dem ersten Schwellenwert Y ist, schließt die Sprachsteuerungseinheit 2 daraus, dass der Sprachbefehl richtig erkannt wurde, wobei die Sprachsteuerungseinheit 2 den Sprachbefehl in ein entsprechendes Steuerungssignal umwandelt und dieses an den Steuerblock 16 überträgt. Wenn allerdings der Konfidenzwert niedriger ist als der erste Schwellenwert Y, nimmt die Sprachsteuerungseinheit 2 einen Vergleich zwischen den Merkmalvektoren des ersten und des zweiten Wortes vor, das geäußert und im Sprachantwortspeicher 4 gespeichert wurde. Dieser Vergleich umfasst zunächst die Zeitverzerrung der Merkmalvektoren und dann die Berechnung des Abstands zwischen den Wörtern, wie oben in Bezug auf die Beschreibung des Verfahrens beschrieben wurde. Auf Basis dieser berechneten Abstände leitet die Sprachsteuerungseinheit 2 her, ob die vom Benutzer geäußerten Wörter identisch oder verschieden waren. Wenn es verschiedene Wörter waren, hat die Sprachsteuerungseinheit 2 das Befehlswort nicht erkannt und bildet auch kein Steuerungssignal. Wenn die Befehlswörter wahrscheinlich identisch waren, wandelt die Sprachsteuerungseinheit 2 das Befehlswort in das entsprechende Steuerungssignal um.
  • Falls das erste Befehlswort nicht mit ausreichender Sicherheit erkannt wird und der Benutzer das Befehlswort nicht innerhalb der Frist wiederholt, wird das Befehlswort nicht akzeptiert. Auch in diesem Fall wird kein Steuerungssignal an Steuerblock 16 übertragen.
  • Um die Benutzung der Funkübertragungsvorrichtung 1 in solchen noch praktischer zu machen, in denen die erste Erkennung des Befehlswortes keine ausreichend zuverlässige Erkennung leisten konnte, kann der Benutzer vom Versagen der Erkennung der ersten Stufe informiert und gebeten werden, das Befehlswort noch einmal zu äußern. Die Funkübertragungsvorrichtung 1 bildet z. B. eine Audionachricht mit einem Sprachgenerator 8 und/oder eine optische Nachricht mit einem Anzeigemittel 13. Die Funkübertragungsvorrichtung 1 kann den Benutzer mit einem Audio- und/oder optischen Signal auch in solchen Situationen informieren, in denen die Erkennung erfolgreich war. So bleibt es für den Benutzer nicht unklar, ob die Erkennung erfolgreich war oder nicht. Dies ist besonders unter geräuschvollen Bedingungen nützlich.
  • Das Verzerren von Merkmalsvektoren und das Berechnen von Abständen zwischen Wörtern entspricht als solches dem Stand der Technik, weshalb diese Verfahren hier nicht genauer offenbart sind. Es ist selbstverständlich, dass die vorliegende Erfindung nicht auf die oben vorgestellten Ausführungsformen beschränkt ist, sondern innerhalb des Umfangs der beiliegenden Ansprüche modifiziert werden kann.

Claims (8)

  1. Verfahren zum Erkennen von Sprachbefehlen durch Verwenden eines Zeitfensters, das bei Bedarf dehnbar ist, bei dem eine Gruppe von Befehlswörtern, die mit Sprachbefehlen wählbar sind, definiert wird, ein Zeitfenster definiert wird, in dem die Erkennung des Sprachbefehls durchgeführt wird, und ein erster Erkennungsschritt ausgeführt wird, in dem das Erkennungsergebnis des ersten Erkennungsschritts gewählt wird, dadurch gekennzeichnet, dass bei dem Verfahren weiterhin: a) ein erster Konfidenzwert für das Erkennungsergebnis des ersten Erkennungsschritts bestimmt wird; b) ein erster Schwellenwert (Y) bestimmt wird; c) der erste Konfidenzwert mit dem ersten Schwellenwert (Y) verglichen wird; d) das Erkennungsergebnis des ersten Erkennungsschritts als Erkennungsergebnis des Sprachbefehls gewählt wird, wenn der erste Konfidenzwert größer als der erste Schwellenwert (Y) oder gleich diesem ist; e) ein zweiter Erkennungsschritt für den Sprachbefehl ausgeführt wird, wenn der erste Konfidenzwert kleiner als der ersten Schwellenwert (Y) ist, in dem f) das Zeitfenster gedehnt wird; g) die Erkennung des wiederholten Sprachbefehls durchgeführt wird; h) ein zweiter Konfidenzwert für das Erkennungsergebnis des zweiten Erkennungsschritts bestimmt wird; i) der zweite Konfidenzwert mit dem Schwellenwert (Y) verglichen wird; j) das im zweiten Schritt gewählte Befehlswort als Erkennungsergebnis für den Sprachbefehl gewählt wird, wenn der zweite Konfidenzwert größer als der erste Schwellenwert (Y) oder gleich diesem ist; k) ein Vergleichsschritt ausgeführt wird, wenn der zweite Konfidenzwert kleiner als der erste Schwellenwert (Y) ist, in dem l) das erste und das zweite Erkennungsergebnis verglichen werden, um zu ermitteln, mit welcher Wahrscheinlichkeit sie im Wesentlichen gleich sind, wobei das im zweiten Schritt gewählte Befehlswort als Erkennungsergebnis für den Sprachbefehl gewählt wird, wenn die Wahrscheinlichkeit einen vorgegebenen Wert überschreitet.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in den Erkennungsschritten eine Wahrscheinlichkeit für einen oder mehrere Sprachbefehle bestimmt wird, mit der der von dem Benutzer geäußerte Sprachbefehl dem Befehlswort entspricht, wobei das Befehlswort mit der größten bestimmten Wahrscheinlichkeit als Erkennungsergebnis der Erkennungsschritte gewählt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei dem Verfahren ein zusätzlicher zweiter Schwellenwert (A) bestimmt wird, wobei die Schritte e) bis k) nur ausgeführt werden, wenn der erste Konfidenzwert größer als der zweite Schwellenwert (A) ist.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Vergleichsschritt k) nur ausgeführt wird, wenn der zweite Konfidenzwert größer als der zweite Schwellenwert (A) ist.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zum Bestimmen des ersten Konfidenzwerts eine Wahrscheinlichkeit bestimmt wird, dass der erste Sprachbefehl ein Hintergrundgeräusch ist, wobei der erste Konfidenzwert aufgrund der Wahrscheinlichkeit, die dafür bestimmt wird, dass das Befehlswort als Erkennungsergebnis des ersten Erkennungsschritts gewählt wird, und der Hintergrundgeräusch-Wahrscheinlichkeit gebildet wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zum Bestimmen des zweiten Konfidenzwerts eine Wahrscheinlichkeit bestimmt wird, dass der zweite Sprachbefehl ein Hintergrundgeräusch ist, wobei der zweite Konfidenzwert aufgrund der Wahrscheinlichkeit, die dafür bestimmt wird, dass das Befehlswort als Erkennungsergebnis des zweiten Erkennungsschritts gewählt wird, und der Hintergrundgeräusch-Wahrscheinlichkeit gebildet wird.
  7. Spracherkennungsvorrichtung, bei der ein Vokabular wählbarer Befehlswörter definiert wird, wobei die Vorrichtung Mittel (5) zum Messen der zur Erkennung benötigten Zeit und zum Vergleichen dieser Zeit mit einem vorgegebenen Zeitfenster und Mittel (3, 4, 5) zum Wählen eines ersten Erkennungsergebnisses aufweist, dadurch gekennzeichnet, dass die Spracherkennungsvorrichtung weiterhin Folgendes aufweist: – Mittel (3, 5) zum Berechnen eines ersten Konfidenzwerts für das erste Erkennungsergebnis; – Mittel (5) zum Vergleichen des ersten Konfidenzwerts mit einem vorgegebenen ersten Schwellenwert (Y), wobei das Erkennungsergebnis des ersten Erkennungsschritts so angeordnet wird, dass es als Erkennungsergebnis des Sprachbefehls gewählt wird, wenn der erste Konfidenzwert größer als der erste Schwellenwert (Y) oder gleich diesem ist; und – Mittel (5) zum Ausführen des Erkennungsschritts für einen zweiten Sprachbefehl, wenn der erste Konfidenzwert kleiner als der erste Schwellenwert (Y) ist, wobei die Mittel zum Ausführen des Erkennungsschritts für den zweiten Sprachbefehl Folgendes aufweisen: – Mittel (5) zum Dehnen des Zeitfensters; – Mittel (3, 4, 5) zum Wählen des Erkennungsergebnisses des zweiten Erkennungsschritts; – Mittel (5) zum Berechnen eines zweiten Konfidenzwerts für das zweite Erkennungsergebnis; – Mittel (5) zum Vergleichen des zweiten Konfidenzwerts mit dem vorgegebenen ersten Schwellenwert (Y), wobei das Erkennungsergebnis des zweiten Erkennungsschritts so angeordnet wird, dass es als Erkennungsergebnis des Sprachbefehls gewählt wird, wenn der zweite Konfidenzwert größer als der erste Schwellenwert (Y) oder gleich diesem ist; und – Mittel (3, 4, 5) zum Ausführen eines Vergleichsschritts zum Vergleichen des ersten und des zweiten Erkennungsergebnisses, um zu ermitteln, mit welcher Wahrscheinlichkeit sie im Wesentlichen gleich sind, wobei das im zweiten Erkennungsschritt gewählte Befehlswort so angeordnet wird, dass es als Erkennungsergebnis für den Sprachbefehl gewählt wird, wenn die Wahrscheinlichkeit einen vorgegebenen Wert überschreitet, wobei der Vergleichsschritt so eingerichtet ist, dass er ausgeführt wird, wenn der zweite Konfidenzwert kleiner als der erste Schwellenwert (Y) ist.
  8. Funkübertragungsvorrichtung mit Mitteln zum Erkennen von Sprachbefehlen, bei der ein Vokabular wählbarer Befehlswörter definiert wird, wobei die Mittel zum Erkennen von Sprachbefehlen Mittel (5) zum Messen der zur Erkennung benötigten Zeit und zum Vergleichen dieser Zeit mit einem vorgegebenen Zeitfenster und Mittel (3, 4, 5) zum Wählen eines ersten Erkennungsergebnisses aufweisen, dadurch gekennzeichnet, dass die Mittel zum Erkennen von Sprachbefehlen weiterhin Folgendes aufweisen: – Mittel (3, 5) zum Berechnen eines ersten Konfidenzwerts für das erste Erkennungsergebnis; – Mittel (5) zum Vergleichen des ersten Konfidenzwerts mit einem vorgegebenen ersten Schwellenwert (Y), wobei das Erkennungsergebnis des ersten Erkennungsschritts so angeordnet wird, dass es als Erkennungsergebnis des Sprachbefehls gewählt wird, wenn der erste Konfidenzwert größer als der erste Schwellenwert (Y) oder gleich diesem ist; und – Mittel (5) zum Ausführen des Erkennungsschritts für einen zweiten Sprachbefehl, wenn der erste Konfidenzwert kleiner als der erste Schwellenwert (Y) ist, wobei die Mittel zum Ausführen des Erkennungsschritts für den zweiten Sprachbefehl Folgendes aufweisen: – Mittel (5) zum Dehnen des Zeitfensters; – Mittel (3, 4, 5) zum Wählen des Erkennungsergebnisses des zweiten Erkennungsschritts; – Mittel (5) zum Berechnen eines zweiten Konfidenzwerts für das zweite Erkennungsergebnis; – Mittel (5) zum Vergleichen des zweiten Konfidenzwerts mit dem vorgegebenen ersten Schwellenwert (Y), wobei das Erkennungsergebnis des zweiten Erkennungsschritts so angeordnet wird, dass es als Erkennungsergebnis des Sprachbefehls gewählt wird, wenn der zweite Konfidenzwert größer als der erste Schwellenwert (Y) oder gleich diesem ist; und – Mittel (3, 4, 5) zum Ausführen eines Vergleichsschritts zum Vergleichen des ersten und des zweiten Erkennungsergebnisses, um zu ermitteln, mit welcher Wahrscheinlichkeit sie im Wesentlichen gleich sind, wobei das im zweiten Erkennungsschritt gewählte Befehlswort so angeordnet wird, dass es als Erkennungsergebnis für den Sprachbefehl gewählt wird, wenn die Wahrscheinlichkeit einen vorgegebenen Wert überschreitet, wobei der Vergleichsschritt so eingerichtet ist, dass er ausgeführt wird, wenn der zweite Konfidenzwert kleiner als der erste Schwellenwert (Y) ist.
DE60024506T 1999-01-18 2000-01-18 Verfahren zur mehrstufigen Spracherkennung und Funkübertragungsvorrichtung zur Steuerung durch Sprache Expired - Lifetime DE60024506T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI990077 1999-01-18
FI990077A FI116991B (fi) 1999-01-18 1999-01-18 Menetelmä puheen tunnistamisessa, puheentunnistuslaite ja puheella ohjattava langaton viestin

Publications (2)

Publication Number Publication Date
DE60024506D1 DE60024506D1 (de) 2006-01-12
DE60024506T2 true DE60024506T2 (de) 2006-07-27

Family

ID=8553377

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60024506T Expired - Lifetime DE60024506T2 (de) 1999-01-18 2000-01-18 Verfahren zur mehrstufigen Spracherkennung und Funkübertragungsvorrichtung zur Steuerung durch Sprache

Country Status (4)

Country Link
US (1) US6697782B1 (de)
EP (1) EP1020847B1 (de)
DE (1) DE60024506T2 (de)
FI (1) FI116991B (de)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132287A (ja) * 2000-10-20 2002-05-09 Canon Inc 音声収録方法および音声収録装置および記憶媒体
US7158935B1 (en) * 2000-11-15 2007-01-02 At&T Corp. Method and system for predicting problematic situations in a automated dialog
US7194409B2 (en) * 2000-11-30 2007-03-20 Bruce Balentine Method and system for preventing error amplification in natural language dialogues
US20020107695A1 (en) * 2001-02-08 2002-08-08 Roth Daniel L. Feedback for unrecognized speech
US6985859B2 (en) 2001-03-28 2006-01-10 Matsushita Electric Industrial Co., Ltd. Robust word-spotting system using an intelligibility criterion for reliable keyword detection under adverse and unknown noisy environments
EP1262954A1 (de) * 2001-05-30 2002-12-04 Telefonaktiebolaget L M Ericsson (Publ) Verfahren und Vorrichtung zur mündlichen Eingabe von Ziffern oder Befehlen
US6792408B2 (en) * 2001-06-12 2004-09-14 Dell Products L.P. Interactive command recognition enhancement system and method
AUPR578801A0 (en) * 2001-06-19 2001-07-12 Syrinx Speech Systems Pty Limited Language assisted recognition module
EP1442451B1 (de) * 2001-10-31 2006-05-03 Koninklijke Philips Electronics N.V. Verfahren und vorrichtung zur wandlung gesprochener in geschriebene texte und korrektur der erkannten texte
US7295982B1 (en) * 2001-11-19 2007-11-13 At&T Corp. System and method for automatic verification of the understandability of speech
JP3826032B2 (ja) * 2001-12-28 2006-09-27 株式会社東芝 音声認識装置、音声認識方法及び音声認識プログラム
US7487091B2 (en) * 2002-05-10 2009-02-03 Asahi Kasei Kabushiki Kaisha Speech recognition device for recognizing a word sequence using a switching speech model network
US7788097B2 (en) * 2002-06-06 2010-08-31 Nuance Communications, Inc. Multiple sound fragments processing and load balancing
US20040162116A1 (en) * 2003-02-14 2004-08-19 Lucent Technologies Inc. User programmable voice dialing for mobile handset
DE10341305A1 (de) * 2003-09-05 2005-03-31 Daimlerchrysler Ag Intelligente Nutzeradaption bei Dialogsystemen
TWI225638B (en) * 2003-09-26 2004-12-21 Delta Electronics Inc Speech recognition method
EP1691345A4 (de) * 2003-12-05 2008-08-13 Kenwood Corp Einrichtungssteuereinrichtung, spracherkennungseinrichtung, agent-einrichtung, datenstruktur und einrichtungs-steuerverfahren
US20060200878A1 (en) * 2004-12-21 2006-09-07 Linda Lutfiyya Recombinant DNA constructs and methods for controlling gene expression
US20060149544A1 (en) * 2005-01-05 2006-07-06 At&T Corp. Error prediction in spoken dialog systems
JP4298672B2 (ja) * 2005-04-11 2009-07-22 キヤノン株式会社 混合分布hmmの状態の出力確率計算方法および装置
US7454352B2 (en) * 2005-05-20 2008-11-18 General Motors Corporation Method and system for eliminating redundant voice recognition feedback
JP4680691B2 (ja) * 2005-06-15 2011-05-11 富士通株式会社 対話システム
CA2618626C (en) * 2005-08-09 2016-10-18 Stephen S. Burns A voice controlled wireless communication device system
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP4845118B2 (ja) * 2006-11-20 2011-12-28 富士通株式会社 音声認識装置、音声認識方法、および、音声認識プログラム
US7881933B2 (en) * 2007-03-23 2011-02-01 Verizon Patent And Licensing Inc. Age determination using speech
US8140330B2 (en) * 2008-06-13 2012-03-20 Robert Bosch Gmbh System and method for detecting repeated patterns in dialog systems
US20120224711A1 (en) * 2011-03-04 2012-09-06 Qualcomm Incorporated Method and apparatus for grouping client devices based on context similarity
US9570086B1 (en) * 2011-11-18 2017-02-14 Google Inc. Intelligently canceling user input
US9390708B1 (en) * 2013-05-28 2016-07-12 Amazon Technologies, Inc. Low latency and memory efficient keywork spotting
DE102014109122A1 (de) * 2013-07-12 2015-01-15 Gm Global Technology Operations, Llc Systeme und Verfahren für ergebnisbezogene Arbitrierung in Sprachdialogsystemen
US9715878B2 (en) * 2013-07-12 2017-07-25 GM Global Technology Operations LLC Systems and methods for result arbitration in spoken dialog systems
GB2518002B (en) * 2013-09-10 2017-03-29 Jaguar Land Rover Ltd Vehicle interface system
US9858920B2 (en) * 2014-06-30 2018-01-02 GM Global Technology Operations LLC Adaptation methods and systems for speech systems
EP3195314B1 (de) * 2014-09-11 2021-12-08 Cerence Operating Company Verfahren und vorrichtung für unüberwachtes aufwecken
US9335966B2 (en) 2014-09-11 2016-05-10 Nuance Communications, Inc. Methods and apparatus for unsupervised wakeup
US9354687B2 (en) 2014-09-11 2016-05-31 Nuance Communications, Inc. Methods and apparatus for unsupervised wakeup with time-correlated acoustic events
US9653075B1 (en) * 2015-11-06 2017-05-16 Google Inc. Voice commands across devices
JP2017123564A (ja) * 2016-01-07 2017-07-13 ソニー株式会社 制御装置、表示装置、方法及びプログラム
US20180061396A1 (en) * 2016-08-24 2018-03-01 Knowles Electronics, Llc Methods and systems for keyword detection using keyword repetitions
JP2018116206A (ja) * 2017-01-20 2018-07-26 アルパイン株式会社 音声認識装置、音声認識方法及び音声認識システム
US10410635B2 (en) * 2017-06-09 2019-09-10 Soundhound, Inc. Dual mode speech recognition
CN111833867B (zh) * 2020-06-08 2023-12-05 北京嘀嘀无限科技发展有限公司 语音指令识别方法、装置、可读存储介质和电子设备
CN112151033A (zh) * 2020-09-23 2020-12-29 苏州臻迪智能科技有限公司 一种无人机语音控制方法、装置、电子设备和存储介质
US11830486B2 (en) * 2020-10-13 2023-11-28 Google Llc Detecting near matches to a hotword or phrase
CN115132197B (zh) * 2022-05-27 2024-04-09 腾讯科技(深圳)有限公司 数据处理方法、装置、电子设备、程序产品及介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4811399A (en) * 1984-12-31 1989-03-07 Itt Defense Communications, A Division Of Itt Corporation Apparatus and method for automatic speech recognition
US4783803A (en) * 1985-11-12 1988-11-08 Dragon Systems, Inc. Speech recognition apparatus and method
US5794194A (en) * 1989-11-28 1998-08-11 Kabushiki Kaisha Toshiba Word spotting in a variable noise level environment
FI97919C (fi) 1992-06-05 1997-03-10 Nokia Mobile Phones Ltd Puheentunnistusmenetelmä ja -järjestelmä puheella ohjattavaa puhelinta varten
US5566272A (en) * 1993-10-27 1996-10-15 Lucent Technologies Inc. Automatic speech recognition (ASR) processing using confidence measures
TW323364B (de) * 1993-11-24 1997-12-21 At & T Corp
US6397180B1 (en) * 1996-05-22 2002-05-28 Qwest Communications International Inc. Method and system for performing speech recognition based on best-word scoring of repeated speech attempts
US6122613A (en) * 1997-01-30 2000-09-19 Dragon Systems, Inc. Speech recognition using multiple recognizers (selectively) applied to the same input sample
US6018711A (en) * 1998-04-21 2000-01-25 Nortel Networks Corporation Communication system user interface with animated representation of time remaining for input to recognizer

Also Published As

Publication number Publication date
EP1020847A2 (de) 2000-07-19
FI116991B (fi) 2006-04-28
EP1020847A3 (de) 2001-05-02
EP1020847B1 (de) 2005-12-07
FI990077A (fi) 2000-07-19
FI990077A0 (fi) 1999-01-18
DE60024506D1 (de) 2006-01-12
US6697782B1 (en) 2004-02-24

Similar Documents

Publication Publication Date Title
DE60024506T2 (de) Verfahren zur mehrstufigen Spracherkennung und Funkübertragungsvorrichtung zur Steuerung durch Sprache
DE69229816T2 (de) Einrichtung und Verfahren für Sprachmusteridentifizierung
DE60010106T2 (de) Verfahren und vorrichtung zum unterscheidenden training von akustischen modellen in einem spracherkennungssystem
DE69226796T2 (de) Zeitliche Dekorrelationsverfahren zur störsicheren Sprechererkennung
DE69707876T2 (de) Verfahren und vorrichtung fuer dynamisch eingestelltes training zur spracherkennung
DE69829187T2 (de) Halbüberwachte Sprecheradaptation
EP1256936B1 (de) Verfahren zum Training oder zur Adaption eines Spracherkenners
DE69324629T2 (de) Verfahren und Vorrichtung zur Spracherkennung
DE60213595T2 (de) Hintergrundlernen von sprecherstimmen
EP1466317B1 (de) Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
DE69032777T2 (de) Spracherkennung unter Anwendung von Stichwörtern und Nichtstichwörter-Modellierung
DE69317229T2 (de) Verfahren und System zur Verhinderung der Eingabe von verwirrend ähnlichen Sätzen in eine Wörterliste eines Spracherkennungssystems
EP3224831B1 (de) Kraftfahrzeug-bedienvorrichtung mit korrekturstrategie für spracherkennung
DE69031284T2 (de) Verfahren und Einrichtung zur Spracherkennung
DE69323841T2 (de) Klassifikation bei Spracherkennung von isolierten Wörtern in Schlüsselwörter und Nicht-Schlüsselwörter
DE10134908B4 (de) Spracherkennungsvorrichtung und Verfahren, welche zwei gegenteilige Wörter verwenden
DE69726235T2 (de) Verfahren und Vorrichtung zur Spracherkennung
DE69614789T2 (de) Vom Anwender auswählbare mehrfache Schwellenwertkriterien für Spracherkennung
DE60305568T2 (de) Schlüsselworterkennung in einem Sprachsignal
DE69607913T2 (de) Verfahren und vorrichtung zur spracherkennung auf der basis neuer wortmodelle
DE60004331T2 (de) Sprecher-erkennung
DE60212725T2 (de) Verfahren zur automatischen spracherkennung
EP0994461A2 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
DE60204504T2 (de) Schlüsselworterkennung in einem verrauschten Signal
DE20004416U1 (de) Spracherkennungsvorrichtung unter Verwendung mehrerer Merkmalsströme

Legal Events

Date Code Title Description
8364 No opposition during term of opposition