DE10334400A1 - Verfahren zur Spracherkennung und Kommunikationsgerät - Google Patents

Verfahren zur Spracherkennung und Kommunikationsgerät Download PDF

Info

Publication number
DE10334400A1
DE10334400A1 DE10334400A DE10334400A DE10334400A1 DE 10334400 A1 DE10334400 A1 DE 10334400A1 DE 10334400 A DE10334400 A DE 10334400A DE 10334400 A DE10334400 A DE 10334400A DE 10334400 A1 DE10334400 A1 DE 10334400A1
Authority
DE
Germany
Prior art keywords
speaker
feature vector
language
hmm
dependent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10334400A
Other languages
English (en)
Inventor
Tim Dr. Fingscheidt
Sorel Stan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10334400A priority Critical patent/DE10334400A1/de
Priority to EP04741506A priority patent/EP1649450A1/de
Priority to PCT/EP2004/050687 priority patent/WO2005013261A1/de
Priority to JP2006521560A priority patent/JP2007500367A/ja
Priority to US10/566,293 priority patent/US7630878B2/en
Priority to CNA2004800279419A priority patent/CN1856820A/zh
Publication of DE10334400A1 publication Critical patent/DE10334400A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

Verfahren zur sprecherabhängigen Spracherkennung mit folgenden Schritten: DOLLAR A Erfassen eines ein Sprachkommando umfassendes Sprachsignal (SS); DOLLAR A Zerlegung (F) des Sprachsignals (SS) in Zeitrahmen; DOLLAR A Charakterisieren des Sprachsignals in jedem erfassten zeitrahmen durch Bilden eines entsprechenden Merkmalsvektors (F_IS); DOLLAR A Bilden einer Merkmalsvektor-Sequenz aus einem oder mehreren Merkmalsvektoren (F_IS); DOLLAR A Abspeichern der Merkmalsventor-Sequenz; DOLLAR A Zurordnen der Merkmalsvektor-Sequenz zu einer Sequenz von Modellvektoren in einer Sprachressource (HMM-L), welche eine Vielzahl von Modellvektoren aufweist; DOLLAR A Abspeichern einer Zuordnungsinformation, welche die Zuordnung der Merkmalsvektro-Sequenz zu einer Sequenz von Modellvektoren angibt; DOLLAR A Erkennung des der Modellvektor-Sequenz zugeordneten Sprachkommandos.

Description

  • Die Erfindung betrifft ein Verfahren zur Spracherkennung sowie ein Kommunikationsgerät, insbesondere ein Mobiltelefon oder einen tragbaren Computer mit einer Spracherkennungseinrichtung.
  • Kommunikationsgeräte, wie beispielsweise Mobiltelefone oder tragbare Computer, erfuhren in den letzten Jahren eine fortschreitende Miniaturisierung, um den Gebrauch unterwegs zu erleichtern. Diese fortschreitende Miniaturisierung bringt neben der besseren Tragbarkeit andererseits erhebliche Probleme hinsichtlich des Komforts der Bedienung mit sich. Aufgrund der im Vergleich zu früheren Kommunikationsgeräten kleineren Gehäuseoberfläche ist es nicht mehr möglich, diese mit einer dem Funktionsumfang der Geräte entsprechenden Anzahl von Tasten zu versehen.
  • Da auch die zunehmende Mehrfachbelegung von Tasten dem Bedienkomfort nicht zuträglich ist, besitzen höherwertige Kommunikationsgeräte Möglichkeiten zur Sprachsteuerung. Dies setzt Spracherkennungsmöglichkeiten im Kommunikationsgerät voraus.
  • Manche Kommunikationsgeräte bieten daher eine sprecherunabhängige Sprachsteuerung an. Wie bei der bekannten Kurzwahl gibt der Benutzer bei einer Sprachsteuerung hierzu beispielsweise Kommandowörter wie "Wählen", "Telefonbuch", "Notruf", "Zurückweisen" oder "Annehmen" ein. Die mit diesen Kommandowörtern verbundene Telefonanwendung kann von einem Benutzer unmittelbar in der entsprechenden Weise benutzt werden, ohne dass er selbst dazu vorher das System mit diesem Wortschatz trainiert hat.
  • Für diese sprecherunabhängige Spracherkennung sind Sprachproben des Wortschatzes von vielen verschiedenen Personen, die einen repräsentativen Querschnitt des Benutzerkreises des Spracherkennungssystems bilden, in einer Datenbank gesammelt worden. Um sicherzustellen, dass ein repräsentativer Querschnitt vorliegt, wird bei der Auswahl der Personen auf unterschiedliche Dialekte, verschiedene Altersstufen und das Geschlecht geachtet. Mit Hilfe eines sogenannten "Clusterverfahrens", beispielsweise ein iterativer Algorithmus, werden ähnliche Sprachproben in Gruppen bzw. in sogenannten Clustern zusammengefasst. Den Gruppen bzw. den Clustern wird jeweils ein Phonem, ein Phonem-Cluster oder möglicherweise auch ein ganzes Wort zugeordnet. Damit sind innerhalb einer jeden Gruppe bzw. eines jeden Clusters mehrere typische Repräsentanten des Phonems, des Phonem-Clusters bzw. eines ganzen Wortes in Form von entsprechenden Modellvektoren vorhanden. Auf diese Weise wird durch wenige Repräsentanten die Sprechweise vieler verschiedener Personen erfasst.
  • So komfortabel für den Benutzer auch dieses werkseitig vorbestimmte Vokabular von Kommandowörtern und eventuell auch Namen ist, es ersetzt dennoch nicht eine benutzerspezifische Anpassung, beispielsweise das Einfügen neuer Kommandos. Dies ist insbesondere bei der Namenswahl, einer besonderen Sprachsteuerung, bei der bestimmte Nummern bei Sprechen des Namens angewählt werden. Höherwertige Geräte bieten daher zusätzlich zu einer sprecherunabhängigen Sprachsteuerung auch eine sprecherabhängige Sprachsteuerung an.
  • Ein sprecherabhängiges Spracherkennungssystem ist auf den jeweiligen Benutzer optimiert, da es vor der ersten Nutzung auf dessen Stimme trainiert werden muss. Man spricht hierbei von "Einsagen" bzw. "Say-in" oder Training. Es dient zur Erstellung einer Merkmalsvektors-Sequenz aus zumindest einem Merkmalsvektor.
  • Ein derartiges System, bei dem sprecherabhängige und sprecherunabhängige Spracherkennung kombiniert eingesetzt werden ist in 1 im Betrieb, d.h. bei der Spracherkennung, zu sehen. Im Rahmen einer Merkmalsextraktion FE wird ein Sprachsignal SS in Zeitrahmen bzw. Rahmen zeitlich unterteilt F (Framing) und einer Vorverarbeitung PP unterzogen. Ein Zeitrahmen kann mit einem Laut zusammenfallen oder mehrere Laute aufweisen. Ebenso kann ein Laut erst durch mehrere Zeitrahmen gebildet werden. Im Rahmen der Vorverarbeitung PP wird es einer Fouriertransformation unterzogen.
  • Ergebnis dieser Transformationen sowie weiterer Vorverarbeitungsschritte ist ein Merkmalsvektor F_IS, der einer Dimensionreduktion mittels einer linearen Diskriminanten-Analyse LDA-L (Linear Discriminant Analysis) unterzogen wird, so dass ein dimensionsreduzierter Merkmalsvektor F_S ensteht. Da die Dimensionsreduktion LDA-L sprachenspezifisch durchgeführt wird, ist auch der dadurch erstellte dimensionsreduzierte Merkmalsvektor sprachenspezifisch. Ausgehend von diesem dimensionsreduzierten Merkmalsvektor F_S wird eine sprecherunabhängige Spracherkennung HMM-SI auf Basis einer monolingualen Sprachressource HMM-L durchgeführt. Alternativ wird eine sprecherabhängige Spracherkennung SD ausgehend von dem Merkmalsvektor F_IS durchgeführt.
  • Für die sprecherunabhängige Spracherkennung HMM-SI werden die Abstände D zwischen dem betreffenden dimensionsreduzierten Merkmalsvektor F_S und den Modellvektoren, die in der Sprachressource HMM-L vorliegen, berechnet. Auf Basis dieser Abstandsberechnung erfolgt im Betrieb die Ermittlung einer Zuordnung zu einem Modellvektor bzw. die Ermittlung einer Zuordnung einer Merkmalsvektor-Sequenz zu einer Modellvektor-Sequenz. Die Information über die erlaubten Modellvektor-Sequenzen liegt in dem sprecherunabhängige Vokabular VOC-SI-L vor, das werkseitig bzw. herstellerseitig erstellt wurde. Bei einer Suche S unter Verwendung z.B. eines Trellis- Algorithmus wird die geeigneten Zuordnung bzw. Sequenz von Modellvektoren ausgehend von der Abstandsberechung unter Zuhilfenahme des Vokabulars VOC-SI-L ermittelt. Bei der Suche S ergibt sich als Ergebnis R ein den Modellvektoren zugeordnetes Kommandowort.
  • Die zusätzlich vorgesehene sprecherabhängige Spracherkennung SD kann beispielsweise auf Basis von "Dynamic Time Warping" (Dynamisce Zeitverbiegung) DTW oder neuronalen Netzwerken erfolgen, also korrelationsbasierte oder Mustervergleichsverfahren, oder weiteren dem Fachmann bekannten Maßnahmen.
  • Nachteilig daran ist, dass bei dem in 1 gezeigten System sprecherabhängige und sprecherunabhängige Spracherkennung nicht gemischt werden können, d.h. es muss vor der Spracherkennung bekannt sein, ob eine sprecherabhängige oder sprecherunabhängige Spracherkennung erfolgt.
  • Zum Ermöglichen des Mischens wurde vorgeschlagen, bei einer sprecherunabhängigen Spracherkennung HMM-SI auch sprecherabhängiges Vokabular VOC-SD-L1 zu erstellen. Dies ist in 2 im Rahmen des Trainings bzw. des Say-Ins bei einem derartigen System gezeigt. Bei 2 sind Objekte oder Verfahrensschritte, die bereits in 1 auftauchen, mit gleichen Bezugszeichen versehen.
  • Dabei wird ausgehend von dem dimensionsreduzierten Merkmalsvektor F_S eine Abstandsberechnung D zu Modellvektoren, die in einer Sprachressource HMM-L1 vorliegen, durchgeführt. Es erfolgt eine Konvertierung D2I dieses Abstandes zu einem Index bzw. zu einer Zuordnungsinformation. Diese Zuordnungsinformation stellt auch das – in diesem Fall – sprecherabhängige Vokabular VOC-SD-L1 dar.
  • In 3 ist nun das in 2 im Training gezeigte System im Betrieb gezeigt, das heisst bei der Spracherkennung. Glei che Objekte oder Verfahrensschritte sind hierbei wiederum mit gleichen Bezugszeichen versehen.
  • Da auch dieses sprecherabhängige Vokabular basierend auf der Sprachressource HMM-L1, nämlich durch Abstandsberechnung D zu den darin vorliegenden Modellvektoren, erstellt ist, können bei dem in 3 gezeigten System sprecherabhängiges Vokabular VOC-SD-L1 und sprecherunabhängiges Vokabular VOC-SI-L1 in der Sprache L1 gemischt werden, wodurch das Problem des Mischens, das bei dem System in 1 auftritt, beseitigt ist.
  • Nachteilig daran ist, dass das System nun aufgrund der Verwendung der Sprachressource HMM-L1 zur Erstellung des Vokabulars sprachenabhängig ist, da die Sprachressource HMM-L1 eine bestimmte Sprache oder Sprachumgebung repräsentiert, in Bezug auf die die Zuordnungsinformation abgespeichert wird.
  • Ausgehend von diesem Stand der Technik ist es Aufgabe der vorliegenden Erfindung, eine Alternative zu diesen Verfahren zu schaffen, die die Nachteile der vorgestellten Systeme beseitigt. Insbesondere ist es Aufgabe der vorliegenden Erfindung, ein Verfahren zur Spracherkennung bzw. ein Kommunikationsgerät mit einer Spracherkennungseinrichtung anzugeben, bei dem sprecherabhängige und sprecherunabhängige Sprachsteuerung benutzerfreundlich kombiniert angewandt werden kann.
  • Diese Aufgabe wird durch ein Verfahren gemäß dem unabhängigen Anspruch 1 und ein Kommunikationsgerät gemäß dem Anspruch 11 gelöst. Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
  • Ein Sprachsignal, also beispielsweise ein Wort oder ein Satz, besteht aus zumindest einer akustischen Einheit. Unter akustischer Einheit können eine oder mehrere Silben, Phoneme, eine Gruppe von Phonemen, Wortsegmente oder im Falle eines Satzes auch ein Wort verstanden sein. Dieses Spachsignal wird zunächst in Zeitabschnitte zerlegt.
  • Das Sprachsignal in jedem Zeitabschnitt lässt sich durch einen Merkmalsvektor beschreiben.
  • Da im allgemeinen sinntragende Einheiten, d.h. z. B. Steuerbefehle bzw. Kommandowörter, erst durch das Aneinanderreihen mehrerer Sprachrahmen entstehen, wird zunächst eine Merkmalsvektor-Sequenz gebildet. Es kann hierbei auch nur ein Merkmalsvektor in der Sequenz auftreten. Generell kann die Anzahl der Merkmalsvektoren in der Merkmalsvektor-Sequenz durch die Länge z.B. des Steuerbefehls oder auch der Zeitabschnitte bzw. Zeitrahmen bedingt sein.
  • Die Merkmalsvektor-Sequenz wird nun einer Modellvektor-Sequenz zugeordnet. Zur Spracherkennung werden beispielsweise wie eingangs beschrieben, sinntragende Einheiten einer Sprache mittels Modellvektoren modelliert. Eine Menge von Modellvektoren ist in einer Sprachressource enthalten, das ist also z.B die Darstellung einer bestimmten Sprache zum Zwecke der Spracherkennung mit den Modellvektoren. Ebenso kann eine Sprachenressource auch die Darstellung bzw. den "Betriebsmodus" einer bestimmten Sprache in einer festgelegten Umgebung, beispielsweise in einem Kraftfahrzeug darstellen. Durch die Umgebung wird beispielsweise die Umgebungslautstärke festgelegt.
  • Zur Spracherkennung in einer bestimmten Sprachressource wird die Zuordnung bzw. Zuordnungsinformation einer Merkmalsvektor-Sequenz, welche beispielsweise durch ein Say-In bzw. Training erzeugt wird, zu einer Modellvektor-Sequenz abgespeichert. Die Abspeicherung erfolgt beispielsweise in einem sogenannten Vokabular.
  • Mittels der Modellvektor-Sequenz erfolgt unter Verwendung einer Sprachressource die Spracherkennung. Eine Sprachressource beinhaltet neben einer Menge von Modellvektoren zumindest auch noch Übergangswahrscheinlichkeiten zwischen zwei Modellvektoren.
  • Kern der Erfindung ist es nun, auch die Merkmalsvektor-Sequenz selbst abzuspeichern und nicht nur die Zuordnung dieser Merkmalsvektor-Sequenz zu einer Sequenz von Modellvektoren.
  • Dies hat den Vorteil, dass beim Umstellen der Sprachressource, d.h. beispielsweise beim Umstellen in eine andere Sprache, nicht das Sprachsignal, aus welchem die Merkmalsvektor-Sequenz gebildet wird, erneut aufgenommen werden muss. Dies ist auch möglich, wenn sprecherabhängige und sprecherunabhängige Systeme parallel verwendet werden.
  • Zur Reduzierung des erforderlichen Speicherplatzes kann die Merkmalsvektor-Sequenz bei ihrer Zuordnung zu einer Modellvektor-Sequenz hinsichtlich ihrer Dimensionen reduziert werden. Diese Reduktion kann beispielsweise mittels einer linearen Diskriminanten-Analyse vorgenommen werden.
  • Das Vornehmen einer Reduktion hat den Vorteil, dass die Modellvektoren selbst in der reduzierten Dimension abgespeichert werden können und somit für eine Sprachenressource weniger Speicherplatz benötigt wird. Es ist wichtig, dass die Dimensionsreduktion des Merkmalsvektors bzw. der Merkmalsvektor-Sequenz erst im Rahmen der Zuordnung erfolgt, eine nichtreduzierte Darstellung des Merkmalsvektors bzw. der Merkmalsvektor-Sequenz aber erhalten bleibt.
  • Vorzugsweise kann so bei einem Umstellen der Sprachressource der Merkmalsvektor-Sequenz unmittelbar eine Modellvektor-Sequenz in einer anderen Sprachressource zugeordnet werden.
  • Die zugrundeliegende Sprachressource kann insbesondere unter Verwendung eines sogenannten Hidden-Markov Modell (HMM) erstellt werden, bei dem für jede akustische Einheit, beispielsweise ein Phonem, Übergangswahrscheinlichkeiten zur nächsten Einheit bei der Bildung z.B. eines Wortes zugrundegelegt werden. Ein HMM hat den Vorteil, dass es sich gut bei der sprecherunabhängigen Spracherkennung einsetzen lässt, so dass etwa zusätzlich zu sprecherabhängigen Befehlen auch ein breiter Wortschatz, der nicht vom Benutzer selbst trainiert werden muss, voreingestellt sein kann.
  • Besondere Vorteile ergeben sich auch bei einer Kombination einer derartigen sprecherabhängigen Spracherkennung mit einer sprecherunabhängigen Spracherkennung. Auf Basis einer Sequenz der abgespeicherten sprecherabhängigen und sprachenunabhängigen Merkmalsvektoren kann eine Zuordnung zwischen Merkmalsvektor-Sequenz und Modellvektor-Sequenz erfolgen. Diese Zuordnung kann gemeinsam mit anderen Zuordnungen, die beispielsweise im Rahmen der sprecherunabhängige Spracherkennung schon für den Benutzer voreingestellt vorhanden sind. Das heisst nun, dass die Spracherkennung auf eine gemeinsame Menge von Zuordnungen bzw. ein gemeinsames "Vokabular" zurückgreift, so dass nicht zwischen verschiedenen Spracherkennungen gewechselt wird.
  • Dies hat insbesondere den Vorteil, dass es nicht von vorneherein bekannt sein muss, ob es sich um sprecherunabhängige oder sprecherabhängige Sprachkommandos handelt, weil z.B. eine davon abhängige Spracherkennung ansetzt.
  • Ein geeignetes Kommunikationsgerät weist zumindest ein Mikrofon auf, mit dem das Sprachsignal erfasst wird, eine Prozessoreinheit mit dem das Sprachsignal verarbeitet wird, also z.B. die Zerlegung in Zeitrahmen oder die Extraktion des Merkmalsvektors für einen Zeitrahmen. Weiterhin ist eine Speichereinheit zum Abspeichern der verarbeiteten Sprachsignals sowie zumindest einer Sprachressource vorgesehen. Zur Spracherkennung selbst wirken Mikrofon, Speichereinheit und Spracherkennungseinrichtung zusammen.
  • Weitere Vorteile der Erfindung werden anhand von ausgewählten Ausführungsformen näher erläutert, die auch in Figuren dargestellt sind. Es zeigen:
  • 1 Den Ablauf einer kombinierten sprecherabhängigen und sprecherunabhängigen Spracherkennung gemäß dem Stand der Technik, bei der sprecherabhängige und sprecherunabhängige Spracherkennung nicht gemischt werden kann;
  • 2 den Ablauf eines Training bzw. „Say-In" bei einem System mit einer Sprachressource HMM-L1 gemäß dem Stand der Technik. Das erstellte Vokabular VOC-SD-L1 ist sprecher- und sprachenabhängig und kann in einer Kombination von sprecherabhängiger und sprecherunabhängiger Spracherkennung (nicht dargestellt) verwendet werden;
  • 3 das in 2 gezeigte System im Betrieb, d.h. bei der Spracherkennung, bei dem eine Kombination von sprecherabhängiger und sprecherunabhängiger Spracherkennung realisiert ist, bei der beide Techniken gemischt werden können, die aber sprachenabhängig ist;
  • 4 den Ablauf eines Trainings bzw. "Say-In" bei einem System gemäß einer Ausführungsform der Erfindung;
  • 5 den Ablauf eines ohne Interaktion des Benutzers vorgenommenes Transcoding beim Umstellen der Sprachressource von gemäß 4 erstellten benutzerspezifischen Vokabular von einer ersten Sprachressource L1 in eine zweite Sprachressource L2 gemäß einer Ausführungsform der Erfindung;
  • 6 die in 4 und 5 gezeigte Ausführungsform im Betrieb;
  • 7 Den Ablauf einzelner Schritte im Rahmen der zeitlichen Unterteilung und Vorprozessierung des Sprachsignals;
  • 8 ein Kommunikationsgerät zur Durchführung eines Spracherkennungsverfahrens.
  • Zum besseren Verständnis sollen zunächst einige grundlegende Begriffe erklärt werden. Jede Sprache lässt sich in für die jeweilige Sprache spezifische Phoneme aufteilen. Phoneme sind Lautbausteine oder Laute, die noch bedeutungsdifferenzierend sind. Beispielsweise ist ein Vokal ein solches Phonem. Ein Phonem kann aber auch aus mehreren Buchstaben zusammengesetzt sein und einem einzigen Laut entsprechen, beispielsweise "sch" oder "ch". Aufgrund der Unterschiede zwischen Orthographie und Aussprache können daher Buchstaben nicht automatisch mit Phonemen gleichgesetzt werden. Im Deutschen kann beispielsweise der Buchstabe "a" lang, wie etwa in dem Wort "Hase", oder kurz, wie in dem Wort "Hass" ausgesprochen werden. Es handelt sich hierbei zwar um gleiche Buchstaben, aber um unterschiedliche Phoneme. Aufgrund der unterschiedlichen Aussprachen, kann ein Phonem in einer Sprache nicht automatisch mit einem Phonem in einer anderen Sprache gleichgesetzt werden.
  • Nun soll der prinzipielle Ablauf einer Spracherkennung auf Basis einer phonembasierten Spracherkennung erläutert werden.
  • Wie bereits vorher erwähnt, gibt es auch Spracherkennungen, die nicht auf Phonemen, sondern etwa auf Wörtern oder auf Segmenten von Wörtern basieren.
  • Bei der phonembasierten Spracherkennung wird nun zur Analyse des eintreffenden Datenstroms das Sprachsignal in kurze Zeitfenster, sogenannte Rahmen, unterteilt, welche ein Länge von beispielsweise 10 oder 20 Millisekunden besitzen. Anschlie ßend werden ausschließlich diejenigen Elemente berechnet bzw. extrahiert, die für eine Interpretation des Gesprochenen notwendig sind. So filtert die Spracherkennung etwa Informationen über die Stimmung des Sprechers, sein Geschlecht, die Sprechgeschwindigkeit, die Schwankungen in Stimmlage und Hintergrundgeräusche, etc. heraus. Dies dient hauptsächlich dazu, die bei der Spracherkennung anfallende Datenmenge zu reduzieren. Dies ist insofern erforderlich, da die bei der Spracherkennung anfallende Datenmenge so groß ist, dass sie normalerweise nicht in Echtzeit, insbesondere nicht von einer kompakten Recheneinheit, wie sie in Kommunikationsgeräten zu finden ist, abgearbeitet werden kann.
  • Aus dem insoweit extrahierten Sprach- bzw. Schallsignal wird eine Fouriertransformierte erzeugt, bei der das Sprachsignal nach Frequenzen zerlegt ist. Durch eine Verkettung der Fouriertransformierten mit wenigstens einer von gegebenenfalls mehreren möglichen Fensterfunktionen, welche nur in einem begrenzten Zeitfenster Werte ungleich Null aufweist, wird eine Steigerung im Kontrast und/oder eine Verringerung des Rauschanteils des Sprachsignals erreicht. Als Ergebnis wird eine Folge von Merkmalsvektoren bzw. Transkriptoren erhalten, die den zeitlichen Verlauf des Sprachsignals darstellen.
  • Die einzelnen Merkmalsvektoren lassen sich verschiedenen Klassen von Merkmalsvektoren zuordnen. Die Klassen von Merkmalsvektoren umfassen jeweils Gruppen von ähnlichen Merkmalsvektoren. Durch die Zuordnung der Merkmalsvektoren zu den einzelnen Klassen von Merkmalsvektoren wird das Sprachsignal identifiziert, d.h. es liegt in einer phonetischen Umschrift vor. Der phonetischen Umschrift kann ein Bedeutungsinhalt zugewiesen werden, wenn den Klassen von Merkmalsvektoren eine Information darüber zugeordnet ist, welcher Laut durch die betreffende Klasse von Merkmalsvektoren repräsentiert ist.
  • Die Klassen von Merkmalsvektoren für sich alleine geben noch keine eindeutige Information darüber, welcher Laut gerade ge sprochen wurde. Damit die Klassen von Merkmalsvektoren solche Laut-Informationen wiedergeben, sind Sprachaufnahmen nötig, aus denen heraus den Klassen von Merkmalsvektoren einzelne Laute bzw. Phoneme, Phonem-Cluster oder ganze Wörter zugeordnet werden. Ein Phonem-Cluster, der auch als ein Phonem-Segment bezeichnet werden kann, fasst gleichzeitig mehrere einzelne Phoneme zu einer Einheit zusammen. Dadurch kann die insgesamt bei der Spracherkennung zu verarbeitende Datenmenge ebenfalls reduziert werden.
  • Die bisherigen Schritte bei der Spracherkennung dienten hauptsächlich der Datenreduktion und -aufbereitung. Nun erfolgt die Umwandlung in Bedeutungsinhalte bzw. Text. Eine Erkennungsroutine erzeugt hierbei die wahrscheinlichsten Wortketten. Als Berechnungsgrundlage für diese Wahrscheinlichkeit verwenden die meisten Spracherkenner heute eine Sprachressource, die unter Verwendung eines sogenannte "Hidden-Markov-Modell" oder HMM erstellt wird. Dieses Modell soll die Schwierigkeit überwinden, dass einzelne Sprecher Wörter oder einzelne Silben unterschiedlich lang aussprechen oder sogar verbinden. Eine derartige zeitliche Verzerrung ist mit keiner Funktion exakt zu beschreiben, weshalb hier dieses Modell verwendet wird, das Wörter trotz ihrer Vielsprachemöglichkeiten erkennt. Vereinfacht gesagt werden Übergangswahrscheinlichkeiten zwischen einzelnen Phonemen mit einem sogenannten "Vorwärts-Rückwärts-Algorithmus" berechnet. Dann wird ermittelt, welcher Zustand, d.h. welche Folge von Phonemen die wahrscheinlichste ist.
  • Werkseitig bzw. herstellerseitig wird eine Sprachressource, d.h. eine Menge von Modellvektoren erstellt, mittels denen eine bestimmte Sprache darstellbar ist. Weiterhin werden bei einer Sprachressource Übergangswahrscheinlichkeiten zwischen einzelnen Modellvektoren festgelegt, so dass z.B. Worte in einer Sprache gebildet werden können.
  • Nun soll die gerade allgemein beschriebene Spracherkennung anhand von Figuren näher erläutert werden. Dazu sei nun auf 4 verwiesen, in der ein "Say-In" bzw. Training gemäß einer Ausgestaltung der Erfindung schematisch dargestellt ist. Gleiche Merkmale oder Verfahrensschritte sind mit den gleichen Bezugszeichen wie in den 1, 2 und 3 versehen.
  • Ein Sprachsignal SS wird zunächst einer Merkmalsextraktion FE unterzogen. Diese Merkmalsextraktion beinhaltet allgemein zunächst eine Unterteilung in Zeitrahmen bzw. Rahmen F (Framing) mit einem nachgeschalteten Vorverarbeitung PP des in Rahmen unterteilten Sprachsignals SS. Dies beinhaltet im Allgemeinen eine Fouriertransformation. Optional findet noch eine Störgeräuschunterdrückung bzw. Kanalkompensation statt. Unter Kanal wird hierbei der Weg vom Mikrofon zum AD-Wandler verstanden, kompensiert werden Störgeräusche. Der Kanal kann aufgrund verschiedener Mikrofone, etwa im Car-Kit oder im Mobilfunkendgerät selbst, variieren. Auch bei unterschiedlichen Räumen wird der Kanal unterschiedliche Eigenschaften aufweisen, da die Impulsantwort auf eine Schalleinwirkung unterschiedlich ist.
  • Beispielsweise könnte die Schritte im Rahmen der Merkmalsextraktion FE zum Ermitteln eines Merkmalsvektors wie in 7 dargestellt ablaufen:
    Nach der Unterteilung F des Signals in Zeitrahmen erfolgt die Vorverabeitung PP. Diese kann folgenden Schritte beinhalten: Filtern FI des Signals mit einem endlichen Impulsantwortfilter bzw "finite impulse response filter" (FIR), Bildung AA von sogenannten "Hamming-Fenstern" um ein Antialiasing, d.h. ein Vermeiden des Heranziehens von nicht tatsächlich ermittelten Frequenzen, zu erzielen. Anschliessend wird eine schnelle bzw. "Fast" Fourier Transformation FFT durchgeführt. Das Ergebnis ist ein Leistungs-Spektrum bzw. "Power-Spektrum", bei dem die Leistung gegebüber der Frequenz aufgetragen wird. Dieses Power-Spektrum wird zur Anpassung an die Sensitivität des menschlichen Ohres einer sogenannten "Mel"-Filterung MF mit 15 Dreiecks-Filtern unterzogen. Das Ergebnis hierbei wären 15 Koeffizienten, die zur Reduzierung des dynamischen Bereichs beispielsweise logarithmiert werden. Über eine diskrete Cosinustransformation DCT werden 12 sogenannten "Cepstrum"-Koeffizienten ermittelt, so dass nun zusammen mit der logarithmierten Energie 13 Koeffizienten vorliegen. Einen so ermittelten Vektor bezeichnet man auch als MFCC-Vektor bzw. "Mel-Filter- Cepstrum-Koeffizienten-Vektor". Zur Reduzierung der Fehleranfälligkeit dieser Koeffizienten wird eine sogenannten Delta-Abbildung DA und Delta-Delta-Abbildung DDA durchgeführt, bei der Zusammenhänge zum vorhergehenden und zum vor-vorhergehenden Rahmen ermittelt werden. Auch die Zusammenhänge werden mit je 13 Koeffizienten beschrieben, so dass nach Ablauf dieser Kette von Transformationen 39 Koeffizienten vorliegen. Diese 39 Koeffizienten stellen die Einträge bzw. Komponenten eines Merkmalsvektors dar. Bei der beschriebenen Routine handelt es sich um ein ausgewähltes Beispiel. Dem Fachmann sind diverse Möglichkeiten der Merkmalsextraktion bekannt, weshalb hier nicht näher darauf eingegangen wird.
  • Nun sei wieder auf 4 verwiesen. Ergebnis dieses Prozesses ist ein sprachenunabhängiger Merkmalsvektor F_IS. Sequenzen aus zumindest einem sprachenunabhängigen Merkmalsvektor F_IS werden in einer Sammlung oder Datenbank FV-SD(F_IS) von sprecherabhängigen, sprachenunabhängigen Merkmalsvektoren F_IS abgespeichert.
  • Andererseits wird der sprachenunabhängige Merkmalsvektor F_IS zu sprecher- und sprachenabhängigen Vokabular verarbeitet. So wird zur Speicherplatzreduzierung bei der sogenannten linearen Diskriminanten Analyse LDA-L1, welche spezifisch für eine Sprachressource (L1) ist, einer Matrixmultiplikation mit einer bereits werkseitig erstellten LDA-Matrix unterzogen.
  • Ab diesem Zeitpunkt liegt ein sprachenabhängiger Merkmalsvektor F_S vor. Im Vergleich zum sprachenunabhängigen Merkmalsvektor F_IS enthält der sprachenabhängige Merkmalsvektor aufgrund der nicht-verlustfreien Datenreduktion bei der Dimensionsreduzierung weniger Informationsgehalt. Es ist also nicht möglich, aus dem sprachenabhängigen Merkmalsvektor F_S wieder den sprachenunabhängigen Merkmalsvektor F_IS zu erstellen.
  • Durch die Multiplikation mit einer LDA-Matrix wird vor allem eine Diagonalisierung vorgenommen, bei der durch die Wahl eines geeigneten Eigensystems von Basisvektoren die Dimension des Merkmalsvektors reduziert werden kann. Diese LDA-Matrix ist sprachenspezifisch, da aufgrund der Unterschiedlichkeit verschiedener Sprachen oder Sprachmodi bzw. Sprachumgebungen auch die Eigenvektoren verschieden sind. Sie wird bereits werkseitig ermittelt. Wie diese Matrix z.B, auf der Basis von sogenannten Sub-Phonemen und weiteren Untergruppen, z.B. "dphones", durch Mittelwertbildung und entsprechende Gewichtung ermittelt wird, ist dem Fachmann bekannt und wird hier nicht näher erläutert.
  • Beispielsweise werden im Rahmen der LDA-Multiplikation zwei (aufeinander folgende) 39-dimensionale MFCC-Vektoren in einem 78-dimensionalen Super-Vektor zusammen gefasst, der mit der 78x24 LDA-Matrix multipliziert wird. Das Ergebniss ist ein 24-dimensionale sogenannter Post-LDA-Merkmals-Vektor. Der Post-LDA-Merkmals-Vektor ist sprachabhängig, da die LDA-Matrix sprachabhängig ist. Unter Sprachressource wird insbesondere eine Menge von Modellvektoren verstanden, mittels der sich eine Sprache darstellen läßt. Weiterhin kann die Sprachressource auch eine Sprache in einer bestimmten Umgebung darstellen. Dies wird beispielsweise bei der Verwendung von Kommunikationsgeräten in einem Fahrzeug angewandt, bei dem durch das Freisprechen bedingt, ein anderer Geräuschpegel als bei normalen Gesprächen vorliegt.
  • Es sei nun wieder auf 4 verwiesen, bei der im Rahmen einer sprecherunabhängigen HMM-Modellierung HMM-SI diese Merkmalsvektoren zunächst vorhandenen Gruppen von Modellvektoren zugeordnet werden. Diese Zuordnung geschieht über eine Abstandsberechnung D zu Modellvektoren, die z.B. in etwa einem Ermitteln des ähnlichsten Modellvektors entsprechen kann, wobei die Modellvektoren in einer monolingualen HMM-Sprachressource HMM-L vorliegen. Die Zuordnungsinformation zwischen Merkmalsvektor und Modellvektor bzw. Merkmalsvektor-Sequenzen und Modellvektor-Sequenzen wird in einem sog. Vokabular gespeichert. Das sprecherabhängige Vokabular VOC-SD-L1 zur Sprachressource L1 wird über Abstandsberechnung D zu Modellvektoren aus der Sprachressource HMM-L1 und Konvertierung D2I des Abstandes zu Zuordnungs bzw. Indexinformationen erstellt.
  • Im Unterschied zum Stand der Technik wie in den 2 und 3 gezeigt, wird also auch der sprachenunabhängige Merkmalsvektor bzw. die Sequenz von Merkmalsvektoren abgespeichert, durch welche ein Steuerbefehl beschrieben wird. Dies hat den prinzipiellen Vorteil, dass bei einem Umschalten der Sprachressource das Say-In nicht erneut erfolgen muss.
  • Es sei nun auf 5 verwiesen. Bei einem Umschalten in eine andere Sprachressource HMM-L2 kann dann die sprachabhängigen Dimensionsreduktion LDA-L2 auf Basis dieses sprachenunabhängigen Vektors F_IS erfolgen.
  • Beispielsweise schaltet der Benutzer über eine Benutzeroberfläche von der Sprache L1 in eine Sprache L2 um oder beim Benutzen der Autoausrüstung (Car Kit) für ein Kommunikationsgerät wird automatisch von leiser Sprachumgebung L1 in eine laute Sprachumgebung L2 umgeschaltet. L1 bzw. L2 bezeichnet also eine Sprache oder eine Sprachumgebung.
  • Anschliessend erfolgt das sogenannten Transcoding TC, das ist die Zuordnung eines sprachenabhängingen Merkmalsvektor F_S zu einem Modellvektor aus einer Sprachenressource bzw. die Zuordnung einer Sequenz von sprachenabhängingen Merkmalsvektoren F_S zu einer Sequenz von Modellvektoren. Das Transcoding von Kommandowörtern, deren Training in 4 gezeigt ist, ist nun in 5 dargestellt. Das Transcoding TC erfolgt mittels der bereits werkseitig erstellten Sprachressource HMM-L2 offline, d.h. ohne Interaktion mit dem Benutzer, auf Basis der in der Datenbank FV-SD(F_IS) gespeicherten sprachenunabhängigen Merkmalsvektoren F_IS. Somit kann dann für jede Sprache, zu der z.B. werkseitig bzw. herstellerseitig eine Sprachresource HMM-L2 erstellt wurde, eine Zuordnung und damit ein Steuerbefehl erstellt werden, ohne dass der Benutzer aktiv beiträgt.
  • In 5 ist die zeitliche Unterteilung F in Rahmen und die Vorprozessierung PP gestrichelt dargestellt, da im Gegensatz zum Training beim Transcoding kein Sprachsignal verwendet wird und infolgedessen diese Einheit nicht benötigt wird, sondern eben die während des Training erstellten und abgespeicherten sprachenunabhängigen Merkmalsvektoren F_IS herangezogen werden.
  • Zusammenfassend ist das Ergebnis des Transcodings ein sprecherabhängiges Vokabular VOC-SD-L2, das auf Basis der Sprachressource HMM-L2 unter Verwendung der sprachenunabhängigen, absgespeicherten Merkmalsvektoren erstellt wurde. Das Sprecherabhängige Vokabular enthält Zuordnungen zwischen Sequenzen aus Merkmalsvektoren und Modellvektoren.
  • Es sei nun auf 6 verwiesen. In 6 ist nun das Spracherkennungssystem, das in 4 beim Training und in 5 beim Transcoding gezeigt ist, beim Betrieb dargestellt. Gleiche Begriffe sind wieder mit gleichen Bezugszeichen versehen.
  • Beispielsweise ist die Sprache oder Sprachumgebung L2 ausgewählt, in die das Transcoding in 5 stattfand. Die Di mensionreduktion LDA-L2 erfolgt deshalb in Abhängigkeit von der Sprache oder Sprachumgebung L2.
  • Die Abstandsberechnung D erfolgt unter Verwendung der Sprachressource HMM-L2 zur Sprache oder Sprachumgebung L2. Die Suche S erfolgt nun auf Basis des sprecherunabhängigen Vokabulars VOC-SI-L2, das dem sprecherunabhängigen Vokabular VOC-SI-L1 aus den 3 für die Sprachumgebung L2 entspricht, und des sprecherabhängigen Vokabulars VOC-SD-L2. Es kann also das -werkseitig erstellte – Vokabular VOC-SI-L2 gleichzeitig, d.h. ohne zwischen sprecherabhängiger und sprecherunabhängiger Spracherkennung zu wählen, mit dem sprecherabhänigen Vokabular VOC-SD-L2 verwendet werden.
  • In anderen Worten hat dies den Vorteil, dass sprecherabhängiges und sprecherunabhängiges Vokabular derart nebeneinander bestehen, dass es für eine Spracherkennung nicht erforderlich ist, zu wissen, ob ein sprecherabhängiges oder sprecherunabhängiges Kommando erfolgt, was die Flexibilität von z.B. zusammengesetzten Kommandos signifikant erhöht. Ein Wissen, ob ein sprecherabhängiges oder sprecherunabhängiges Kommando erfolgt, wäre zum Beispiel erforderlich, wenn die sprecherabhängige Spracherkennung unter der Verwendung von Merkmalsvektoren abläuft und die sprecherunabhängige auf Basis von Zuordnungsinformation.
  • In 8 ist schliesslich ein Kommunikationsgerät gezeigt, welches zur Durchführung der beschriebenen Spracherkennung geeignet ist. Das Kommunikationsgerät CD weist zumindest ein Mikrofon M auf, mit dem das Sprachsignal erfasst wird, eine Prozessoreinheit CPU mit dem das Sprachsignal verarbeitet wird, also z. B. die Zerlegung in Zeitrahmen oder die Extraktion des Merkmalsvektors für einen Zeitrahmen. Weiterhin ist eine Speichereinheit SU zum Abspeichern der verarbeiteten Sprachsignals sowie zumindest einer Sprachressource vorgese hen. Zur Spracherkennung selbt wirken Mikrofon, Speichereinheit und Spracherkennungseinrichtung SE zusammen.
  • AA
    Bilden von Fenstern zum Antialiasing
    CD
    Kommunikationsgerät
    D
    Abstandsberechnung
    D2I
    Abstand zu Zuordnungsinformationskonvertierung bzw.
    „Distance-to-Index"
    DA
    Delta-Analyse
    DCT
    Diskrete Fourier Transformation
    DDA
    Delta-Delta-Analyse
    F
    Unterteilung in Zeitrahmen bzw. "Framing"
    FE
    Merkmalsextraktion bzw. "Feature Extraction"
    FI
    Filtering
    FV-SD(F_IS)
    Datenbank von abgespeicherten F_IS Vektoren beim
    Training bzw. „Say-In" gemäß der Erfindung.
    HMM-L
    Monolinguale Sprachressource
    HMM-L1
    Sprachressource in der Sprache oder Sprachumgebung
    L1
    HMM-L2
    Sprachressource in der Sprache oder Sprachumgebung
    L2
    HMM-SI
    Sprecherunabhängiges Hidden-Markov-Modell
    LDA-L
    Lineare Diskriminantenanalyse bzw. "Linear Discri
    minant Analysis" für eine Sprache oder Sprachumge
    bung L
    LOG
    Logarithmus
    M
    Mikrofon
    MF
    Mel-Filterung
    PP
    Vorverarbeitung bzw. "Pre-Processing"
    R
    Ergebnis bzw. "Result"
    S
    Suche bzw. "Search"
    SE
    Spracherkennungseinheit
    SS
    Sprachsignal
    SU
    Speichereinheit
    TC
    Transcoding
    VOC-SD-L1
    sprecherabhängige Zuordnungsinformation bzw. Voka
    bular in der Sprache oder Sprachumgebung L1
    VOC-SI-L1
    sprecherunabhängige Zuordnungsinformation bzw. Vo
    kabular in der Sprache oder Sprachumgebung L1
    VOC-SI-L2
    sprecherunabhängige Zuordnungsinformation bzw. Vo
    kabular in der Sprache oder Sprachumgebung L2

Claims (12)

  1. Verfahren zur sprecherabhängigen Spracherkennung mit folgenden Schritten: a) Erfassen eines ein Sprachkommando umfassendes Sprachsignal (SS); b) Zerlegung (F) des Sprachsignals (SS) in Zeitrahmen; c) Charakterisieren des Sprachsignals in jedem erfassten Zeitrahmen durch Bilden eines entsprechenden Merkmalsvektors (F_IS); d) Bilden einer Merkmalsvektor-Sequenz aus einem oder mehreren Merkmalsvektoren (F_IS); e) Abspeichern der Merkmalsvektor-Sequenz; f) Zuordnen der Merkmalsvektor-Sequenz zu einer Sequenz von Modellvektoren in einer Sprachressource (HMM-L1), welche eine Vielzahl von Modellvektoren aufweist; g) Abspeichern einer Zuordnungsinformation (VOC-SD-L1), welche die Zuordnung der Merkmalsvektor-Sequenz zu einer Sequenz von Modellvektoren angibt; h) Erkennung des der Modellvektor-Sequenz zugeordneten Sprachkommandos; i) Umstellen der eingestellten Sprachressource (HMM-L1) in eine weitere Sprachressource (HMM-L2); j) Zuordnen der abgespeicherten Merkmalsvektor-Sequenz zu einer Modellvektor-Sequenz in der neu eingestellten Sprachressource (HMM-L2) k) Abspeichern dieser neuen Zuordnungsinformation (VOC-SD-L2).
  2. Verfahren nach Anspruch 1, bei dem das Sprachsignal (SS) aus akustischen Einheiten zusammengesetzt ist.
  3. Verfahren nach Anspruch 1 oder 2, bei dem die Sprachressource (HMM-L) einer Hidden-Markov-Modellierung von akustischen Einheiten eines Sprachsignals zugrunde liegt.
  4. Verfahren nach einem der vorangegangenen Ansprüche, bei dem eine akustische Einheit durch ein Wort oder ein Phonem gebildet wird.
  5. Verfahren nach einem der vorangegangenen Ansprüche, bei dem eine akustische Einheit durch Wortsegmente oder Gruppen von verwandten Phonemen gebildet wird.
  6. Verfahren nach einem der vorangegangenen Ansprüche, bei dem unterschiedliche Sprachressourcen (HMM-L1, HMM-L2) unterschiedlichen Sprachen oder unterschiedlichen Sprachumgebungen zugeordnet werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem unterschiedliche Sprachumgebungen unterschiedliche Umgebungsgeräuschsituationen bezeichnen.
  8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem der Merkmalsvektor (F_IS) oder die Merkmalsvektor-Sequenz vor ihrer Zuordnung zu einem Modellvektor oder einer Modellvektor-Sequenz durch eine Matrixmultiplikation (LDA-L1, LDA-L2) in Ihrer Dimensionalität reduziert wird.
  9. Verfahren nach Anspruch 8, bei dem die Matrix zur Dimensionsreduktion aus einer Linear Discriminant Analysis oder einer Principal Component Analysis oder einer Independent Component Analysis bestimmt worden ist.
  10. Verfahren mit einer sprecherabhängigen Spracherkennung gemäß einem der Ansprüche 1 bis 9 und einer sprecherunabhängigen Spracherkennung, welche insbesondere sprachenabhängig ist.
  11. Kommunikationsgerät (CD) zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 10 – mit einem Mikrofon (MM) zum Aufnehmen eines Sprachsignals (SS), – mit einer Prozessoreinheit (CPU) zur Verarbeitung des Sprachsignals (SS) – mit einer Speichereinheit (SU) zum Speichern von aus dem Sprachsignal (SS) gewonnenen Daten, – mit einer mit dem Mikrofon (M) gekoppelten Spracherkennungseinrichtung, die zur sprecherabhängigen und optional zur sprecherunabhängigen Spracherkennung eingerichtet ist.
  12. Verfahren zum Betrieb eines Kommunikationsgeräts nach Anspruch 11, bei dem sprecherabhängig und sprecherunabhängig erstelltes Vokabular gleichzeitig verwendet werden.
DE10334400A 2003-07-28 2003-07-28 Verfahren zur Spracherkennung und Kommunikationsgerät Withdrawn DE10334400A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE10334400A DE10334400A1 (de) 2003-07-28 2003-07-28 Verfahren zur Spracherkennung und Kommunikationsgerät
EP04741506A EP1649450A1 (de) 2003-07-28 2004-05-04 Verfahren zur spracherkennung und kommunikationsger t
PCT/EP2004/050687 WO2005013261A1 (de) 2003-07-28 2004-05-04 Verfahren zur spracherkennung und kommunikationsgerät
JP2006521560A JP2007500367A (ja) 2003-07-28 2004-05-04 音声認識方法およびコミュニケーション機器
US10/566,293 US7630878B2 (en) 2003-07-28 2004-05-04 Speech recognition with language-dependent model vectors
CNA2004800279419A CN1856820A (zh) 2003-07-28 2004-05-04 语音识别方法和通信设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10334400A DE10334400A1 (de) 2003-07-28 2003-07-28 Verfahren zur Spracherkennung und Kommunikationsgerät

Publications (1)

Publication Number Publication Date
DE10334400A1 true DE10334400A1 (de) 2005-02-24

Family

ID=34088898

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10334400A Withdrawn DE10334400A1 (de) 2003-07-28 2003-07-28 Verfahren zur Spracherkennung und Kommunikationsgerät

Country Status (6)

Country Link
US (1) US7630878B2 (de)
EP (1) EP1649450A1 (de)
JP (1) JP2007500367A (de)
CN (1) CN1856820A (de)
DE (1) DE10334400A1 (de)
WO (1) WO2005013261A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010054217A1 (de) * 2010-12-11 2012-06-14 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen eines Sprachbediensystems in einem Fahrzeug und Sprachbediensystem dazu
DE112009004313B4 (de) * 2009-01-28 2016-09-22 Mitsubishi Electric Corp. Stimmerkennungseinrichtung

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004008225B4 (de) * 2004-02-19 2006-02-16 Infineon Technologies Ag Verfahren und Einrichtung zum Ermitteln von Merkmalsvektoren aus einem Signal zur Mustererkennung, Verfahren und Einrichtung zur Mustererkennung sowie computerlesbare Speichermedien
WO2006033044A2 (en) * 2004-09-23 2006-03-30 Koninklijke Philips Electronics N.V. Method of training a robust speaker-dependent speech recognition system with speaker-dependent expressions and robust speaker-dependent speech recognition system
US20060123398A1 (en) * 2004-12-08 2006-06-08 Mcguire James B Apparatus and method for optimization of virtual machine operation
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
CN101727903B (zh) * 2008-10-29 2011-10-19 中国科学院自动化研究所 基于多特征和多系统融合的发音质量评估和错误检测方法
US9177557B2 (en) * 2009-07-07 2015-11-03 General Motors Llc. Singular value decomposition for improved voice recognition in presence of multi-talker background noise
US9026444B2 (en) 2009-09-16 2015-05-05 At&T Intellectual Property I, L.P. System and method for personalization of acoustic models for automatic speech recognition
US20130297299A1 (en) * 2012-05-07 2013-11-07 Board Of Trustees Of Michigan State University Sparse Auditory Reproducing Kernel (SPARK) Features for Noise-Robust Speech and Speaker Recognition
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9230550B2 (en) * 2013-01-10 2016-01-05 Sensory, Incorporated Speaker verification and identification using artificial neural network-based sub-phonetic unit discrimination
CN104143330A (zh) * 2013-05-07 2014-11-12 佳能株式会社 语音识别方法和语音识别系统
US9640186B2 (en) * 2014-05-02 2017-05-02 International Business Machines Corporation Deep scattering spectrum in acoustic modeling for speech recognition
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10366158B2 (en) * 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
JP6300328B2 (ja) * 2016-02-04 2018-03-28 和彦 外山 環境音生成装置及びそれを用いた環境音生成システム、環境音生成プログラム、音環境形成方法及び記録媒体
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10964315B1 (en) * 2017-06-30 2021-03-30 Amazon Technologies, Inc. Monophone-based background modeling for wakeword detection
WO2019051668A1 (zh) * 2017-09-13 2019-03-21 深圳传音通讯有限公司 一种智能终端的启动控制方法及启动控制系统
US11158322B2 (en) * 2019-09-06 2021-10-26 Verbit Software Ltd. Human resolution of repeated phrases in a hybrid transcription system
US20220115033A1 (en) * 2020-10-08 2022-04-14 Modulate, Inc. Multi-stage adaptive system for content moderation
CN114515138A (zh) * 2022-01-06 2022-05-20 福州市星康朗语教育科技有限公司 一种语言障碍评估与矫正系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4109785A1 (de) * 1990-03-26 1991-10-02 Ricoh Kk Standardmuster-vergleichssystem
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE19624988A1 (de) * 1996-06-22 1998-01-02 Peter Dr Toma Verfahren zur automatischen Erkennung eines gesprochenen Textes
DE19635754A1 (de) * 1996-09-03 1998-03-05 Siemens Ag Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung
WO2002005263A1 (de) * 2000-07-07 2002-01-17 Siemens Aktiengesellschaft Verfahren zur spracheingabe und -erkennung

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI86694C (fi) 1990-03-19 1992-10-12 Outokumpu Oy Gjutmaskin
US5412716A (en) * 1993-05-03 1995-05-02 At&T Bell Laboratories System for efficiently powering repeaters in small diameter cables
US5623609A (en) * 1993-06-14 1997-04-22 Hal Trust, L.L.C. Computer system and computer-implemented process for phonology-based automatic speech recognition
US6006221A (en) * 1995-08-16 1999-12-21 Syracuse University Multilingual document retrieval system and method using semantic vector matching
US5719921A (en) * 1996-02-29 1998-02-17 Nynex Science & Technology Methods and apparatus for activating telephone services in response to speech
DE19610848A1 (de) * 1996-03-19 1997-09-25 Siemens Ag Rechnereinheit zur Spracherkennung und Verfahren zur rechnergestützten Abbildung eines digitalisierten Sprachsignals auf Phoneme
ATE209814T1 (de) * 1996-09-10 2001-12-15 Siemens Ag Verfahren zur anpassung eines hidden-markov- lautmodelles in einem spracherkennungssystem
DE19636739C1 (de) * 1996-09-10 1997-07-03 Siemens Ag Verfahren zur Mehrsprachenverwendung eines hidden Markov Lautmodelles in einem Spracherkennungssystem
US6389393B1 (en) * 1998-04-28 2002-05-14 Texas Instruments Incorporated Method of adapting speech recognition models for speaker, microphone, and noisy environment
US6085160A (en) * 1998-07-10 2000-07-04 Lernout & Hauspie Speech Products N.V. Language independent speech recognition
US6253181B1 (en) * 1999-01-22 2001-06-26 Matsushita Electric Industrial Co., Ltd. Speech recognition and teaching apparatus able to rapidly adapt to difficult speech of children and foreign speakers
US6658385B1 (en) * 1999-03-12 2003-12-02 Texas Instruments Incorporated Method for transforming HMMs for speaker-independent recognition in a noisy environment
US6912499B1 (en) * 1999-08-31 2005-06-28 Nortel Networks Limited Method and apparatus for training a multilingual speech model set
DE10040063A1 (de) * 2000-08-16 2002-02-28 Philips Corp Intellectual Pty Verfahren zur Zuordnung von Phonemen
DE10041456A1 (de) * 2000-08-23 2002-03-07 Philips Corp Intellectual Pty Verfahren zum Steuern von Geräten mittels Sprachsignalen, insbesondere bei Kraftfahrzeugen
US6754629B1 (en) * 2000-09-08 2004-06-22 Qualcomm Incorporated System and method for automatic voice recognition using mapping
JP4244514B2 (ja) * 2000-10-23 2009-03-25 セイコーエプソン株式会社 音声認識方法および音声認識装置
EP1220196A1 (de) * 2000-12-27 2002-07-03 Siemens Aktiengesellschaft Verfahren zur Spracherkennung in einem kleinen elektronischen Gerät
US7043431B2 (en) * 2001-08-31 2006-05-09 Nokia Corporation Multilingual speech recognition system using text derived recognition models
US7072834B2 (en) * 2002-04-05 2006-07-04 Intel Corporation Adapting to adverse acoustic environment in speech processing using playback training data
US20040078191A1 (en) * 2002-10-22 2004-04-22 Nokia Corporation Scalable neural network-based language identification from written text
US7149688B2 (en) * 2002-11-04 2006-12-12 Speechworks International, Inc. Multi-lingual speech recognition with cross-language context modeling
US7496498B2 (en) * 2003-03-24 2009-02-24 Microsoft Corporation Front-end architecture for a multi-lingual text-to-speech system
US7516071B2 (en) * 2003-06-30 2009-04-07 International Business Machines Corporation Method of modeling single-enrollment classes in verification and identification tasks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4109785A1 (de) * 1990-03-26 1991-10-02 Ricoh Kk Standardmuster-vergleichssystem
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE19624988A1 (de) * 1996-06-22 1998-01-02 Peter Dr Toma Verfahren zur automatischen Erkennung eines gesprochenen Textes
DE19635754A1 (de) * 1996-09-03 1998-03-05 Siemens Ag Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung
WO2002005263A1 (de) * 2000-07-07 2002-01-17 Siemens Aktiengesellschaft Verfahren zur spracheingabe und -erkennung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112009004313B4 (de) * 2009-01-28 2016-09-22 Mitsubishi Electric Corp. Stimmerkennungseinrichtung
DE102010054217A1 (de) * 2010-12-11 2012-06-14 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen eines Sprachbediensystems in einem Fahrzeug und Sprachbediensystem dazu

Also Published As

Publication number Publication date
US7630878B2 (en) 2009-12-08
JP2007500367A (ja) 2007-01-11
CN1856820A (zh) 2006-11-01
US20070112568A1 (en) 2007-05-17
WO2005013261A1 (de) 2005-02-10
EP1649450A1 (de) 2006-04-26

Similar Documents

Publication Publication Date Title
DE10334400A1 (de) Verfahren zur Spracherkennung und Kommunikationsgerät
DE69433593T2 (de) Aufgeteiltes spracherkennungssystem
DE60125542T2 (de) System und verfahren zur spracherkennung mit einer vielzahl von spracherkennungsvorrichtungen
DE60124559T2 (de) Einrichtung und verfahren zur spracherkennung
DE69827667T2 (de) Vokoder basierter spracherkenner
DE60124842T2 (de) Rauschrobuste Mustererkennung
DE10030105A1 (de) Spracherkennungseinrichtung
DE102006006069A1 (de) Verteiltes Sprachverarbeitungssystem und Verfahren zur Ausgabe eines Zwischensignals davon
EP1264301B1 (de) Verfahren zur erkennung von sprachäusserungen nicht-muttersprachlicher sprecher in einem sprachverarbeitungssystem
EP0508547B1 (de) Schaltungsanordnung zur Spracherkennung
DE10054583A1 (de) Verfahren und Vorrichtung zur Behandlung von Sprachinformationen
EP0987682B1 (de) Verfahren zur Adaption von linguistischen Sprachmodellen
DE60107072T2 (de) Robuste merkmale für die erkennung von verrauschten sprachsignalen
EP1282897B1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
EP1182646A2 (de) Verfahren zur Zuordnung von Phonemen
WO2000005709A1 (de) Verfahren und vorrichtung zur erkennung vorgegebener schlüsselwörter in gesprochener sprache
WO2008009429A1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
DE102004017486A1 (de) Verfahren zur Geräuschreduktion bei einem Sprach-Eingangssignal
WO2001067435A9 (de) Verfahren zum sprachgesteuerten initiieren von in einem gerät ausführbaren aktionen durch einen begrenzten benutzerkreis
DE60219030T2 (de) Verfahren zur mehrsprachigen Spracherkennung
WO1999005681A1 (de) Verfahren zum abspeichern von suchmerkmalen einer bildsequenz und zugriff auf eine bildfolge in der bildsequenz
EP1704561A1 (de) Verfahren und vorrichtung zur bearbeitung eines sprachsignals für die robuste spracherkennung
DE10308611A1 (de) Ermittlung der Verwechslungsgefahr von Vokabulareinträgen bei der phonembasierten Spracherkennung
EP4027333B1 (de) Virtueller sprachassistent mit verbesserter erkennungsgenauigkeit
DE102004011426B3 (de) Vorrichtung zum Erkennen einer in einem Sprachsignal enthaltenen Emotion und Verfahren zum Erkennen einer in einem Sprachsignal enthaltenen Emotion

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee