DE69915449T2 - Verfahren zur bestimmunng von parametern eines statistischen sprachmodells - Google Patents
Verfahren zur bestimmunng von parametern eines statistischen sprachmodells Download PDFInfo
- Publication number
- DE69915449T2 DE69915449T2 DE69915449T DE69915449T DE69915449T2 DE 69915449 T2 DE69915449 T2 DE 69915449T2 DE 69915449 T DE69915449 T DE 69915449T DE 69915449 T DE69915449 T DE 69915449T DE 69915449 T2 DE69915449 T2 DE 69915449T2
- Authority
- DE
- Germany
- Prior art keywords
- vocabulary
- language model
- word
- occurrence
- vocabulary element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 11
- 238000012549 training Methods 0.000 claims description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
- Die Erfindung betrifft ein Verfahren zur Bestimmung von Parametern eines statistischen Sprachmodells für automatische Spracherkennungssysteme mittels eines Trainingskorpus.
- In automatischen Spracherkennungssystemen, die auf großen Vokabularien basieren und beispielsweise im Rahmen von Diktiersystemen eingesetzt werden, werden einerseits akustische Modelle und andererseits Sprachmodelle eingesetzt, die über die Bayes-Formel miteinander verknüpft sind. Der akustischen Modellierung liegen sogenannte HMM ("Hidden Markov Models") zugrunde. Bei der Sprachmodellierung werden einzelnen Vokabularelementen wie Wörtern oder Folgen von Vokabularelementen (sogenannten n-Grammen), wie beispielsweise Bigrammen (n = 2) und Trigrammen (n = 3), Wahrscheinlichkeitwerte darstellende Parameterwerte des Sprachmodells zugeordnet, die aus den Auftrittshäufigkeiten (sogenannte "counts") im Trainingskorpus bestimmt werden.
- Aus T. R. Niesler und P. C. Woodland, "Combination of word-based and category-based language models", Proc. ICSLP, Vol. 1, Seiten 220–223, Oktober 1996 ist es bekannt, einem Sprachmodell n-Gramme unterschiedlicher Länge n mit entsprechenden bedingten Wahrscheinlichkeiten zugrundezulegen, bei denen jeweils als Historie für ein Wort des Vokabulars entweder eine Folge von Wörtern oder eine Folge von Klassen verwendet wird, wobei eine Klasse jeweils eine Menge verschiedener Wörter des Vokabulars zusammenfaßt. Für die Fälle mit klassenbasierten Historien wird die durch Auswertung der zugehörigen Auftrittshäufigkeit abgeleitete bedingte Wahrscheinlichkeit für die vorhergesagte Klasse mit einem Wichtungsfaktor multipliziert, der der Wahrscheinlichkeit des Wortes innerhalb dieser Klasse entspricht.
- Der Erfindung liegt die Aufgabe zugrunde, die Sprachmodellierung so zu modifizieren, daß die Perplexität und die Fehlerrate bei der Spracherkennung verbessert werden.
- Die Aufgabe wird dadurch gelöst, daß mindestens ein Teil der Elemente eines verwendeten Vokabulars zu kontextunabhängigen Vokabularelementklassen zusammengefaßt wird, daß bei der Sprachmodellierung die Auftrittshäufigkeiten von Vokabular elementfolgen und gegebenenfalls die Auftrittshäufigkeiten von aus diesen Vokabularelementfolgen durch Ersetzen mindestens eines Vokabularelements durch die zugehörige Vokabularelementklasse gebildeten abgeleiteten Folgen ausgewertet werden und daß die Parameter des Sprachmodells aus den so bestimmten Auftrittshäufigkeiten abgeleitet werden.
- Bei einem solchen Verfahren zur Schätzung von Sprachmodellen können die verwendeten Folgen von Vokabularelementen und/oder Vokabularelementklassen optimal an das jeweils verwendete Vokabular und Trainingsmaterial angepaßt werden. Ein Vokabularelement stellt insbesondere jeweils ein Wort dar. Die Verwendung von Vokabularelementklassen führt dazu, daß Wahrscheinlichkeitswerte besser zu schätzen sind und gegenüber einer Sprachmodellierung ohne Rückgriff auf Vokabularelementklassen zur Erzielung gleich guter Perplexitätswerte und Fehlerraten ein kleinerer Trainingskorpus ausreicht. Ein beliebiges Vokabularelement einer Vokabularelementfolge kann gegebenenfalls durch die zugehörige Vokabularelementklasse ersetzt werden. Auch der erforderliche Speicherplatz ist reduziert. Für die Vokabularelemente, bei denen eine Beschreibung mittels Klassenzuordnung weniger geeignet ist, steht bei dem erfindungsgemäßen Verfahren jedenfalls immer eine Alternative oder ein Korrektiv basierend auf reinen Vokabularelementfolgen zur Verfügung.
- In einer Ausgestaltung der Erfindung werden zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, sowohl die Auftrittshäufigkeit der Vokabularelementfolge als auch die Auftrittshäufigkeiten der abgeleiteten Folgen verwendet. Alle für die Bestimmung eines Sprachmodellparameters gebildeten Folgen von Vokabularelementen/Vokabularelementklassen haben bei dieser Ausgestaltung einen Anteil an der Bildung dieses Sprachmodellparameters. Vorzugsweise erfolgt eine Mittelwertbildung der Sprachmodellparameter der jeweiligen Folgen von Vokabularelementen/Vokabularelementklassen.
- Eine weitere Ausgestaltung kann dadurch gekennzeichnet sein, daß zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, lediglich die Auftrittshäufigkeit einer dieser Folgen verwendet wird. Ein mögliches Auswahlkriterium ist ein an der Maximierung der Perplexität orientiertes Kriterium.
- Die Erfindung betrifft auch ein automatisches Spracherkennungssystem mit einem nach dem erfindungsgemäßen Verfahren gebildeten statistischen Sprachmodell.
- Nachstehend werden Ausführungsbeispiele der Erfindung beschrieben.
- Zunächst wird im folgenden eine wortbasierte Sprachmodellierung mit n-Grammen variabler Länge n (im folgenden als Varigramme bezeichnet) erläutert. Das so gebildete Sprachmodell, das auf Varigrammen bei vorgegebenem Vokabular und Trainingskorpus beruht, wird mit L bezeichnet. Bei einer gegebenen Worthistorie hk = (wi-k, ..., wi-1) der Länge k wird die Wahrscheinlichkeit eines Nachfolgerworts w = wi berechnet durch
- Das Sprachmodell wird hier mittels eines Satzes von Wortsequenzen (hk, w) und zugehörigen Auftrittshäufigkeiten N(hk, w) im Trainingskorpus bestimmt. γ(hk) ist ein Normalisierungsfaktor und wird so bestimmt, daß die Summe aller Wahrscheinlichkeitswerte p(w|hk) des Sprachmodells über alle w ∊ V sich zu 1 ergibt. Der Term N+(hk) gibt die Anzahl unterschiedlicher Wörter w an, die als mögliche Nachfolger der Historie hk im Trainingskorpus gesehen wurden. Die Funktion d(.) implementiert eine sogenannte "absolute discounting"-Funktion, mittels der berücksichtigt wird, daß bestimmte Wortfolgen im Trainingskorpus nicht auftreten. Auch solchen Wortfolgen wird eine gewisse Wahrscheinlichkeitmasse zugeordnet. Die Funktion d(.) wird gegeben durch: mit dk als einer heuristisch zu bestimmenden Konstanten vorzugsweise aus dem Intervall [0, 1] und vorzugsweise abhängig vom Wert von N(hk, w) und der Länge k der Historie hk.
- Das erfindungsgemäße Sprachmodell beschreibt nun Worthistorien durch Folgen von Wörtern und/oder kontextunabhängige Wortklassen (auch Wortkategorien genannt) unterschiedlicher Länge, die somit auch als Varigramme bezeichnet werden können. Mindestens ein Teil der Wörter wj des Vokabulars wird dabei durch jeweils eine Wortklasse c(wj) zusammengefaßt, wobei hier ein Wort nur zu genau einer Klasse und nicht mehreren Klassen gehören kann. Eine Möglichkeit der Optimierung solcher Wortklassen ist bei spielsweise in R. Kneser, H. Ney, "Improved Clustering Techniques for Class-Based Statistical Language Modelling", Proc. EUROSPEECH, Seiten 973–976, September 1993 beschrieben.
- Statt rein wortbasierten Historien hk werden nun Historienbeschreibungen bk ∊ BL(hk) mit BL(hk) ⊆ L angewendet, die aus Folgen von Wörtern und/oder Wortklassen c(.) bestehen.
- Die Wortklassen sollten dabei einerseits so groß als möglich sein, damit Wörter der Wortklassen möglichst oft im Trainingskorpus gesehen werden können und die ermittelten Varigrammwahrscheinlichkeitswerte möglichst zuverlässig sind, aber andererseits sollten die Mitglieder einer Wortklasse auch so gewählt sein, daß eine möglichst große Homogenität bezüglich der Wahrscheinlichkeitwerte für ein Wort w erreicht wird, wobei Wortklassen enthaltende Historienbeschreibungen bk gegeben sind, d. h. p(w|bk) soll, unabhängig davon, ob ein Wort als Wort selbst oder als Element einer Wortklasse betrachtet wird, möglichst ähnliche Werte annehmen. Hier liefert der erfindungsgemäße Ansatz einen guten Kompromiß. Zu jeder Historienbeschreibung bk werden alle Kombinationsmöglichkeiten aus Wörtern und – soweit für die Wörter vorhanden – Wortklassen für das Sprachmodell beim Zählen der Auftrittshäufigkeiten N(hk, w) berücksichtigt. Bei einer Historienbeschreibung der Länge k ergeben sich dann jeweils 2k Kombinationsmöglichkeiten, d. h. 2k verschiedene zugehörige Historienbeschreibungen bk. Beispielsweise erhält man bei einer Historienbeschreibung bk der Länge k = 2, bei der für jedes enthaltene Wort auch eine Wortklasse existiert, die folgenden Historienbeschreibungen für ein Wort w = wi (bzw. für bedingte Wahrscheinlichkeiten p(w|bk)):
wi-2wi-1,
c(wi-2)wi-1,
wi-2c(wi-1),
c(wi-2)c(wi-1). - Die Verwendung von Wortklassen hat den Vorteil, daß weniger Sprachmodellparameter zu schätzen sind, wofür wiederum kleinere Trainingskorpora ausreichen, so daß weniger Speicherplatz im verwendeten Datenverarbeitungssystem und/oder weniger Trainingsmaterial erforderlich ist. Die hier verwendeten Wortklassen sind kontextunabhängig, d. h. sie sind unabhängig von den Nachbarwörtern eines Wortes innerhalb bestimmter Varigramme. Als Wortklassen kommen beispielsweise Artikel oder Zahlwörter oder ähnlich klingende Wörter in Betracht.
- Bei diesem Ansatz sind anstelle von α(w|hk) und γ(w|hk) modifizierte Werte α'(w|hk) und γ'(w|hk) gemäß zu berechnen. Die Bestimmung von α(w|bk) und γ(w|bk) ergibt sich aus den bereits weiter oben angeführten Formeln für wortbasierte Varigramme, wobei lediglich anstelle der Historien hk die Historienbeschreibungen bk zugrundezulegen sind. In die Berechnung von α'(w|hk) und γ'(w|hk) gehen somit sowohl die Auftrittshäufigkeit der durch bk repräsentierten Wortfolge als auch die Auftrittshäufigkeiten der durch bk repräsentierten Folgen, die aus Wörtern und Wortklassen oder nur aus Wortklassen bestehen, ein. Dabei ist |BL(hk)| die Kardinalität der Menge BL(hk), d. h. gleich der Anzahl der Elemente der Menge BL (hk). Diese Berechnungsvariante entspricht einer Mittelwertbildung für α(w|bk) und γ(w|bk).
- Eine weitere Variante der Erfindung nutzt ein Perplexitätskriterium zur Bestimmung von Werten α''(w|bk) und γ''(w|bk) anstelle der für wortbasierte Varigramme definierten Werte α(w|bk) und γ(w|bk). Dieses Kriterium wird definiert zu: pLOO(.) bezeichnet dabei eine Wahrscheinlichkeit, die mit einer sogenannten "Leaving-one-out"-Methode berechnet wird. Hierzu wird auf R. Kneser, H. Ney, "Improved Clustering Techniques for Class-Based Statistical Language Modelling", Proc. EUROSPEECH, Seiten 973–976, September 1993 verwiesen.
-
- Dabei ist N(b) die Auftrittshäufigkeit der Historienbeschreibung b im Trainingskorpus. Die α- und γ-Werte ergeben sich dann zu
- Der Ausdruck p*(b'|b*) gibt einen Wahrscheinlichkeitswert für eine Verkürzung der Historienbeschreibung b' auf die Historienbeschreibung b* mit geringerer Länge an. Dabei können Wörter in Wortklassen übergehen und umgekehrt, je nachdem, welche Wortklassen überhaupt hier in Frage kommen. Alle Varianten einer Verkürzung werden grundsätzlich in Betracht gezogen. Die genaue Wahl der Verkürzung hängt schließlich von den jeweiligen oben spezifizierten Werten ΔLL(.)/N(.) ab.
Claims (4)
- Verfahren zur Bestimmung von Parametern eines statistischen Sprachmo- dells für automatische Spracherkennungssysteme mittels eines Trainingskorpus, wobei – mindestens ein Teil der Elemente eines verwendeten Vokabulars zu kontextunabhängigen Vokabularelementklassen zusammengefaßt wird, – bei der Sprachmodellierung die Auftrittshäufigkeiten von Vokabularelementfolgen und gegebenenfalls die Auftrittshäufigkeiten von aus diesen Vokabularelementfolgen durch Ersetzen mindestens eines Vokabularelements durch die zugehörige Vokabularelementklasse gebildeten abgeleiteten Folgen ausgewertet werden und – die Parameter des Sprachmodells aus den so bestimmten Auftrittshäufigkeiten abgeleitet werden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, sowohl die Auftrittshäufigkeit der Vokabularelementfolge als auch die Auftrittshäufigkeiten der abgeleiteten Folgen verwendet werden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, lediglich die Auftrittshäufigkeit einer dieser Folgen verwendet wird.
- Automatisches Spracherkennungssystem mit einem nach einem der Ansprüche 1 bis 3 gebildeten statistischen Sprachmodell.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE69915449T DE69915449T2 (de) | 1998-10-21 | 1999-10-11 | Verfahren zur bestimmunng von parametern eines statistischen sprachmodells |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19848415 | 1998-10-21 | ||
EP98119914 | 1998-10-21 | ||
EP98119914 | 1998-10-21 | ||
DE19848415 | 1998-10-21 | ||
DE69915449T DE69915449T2 (de) | 1998-10-21 | 1999-10-11 | Verfahren zur bestimmunng von parametern eines statistischen sprachmodells |
PCT/EP1999/007810 WO2000023983A1 (en) | 1998-10-21 | 1999-10-11 | Method of determining parameters of a statistical language model |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69915449D1 DE69915449D1 (de) | 2004-04-15 |
DE69915449T2 true DE69915449T2 (de) | 2005-03-03 |
Family
ID=26049652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69915449T Expired - Fee Related DE69915449T2 (de) | 1998-10-21 | 1999-10-11 | Verfahren zur bestimmunng von parametern eines statistischen sprachmodells |
Country Status (5)
Country | Link |
---|---|
US (1) | US6691088B1 (de) |
EP (1) | EP1046157B1 (de) |
JP (1) | JP2002528752A (de) |
DE (1) | DE69915449T2 (de) |
WO (1) | WO2000023983A1 (de) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1229454A3 (de) * | 2000-12-20 | 2009-04-22 | International Business Machines Corporation | Verfahren und Apparat zum statistischen Filtern eines Text |
US7103533B2 (en) * | 2001-02-21 | 2006-09-05 | International Business Machines Corporation | Method for preserving contextual accuracy in an extendible speech recognition language model |
US7243071B1 (en) | 2003-01-16 | 2007-07-10 | Comverse, Inc. | Speech-recognition grammar analysis |
US8335688B2 (en) | 2004-08-20 | 2012-12-18 | Multimodal Technologies, Llc | Document transcription system training |
US8412521B2 (en) | 2004-08-20 | 2013-04-02 | Multimodal Technologies, Llc | Discriminative training of document transcription system |
WO2006034152A2 (en) * | 2004-09-17 | 2006-03-30 | Multimodal Technologies, Inc. | Discriminative training of document transcription system |
US7680659B2 (en) * | 2005-06-01 | 2010-03-16 | Microsoft Corporation | Discriminative training for language modeling |
US7831423B2 (en) * | 2006-05-25 | 2010-11-09 | Multimodal Technologies, Inc. | Replacing text representing a concept with an alternate written form of the concept |
US20080282154A1 (en) * | 2006-09-11 | 2008-11-13 | Nurmi Mikko A | Method and apparatus for improved text input |
US9031844B2 (en) | 2010-09-21 | 2015-05-12 | Microsoft Technology Licensing, Llc | Full-sequence training of deep structures for speech recognition |
US9262397B2 (en) | 2010-10-08 | 2016-02-16 | Microsoft Technology Licensing, Llc | General purpose correction of grammatical and word usage errors |
JPWO2012165529A1 (ja) * | 2011-06-03 | 2015-02-23 | 日本電気株式会社 | 言語モデル構築支援装置、方法及びプログラム |
US8855997B2 (en) * | 2011-07-28 | 2014-10-07 | Microsoft Corporation | Linguistic error detection |
US9235799B2 (en) | 2011-11-26 | 2016-01-12 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
US9786269B2 (en) | 2013-03-14 | 2017-10-10 | Google Inc. | Language modeling of complete language sequences |
WO2014189399A1 (en) | 2013-05-22 | 2014-11-27 | Axon Doo | A mixed-structure n-gram language model |
US10042845B2 (en) * | 2014-10-31 | 2018-08-07 | Microsoft Technology Licensing, Llc | Transfer learning for bilingual content classification |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19516099C2 (de) * | 1995-05-05 | 2003-07-03 | Philips Intellectual Property | Verfahren zum Bestimmen von Sprachmodellwerten |
DE19708184A1 (de) * | 1997-02-28 | 1998-09-03 | Philips Patentverwaltung | Verfahren zur Spracherkennung mit Sprachmodellanpassung |
DE19708183A1 (de) * | 1997-02-28 | 1998-09-03 | Philips Patentverwaltung | Verfahren zur Spracherkennung mit Sprachmodellanpassung |
US6125345A (en) * | 1997-09-19 | 2000-09-26 | At&T Corporation | Method and apparatus for discriminative utterance verification using multiple confidence measures |
US6009392A (en) * | 1998-01-15 | 1999-12-28 | International Business Machines Corporation | Training speech recognition by matching audio segment frequency of occurrence with frequency of words and letter combinations in a corpus |
US6208971B1 (en) * | 1998-10-30 | 2001-03-27 | Apple Computer, Inc. | Method and apparatus for command recognition using data-driven semantic inference |
-
1999
- 1999-10-11 WO PCT/EP1999/007810 patent/WO2000023983A1/en active IP Right Grant
- 1999-10-11 DE DE69915449T patent/DE69915449T2/de not_active Expired - Fee Related
- 1999-10-11 JP JP2000577650A patent/JP2002528752A/ja active Pending
- 1999-10-11 EP EP99953848A patent/EP1046157B1/de not_active Expired - Lifetime
- 1999-10-20 US US09/421,646 patent/US6691088B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US6691088B1 (en) | 2004-02-10 |
EP1046157A1 (de) | 2000-10-25 |
JP2002528752A (ja) | 2002-09-03 |
EP1046157B1 (de) | 2004-03-10 |
DE69915449D1 (de) | 2004-04-15 |
WO2000023983A1 (en) | 2000-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69915449T2 (de) | Verfahren zur bestimmunng von parametern eines statistischen sprachmodells | |
DE3852608T2 (de) | Design und Konstruktion eines binären Entscheidungsbaumsystems zur Sprachmodellierung. | |
DE69523219T2 (de) | Anpassungsfähiges Lernverfahren zur Mustererkennung | |
DE69615667T2 (de) | Spracherkennung | |
DE69519297T2 (de) | Verfahren und vorrichtung zur spracherkennung mittels optimierter partieller buendelung von wahrscheinlichkeitsmischungen | |
DE69818231T2 (de) | Verfahren zum diskriminativen training von spracherkennungsmodellen | |
DE69318447T2 (de) | Erkennungssystem | |
DE69726235T2 (de) | Verfahren und Vorrichtung zur Spracherkennung | |
EP0797185B1 (de) | Verfahren und Vorrichtung zur Spracherkennung | |
DE69613338T2 (de) | Verfahren und system zur mustererkennung mittels baumstrukturierten wahrscheinlichkeitsdichten | |
DE60100090T2 (de) | Verfahren zur Verwaltung eines Sprach-Cachespeichers | |
DE19708183A1 (de) | Verfahren zur Spracherkennung mit Sprachmodellanpassung | |
DE69623364T2 (de) | Einrichtung zur Erkennung kontinuierlich gesprochener Sprache | |
EP1812930B1 (de) | Verfahren zur spracherkennung aus einem aufgeteilten vokabular | |
DE69517571T2 (de) | Verfahren zur Erkennung von Mustern | |
DE10047723A1 (de) | Verfahren zur Ermittlung eines Eigenraums zur Darstellung einer Mehrzahl von Trainingssprechern | |
DE3711348A1 (de) | Verfahren zum erkennen kontinuierlich gesprochener woerter | |
DE60028219T2 (de) | Verfahren zur Spracherkennung | |
EP1251489A2 (de) | Training von Parametern eines Spracherkennungssystems zur Erkennung von Aussprachevarianten | |
EP0285222B1 (de) | Verfahren zum Erkennen zusammenhängend gesprochener Wörter | |
DE102010007302A1 (de) | Ein System und Verfahren zum Generieren von Abfragen | |
EP1456837B1 (de) | Verfahren und vorrichtung zur spracherkennung | |
EP1182646A2 (de) | Verfahren zur Zuordnung von Phonemen | |
DE69628603T2 (de) | System zur Musteranpassung mittels einer Baumstruktur | |
EP0987682A2 (de) | Verfahren zur Adaption von linguistischen Sprachmodellen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |