DE69915449T2 - Verfahren zur bestimmunng von parametern eines statistischen sprachmodells - Google Patents

Verfahren zur bestimmunng von parametern eines statistischen sprachmodells Download PDF

Info

Publication number
DE69915449T2
DE69915449T2 DE69915449T DE69915449T DE69915449T2 DE 69915449 T2 DE69915449 T2 DE 69915449T2 DE 69915449 T DE69915449 T DE 69915449T DE 69915449 T DE69915449 T DE 69915449T DE 69915449 T2 DE69915449 T2 DE 69915449T2
Authority
DE
Germany
Prior art keywords
vocabulary
language model
word
occurrence
vocabulary element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69915449T
Other languages
English (en)
Other versions
DE69915449D1 (de
Inventor
Reinhard Blasig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Intellectual Property and Standards GmbH
Koninklijke Philips NV
Original Assignee
Philips Intellectual Property and Standards GmbH
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Intellectual Property and Standards GmbH, Koninklijke Philips Electronics NV filed Critical Philips Intellectual Property and Standards GmbH
Priority to DE69915449T priority Critical patent/DE69915449T2/de
Application granted granted Critical
Publication of DE69915449D1 publication Critical patent/DE69915449D1/de
Publication of DE69915449T2 publication Critical patent/DE69915449T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung von Parametern eines statistischen Sprachmodells für automatische Spracherkennungssysteme mittels eines Trainingskorpus.
  • In automatischen Spracherkennungssystemen, die auf großen Vokabularien basieren und beispielsweise im Rahmen von Diktiersystemen eingesetzt werden, werden einerseits akustische Modelle und andererseits Sprachmodelle eingesetzt, die über die Bayes-Formel miteinander verknüpft sind. Der akustischen Modellierung liegen sogenannte HMM ("Hidden Markov Models") zugrunde. Bei der Sprachmodellierung werden einzelnen Vokabularelementen wie Wörtern oder Folgen von Vokabularelementen (sogenannten n-Grammen), wie beispielsweise Bigrammen (n = 2) und Trigrammen (n = 3), Wahrscheinlichkeitwerte darstellende Parameterwerte des Sprachmodells zugeordnet, die aus den Auftrittshäufigkeiten (sogenannte "counts") im Trainingskorpus bestimmt werden.
  • Aus T. R. Niesler und P. C. Woodland, "Combination of word-based and category-based language models", Proc. ICSLP, Vol. 1, Seiten 220–223, Oktober 1996 ist es bekannt, einem Sprachmodell n-Gramme unterschiedlicher Länge n mit entsprechenden bedingten Wahrscheinlichkeiten zugrundezulegen, bei denen jeweils als Historie für ein Wort des Vokabulars entweder eine Folge von Wörtern oder eine Folge von Klassen verwendet wird, wobei eine Klasse jeweils eine Menge verschiedener Wörter des Vokabulars zusammenfaßt. Für die Fälle mit klassenbasierten Historien wird die durch Auswertung der zugehörigen Auftrittshäufigkeit abgeleitete bedingte Wahrscheinlichkeit für die vorhergesagte Klasse mit einem Wichtungsfaktor multipliziert, der der Wahrscheinlichkeit des Wortes innerhalb dieser Klasse entspricht.
  • Der Erfindung liegt die Aufgabe zugrunde, die Sprachmodellierung so zu modifizieren, daß die Perplexität und die Fehlerrate bei der Spracherkennung verbessert werden.
  • Die Aufgabe wird dadurch gelöst, daß mindestens ein Teil der Elemente eines verwendeten Vokabulars zu kontextunabhängigen Vokabularelementklassen zusammengefaßt wird, daß bei der Sprachmodellierung die Auftrittshäufigkeiten von Vokabular elementfolgen und gegebenenfalls die Auftrittshäufigkeiten von aus diesen Vokabularelementfolgen durch Ersetzen mindestens eines Vokabularelements durch die zugehörige Vokabularelementklasse gebildeten abgeleiteten Folgen ausgewertet werden und daß die Parameter des Sprachmodells aus den so bestimmten Auftrittshäufigkeiten abgeleitet werden.
  • Bei einem solchen Verfahren zur Schätzung von Sprachmodellen können die verwendeten Folgen von Vokabularelementen und/oder Vokabularelementklassen optimal an das jeweils verwendete Vokabular und Trainingsmaterial angepaßt werden. Ein Vokabularelement stellt insbesondere jeweils ein Wort dar. Die Verwendung von Vokabularelementklassen führt dazu, daß Wahrscheinlichkeitswerte besser zu schätzen sind und gegenüber einer Sprachmodellierung ohne Rückgriff auf Vokabularelementklassen zur Erzielung gleich guter Perplexitätswerte und Fehlerraten ein kleinerer Trainingskorpus ausreicht. Ein beliebiges Vokabularelement einer Vokabularelementfolge kann gegebenenfalls durch die zugehörige Vokabularelementklasse ersetzt werden. Auch der erforderliche Speicherplatz ist reduziert. Für die Vokabularelemente, bei denen eine Beschreibung mittels Klassenzuordnung weniger geeignet ist, steht bei dem erfindungsgemäßen Verfahren jedenfalls immer eine Alternative oder ein Korrektiv basierend auf reinen Vokabularelementfolgen zur Verfügung.
  • In einer Ausgestaltung der Erfindung werden zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, sowohl die Auftrittshäufigkeit der Vokabularelementfolge als auch die Auftrittshäufigkeiten der abgeleiteten Folgen verwendet. Alle für die Bestimmung eines Sprachmodellparameters gebildeten Folgen von Vokabularelementen/Vokabularelementklassen haben bei dieser Ausgestaltung einen Anteil an der Bildung dieses Sprachmodellparameters. Vorzugsweise erfolgt eine Mittelwertbildung der Sprachmodellparameter der jeweiligen Folgen von Vokabularelementen/Vokabularelementklassen.
  • Eine weitere Ausgestaltung kann dadurch gekennzeichnet sein, daß zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, lediglich die Auftrittshäufigkeit einer dieser Folgen verwendet wird. Ein mögliches Auswahlkriterium ist ein an der Maximierung der Perplexität orientiertes Kriterium.
  • Die Erfindung betrifft auch ein automatisches Spracherkennungssystem mit einem nach dem erfindungsgemäßen Verfahren gebildeten statistischen Sprachmodell.
  • Nachstehend werden Ausführungsbeispiele der Erfindung beschrieben.
  • Zunächst wird im folgenden eine wortbasierte Sprachmodellierung mit n-Grammen variabler Länge n (im folgenden als Varigramme bezeichnet) erläutert. Das so gebildete Sprachmodell, das auf Varigrammen bei vorgegebenem Vokabular und Trainingskorpus beruht, wird mit L bezeichnet. Bei einer gegebenen Worthistorie hk = (wi-k, ..., wi-1) der Länge k wird die Wahrscheinlichkeit eines Nachfolgerworts w = wi berechnet durch
  • Figure 00030001
  • Das Sprachmodell wird hier mittels eines Satzes von Wortsequenzen (hk, w) und zugehörigen Auftrittshäufigkeiten N(hk, w) im Trainingskorpus bestimmt. γ(hk) ist ein Normalisierungsfaktor und wird so bestimmt, daß die Summe aller Wahrscheinlichkeitswerte p(w|hk) des Sprachmodells über alle w ∊ V sich zu 1 ergibt. Der Term N+(hk) gibt die Anzahl unterschiedlicher Wörter w an, die als mögliche Nachfolger der Historie hk im Trainingskorpus gesehen wurden. Die Funktion d(.) implementiert eine sogenannte "absolute discounting"-Funktion, mittels der berücksichtigt wird, daß bestimmte Wortfolgen im Trainingskorpus nicht auftreten. Auch solchen Wortfolgen wird eine gewisse Wahrscheinlichkeitmasse zugeordnet. Die Funktion d(.) wird gegeben durch:
    Figure 00030002
    mit dk als einer heuristisch zu bestimmenden Konstanten vorzugsweise aus dem Intervall [0, 1] und vorzugsweise abhängig vom Wert von N(hk, w) und der Länge k der Historie hk.
  • Das erfindungsgemäße Sprachmodell beschreibt nun Worthistorien durch Folgen von Wörtern und/oder kontextunabhängige Wortklassen (auch Wortkategorien genannt) unterschiedlicher Länge, die somit auch als Varigramme bezeichnet werden können. Mindestens ein Teil der Wörter wj des Vokabulars wird dabei durch jeweils eine Wortklasse c(wj) zusammengefaßt, wobei hier ein Wort nur zu genau einer Klasse und nicht mehreren Klassen gehören kann. Eine Möglichkeit der Optimierung solcher Wortklassen ist bei spielsweise in R. Kneser, H. Ney, "Improved Clustering Techniques for Class-Based Statistical Language Modelling", Proc. EUROSPEECH, Seiten 973–976, September 1993 beschrieben.
  • Statt rein wortbasierten Historien hk werden nun Historienbeschreibungen bk ∊ BL(hk) mit BL(hk) ⊆ L angewendet, die aus Folgen von Wörtern und/oder Wortklassen c(.) bestehen.
  • Die Wortklassen sollten dabei einerseits so groß als möglich sein, damit Wörter der Wortklassen möglichst oft im Trainingskorpus gesehen werden können und die ermittelten Varigrammwahrscheinlichkeitswerte möglichst zuverlässig sind, aber andererseits sollten die Mitglieder einer Wortklasse auch so gewählt sein, daß eine möglichst große Homogenität bezüglich der Wahrscheinlichkeitwerte für ein Wort w erreicht wird, wobei Wortklassen enthaltende Historienbeschreibungen bk gegeben sind, d. h. p(w|bk) soll, unabhängig davon, ob ein Wort als Wort selbst oder als Element einer Wortklasse betrachtet wird, möglichst ähnliche Werte annehmen. Hier liefert der erfindungsgemäße Ansatz einen guten Kompromiß. Zu jeder Historienbeschreibung bk werden alle Kombinationsmöglichkeiten aus Wörtern und – soweit für die Wörter vorhanden – Wortklassen für das Sprachmodell beim Zählen der Auftrittshäufigkeiten N(hk, w) berücksichtigt. Bei einer Historienbeschreibung der Länge k ergeben sich dann jeweils 2k Kombinationsmöglichkeiten, d. h. 2k verschiedene zugehörige Historienbeschreibungen bk. Beispielsweise erhält man bei einer Historienbeschreibung bk der Länge k = 2, bei der für jedes enthaltene Wort auch eine Wortklasse existiert, die folgenden Historienbeschreibungen für ein Wort w = wi (bzw. für bedingte Wahrscheinlichkeiten p(w|bk)):
    wi-2wi-1,
    c(wi-2)wi-1,
    wi-2c(wi-1),
    c(wi-2)c(wi-1).
  • Die Verwendung von Wortklassen hat den Vorteil, daß weniger Sprachmodellparameter zu schätzen sind, wofür wiederum kleinere Trainingskorpora ausreichen, so daß weniger Speicherplatz im verwendeten Datenverarbeitungssystem und/oder weniger Trainingsmaterial erforderlich ist. Die hier verwendeten Wortklassen sind kontextunabhängig, d. h. sie sind unabhängig von den Nachbarwörtern eines Wortes innerhalb bestimmter Varigramme. Als Wortklassen kommen beispielsweise Artikel oder Zahlwörter oder ähnlich klingende Wörter in Betracht.
  • Bei diesem Ansatz sind anstelle von α(w|hk) und γ(w|hk) modifizierte Werte α'(w|hk) und γ'(w|hk) gemäß
    Figure 00050001
    zu berechnen. Die Bestimmung von α(w|bk) und γ(w|bk) ergibt sich aus den bereits weiter oben angeführten Formeln für wortbasierte Varigramme, wobei lediglich anstelle der Historien hk die Historienbeschreibungen bk zugrundezulegen sind. In die Berechnung von α'(w|hk) und γ'(w|hk) gehen somit sowohl die Auftrittshäufigkeit der durch bk repräsentierten Wortfolge als auch die Auftrittshäufigkeiten der durch bk repräsentierten Folgen, die aus Wörtern und Wortklassen oder nur aus Wortklassen bestehen, ein. Dabei ist |BL(hk)| die Kardinalität der Menge BL(hk), d. h. gleich der Anzahl der Elemente der Menge BL (hk). Diese Berechnungsvariante entspricht einer Mittelwertbildung für α(w|bk) und γ(w|bk).
  • Eine weitere Variante der Erfindung nutzt ein Perplexitätskriterium zur Bestimmung von Werten α''(w|bk) und γ''(w|bk) anstelle der für wortbasierte Varigramme definierten Werte α(w|bk) und γ(w|bk). Dieses Kriterium wird definiert zu:
    Figure 00050002
    pLOO(.) bezeichnet dabei eine Wahrscheinlichkeit, die mit einer sogenannten "Leaving-one-out"-Methode berechnet wird. Hierzu wird auf R. Kneser, H. Ney, "Improved Clustering Techniques for Class-Based Statistical Language Modelling", Proc. EUROSPEECH, Seiten 973–976, September 1993 verwiesen.
  • Nunmehr wird durch Maximumbildung
    Figure 00050003
    die bestgeeignete Historienbeschreibung b* ermittelt.
  • Dabei ist N(b) die Auftrittshäufigkeit der Historienbeschreibung b im Trainingskorpus. Die α- und γ-Werte ergeben sich dann zu
  • Figure 00060001
  • Der Ausdruck p*(b'|b*) gibt einen Wahrscheinlichkeitswert für eine Verkürzung der Historienbeschreibung b' auf die Historienbeschreibung b* mit geringerer Länge an. Dabei können Wörter in Wortklassen übergehen und umgekehrt, je nachdem, welche Wortklassen überhaupt hier in Frage kommen. Alle Varianten einer Verkürzung werden grundsätzlich in Betracht gezogen. Die genaue Wahl der Verkürzung hängt schließlich von den jeweiligen oben spezifizierten Werten ΔLL(.)/N(.) ab.

Claims (4)

  1. Verfahren zur Bestimmung von Parametern eines statistischen Sprachmo- dells für automatische Spracherkennungssysteme mittels eines Trainingskorpus, wobei – mindestens ein Teil der Elemente eines verwendeten Vokabulars zu kontextunabhängigen Vokabularelementklassen zusammengefaßt wird, – bei der Sprachmodellierung die Auftrittshäufigkeiten von Vokabularelementfolgen und gegebenenfalls die Auftrittshäufigkeiten von aus diesen Vokabularelementfolgen durch Ersetzen mindestens eines Vokabularelements durch die zugehörige Vokabularelementklasse gebildeten abgeleiteten Folgen ausgewertet werden und – die Parameter des Sprachmodells aus den so bestimmten Auftrittshäufigkeiten abgeleitet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, sowohl die Auftrittshäufigkeit der Vokabularelementfolge als auch die Auftrittshäufigkeiten der abgeleiteten Folgen verwendet werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Bildung eines Sprachmodellparameters aus einer Vokabularelementfolge und zugehörigen abgeleiteten Folgen, die jeweils mindestens eine Vokabularelementklasse umfassen, lediglich die Auftrittshäufigkeit einer dieser Folgen verwendet wird.
  4. Automatisches Spracherkennungssystem mit einem nach einem der Ansprüche 1 bis 3 gebildeten statistischen Sprachmodell.
DE69915449T 1998-10-21 1999-10-11 Verfahren zur bestimmunng von parametern eines statistischen sprachmodells Expired - Fee Related DE69915449T2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE69915449T DE69915449T2 (de) 1998-10-21 1999-10-11 Verfahren zur bestimmunng von parametern eines statistischen sprachmodells

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
DE19848415 1998-10-21
EP98119914 1998-10-21
EP98119914 1998-10-21
DE19848415 1998-10-21
DE69915449T DE69915449T2 (de) 1998-10-21 1999-10-11 Verfahren zur bestimmunng von parametern eines statistischen sprachmodells
PCT/EP1999/007810 WO2000023983A1 (en) 1998-10-21 1999-10-11 Method of determining parameters of a statistical language model

Publications (2)

Publication Number Publication Date
DE69915449D1 DE69915449D1 (de) 2004-04-15
DE69915449T2 true DE69915449T2 (de) 2005-03-03

Family

ID=26049652

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69915449T Expired - Fee Related DE69915449T2 (de) 1998-10-21 1999-10-11 Verfahren zur bestimmunng von parametern eines statistischen sprachmodells

Country Status (5)

Country Link
US (1) US6691088B1 (de)
EP (1) EP1046157B1 (de)
JP (1) JP2002528752A (de)
DE (1) DE69915449T2 (de)
WO (1) WO2000023983A1 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1229454A3 (de) * 2000-12-20 2009-04-22 International Business Machines Corporation Verfahren und Apparat zum statistischen Filtern eines Text
US7103533B2 (en) * 2001-02-21 2006-09-05 International Business Machines Corporation Method for preserving contextual accuracy in an extendible speech recognition language model
US7243071B1 (en) 2003-01-16 2007-07-10 Comverse, Inc. Speech-recognition grammar analysis
US8335688B2 (en) 2004-08-20 2012-12-18 Multimodal Technologies, Llc Document transcription system training
US8412521B2 (en) 2004-08-20 2013-04-02 Multimodal Technologies, Llc Discriminative training of document transcription system
WO2006034152A2 (en) * 2004-09-17 2006-03-30 Multimodal Technologies, Inc. Discriminative training of document transcription system
US7680659B2 (en) * 2005-06-01 2010-03-16 Microsoft Corporation Discriminative training for language modeling
US7831423B2 (en) * 2006-05-25 2010-11-09 Multimodal Technologies, Inc. Replacing text representing a concept with an alternate written form of the concept
US20080282154A1 (en) * 2006-09-11 2008-11-13 Nurmi Mikko A Method and apparatus for improved text input
US9031844B2 (en) 2010-09-21 2015-05-12 Microsoft Technology Licensing, Llc Full-sequence training of deep structures for speech recognition
US9262397B2 (en) 2010-10-08 2016-02-16 Microsoft Technology Licensing, Llc General purpose correction of grammatical and word usage errors
JPWO2012165529A1 (ja) * 2011-06-03 2015-02-23 日本電気株式会社 言語モデル構築支援装置、方法及びプログラム
US8855997B2 (en) * 2011-07-28 2014-10-07 Microsoft Corporation Linguistic error detection
US9235799B2 (en) 2011-11-26 2016-01-12 Microsoft Technology Licensing, Llc Discriminative pretraining of deep neural networks
US9477925B2 (en) 2012-11-20 2016-10-25 Microsoft Technology Licensing, Llc Deep neural networks training for speech and pattern recognition
US9786269B2 (en) 2013-03-14 2017-10-10 Google Inc. Language modeling of complete language sequences
WO2014189399A1 (en) 2013-05-22 2014-11-27 Axon Doo A mixed-structure n-gram language model
US10042845B2 (en) * 2014-10-31 2018-08-07 Microsoft Technology Licensing, Llc Transfer learning for bilingual content classification

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19516099C2 (de) * 1995-05-05 2003-07-03 Philips Intellectual Property Verfahren zum Bestimmen von Sprachmodellwerten
DE19708184A1 (de) * 1997-02-28 1998-09-03 Philips Patentverwaltung Verfahren zur Spracherkennung mit Sprachmodellanpassung
DE19708183A1 (de) * 1997-02-28 1998-09-03 Philips Patentverwaltung Verfahren zur Spracherkennung mit Sprachmodellanpassung
US6125345A (en) * 1997-09-19 2000-09-26 At&T Corporation Method and apparatus for discriminative utterance verification using multiple confidence measures
US6009392A (en) * 1998-01-15 1999-12-28 International Business Machines Corporation Training speech recognition by matching audio segment frequency of occurrence with frequency of words and letter combinations in a corpus
US6208971B1 (en) * 1998-10-30 2001-03-27 Apple Computer, Inc. Method and apparatus for command recognition using data-driven semantic inference

Also Published As

Publication number Publication date
US6691088B1 (en) 2004-02-10
EP1046157A1 (de) 2000-10-25
JP2002528752A (ja) 2002-09-03
EP1046157B1 (de) 2004-03-10
DE69915449D1 (de) 2004-04-15
WO2000023983A1 (en) 2000-04-27

Similar Documents

Publication Publication Date Title
DE69915449T2 (de) Verfahren zur bestimmunng von parametern eines statistischen sprachmodells
DE3852608T2 (de) Design und Konstruktion eines binären Entscheidungsbaumsystems zur Sprachmodellierung.
DE69523219T2 (de) Anpassungsfähiges Lernverfahren zur Mustererkennung
DE69615667T2 (de) Spracherkennung
DE69519297T2 (de) Verfahren und vorrichtung zur spracherkennung mittels optimierter partieller buendelung von wahrscheinlichkeitsmischungen
DE69818231T2 (de) Verfahren zum diskriminativen training von spracherkennungsmodellen
DE69318447T2 (de) Erkennungssystem
DE69726235T2 (de) Verfahren und Vorrichtung zur Spracherkennung
EP0797185B1 (de) Verfahren und Vorrichtung zur Spracherkennung
DE69613338T2 (de) Verfahren und system zur mustererkennung mittels baumstrukturierten wahrscheinlichkeitsdichten
DE60100090T2 (de) Verfahren zur Verwaltung eines Sprach-Cachespeichers
DE19708183A1 (de) Verfahren zur Spracherkennung mit Sprachmodellanpassung
DE69623364T2 (de) Einrichtung zur Erkennung kontinuierlich gesprochener Sprache
EP1812930B1 (de) Verfahren zur spracherkennung aus einem aufgeteilten vokabular
DE69517571T2 (de) Verfahren zur Erkennung von Mustern
DE10047723A1 (de) Verfahren zur Ermittlung eines Eigenraums zur Darstellung einer Mehrzahl von Trainingssprechern
DE3711348A1 (de) Verfahren zum erkennen kontinuierlich gesprochener woerter
DE60028219T2 (de) Verfahren zur Spracherkennung
EP1251489A2 (de) Training von Parametern eines Spracherkennungssystems zur Erkennung von Aussprachevarianten
EP0285222B1 (de) Verfahren zum Erkennen zusammenhängend gesprochener Wörter
DE102010007302A1 (de) Ein System und Verfahren zum Generieren von Abfragen
EP1456837B1 (de) Verfahren und vorrichtung zur spracherkennung
EP1182646A2 (de) Verfahren zur Zuordnung von Phonemen
DE69628603T2 (de) System zur Musteranpassung mittels einer Baumstruktur
EP0987682A2 (de) Verfahren zur Adaption von linguistischen Sprachmodellen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee