WO2003060877A1 - Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner - Google Patents

Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner Download PDF

Info

Publication number
WO2003060877A1
WO2003060877A1 PCT/EP2003/000003 EP0300003W WO03060877A1 WO 2003060877 A1 WO2003060877 A1 WO 2003060877A1 EP 0300003 W EP0300003 W EP 0300003W WO 03060877 A1 WO03060877 A1 WO 03060877A1
Authority
WO
WIPO (PCT)
Prior art keywords
language
word
speech recognizer
phoneme
different languages
Prior art date
Application number
PCT/EP2003/000003
Other languages
English (en)
French (fr)
Inventor
Tobias Schneider
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to US10/501,700 priority Critical patent/US7974843B2/en
Priority to DE50307074T priority patent/DE50307074D1/de
Priority to EP03708045A priority patent/EP1466317B1/de
Publication of WO2003060877A1 publication Critical patent/WO2003060877A1/de

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Definitions

  • the invention relates to an operating method of an automatic speech recognizer for speaker-independent speech recognition of words from different languages according to patent claim 1 and a corresponding automatic speech recognizer according to patent claim 6.
  • a speech recognition vocabulary is required for phoneme-based speech recognition, which includes the phonetic descriptions of all words to be recognized. This is a basic requirement for phoneme-based speech recognition. Words are represented in the vocabulary by phoneme sequences or chains. During a speech recognition process, a search is made for the best path through the phoneme sequences in the vocabulary. This search can be carried out, for example, using the so-called Viterbi algorithm. With continuous speech recognition, the probabilities for transitions between words can also be modeled and included in the Viterbi algorithm.
  • phonetic transcriptions for the words to be recognized are the basis of the phoneme-based speech recognition. Therefore, at the beginning of the use of a phoneme-based speech recognizer, the question always arises how such phonetic transcriptions can be obtained.
  • Phonetic transcriptions are understood here to mean the phonetic descriptions of the words from a target vocabulary. This question arises in particular in the case of words which are unknown to the speech recognizer.
  • Mobile or cordless telephones which enable a speaker-dependent choice of name.
  • a user of one of Like this, the phone must train the entries contained in the phone's electronic phone book so that they can later be used for voice dialing.
  • usually no other user can use this feature, since the speaker-dependent name selection is only suitable for one person, namely for the person who has trained the language selection.
  • the entries in the electronic telephone book can be converted into phonetic transcriptions.
  • Dictation systems usually have a lexicon of typically several 10,000 words with the assignments of letter sequences to phoneme sequences.
  • encyclopedia has a very high storage space requirement, it is not practical for mobile devices such as mobile or cordless phones.
  • the object of the present invention is therefore to propose an operating method of an automatic speech recognizer for speaker-independent speech recognition of words from different languages, as well as a corresponding automatic speech recognizer, which are easy to implement, are particularly suitable for use in mobile end devices, and are inexpensive to implement.
  • the invention is essentially based on the idea of determining phonetic transcriptions of words for N-different languages in each case, then reprocessing them and supplying them with phoneme-based monolingual speech recognition. This procedure is essentially based on the
  • the phonetic transcriptions of words are each determined for N different languages, in order to obtain N-first phoneme sequences corresponding to N-first pronunciation variants per word.
  • the similarities between the languages are used. For this purpose, a mapping of the phonemes of each language to the respective phoneme sentence of the mother tongue is implemented.
  • the implemented mapping is applied to the N-first phoneme sequences determined in the first step for each word.
  • N-second phoneme sequences corresponding to N-second pronunciation variants are obtained per word.
  • the invention essentially has the following advantages: While a look-up method in a lexicon in mobile terminals fails because of the large storage space requirement and in multilingual speech recognition, which is for one Set of languages has been optimized, new hidden Markov models have to be created and optimized for each new language, the grapheme / phoneme conversion into several languages according to the invention creates a multilingual system that can be implemented with relatively simple means is, therefore, particularly suitable for use in mobile devices and, last but not least, is inexpensive to implement. In addition to the grapheme-to-phoneme conversion, the invention essentially only requires mapping, ie mapping between the individual languages, as explained above.
  • the phoneme sequence determination and the subsequent mapping or mapping normally take place “offline” on a device, for example a cell phone, a personal digital assistant or personal computer with the corresponding software, and are therefore not time-critical.
  • the resources required for this can be stored in a slow external memory.
  • the speech recognizer vocabulary created with the method described above comprises N pronunciation variants for each word
  • the search effort for speech recognition is great.
  • a further step can be introduced into the process, which is carried out before the erkpracherkenner vocabulary is created and after the generation of the N-second phoneme sequences per word.
  • the N-second phoneme sequences according to the N-second pronunciation variants of each word are processed by analyzing and classifying every second phoneme sequence using suitable distances, in particular the Levenshtein distance, and the N-second phoneme sequences of each word for a few, preferably two to three phoneme sequences are reduced, particularly by omitting the pronunciation variants that are least similar to the pronunciation variant of the mother tongue.
  • this reduction means that the less important pronunciation variants are omitted, which means that the search effort for speech recognition is reduced.
  • a further reduction in effort can be achieved by carrying out a language identification and reduction before the first step.
  • the probability of belonging to each of the N-different languages is determined for each word to be recognized.
  • An ⁇ hand the result of this language identification, the number of the first process step languages to be processed, preferably in two to three languages, reduced. This language reduction is preferably carried out in that the languages with the lowest probability are not processed further.
  • the result of the language identification can be, for example, as follows: "German 55%, UK English 16%, US English 14%, Swedish 3%, .". After this result, you can reduce to three different languages by omitting Swedish, ie not processing it further.
  • the phonetic transcriptions in the first method step are preferably determined by at least one neural network.
  • Neural networks have proven to be useful for determining phonetic transcriptions from written words, since they deliver good results in terms of accuracy and, above all, processing speed and are easy to implement, especially in software.
  • a hidden Markov model that has been created for the language defined as the mother tongue can be used as the mother tongue speech recognizer.
  • the invention further relates to a speech recognizer for speaker-independent speech recognition of words from different languages, in particular for recognizing names from different languages.
  • One of the different languages is defined as the mother tongue.
  • the speech recognizer includes - a native language speech recognizer, - a first processing module for determining the phonetic transcripts of words for each of N different languages in order to obtain N first phoneme sequences corresponding to N first pronunciation variants per word - a second processing module for implementing an Ab ⁇ Creation of phoneme any language on the respective phoneme ⁇ set the mother tongue,
  • a third processing module for applying the mapping implemented with the second processing module to the N-first phoneme sequences determined with the first processing module for each word, whereby N-second phoneme sequences corresponding to N-second pronunciation variants are obtained per word, which are recognized with the native language speech recognizer and - a fourth processing module for creating a speech recognizer vocabulary with the N-second phoneme sequences per word obtained by the third processing module for the native language speech recognizer.
  • the automatic speech recognizer comprises a fifth processing module for processing the N-second phoneme sequences in accordance with the N-second pronunciation variants of each word.
  • the fifth processing module is designed in such a way that every second phoneme sequence is analyzed and classified by means of suitable distances, in particular the Levenshtein distance, and the N-second phoneme sequences of each word are reduced to a few, preferably two to three, phoneme sequences.
  • the automatic speech recognizer can comprise a speech identifier and a speech reducer.
  • the language identifier is connected in front of the first processing module and determines the probability of belonging to each of the N-different languages for each word to be recognized.
  • the language reducer reduces the number of languages to be processed by the first processing module, preferably to two to three different languages, by using the languages with are not likely to be processed further.
  • the speech identifier and speech reducer both considerably reduce the processing effort of the automatic speech recognizer both in the input phase and in the recognition phase.
  • the first processing module preferably has at least one neural network for determining the phonetic transcriptions.
  • the native language speech recognizer has a hidden Markov model that has been created for the language defined as the native language.
  • the speaker-dependent name selection on a mobile phone with the names from the phone book is to be implemented for a German-speaking user.
  • the phone book also contains some foreign-language names.
  • an initial step SO a speech identification of the supplied words 10 or entries in the telephone book is carried out. More specifically, each individual word is analyzed for the probability of belonging to one of the five languages. For example, if a German name is processed, the probability of German is very high be much lower for the other four languages, namely Italian, Czech, Greek and Vietnamese. Based on the probabilities determined for each word, the language with the least probability for further processing is omitted. This means that only four instead of five languages have to be processed in the subsequent processing step.
  • a first method step SI the phonetic transcription for each of the four different languages is determined for each word.
  • four phoneme sequences corresponding to four first pronunciation variants are obtained for each word.
  • a mapping of the phonemes of each of the four languages to the respective phoneme set of the mother tongue is then implemented.
  • This mapping is applied in a third method step S3 to the four first phoneme sequences 12 obtained in the first method step SI.
  • four second phoneme sequences 14 corresponding to four second pronunciation variants are obtained for each word.
  • the four second phoneme sequences 14 can already be recognized with a native language speech recognizer.
  • every second phoneme sequence per word is analyzed and classified using the Levenshtein distance (step S4).
  • step S4 This is followed by a fifth method step S5, in which the analyzed and classified second phoneme sequences per word are reduced to three phoneme sequences.
  • a speech recognizer vocabulary is created with the three second phoneme sequences per word obtained in the fifth method step S5 for the native language speech recognizer. Due to the repeated reduc- tion of the phoneme sequences in the fifth method step S5, the speech recognition vocabulary to be stored and searched during speech recognition is markedly reduced. In a practical application of speech recognition, this brings on the one hand the advantage of a smaller storage space requirement and on the other hand faster processing, since a smaller vocabulary has to be searched.
  • the user can use voice recognition to select a name, that is to say the voice-controlled call of stored telephone numbers using the name of the
  • the user can speak the poorly or not recognized word into the mobile phone again and then have it converted into a phoneme sequence by the speech recognizer contained in the mobile phone. In this case, previously automatically determined pronunciation variants are removed from the vocabulary of the speech recognizer in whole or in part, depending on how close they are to the newly determined phoneme sequence.
  • the user can have a type of phonetic transcription of the poorly or not at all recognized entry of the electronic telephone book shown on the display of the mobile telephone.
  • the user can then edit the type of phonetic transcription if it does not apply, ie if the pronunciation does not match. For example, the automatic conversion of the entry "Jacques Chirac” can save it as phonetic transcription "Jakwes Schirack". If this phonetic spelling appears to the user as incorrect, he can edit it using his mobile phone, for example to
  • the user can significantly improve the recognition by explicitly specifying the language from which an incorrectly or unrecognized name comes or by explicitly selecting a specific language for a specific name. In such a case, all pronunciation variants for the name that are not assigned to the explicitly specified language are removed from the speech recognition vocabulary.
  • the invention can also be advantageous in other mobile devices other than a cell phone z.
  • a personal assistant or a personal computer d. H. be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

Die Erfindung betrifft ein Betriebsverfahren eines automatischen Spracherkenners zur sprecherunabhängigen Spracherkennung von Worten (10) aus verschiedenen Sprachen, insbesondere zur Erkennung von Namen aus verschiedenen Sprachen, das von einer als Muttersprache definierten Sprache ausgeht und eine Eingabephase zur Erstellung eines Spracherkenner-Vokabulars aufweist.

Description

Beschreibung
Betriebsverfahren eines automatischen Spracherkenners zur sprecherunabhängigen Spracherkennung von Worten aus verschie- denen Sprachen und automatischer Spracherkenner
Die Erfindung betrifft ein Betriebsverfahren eines automatischen Spracherkenners zur sprecherunabhängigen Spracherkennung von Worten aus verschiedenen Sprachen gemäß Patentan- spruch 1 und einen entsprechenden automatischen Spracherkenner gemäß Patentanspruch 6.
Für die phonembasierte Spracherkennung ist ein Spracherken- nungs-Vokabular erforderlich, das die phonetischen Beschrei- bungen aller zu erkennender Wörter umfaßt. Dies ist eine Grundvoraussetzung für die phonembasierte Spracherkennung. Wörter werden hierbei durch Phonemfolgen oder -ketten im Vokabular repräsentiert. Während eines Spracherkennungs-Vor- gangs wird eine Suche nach dem besten Pfad durch die Phonem- folgen im Vokabular durchgeführt. Diese Suche kann beispielsweise mit dem sogenannten Viterbi-Algorithmus erfolgen. Bei kontinuierlicher Spracherkennung können zudem die Wahrscheinlichkeiten für Übergange zwischen Wörtern modelliert und in den Viterbi-Algorithmus einbezogen werden.
Die phonetischen Umschriften für die zu erkennenden Wörter sind die Basis der phonembasierten Spracherkennung. Daher stellt sich zu Beginn des Einsatzes eines phonembasierten Spracherkenners immer die Frage, wie derartige phonetische Umschriften gewonnen werden können. Unter phonetischen Umschriften werden hier die phonetischen Beschreibungen der Wörter aus einem Zielvokabular verstanden. Insbesondere stellt sich diese Frage bei Wörtern, die dem Spracherkenner nicht bekannt sind.
Bekannt sind Mobil- oder Schnurlostelefone, die eine sprecherabhängige Namenswahl ermöglichen. Ein Benutzer eines der- artigen Telefons muß hierzu die im elektronischen Telefonbuch des Telefons enthaltenen Einträge trainieren, um diese später zur Namenswahl per Sprache nutzen zu können. Allerdings kann in der Regel kein anderer Benutzer dieses Feature nutzen, da die sprecherabhängige Namenswahl nur für eine Person geeignet ist, nämlich für diejenige, welche die Sprachwahl trainiert hat. Um dieses Problem zu umgehen, können die Einträge im elektronischen Telefonbuch in phonetische Umschriften umgewandelt werden.
Zum Ermitteln der phonetischen Umschrift aus einem geschriebenen Wort, beispielsweise einem Telefonbucheintrag, sind unterschiedliche Ansätze bekannt. Es sei hier beispielsweise auf die sogenannten Diktiersysteme, die im allgemeinen auf einem PC zur Ausführung kommen, verwiesen. Bei derartigen
Diktiersystemen ist im Normalfall ein Lexikon von typischerweise mehreren 10000 Wörtern mit den Zuordnungen von Buchstabenfolgen zu Phonemfolgen hinterlegt. Da ein solches Lexikon allerdings einen sehr hohen Speicherplatzbedarf aufweist, ist es für mobile Endgeräte wie beispielsweise Mobil- oder Schnurlostelefone nicht praktikabel.
Bekannt sind auch Systeme, bei denen die Umsetzung eines Wortes in dessen phonetische Umschrift regelbasiert oder durch speziell trainierte neuronale Netze erfolgt. Diese Verfahren besitzen wie das Lexikon den Nachteil, daß festgelegt werden muß, in welcher Sprache die Phonemfolge realisiert werden soll. Allerdings können insbesondere in elektronischen Telefonbüchern Namen aus verschiedenen Sprachen vorhanden sein. Eine Umsetzung wäre dann mit dem oben beschriebenen Verfahren nicht oder nur unvollständig möglich.
Daher wurden sogenannte multilinguale Systeme zur Phonemkettenermittlung und Spracherkennung entworfen. Diese Systeme erlauben die Erzeugung von Phonemketten aus verschiedenen Sprachen. Schließlich existiert noch eine andere Lösung: Ein Benutzer spricht die Worte in ein Spracherkennungssystem ein, das daraus automatisch Phonemfolgen generiert. Bei großen Wortschätzen, aber auch schon bei einigen dutzend Wörtern, wie bei- spielsweise bei einem elektronischen Telefonbuch mit 80 Einträgen, ist dies für den Benutzer nicht mehr akzeptabel.
Aufgabe der vorliegenden Erfindung ist es daher, ein Betriebsverfahrens eines automatischen Spracherkenners zur sprecherunabhängigen Spracherkennung von Worten aus verschiedenen Sprachen sowie einen entsprechenden automatischen Spracherkenner vorzuschlagen, welche einfach zu implementieren sind, sich insbesondere zum Einsatz in mobilen Endgeräten eignen, und kostengünstig zu realisieren sind.
Diese Aufgabe wird durch ein Betriebsverfahren mit den Merkmalen des Patentanspruchs 1 und durch einen automatischen Spracherkenner mit den Merkmalen des Patentanspruchs 6 gelöst .
Der Erfindung liegt im wesentlichen die Idee zugrunde, phonetische Umschriften von Wörtern jeweils für N-verschiedene Sprachen zu ermitteln, diese anschließend nachzuverarbeiten und einer phonembasierten einsprachigen Spracherkennung zuzu- führen. Diese Vorgehensweise beruht im wesentlichen auf der
Erkenntnis, daß ein Benutzer der Spracherkennung normalerweise in seiner Muttersprache spricht. Auch fremdsprachige Wörter, beispielsweise Namen, spricht er normalerweise mit einer "Muttersprachenfärbung", also einem Akzent aus, die bzw. der durch einen sogenannten Muttersprachen-Spracherkenner grob modelliert werden kann. Das Betriebsverfahren geht daher von einer als Muttersprache definierten Sprache aus.
Jede Sprache läßt sich nun mit unterschiedlichen, der jewei- ligen Sprache eigenen Phonemen beschreiben. Bekanntermaßen ähneln sich jedoch viele Phoneme verschiedener Sprachen. Ein Beispiel hierfür ist das "p" im englischen und deutschen. Diese Tatsache wird bei der multilingualen Spracherkennung ausgenutzt. Für ein Ensemble von Sprachen wird hier ein einziges Hidden-Markov-Modell erstellt, mit dem simultan mehrere Sprachen erkannt werden können. Allerdings führt dies zu ei- nem sehr großen Hidden-Markov-Modell, das eine niedrigere Erkennungsrate als ein einsprachiges Hidden-Markov-Modell besitzt. Zudem muß bei einer Erweiterung des Ensembles von Sprachen um beispielsweise eine weitere Sprache ein neues Hidden-Markov-Modell erstellt werden, was sehr aufwendig ist. Dies wird mit der Erfindung vermieden.
Erfindungsgemäß werden in einem ersten Schritt der Eingabephase zur Erstellung eines Spracherkenner-Vokabulars eines Betriebsverfahrens eines automatischen Spracherkenners zur sprecherunabhängigen Spracherkennung von Worten aus verschiedenen Sprachen, insbesondere von Erkennung von Namen aus verschiedenen Sprachen, die phonetischen Umschriften von Wörtern jeweils für N-verschiedene Sprachen ermittelt, um pro Wort N- erste Phonemfolgen entsprechend N-ersten Aussprachevarianten zu erhalten. In einem zweiten Schritt werden die Ähnlichkeiten zwischen den Sprachen ausgenutzt. Hierzu wird eine Abbildung der Phoneme jeder Sprache auf den jeweiligen Phonemsatz der Muttersprache implementiert. Ferner wird in einem dritten Schritt die implementierte Abbildung auf die im ersten Schritt ermittelten N-ersten Phonemfolgen für jedes Wort angewandt. Dadurch werden pro Wort N-zweite Phonemfolgen entsprechend N-zweiten Aussprachevarianten erhalten. Mit dem Muttersprachen-Spracherkenner kann dann bereits eine Anzahl N-verschiedener Sprachen nach Erstellen eines Spracherkenner- Vokabulars mit den im vorhergehenden Schritt erhaltenenen N- zweiten Phonemfolgen pro Wort für den Muttersprachen-Spracherkenner erkannt werden.
Die Erfindung hat im wesentlichen die folgenden Vorteile: Während ein Look-up-Verfahren in einem Lexikon bei mobilen Endgeräten wegen des großen Speicherplatzbedarfs scheitert und bei der multilingualen Spracherkennung, die für einen Satz von Sprachen optimiert wurde, für jede neue Sprache neue Hidden-Markov-Modelle erstellt und optimiert werden müssen, wird durch die Grapheme/Phoneme-Konversion in mehrere Sprachen gemäß der Erfindung ein multilinguales System geschaf- fen, das mit relativ einfachen Mitteln zu implementieren ist, sich daher vor allem zum Einsatz in mobilen Endgeräten eignet und nicht zuletzt kostengünstig zu realisieren ist. Für die Erfindung ist neben der Graphem-zu-Phonem-Umwandlung im wesentlichen nur noch ein Mapping, d. h. ein Abbilden zwischen den einzelnen Sprachen - wie oben erläutert - erforderlich. Die Phonemfolgen-Ermittlung und das anschließende Mapping bzw. Abbilden laufen normalerweise "offline" auf einem Gerät ab, beispielsweise einem Mobiltelefon, einem Personal Digital Assistant oder Personal Computer mit entsprechender Software, und sind daher zeitunkritisch. Die hierfür benötigten Ressourcen können in einem langsamen externen Speicher untergebracht werden.
Da das mit dem oben beschriebenen Verfahren erstellte Sprach- erkenner-Vokabular jedoch für jedes Wort N-Aussprachevarian- ten umfaßt, ist der Suchaufwand bei der Spracherkennung groß. Um ihn zu verringern, kann ein weiterer Schritt in das Verfahren eingeführt werden, der noch vor dem Erstellen des Ξpracherkenner-Vokabulars und nach dem Erzeugen der N-zweiten Phonemfolgen pro Wort ausgeführt wird. In diesem Schritt werden die N-zweiten Phonemfolgen entsprechend den N-zweiten Aussprachevarianten jedes Wort bearbeitet, indem jede zweite Phonemfolge mittels geeigneter Distanzen, insbesondere der Levenshtein-Distanz, analysiert und klassifiziert wird, und die N-zweiten Phonemfolgen jedes Wortes auf wenige, vorzugsweise zwei bis drei, Phonemfolgen reduziert werden, insbesondere indem die Aussprachevarianten weggelassen werden, die der Aussprachevariante der Muttersprache am wenigsten ähnlich sind. Vereinfacht ausgedrückt werden durch diese Reduzierung die weniger wichtigen Aussprachevarianten weggelassen, wodurch sich der Suchaufwand bei der Spracherkennung verringert. Eine weitere Aufwandsreduktion läßt sich erreichen, indem vor dem ersten Schritt eine Sprachidentifikation und -reduktion vorgenommen wird. Im Rahmen dieser Sprachidentifikation wird für jedes zu erkennende Wort die Wahrscheinlichkeit der Zugehörigkeit zu jeder der N-verschiedenen Sprachen bestimmt. An¬ hand des Ergebnisses dieser Sprachidentifikation wird die Anzahl der im ersten Verfahrensschritt zu verarbeitenden Sprachen, vorzugsweise auf zwei bis drei verschiedene Sprachen, reduziert. Diese Sprachreduktion erfolgt vorzugsweise, indem die Sprachen mit der geringsten Wahrscheinlichkeit nicht weiterverarbeitet werden. Für ein bestimmtes Wort kann das Ergebnis der Sprachidentifikation beispielsweise wie folgt lauten: "Deutsch 55%, UK-Englisch 16%, US-Englisch 14%, Schwe- disch 3%, ...". Bereits nach diesem Ergebnis kann auf drei verschiedene Sprachen reduziert werden, indem Schwedisch weggelassen, d. h. nicht weiterverarbeitet wird.
Das Ermitteln der phonetischen Umschriften im ersten Verfah- rensschritt erfolgt vorzugsweise durch mindestens ein neuronales Netz. Neuronale Netze haben sich zum Ermitteln phonetischer Umschriften aus geschriebenen Worten bewährt, da sie gute Ergebnisse hinsichtlich der Genauigkeit und vor allem Verarbeitungsgeschwindigkeit liefern sowie einfach, insbeson- dere in Software implementierbar sind.
Als Muttersprachen-Spracherkenner kann insbesondere ein Hidden-Markov-Modell zum Einsatz kommen, das für die als Muttersprache definierte Sprache erstellt worden ist.
Die Erfindung betrifft ferner einen Spracherkenner zur sprecherunabhängigen Spracherkennung von Worten aus verschiedenen Sprachen, insbesondere zur Erkennung von Namen aus verschiedenen Sprachen. Hierbei ist eine der verschiedenen Sprachen als Muttersprache definiert. Der Spracherkenner umfaßt - einen Muttersprachen-Spracherkenner, - ein erstes Verarbeitungsmodul zum Ermitteln der phonetischen Umschriften von Wörtern jeweils für N-verschiedene Sprachen, um pro Wort N-erste Phonemfolgen entsprechend N- ersten Aussprachevarianten zu erhalten, - ein zweites Verarbeitungsmodul zum Implementieren einer Ab¬ bildung der Phonem jeder Sprache auf dem jeweiligen Phonem¬ satz der Muttersprache,
- ein drittes Verarbeitungsmodul zum Anwenden der mit dem zweiten Verarbeitungsmodul implementierten Abbildung auf die mit dem ersten Verarbeitungsmodul ermittelten N-ersten Phonemfolgen für jedes Wort, wodurch pro Wort N-zweite Phonemfolgen entsprechend N-zweiten Aussprachevarianten erhalten werden, die mit dem Muttersprachen-Spracherkenner erkannt werden können und - ein viertes Verarbeitungsmodul zum Erstellen eines Spracherkenner-Vokabulars mit den durch das dritte Verarbeitungsmodul erhaltenen N-zweiten Phonemfolgen pro Wort für den Muttersprachen-Spracherkenner.
In einer bevorzugten Ausführungsform umfaßt der automatische Spracherkenner ein fünftes Verarbeitungsmodul zum Bearbeiten der N-zweiten Phonemfolgen entsprechend den N-zweiten Aussprachevarianten jedes Wortes. Das fünfte Verarbeitungsmodul ist derart ausgebildet, daß jede zweite Phonemfolge mittels geeigneter Distanzen, insbesondere der Levenshtein-Distanz, analysiert und klassifiziert wird, und die N-zweiten Phonemfolgen jedes Wortes auf wenige, vorzugsweise zwei bis drei, Phonemfolgen reduziert werden.
Ferner kann der automatische Spracherkenner einen Sprachiden- tifikator und einen Sprachreduzierer umfassen. Der Sprachi- dentifikator ist vor das erste Verarbeitungsmodul geschaltet und bestimmt für jedes zu erkennende Wort die Wahrscheinlichkeit der Zugehörigkeit zu jeder der N-verschiedenen Sprachen. Der Sprachreduzierer reduziert die Anzahl der vom ersten Verarbeitungsmodul zu verarbeitenden Sprachen, vorzugsweise auf zwei bis drei verschiedene Sprachen, indem die Sprachen mit der geringsten Wahrscheinlichkeit nicht weiterverarbeitet werden. Sprachidentifikator und Sprachreduzierer verringern sowohl den Verarbeitungsaufwand des automatischen Spracherkenners sowohl in der Eingabephase als auch in der Erken- nungsphase beträchtlich.
Vorzugsweise weist das erste Verarbeitungsmodul mindestens ein neuronales Netz zum Ermitteln der phonetischen Umschriften auf.
Schließlich weist der Muttersprachen-Spracherkenner in einer bevorzugten Ausführungsform ein Hidden-Markov-Modell auf, das für die als Muttersprache definierte Sprache erstellt worden ist.
Vorteile und Zweckmäßigkeiten der Erfindung ergeben sich im übrigen aus der nachfolgenden Beschreibung eines Ausführungsbeispiels der Erfindung anhand der einzigen Figur. Diese zeigt ein schematisches Ablaufdiagrarttm der Eingabephase zur Erstellung eines Spracherkenner-Vokabulars gemäß der Erfindung.
Es soll die sprecherabhängige Namenswahl auf einem Mobiltelefon mit den Namen aus dem Telefonbuch für einen deutschspra- chigen Benutzer realisiert werden. In dem Telefonbuch befinden sich neben überwiegend deutschsprachigen Namen auch einige fremdsprachige Namen. Ein Umsetzer für die graphemische Darstellung der Namen ist auf die Sprachen Deutsch, Italienisch, Tschechich, Griechisch, Türkisch eingestellt, insge- samt als N = 5 verschiedene Sprachen.
In einem Anfangsschritt SO wird eine Sprachidentifikation der zugeführten Worte 10 bzw. Einträge des Telefonbuchs vorgenommen. Genauer gesagt wird jedes einzelne Wort auf die Wahr- scheinlichkeit der Zugehörigkeit zu einer der fünf Sprachen analysiert. Wird beispielsweise ein deutscher Name verarbeitet, so wird die Wahrscheinlichkeit für Deutsch sehr hoch sein, für die anderen vier Sprachen, nämlich Italienisch, Tschechisch, Griechisch und Türkisch dagegen sehr viel niedriger. Anhand der pro Wort ermittelten Wahrscheinlichkeiten wird die Sprache mit der geringsten Wahrscheinlichkeit für die weitere Verarbeitung weggelassen. Das bedeutet, daß im nachfolgenden Verarbeitungsgang nur noch vier, anstatt fünf Sprachen verarbeitet werden müssen.
In einem ersten Verfahrensschritt SI wird für jedes Wort die phonetische Umschrift für jede der vier verschiedenen Sprachen ermittelt. Dadurch werden für jedes Wort vier Phonemfolgen entsprechend vier ersten Aussprachevarianten erhalten.
In einem zweiten Verfahrensschritt S2 wird anschließend eine Abbildung der Phoneme jeder der vier Sprachen auf den jeweiligen Phonemsatz der Muttersprache implementiert.
Diese Abbildung wird in einem dritten Verfahrensschritt S3 auf die im ersten Verfahrensschritt SI erhaltenen vier ersten Phonemfolgen 12 angewandt. Hierdurch werden für jedes Wort vier zweite Phonemfolgen 14 entsprechend vier zweiten Aussprachevarianten erhalten. Die vier zweiten Phonemfolgen 14 können bereits mit einem Muttersprachen-Spracherkenner erkannt werden.
Um allerdings den Verarbeitungsaufwand für den Spracherkenner weiter zu reduzieren, wird pro Wort jede zweite Phonemfolge mittels der Levenshtein-Distanz analysiert und klassifiziert (Schritt S4) . Anschließend folgt ein fünfter Verfahrens- schritt S5, in dem die analysierten und klassifizierten zweiten Phonemfolgen pro Wort auf drei Phonemfolgen reduziert werden.
Schließlich wird in einem letzten Schritt S6 ein Spracherken- ner-Vokabular mit dem in dem fünften Verfahrensschritt S5 erhaltenen drei zweiten Phonemfolgen pro Wort für den Muttersprachen-Spracherkenner erstellt. Durch die nochmalige Reduk- tion der Phonemfolgen im fünften Verfahrensschritt S5 wird also das zu speichernde und während einer Spracherkennung zu durchsuchende Spracherkenner-Vokabular merklich reduziert. Dies bringt in einer praktischen Anwendung der Spracherken- nung einerseits den Vorteil eines geringeren Speicherplat∑be- darfs und andererseits einer schnelleren Verarbeitung, da ein kleineres Vokabular durchsucht werden muß .
Nach Ablauf des beschriebenen Verfahrens kann der Benutzer mittels Spracherkennung eine Namenswahl, also den sprachgesteuerten Aufruf gespeicherter Rufnummern über den Namen des
I
Teilnehmers vornehmen, ohne daß er den Namen des zu rufenden Teilnehmers explizit einmal vorsprechen, also trainieren, muß.
Im folgenden wird kurz erläutert, was der Benutzer des Mobiltelefons zur Verbesserung der Spracherkennung tun kann. Sollte er einmal feststellen, daß ein bestimmter Name nicht gut erkannt wird, kann er das Spracherkenner-Menü seines Mobilte- lefons aufrufen und dort die Anwendung "Namenswahl" auswählen. Unter dieser Anwendung kann ihm nun eine oder auch mehrere Möglichkeiten angeboten werden, um die Spracherkennung eines bestimmten Wortes, genauer gesagt eines bestimmten Namens aus dem elektronischen Telefonbuch des Mobiltelefons zu verbessern. Im folgenden werden beispielhaft einige dieser Möglichkeiten kurz erläutert:
1. Der Benutzer kann das schlecht oder gar nicht erkannte Wort nochmals in das Mobiltelefon einsprechen und anschlie- ßend durch den im Mobiltelefon enthaltenen Spracherkenner in eine Phonemfolge umsetzen lassen. In diesem Fall werden vorher automatisch ermittelte Aussprachevarianten ganz oder teilweise, je nachdem welche Nähe sie zu der neu ermittelten Phonemfolge besitzen, aus dem Vokabular des Spracherkenners entfernt. 2. Alternativ kann sich der Benutzer auf dem Display des Mobiltelefons eine Art Lautschrift des schlecht oder gar nicht erkannten Eintrags des elektronischen Telefonbuchs anzeigen lassen. Die Art Lautschrift kann der Benutzer dann bei Nicht- zutreffen, d. h. bei schlechter Übereinstimmung mit seiner Aussprache, editieren. Beispielsweise kann durch die automatische Umsetzung des Eintrags "Jacques Chirac" als Lautschrift "Jakwes Schirack" gespeichert sein. Erscheint nun dem Benutzer diese Lautschrift als fehlerhaft, kann er sie mit- tels seines Mobiltelefons editieren, beispielsweise zu
"Schack Schirack". Anschließend kann das System dazu die phonetische Beschreibung ermittelt und diese ins Spracherkenner- Vokabular neu aufnehmen. Damit sollte die automatische Spracherkennung zuverlässig funktionieren.
3. Schließlich kann der Benutzer durch eine explizite Angabe der Sprache, aus der ein fehlerhaft oder gar nicht erkannter Name stammt oder durch explizite Auswahl einer bestimmten Sprache für einen bestimmten Namen die Erkennung wesentlich verbessern. In einem derartigen Fall werden alle Aussprachevarianten für den Namen aus dem Spracherkenner-Vokabular entfernt, die nicht der explizit angegeben Sprache zugeordnet sind.
Die Erfindung kann auch vorteilhaft in anderen mobilen Geräten außer einem Mobiltelefon z. B. einem Personal Assistant oder auch einem Personal Computer verwendet, d. h. eingesetzt werden.

Claims

Patentansprüche
1. Betriebsverfahren eines automatischen Spracherkenners zur sprecherunabhängigen Spracherkennung von Worten (10) aus ver- schiedenen Sprachen, insbesondere zur Erkennung von Namen aus verschiedenen Sprachen, das von einer als Muttersprache definierten Sprache ausgeht und eine Eingabephase zur Erstellung eines Spracherkenner-Vokabulars mit den folgenden Schritte aufweist: (a) Ermitteln der phonetischen Umschriften von Wörtern jeweils für N verschiedene Sprachen, um pro Wort N erste Phonemfolgen (12) entsprechend N ersten Aussprachevarianten zu erhalten (SI) , (b) Implementieren einer Abbildung der Phoneme jeder Sprache auf den jeweiligen Phonemsatz der Muttersprache (S2) ,
(cl) Anwenden der in Schritt (b) implementierten Abbildung auf die in Schritt (a) ermittelten N ersten Phonemfolgen (12) für jedes Wort, wodurch pro Wort N zweite Phonemfolgen (14) entsprechend N zweiten Aussprachevarianten erhalten werden, die mit einem Muttersprachen-Spracherkenner erkannt werden können (S3), und
(d) Erstellen eines Spracherkenner-Vorkabulars mit den im vorhergehenden Schritt erhaltenen N zweiten Phonemfolgen pro Wort für den Muttersprachen-Spracherkenner (S6) .
2. Betriebsverfahren nach Anspruch 1, ferner gekennzeichnet durch die folgenden, vor dem Schritt
(d) und nach dem Schritt (cl) auszuführenden Schritte:
(c2) Bearbeiten der N zweiten Phonemfolgen (14) entsprechend den N zweiten Aussprachevarianten jedes Wortes, indem
(c21) jede zweite Phonemfolge (14) mittels geeigneter Distanzen, insbesondere der Levenshtein-Distanz, analysiert und klassifiziert wird (S4), und (c22) die N zweiten Phonemfolgen jedes Wortes auf wenige, vorzugsweise 2 bis 3, Phonemfolgen reduziert werden (S5) .
3. Betriebsverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass vor dem Schritt (a) eine Sprachidentifikation vorgenommen wird, durch die für jedes zu erkennende Wort die Wahrschein- lichkeit der Zugehörigkeit zu jeder der N verschiedenen Spra¬ chen bestimmt wird, und anhand des Ergebnisses der Sprachidentifikation die Anzahl der in Schritt (a) zu verarbeiten¬ den Sprachen, vorzugsweise auf 2 bis 3 verschiedene Sprachen, reduziert werden, indem die Sprachen mit der geringsten Wahr- scheinlichkeit nicht weiter verarbeitet werden (SO) .
4. Betriebsverfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Ermitteln der phonetischen Umschriften in Schritt (a) durch mindestens ein neuronales Netz erfolgt.
5. Betriebsverfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass als Muttersprachen-Spracherkenner ein Hidden-Markov-Modell eingesetzt wird, das für die als Muttersprache definierte Sprache erstellt worden ist.
6. Automatischer Spracherkenner zur sprecherunabhängigen Spracherkennung von Worten aus verschiedenen Sprachen, insbe- sondere zur Erkennung von Namen aus verschiedenen Sprachen, wobei eine der verschiedenen Sprachen als Muttersprache definiert ist, mit
- einem Muttersprachen-Spracherkenner,
- einem ersten Verarbeitungsmodul zum Ermitteln der phoneti- sehen Umschriften von Wörtern jeweils für N verschiedene
Sprachen, um pro Wort N erste Phonemfolgen entsprechend N ersten Aussprachevarianten zu erhalten,
- einem zweiten Verarbeitungsmodul zum Implementieren einer Abbildung der Phoneme jeder Sprache auf den jeweiligen Pho- nemsatz der Muttersprache,
- einem dritten Verarbeitungsmodul zum Anwenden der mit dem zweiten Verarbeitungsmodul implementierten Abbildung auf die mit dem ersten Verarbeitungsmodul ermittelten N ersten Phonemfolgen für jedes Wort, wodurch pro Wort N zweite Phonemfolgen entsprechend N zweiten Aussprachevarianten erhalten werden, die mit dem Muttersprachen-Spracherkenner erkannt werden können, und
- einem vierten Verarbeitungsmodul zum Erstellen eines Spracherkenner-Vorkabulars mit den durch das • dritte Verarbei¬ tungsmodul erhaltenen N zweiten Phonemfolgen pro Wort für den Muttersprachen-Spracherkenner.
7. Automatischer Spracherkenner nach Anspruch 6, gekennzeichnet durch ein fünftes Verarbeitungsmodul zum Bearbeiten der N zweiten Phonemfolgen entsprechend den N zweiten Aussprachevarianten jedes Wortes, das derart ausgebildet ist, dass jede zweite Phonemfolge mittels geeigneter Distanzen, insbesondere der Levenshtein-Distanz, analysiert und klassifiziert wird, und die N zweiten Phonemfolgen jedes Wortes auf wenige, vorzugsweise 2 bis 3, Phonemfolgen reduziert werden.
8. Automatischer Spracherkenner nach Anspruch 6 oder 7, gekennzeichnet durch einen Sprachidentifikator, der vor das erste Verarbeitungsmodul geschaltet ist und für jedes zu erkennende Wort die Wahr- scheinlichkeit der Zugehörigkeit zu jeder der N verschiedenen Sprachen bestimmt, und einen Sprachreduzierer, der die Anzahl der vom ersten Verarbeitungsmodul zu verarbeitenden Sprachen, vorzugsweise auf 2 bis 3 verschiedene Sprachen, reduziert werden, indem die Sprachen mit der geringsten Wahrscheinlich- keit nicht weiter verarbeitet werden.
9. Automatischer Spracherkenner nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass das erste Verarbeitungsmodul mindestens ein neuronales Netz zum Ermitteln der phonetischen Umschriften aufweist.
10. Automatischer Spracherkenner nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass der Muttersprachen-Spracherkenner ein Hidden-Markov-Modell aufweist, das für die als Muttersprache definierte Sprache erstellt worden ist.
11. Verwendung des Betriebsverfahrens nach einem der Ansprüche 1 bis 5 und des automatischen Spracherkenners nach einem der Ansprüche 6 bis 10 in einem mobilen Gerät wie einem Mobiltelefon, Personal Digital Assistant oder einem Personal Computer.
PCT/EP2003/000003 2002-01-17 2003-01-02 Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner WO2003060877A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/501,700 US7974843B2 (en) 2002-01-17 2003-01-02 Operating method for an automated language recognizer intended for the speaker-independent language recognition of words in different languages and automated language recognizer
DE50307074T DE50307074D1 (de) 2002-01-17 2003-01-02 Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
EP03708045A EP1466317B1 (de) 2002-01-17 2003-01-02 Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02001256 2002-01-17
EP02001256.3 2002-01-17

Publications (1)

Publication Number Publication Date
WO2003060877A1 true WO2003060877A1 (de) 2003-07-24

Family

ID=8185291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2003/000003 WO2003060877A1 (de) 2002-01-17 2003-01-02 Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner

Country Status (5)

Country Link
US (1) US7974843B2 (de)
EP (1) EP1466317B1 (de)
DE (1) DE50307074D1 (de)
ES (1) ES2281626T3 (de)
WO (1) WO2003060877A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004055230B3 (de) * 2004-11-16 2006-07-20 Siemens Ag Verfahren zur Spracherkennung aus einem vorgebbaren Vokabular
EP1892700A1 (de) * 2006-08-21 2008-02-27 Robert Bosch Gmbh Verfahren zur Spracherkennung und Sprachwiedergabe
US7873517B2 (en) 2006-11-09 2011-01-18 Volkswagen Of America, Inc. Motor vehicle with a speech interface
US7949517B2 (en) 2006-12-01 2011-05-24 Deutsche Telekom Ag Dialogue system with logical evaluation for language identification in speech recognition
US8868431B2 (en) 2010-02-05 2014-10-21 Mitsubishi Electric Corporation Recognition dictionary creation device and voice recognition device

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8959019B2 (en) * 2002-10-31 2015-02-17 Promptu Systems Corporation Efficient empirical determination, computation, and use of acoustic confusability measures
US7415411B2 (en) * 2004-03-04 2008-08-19 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers
US8036893B2 (en) * 2004-07-22 2011-10-11 Nuance Communications, Inc. Method and system for identifying and correcting accent-induced speech recognition difficulties
US7430503B1 (en) * 2004-08-24 2008-09-30 The United States Of America As Represented By The Director, National Security Agency Method of combining corpora to achieve consistency in phonetic labeling
US7406408B1 (en) * 2004-08-24 2008-07-29 The United States Of America As Represented By The Director, National Security Agency Method of recognizing phones in speech of any language
EP1693830B1 (de) * 2005-02-21 2017-12-20 Harman Becker Automotive Systems GmbH Sprachgesteuertes Datensystem
US8265930B1 (en) * 2005-04-13 2012-09-11 Sprint Communications Company L.P. System and method for recording voice data and converting voice data to a text file
DE102005030380B4 (de) * 2005-06-29 2014-09-11 Siemens Aktiengesellschaft Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
SG133419A1 (en) * 2005-12-12 2007-07-30 Creative Tech Ltd A method and apparatus for accessing a digital file from a collection of digital files
WO2009016729A1 (ja) * 2007-07-31 2009-02-05 Fujitsu Limited 音声認識用照合ルール学習システム、音声認識用照合ルール学習プログラムおよび音声認識用照合ルール学習方法
KR101300839B1 (ko) * 2007-12-18 2013-09-10 삼성전자주식회사 음성 검색어 확장 방법 및 시스템
US7472061B1 (en) * 2008-03-31 2008-12-30 International Business Machines Corporation Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations
US9202460B2 (en) * 2008-05-14 2015-12-01 At&T Intellectual Property I, Lp Methods and apparatus to generate a speech recognition library
US20090326945A1 (en) * 2008-06-26 2009-12-31 Nokia Corporation Methods, apparatuses, and computer program products for providing a mixed language entry speech dictation system
US20100105015A1 (en) * 2008-10-23 2010-04-29 Judy Ravin System and method for facilitating the decoding or deciphering of foreign accents
US8190420B2 (en) * 2009-08-04 2012-05-29 Autonomy Corporation Ltd. Automatic spoken language identification based on phoneme sequence patterns
US10417646B2 (en) 2010-03-09 2019-09-17 Sdl Inc. Predicting the cost associated with translating textual content
US8600730B2 (en) * 2011-02-08 2013-12-03 Microsoft Corporation Language segmentation of multilingual texts
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US11003838B2 (en) 2011-04-18 2021-05-11 Sdl Inc. Systems and methods for monitoring post translation editing
US8959082B2 (en) 2011-10-31 2015-02-17 Elwha Llc Context-sensitive query enrichment
US10261994B2 (en) * 2012-05-25 2019-04-16 Sdl Inc. Method and system for automatic management of reputation of translators
US9240181B2 (en) * 2013-08-20 2016-01-19 Cisco Technology, Inc. Automatic collection of speaker name pronunciations
US9589564B2 (en) * 2014-02-05 2017-03-07 Google Inc. Multiple speech locale-specific hotword classifiers for selection of a speech locale
CN104681036B (zh) * 2014-11-20 2018-09-25 苏州驰声信息科技有限公司 一种语言音频的检测系统及方法
US10109219B2 (en) * 2015-04-16 2018-10-23 Robert Bosch Gmbh System and method for automated sign language recognition
US20170011735A1 (en) * 2015-07-10 2017-01-12 Electronics And Telecommunications Research Institute Speech recognition system and method
US10872598B2 (en) 2017-02-24 2020-12-22 Baidu Usa Llc Systems and methods for real-time neural text-to-speech
US10896669B2 (en) 2017-05-19 2021-01-19 Baidu Usa Llc Systems and methods for multi-speaker neural text-to-speech
CN109145145A (zh) 2017-06-16 2019-01-04 阿里巴巴集团控股有限公司 一种数据更新方法、客户端及电子设备
US10796686B2 (en) 2017-10-19 2020-10-06 Baidu Usa Llc Systems and methods for neural text-to-speech using convolutional sequence learning
US11017761B2 (en) 2017-10-19 2021-05-25 Baidu Usa Llc Parallel neural text-to-speech
US10872596B2 (en) 2017-10-19 2020-12-22 Baidu Usa Llc Systems and methods for parallel wave generation in end-to-end text-to-speech
US10783873B1 (en) * 2017-12-15 2020-09-22 Educational Testing Service Native language identification with time delay deep neural networks trained separately on native and non-native english corpora
US11138334B1 (en) * 2018-10-17 2021-10-05 Medallia, Inc. Use of ASR confidence to improve reliability of automatic audio redaction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995002879A1 (en) * 1993-07-13 1995-01-26 Theodore Austin Bordeaux Multi-language speech recognition system
US5805771A (en) * 1994-06-22 1998-09-08 Texas Instruments Incorporated Automatic language identification method and system
US6085160A (en) * 1998-07-10 2000-07-04 Lernout & Hauspie Speech Products N.V. Language independent speech recognition
US6212500B1 (en) * 1996-09-10 2001-04-03 Siemens Aktiengesellschaft Process for the multilingual use of a hidden markov sound model in a speech recognition system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2169432T3 (es) * 1996-09-10 2002-07-01 Siemens Ag Procedimiento para la adaptacion de un modelo de sonido hidden markov en un sistema de reconocimiento de voz.
US6549883B2 (en) * 1999-11-02 2003-04-15 Nortel Networks Limited Method and apparatus for generating multilingual transcription groups
EP1134726A1 (de) * 2000-03-15 2001-09-19 Siemens Aktiengesellschaft Verfahren zur Erkennung von Sprachäusserungen nicht-muttersprachlicher Sprecher in einem Sprachverarbeitungssystem
US7047493B1 (en) * 2000-03-31 2006-05-16 Brill Eric D Spell checker with arbitrary length string-to-string transformations to improve noisy channel spelling correction
US20020083029A1 (en) * 2000-10-23 2002-06-27 Chun Won Ho Virtual domain name system using the user's preferred language for the internet
EP1217610A1 (de) * 2000-11-28 2002-06-26 Siemens Aktiengesellschaft Verfahren und System zur multilingualen Spracherkennung
US7043431B2 (en) * 2001-08-31 2006-05-09 Nokia Corporation Multilingual speech recognition system using text derived recognition models

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995002879A1 (en) * 1993-07-13 1995-01-26 Theodore Austin Bordeaux Multi-language speech recognition system
US5805771A (en) * 1994-06-22 1998-09-08 Texas Instruments Incorporated Automatic language identification method and system
US6212500B1 (en) * 1996-09-10 2001-04-03 Siemens Aktiengesellschaft Process for the multilingual use of a hidden markov sound model in a speech recognition system
US6085160A (en) * 1998-07-10 2000-07-04 Lernout & Hauspie Speech Products N.V. Language independent speech recognition

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANDERSON O ET AL: "THE ONOMASTICA INTERLANGUAGE PRONUNCIATION LEXICON", 4TH EUROPEAN CONFERENCE ON SPEECH COMMUNICATION AND TECHNOLOGY. EUROSPEECH '95. MADRID, SPAIN, vol. 1 CONF. 4, 18 September 1995 (1995-09-18) - 21 September 1995 (1995-09-21), MADRID: GRAFICAS BRENS, ES, pages 829 - 832, XP000854833 *
MUTHUSAMY Y K ET AL: "AUTOMATIC SEGMENTATION AND IDENTIFICATION OF TEN LANGUAGES USING TELEPHONE SPEECH", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON SPOKEN LANGUAGE PROCESSING (ICSLP). BANFF, vol. 2, 12 October 1992 (1992-10-12) - 16 October 1992 (1992-10-16), EDMONTON, UNIVERSITY OF ALBERTA, CA, pages 1007 - 1010, XP000871623 *
VAICH T ET AL: "HMM phoneme recognition with supervised training and Viterbi algorithm", EIGHTEENTH CONVENTION OF ELECTRICAL AND ELECTRONICS ENGINEERS IN ISRAEL (CAT. NO.95TH8044), TEL AVIV, ISRAEL, 7 March 1995 (1995-03-07) - 8 March 1995 (1995-03-08), 1995, New York, NY, USA, IEEE, USA, pages 3.2.1/1 - 5, XP002198892, ISBN: 0-7803-2498-6 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004055230B3 (de) * 2004-11-16 2006-07-20 Siemens Ag Verfahren zur Spracherkennung aus einem vorgebbaren Vokabular
US8306820B2 (en) 2004-11-16 2012-11-06 Siemens Aktiengesellschaft Method for speech recognition using partitioned vocabulary
EP1892700A1 (de) * 2006-08-21 2008-02-27 Robert Bosch Gmbh Verfahren zur Spracherkennung und Sprachwiedergabe
US7873517B2 (en) 2006-11-09 2011-01-18 Volkswagen Of America, Inc. Motor vehicle with a speech interface
DE102007052055B4 (de) 2006-11-09 2022-09-15 Volkswagen Ag Kraftfahrzeug mit einer Sprachschnittstelle
US7949517B2 (en) 2006-12-01 2011-05-24 Deutsche Telekom Ag Dialogue system with logical evaluation for language identification in speech recognition
US8868431B2 (en) 2010-02-05 2014-10-21 Mitsubishi Electric Corporation Recognition dictionary creation device and voice recognition device

Also Published As

Publication number Publication date
EP1466317A1 (de) 2004-10-13
US7974843B2 (en) 2011-07-05
DE50307074D1 (de) 2007-05-31
US20050033575A1 (en) 2005-02-10
ES2281626T3 (es) 2007-10-01
EP1466317B1 (de) 2007-04-18

Similar Documents

Publication Publication Date Title
EP1466317B1 (de) Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
DE69829235T2 (de) Registrierung für die Spracherkennung
DE112014006542B4 (de) Einrichtung und Verfahren zum Verständnis von einer Benutzerintention
DE60016722T2 (de) Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE69834553T2 (de) Erweiterbares spracherkennungssystem mit einer audio-rückkopplung
DE69725802T2 (de) Vorfilterung mittels lexikalischer Bäumen für die Spracherkennung
DE69827988T2 (de) Sprachmodelle für die Spracherkennung
DE60207742T2 (de) Korrektur eines von einer spracherkennung erkannten textes mittels vergleich der phonemfolgen des erkannten textes mit einer phonetischen transkription eines manuell eingegebenen korrekturwortes
DE19847419A1 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung
EP1264301B1 (de) Verfahren zur erkennung von sprachäusserungen nicht-muttersprachlicher sprecher in einem sprachverarbeitungssystem
DE102006006069A1 (de) Verteiltes Sprachverarbeitungssystem und Verfahren zur Ausgabe eines Zwischensignals davon
EP1058235B1 (de) Wiedergabeverfahren für sprachgesteuerte Systeme mit text-basierter Sprachsynthese
EP3152753B1 (de) Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen
DE10040063A1 (de) Verfahren zur Zuordnung von Phonemen
EP1282897B1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
DE19532114C2 (de) Sprachdialog-System zur automatisierten Ausgabe von Informationen
DE102010040553A1 (de) Spracherkennungsverfahren
DE60029456T2 (de) Verfahren zur Online-Anpassung von Aussprachewörterbüchern
DE102005030965B4 (de) Erweiterung des dynamischen Vokabulars eines Spracherkennungssystems um weitere Voiceenrollments
EP2006835B1 (de) Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
EP2034472B1 (de) Spracherkennungsverfahren und Spracherkennungsvorrichtung
WO1999014740A1 (de) Verfahren zur bestimmung einer wahrscheinlichkeit für das auftreten einer folge von mindestens zwei wörtern bei einer spracherkennung
DE19912405A1 (de) Bestimmung einer Regressionsklassen-Baumstruktur für Spracherkenner
DE69723449T2 (de) Verfahren und system zur sprache-in-sprache-umsetzung
EP1063633A2 (de) Verfahren zum Training eines automatischen Spracherkenners

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LU MC NL PT SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003708045

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10501700

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 164526

Country of ref document: IL

WWP Wipo information: published in national office

Ref document number: 2003708045

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2003708045

Country of ref document: EP