EP1261964A1 - Method for the voice-controlled initiation of actions by means of a limited circle of users, whereby said actions can be carried out in an appliance - Google Patents

Method for the voice-controlled initiation of actions by means of a limited circle of users, whereby said actions can be carried out in an appliance

Info

Publication number
EP1261964A1
EP1261964A1 EP01921173A EP01921173A EP1261964A1 EP 1261964 A1 EP1261964 A1 EP 1261964A1 EP 01921173 A EP01921173 A EP 01921173A EP 01921173 A EP01921173 A EP 01921173A EP 1261964 A1 EP1261964 A1 EP 1261964A1
Authority
EP
European Patent Office
Prior art keywords
speech
user
language
voice
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP01921173A
Other languages
German (de)
French (fr)
Inventor
Roland Aubauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1261964A1 publication Critical patent/EP1261964A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Definitions

  • a device e.g. a telecommunications terminal such as a corded or cordless telephone, a cell phone, etc., a household appliance such as a washing machine, an electric cooker, a refrigerator etc., a vehicle such as a car, the airplane, the ship, etc., a consumer electronics device such as the television, the HIFI system, etc., an electronic device for control and command input such as the personal computer, the personal digital assistant, etc. - ' by means of language, the The natural form of communication of the human being, for the voice-controlled initiation of actions which can be carried out in the respective device, has the primary aim of freeing the hands used for data or command input for other routine activities.
  • the device has a speech recognition device, which is also referred to in the specialist literature as speech recognizer.
  • the field of automatic recognition of speech as a system of characters and sounds includes recognizing the characters and sounds spoken in isolation - e.g. single words, commands - up to the recognition of fluently spoken characters and sounds - e.g. several connected words, one or more sentences, a speech - according to the form of communication of the person.
  • the automatic speech recognition is in principle a search process, which according to the document
  • the speaker-independent speech recognizer works almost exclusively on the basis of phonemes, while the speaker-dependent speech recognizer is more or less a single word recognizer.
  • the speaker-independent speech recognizers are used in particular in devices where, on the one hand, fluently spoken language - e.g. several connected words, sentences etc. - and large to very large vocabulary - i.e.
  • fluently spoken language e.g. several connected words, sentences etc. - and large to very large vocabulary - i.e.
  • An * unlimited user group uses the device - must be processed and on the other hand the computing and storage effort for recognizing this language and vocabulary does not matter because the corresponding capacities are available.
  • the speaker-dependent speech recognizers have their preferred field of use in devices where on the one hand discretely spoken language, eg individual words and B, 1 misses, and small to medium-sized vocabulary - ie a / limited user group uses the device - and on the other hand the arithmetic - And storage effort for the recognition of this language and vocabulary is important because the corresponding capacities are not available.
  • the speaker-dependent speech recognizers are therefore characterized by a low level of complexity in terms of computation and memory requirements.
  • speech-dependent speech recognizers currently in use, sufficiently high word recognition rates for small to medium-sized vocabularies (10-100 words) are already achieved, so that these speech recognizers are particularly suitable for control and command input (com and-and-control) but also for voice-controlled database access (eg voice dialing from a phone book). These speech recognizers are therefore being used to an increasing extent in devices on the mass market, such as, for example, in telephones, household appliances, consumer electronics devices, devices with control and command input toys, but also in motor vehicles.
  • the problem with these applications is that the devices are often not only used by one user, but by several users, e.g. frequently members of a household or a family are used (limited number of users).
  • the object on which the invention is based is to control the initiation of actions which can be carried out in a device by means of speech by users of a limited group of users of the device, the speech being recognized independently of the user and without user identification on the basis of a speaker-dependent speech recognition system.
  • the idea on which the invention is based is that the recognition speech utterances of the users of the user group, for example the words of a vocabulary, are assigned the reference speech patterns of all users of a speech recognition system which are necessary for the recognition.
  • the vocabulary phone book, command word list, (7) contains, for example, "i * words (names, commands, 7), each of which has an action to be performed (phone numbers to be selected, action of a connected device, 7) a possible acoustically outputted voice confirmation (usually the pronunciation of the word) (Voiee Prompt) and up to "j reference speech patterns are assigned to the" k ⁇ users of the speech recognition system, where "i * eN,” j w eN and "k eN ,
  • the assignment of a voice confirmation to the words of a vocabulary is not absolutely necessary, but is often advantageous for acoustic user guidance.
  • the voice confirmation can come from one of the users of the speech recognition system, a text-to-speech transcription system or, if the words of the vocabulary are certain, from a third person. ⁇ ⁇ )) P 1 P>
  • PJ P dd ⁇ P- fV da H 13 fu d ⁇ vQ ⁇ d H a ⁇ PJ P- tr ⁇ ⁇ ⁇ PJ ⁇ -i ⁇ d tr d li P- ⁇ ⁇ ⁇ li d ii ⁇ iQ ds: d fr P- ⁇ d P- P- ⁇ ⁇ i- tad ⁇ ⁇ Q ⁇
  • the storage effort for a voice confirmation is about a power of ten higher than that of a reference speech sample.
  • the presented method generally achieves a higher word recognition rate than with a single use (only one speaker) of the speech recognizer.
  • the improvement in the word recognition rate is based on the expansion of the language reference base of a word by training with several speakers.
  • the inventive step lies in the use of a common vocabulary for all users of a speech recognition system, with one word being assigned the reference speech pattern by several users.
  • the method requires the rejection strategy described above for voice training and for voice recognition.
  • the method is suitable for speech recognition applications with a restricted user group of more than one user. These are, in particular, applications with voice control and command input, but also with voice-controlled database access. Exemplary embodiments are voice-controlled telephones (voice-controlled dialing from a telephone book, voice-controlled control of individual functions, such as that of the answering machine) as well as other voice-controlled machines / devices such as household appliances, toys and motor vehicles.
  • voice-controlled telephones voice-controlled dialing from a telephone book, voice-controlled control of individual functions, such as that of the answering machine
  • other voice-controlled machines / devices such as household appliances, toys and motor vehicles.

Abstract

The aim of the invention is to control initiation of actions in a user-independent manner and by means of voice and users pertaining to a limited circle of users of an appliance, whereby said actions can be carried out in the appliance. The voice is detected on the basis of a speaker-dependent voice detection system in a user-independent manner and without user identification. The reference voice patterns of all users pertaining to a voice detection system are allocated to detection voice expressions, e.g. the words of a vocabulary, of the users pertaining to the circle of users, whereby said patterns are required for detection.

Description

Beschreibungdescription
Verfahren zum sprachgesteuerten Initiieren von in einem Gerät ausführbaren Aktionen durch einen begrenzten BenutzerkreisMethod for voice-controlled initiation of actions that can be carried out in a device by a limited group of users
Die Eingabe von Informationen bzw. Daten oder Befehlen in ein Gerät - z.B. ein Telekommunikationsendgerät wie das schurgebundene oder schnurlose Telefon, das Mobilfunk-Handy etc., ein Haushaltsgerät wie die Waschmaschine, der Elektroherd, der Kühlschrank etc., ein Fahrzeug wie das Auto, das Flugzeug, das Schiff etc., ein Gerät der Unterhaltungselektronik wie der Fernseher, die HIFI-Anlage, etc., ein elektronisches Geräte zur Steuerung- und Befehlseingabe wie der Personal Computer, der Personal Digital Assistant, etc. -' mittels Sprache, der natürlichen Kommunikationsform des Menschen, zum sprachgesteuerten Initiieren von in dem jeweiligen Gerät ausführbaren Aktionen hat das vorrangige Ziel, daß die hierfür zur Daten- oder Befehlseingabe benutzten Hände für andere Routine-Tätigkeiten frei werden.The entry of information or data or commands into a device - e.g. a telecommunications terminal such as a corded or cordless telephone, a cell phone, etc., a household appliance such as a washing machine, an electric cooker, a refrigerator etc., a vehicle such as a car, the airplane, the ship, etc., a consumer electronics device such as the television, the HIFI system, etc., an electronic device for control and command input such as the personal computer, the personal digital assistant, etc. - ' by means of language, the The natural form of communication of the human being, for the voice-controlled initiation of actions which can be carried out in the respective device, has the primary aim of freeing the hands used for data or command input for other routine activities.
Das Gerät weist dazu eine Spracherkennungseinrichtung auf, die in der Fachliteratur auch als Spracherkenner bezeichnet wird. Das Gebiet der automatischen Erkennung von Sprache als ein System von Zeichen und Lauten umfaßt das Erkennen der isoliert gesprochenen Zeichen und Laute - z.B. einzelne Wörter, Befehle - bis hin zum Erkennen von fließend gesprochenen Zeichen und Laute - z.B. mehrere zusammenhängende Wörter, ein oder mehrere Sätze, eine Rede - entsprechend der Kommunikationsform des Menschen. Die automatische Spracherkennung ist im Prinzip ein Suchprozeß, der sich gemäß der DruckschriftFor this purpose, the device has a speech recognition device, which is also referred to in the specialist literature as speech recognizer. The field of automatic recognition of speech as a system of characters and sounds includes recognizing the characters and sounds spoken in isolation - e.g. single words, commands - up to the recognition of fluently spoken characters and sounds - e.g. several connected words, one or more sentences, a speech - according to the form of communication of the person. The automatic speech recognition is in principle a search process, which according to the document
„Funkschau Heft 26, 1998, Sei ten 72 bis 74 " ganz grob in eine Phase zur Aufbereitung des Sprachsignals, eine Phase zur Reduktion der Datenmenge, eine Klassifizierungsphase, eine Phase zur Bildung von Wortketten und eine Grammatikmodellphase unterteilen, die in der angegebenen Reihenfolge im Spracher- kennungsprozeß ablaufen. Die nach dieser Vorgehensweise arbeitenden Spracherkenner werden gemäß der Druckschrift „Funkschau Heft 13, 19998, Sei ten 18 bis 80 " nach dem Grad ihrer Sprecherabhängigkeit unterschieden. Während bei sprecherabhängigen Spracherkennern der jeweilige Benutzer das gesamte Vokabular in mindestens einer Lern- bzw. Trainingsphase zum Erzeugen von Referenzmustern einspricht, entfällt dieser Vorgang bei sprecherunabhängigen Spracherkennern."Funkschau issue 26, 1998, pages 72 to 74" roughly divide into a phase for processing the speech signal, a phase for reducing the amount of data, a classification phase, a phase for forming word strings and a grammar model phase, which in the order given in Speech recognition process running. According to the publication "Funkschau Issue 13, 19998, pages 18 to 80", the speech recognizers working according to this procedure are differentiated according to the degree of their speaker dependency. While in the case of speaker-dependent speech recognizers, the respective user generates the entire vocabulary in at least one learning or training phase speaking of reference patterns, this process does not apply to speaker-independent speech recognizers.
Der sprecherunabhängigen Spracherkenner arbeitet fast ausschließlich auf der Basis von Phonemen, während der sprecherabhängige Spracherkenner mehr oder weniger ein Einzelworter- kenner ist.The speaker-independent speech recognizer works almost exclusively on the basis of phonemes, while the speaker-dependent speech recognizer is more or less a single word recognizer.
Entsprechend dieser Spracherkennerdefinition kommen die sprecherunabhängigen Spracherkenner insbesondere in solchen Geräten zum Einsatz, wo einerseits fließend gesprochene Sprache - z.B. mehrere zusammenhängende Wörter, Sätze etc. - und große bis sehr große Wortschätze - d.h. eine* unbegrenzter Benutzer- kreis benutzt das Gerät - verarbeitet werden müssen und andererseits der Rechen- und Speicheraufwand für das Erkennen dieser Sprache und Wortschätze keine Rolle spielt, weil die entsprechenden Kapazitäten vorhanden sind.According to this speech recognizer definition, the speaker-independent speech recognizers are used in particular in devices where, on the one hand, fluently spoken language - e.g. several connected words, sentences etc. - and large to very large vocabulary - i.e. An * unlimited user group uses the device - must be processed and on the other hand the computing and storage effort for recognizing this language and vocabulary does not matter because the corresponding capacities are available.
Die sprecherabhängigen Spracherkenner hingegen haben ihr bevorzugtes Einsatzgebiet in solchen Geräten, wo einerseits diskret gesprochene Sprache, z.B. einzelne Wörter und B ,1efeh- le, und kleine bis mittelgroße Wortschätze - d.h. eine/ begrenzter Benutzerkreis benutzt das Gerät - verarbeitet werden müssen und andererseits der Rechen- und Speicheraufwand für das Erkennen dieser Sprache und Wortschätze von Bedeutung ist, weil die entsprechenden Kapazitäten nicht vorhanden sind. Die sprecherabhängige Spracherkenner zeichnen sich daher durch eine geringe Komplexität bezüglich des Rechenauf- wands und des Speicherbedarfs aus. Bei derzeit zum Einsatz kommenden sprecherabhängigen Spracherkennern werden bereits ausreichend hohe Worterkennungsraten für kleine bis mittelgroße Vokabularien (10 - 100 Wörter) erzielt, so dass sich diese Spracherkenner besonders zur Steuerungs- und Befehlseingabe (com and-and-control) aber auch für sprachgesteuerten Datenbankzugriff (z.B. Sprachwahl aus einem Telefonbuch) eignen. In zunehmendem Maße werden diese Spracherkenner daher in Geräten des Massenmarkts, wie z.B. in Telefonen, Haushaltsgeräten, Geräten der Unterhal- tungselektronik, Geräten mit Steuerungs- und Befehlseingabe Spielzeugen aber auch in Kraftfahrzeugen eingesetzt.The speaker-dependent speech recognizers, on the other hand, have their preferred field of use in devices where on the one hand discretely spoken language, eg individual words and B, 1 misses, and small to medium-sized vocabulary - ie a / limited user group uses the device - and on the other hand the arithmetic - And storage effort for the recognition of this language and vocabulary is important because the corresponding capacities are not available. The speaker-dependent speech recognizers are therefore characterized by a low level of complexity in terms of computation and memory requirements. With speech-dependent speech recognizers currently in use, sufficiently high word recognition rates for small to medium-sized vocabularies (10-100 words) are already achieved, so that these speech recognizers are particularly suitable for control and command input (com and-and-control) but also for voice-controlled database access ( eg voice dialing from a phone book). These speech recognizers are therefore being used to an increasing extent in devices on the mass market, such as, for example, in telephones, household appliances, consumer electronics devices, devices with control and command input toys, but also in motor vehicles.
Problematisch bei diesen Anwendungen ist allerdings, dass die Geräte oft nicht nur von einem Benutzer, sondern von mehreren Benutzern, z.B. häufig Mitglieder eines Haushalts, einer Familie verwendet werden (begrenzter Benutzerkreis) .However, the problem with these applications is that the devices are often not only used by one user, but by several users, e.g. frequently members of a household or a family are used (limited number of users).
Das Problem der Benutzerabhängigkeit von sprecherabhängigen Spracherkennern ist gemäß der Druckschrift ,,ntz (nachrichten- technische Zeitschrift) Band 37, Heft 8, 1984, Seiten 496 bis 499 insbesondere Seite 498, mittlere Spalte letzten sieben Zeilen bis rechte Spalte ersten sechs Zeilen" nur durch getrennte Vokabularien für die einzelnen Benutzer umgangen. Der Nachteil des genannten Umgehungsverfahrens ist, dass sich die Benutzer vor einer Nutzung der Spracherkennung identifizieren müssen. Da eine sprecherabhängige Spracherkennung vorausgesetzt wurde, muss die Sprecheridentifizierung über ein anderes Verfahren als die Spracherkennung erfolgen. Die Selbstidentifikation des Benutzers über eine Tastatur und ein Dis- play bietet sich in den meisten Fällen an. Der Zugriff auf die automatische Spracherkennung wird für den Benutzer hinsichtlich der Benutzerführung und des für eine Spracherkennung notwendigen Zeitaufwands erheblich erschwert. Dies gilt besonders, wenn sich mehrere Benutzer einer Spracherkennung häufig abwechseln. Das Verfahren der manuellen Benutzeridentifizierung stellt hier sogar den Nutzen der Spracherkennung in Frage, da statt der manuellen Benutzeridentifikation mit dem gleichen Aufwand die gewünschte Ausführung der Aktion in dem Gerät manuell und ohne Spracherkennung initiiert werden kann.The problem of the user dependency of speaker-dependent speech recognizers is only solved according to the publication "ntz (news-technical journal) volume 37, issue 8, 1984, pages 496 to 499, in particular page 498, middle column last seven lines to right column first six lines" The disadvantage of the bypass method mentioned is that the users have to identify themselves before using the speech recognition. Since speaker-dependent speech recognition has been assumed, the speaker identification must be carried out using a method other than the speech recognition. The self-identification of the user Using a keyboard and a display is a good option in most cases.Access to automatic speech recognition is made considerably more difficult for the user in terms of user guidance and the time required for speech recognition, especially when there are several e Alternate users of voice recognition frequently. The process of manual user identification even questions the usefulness of speech recognition, since instead of manual user identification with the same effort, the desired execution of the action in the device can be initiated manually and without speech recognition.
Die der Erfindung zugrundeliegende Aufgabe besteht darin, das Initiieren von in einem Gerät ausführbaren Aktionen mittels Sprache durch Benutzer eines begrenzten Benutzerkreises des Gerätes benutzerunabhängig zu steuern, wobei die Sprache auf der Basis eines sprecherabhängigen Spracherkennungssystems benutzerunabhängig und ohne Benutzeridentifikation erkannt wird.The object on which the invention is based is to control the initiation of actions which can be carried out in a device by means of speech by users of a limited group of users of the device, the speech being recognized independently of the user and without user identification on the basis of a speaker-dependent speech recognition system.
Diese Aufgabe wird durch die Merkmale des Patentanspruches 1 gelöst.This object is solved by the features of claim 1.
Die der Erfindung zugrundeliegende Idee besteht darin, daß den Erkennungssprachäußerungen der Benutzer des Benutzerkreises, z.B. den Wörtern eines Vokabulars, die für die Erkennung notwendigen Referenzsprachmuster aller Benutzer eines Spra- cherkennungssystems zugeordnet werden. Das Vokabular (Telefonbuch, KommandoWortliste, ...) enthält dabei z.B. „i* Wörter (Namen, Kommandos, ...), denen jeweils eine auszuführende Handlung (Telefonnummern, die zu wählen sind, Aktion eines angeschlossenen Gerätes, ...) eine eventuelle akustisch aus- zugebende Sprachbestätigung (in der Regel die Aussprache des Wortes) (Voiee Prompt) und bis zu „j Referenzsprachmuster der „kλλ Benutzer des Spracherkennungssystems zugeordnet sind, wobei „i*eN, „jw eN und "k eN.The idea on which the invention is based is that the recognition speech utterances of the users of the user group, for example the words of a vocabulary, are assigned the reference speech patterns of all users of a speech recognition system which are necessary for the recognition. The vocabulary (phone book, command word list, ...) contains, for example, "i * words (names, commands, ...), each of which has an action to be performed (phone numbers to be selected, action of a connected device, ...) a possible acoustically outputted voice confirmation (usually the pronunciation of the word) (Voiee Prompt) and up to "j reference speech patterns are assigned to the" k λλ users of the speech recognition system, where "i * eN," j w eN and "k eN ,
Die Zuordnung einer Sprachbestätigung zu den Wörtern eines Vokabulars ist nicht unbedingt erforderlich, jedoch häufig für eine akustische Benutzerführung vorteilhaft. Die Sprachbestätigung kann dabei von einem der Benutzer des Spracherkennungssystems, einem Text-zu-Sprache-Transkriptionssystem oder falls die Wörter des Vokabulars feststehen, von einer dritten Person stammen. ω ω ) ) P1 P>The assignment of a voice confirmation to the words of a vocabulary is not absolutely necessary, but is often advantageous for acoustic user guidance. The voice confirmation can come from one of the users of the speech recognition system, a text-to-speech transcription system or, if the words of the vocabulary are certain, from a third person. ω ω)) P 1 P>
Ül o Cn o cn o CnÜl o Cn o cn o Cn
d: T3 <. P» d cn φ N «3 ö Φ d Q, cn cn S5 rt CΛ S! CΛ i-i Hi vP rt rt PJ W P3 öd: T3 <. P »d cn φ N« 3 ö Φ d Q, cn cn S5 rt CΛ S! CΛ i-i Hi vP rt rt PJ W P3 ö
ÖJ H o d Φ rr P- Φ Φ H- Φ H- d Φ Φ g Φ rt 13 J H Ω O 13 φ Φ PJ P- Φ P1 P- ι-i P-Ö J H od Φ rr P- Φ Φ H- Φ H- d Φ Φ g Φ rt 13 JH Ω O 13 φ Φ PJ P- Φ P 1 P- ι-i P-
Φ O ? Φ Hi 3 Φ d H d Φ h d d H d ι-i Φ ι-i Ω PJ tr i-i H d H d φ cn H φ J φΦ O? Φ Hi 3 Φ d H d Φ h d d H d ι-i Φ ι-i Ω PJ tr i-i H d H d φ cn H φ J φ
H 3 PJ H X 3 φ cn Φ iQ N rt s: P J tr P- d rt φ N Φ d P- Ω Φ l-i P-H 3 PJ H X 3 φ cn Φ iQ N rt s: P J tr P- d rt φ N Φ d P- Ω Φ l-i P-
13 e cn P) iQ cn f CΛ <! Ω cn cn H- H- P» Ω d P- Φ Ω Cn d Ω tr tr d tr tr rr d P- d Φ s: PJ 13 O t-f cn Ω uQ H- d O tr α P- rt 13 N P) tr Sl Φ P- P-13 e cn P ) iQ cn f CΛ <! Ω cn cn H- H- P »Ω d P- Φ Ω Cn d Ω tr tr d tr tr rr d P- d Φ s: PJ 13 O tf cn Ω uQ H- d O tr α P- rt 13 NP ) tr Sl Φ P- P-
P- Ω α 3 φ Φ d ι-f l-i H- 51 13 tr cn rt tr Φ φ φ rt tr Φ ι-< cn fr Φ φ P- O: P- d cn a P> tr Φ H cn d P) rt- φ O ι-i rt Φ d O d !-f l-i i-i 3 P- H P) 13 N h Φ H QP- Ω α 3 φ Φ d ι-f li H- 51 13 tr cn rt tr Φ φ φ rt tr Φ ι- <cn fr Φ φ P- O: P- d cn a P> tr Φ H cn d P ) rt- φ O ι-i rt Φ d O d! -f li ii 3 P- HP ) 13 N h Φ HQ
P) Q n rt 3 P- ι-i Φ Ω Φ i-i P) Φ H- d 3 Φ ri¬ Φ d Ω H Φ S! ^ ri¬ P- N d Φ H Φ d Φ d e dJ H- Φ rt Ω rt d iQ PJ Φ t? tt) d tr P> 13 o J cn tt) cn d cn CΛ < P- tr ω P- rt Φ Φ l-1 d Φ d" Φ rt Φ d ι-i d LQ Φ P- p Ω rt l-i d 13 H rt φP ) Q n rt 3 P- ι-i Φ Ω Φ ii P ) Φ H- d 3 Φ ri ¬ Φ d Ω H Φ S! ^ ri ¬ P- N d Φ H Φ d Φ ded J H- Φ rt Ω rt d iQ PJ Φ t? tt) d tr P> 13 o J cn tt) cn d cn CΛ <P- tr ω P- rt Φ Φ l- 1 d Φ d "Φ rt Φ d ι-id LQ Φ P- p Ω rt li d 13 H rt φ
13 o Ω l-i P> Ω P-1 H- l-i φ Φ n P P α P- P- d N Φ d cn d tr" H- rt d pj: cn13 o Ω li P> Ω P- 1 H- li φ Φ n PP α P- P- d N Φ d cn d tr "H- rt d pj: cn
Φ Φ H tr Φ 3 tr P- f l-i d Hi φ cn d Φ Φ S! d rt n p Φ ^ rt rt Φ LJ.Φ Φ H tr Φ 3 tr P- f l-i d Hi φ cn d Φ Φ S! d rt n p Φ ^ rt rt Φ LJ.
P- P- tr > H φ rr Ω Φ α cn J » H Ω Φ H d o m • rt d ι-i Φ φ cn cnP- P- tr> H φ rr Ω Φ α cn J »H Ω Φ H d o m • rt d ι-i Φ φ cn cn
13 Ω P> Φ Φ d • tr Φ d Φ s P) rt Φ tr cn ιQ l-i Φ Φ cn rt cn s: H cn. 1313 Ω P> Φ Φ d • tr Φ d Φ s P ) rt Φ tr cn ιQ li Φ Φ cn rt cn s: H cn. 13
Φ tr P P- H ι-i d CΛ o tr φ Hi n φ <i — C rt Φ P- α H ri¬ •«* o Φ d -i ϊöΦ tr P P- H ι-id CΛ o tr φ Hi n φ <i - C rt Φ P- α H ri ¬ • « * o Φ d -i ϊö
Φ r+ <J S! Φ d l-i Φ H cn Φ 13 d O d Φ 1-1 P- d tt) H < P- PJ φΦ r + <J S! Φ d l-i Φ H cn Φ 13 d O d Φ 1-1 P- d tt) H <P- PJ φ
0- H Φ < o φ P- ω d <! rt H H H l-i ι 3 Φ H s: £ P- O o Ω Ω Hi0- H Φ <o φ P- ω d <! rt H H H l-i ι 3 Φ H s: £ P- O o Ω Ω Hi
Φ rr d Hl O f P- d 13 «3 φ Φ pj: Φ PJ 2! t o-- ω ι-3 Φ Φ H- Φ d fr tr tr Φ d Φ d= P) rf Hi H H d t P) d Ω O φ d α P- φ d < Φ pj: d H d PJ rt Φ -( rt £ l-i PJ tr Φ P» tu Hl H- P- d Cn N tr H H d Φ d P- uq o cn t ü Φ tr H ΦΦ rr d Hl O f P- d 13 «3 φ Φ pj: Φ PJ 2! t o-- ω ι-3 Φ Φ H- Φ d fr tr tr Φ d Φ d = P ) rf Hi HH dt P ) d Ω O φ d α P- φ d <Φ pj: d H d PJ rt Φ - (rt £ li PJ tr Φ P »tu Hl H- P- d Cn N tr HH d Φ d P- uq o cn t ü Φ tr H Φ
PJ Φ s tr d H Ω Ω α J cn Ω l-1 cn Φ rt P- φ H PJ φ d d cn P- d d ^ dP J Φ s tr d H Ω Ω α J cn Ω l- 1 cn Φ rt P- φ HP J φ dd cn P- dd ^ d
P- H o d Φ i-T d* P> !-r rt tr H- 13 H Φ «5 d • <i d Si h-1 α O d l-1 d φ NP- H od Φ iT d * P>! -R rt tr H- 13 H Φ «5 d • <id Si h- 1 α O d l- 1 d φ N
Ω P- H P- P) Φ Φ cn l-i • rt Ω o H f^ ι-f Φ *) o O P- P) PJ H φ P) tr d cn tr Φ rr Φ P) H < H H Φ tr d ) Φ ^ PJ Φ α Φ ι-i Ω cn cn l-1 3 H Φ d 13Ω P- H P- P ) Φ Φ cn li • rt Ω o H f ^ ι-f Φ * ) o O P- P ) PJ H φ P ) tr d cn tr Φ rr Φ P ) H <HH Φ tr d ) Φ ^ PJ Φ α Φ ι-i Ω cn cn l- 1 3 H Φ d 13
Φ P H O Φ f PJ P P): Ω d φ Cd P1 Hi ) φ d ritr φ cn φ i-i d t Φ Hi H Φ Φ cn t N _f d d φ Φ tr cn tt) <! PJ d P- P- l-i P) ) 3 d φ d= rr D d H- d d Φ d d d φ d Φ cn N o H • d rt d cn ΩΦ PHO Φ f P J PP ) : Ω d φ Cd P 1 Hi ) φ d ritr φ cn φ ii dt Φ Hi H Φ Φ cn t N _f dd φ Φ tr cn tt) <! PJ d P- P- li P ) ) 3 d φ d = rr D d H- dd Φ ddd φ d Φ cn N o H • d rt d cn Ω
Φ d n P Φ H Φ Φ d Go hJ H-1 P d a d d Φ PJ Q P- d d PJ ι-i iQ 'rf cn d d P- d rr H- H- P ω KQ d rt Cd d ) Φ d p- P3 P- ) rt p cn d cn φ rr r+ P> P-1 H- d Φ Ω Φ cn rt • ιQ N Φ N H n N O α d H P- d dΦ dn P Φ H Φ Φ d Go h J H- 1 P dadd Φ P J Q P- dd PJ ι-i iQ 'rf cn dd P- d rr H- H- P ω KQ d rt Cd d ) Φ d p- P3 P- ) rt p cn d cn φ rr r + P> P- 1 H- d Φ Ω Φ cn rt • ιQ N Φ NH n NO α d H P- dd
? "^ p- N H) PJ Φ φ ^Q t tr 13 φ Φ d cn Φ P) Φ d Φ Φ P- PJ P- d d i-i cn n- P φ PJ-- d Φ H H 11 s: s: H d 13 3 d 3 d P- α P- O Ω rt? " ^ p- NH) P J Φ φ ^ Q t tr 13 φ Φ d cn Φ P ) Φ d Φ Φ P- PJ P- dd ii cn n- P φ PJ-- d Φ HH 11 s: s: H d 13 3 d 3 d P- α P- O Ω rt
P- Φ φ l-i P1 Φ α d Φ H- d N Φ > P- P- rt α rt d «q d d φ rt tr ΦP- Φ φ li P 1 Φ α d Φ H- d N Φ> P- P- rt α rt d «qdd φ rt tr Φ
O i-i I-1 Φ d d Φ d H Ω N H- l-i N J P- < Φ Φ tr CΛ P- Φ n s: H a in φ r - CΛ cn ιQ rr H- Φ tr d Φ Φ O Φ O d d Φ 13 O- φ PJ Φ Φ .O ii I- 1 Φ dd Φ d H Ω N H- li NJ P- <Φ Φ tr CΛ P- Φ ns: H a in φ r - CΛ cn ιQ rr H- Φ tr d Φ Φ O Φ O dd Φ 13 O- φ P J Φ Φ.
PJ O i-i 13 Hi H d d φ iQ d ι-i ^ l-i H Φ H P- d H- Φ d H l-i d H < P) Φ l-i Φ SU rt § <j PJ öd <i Φ PJ cn Φ φ *» α Φ P-PJ O ii 13 Hi H dd φ iQ d ι-i ^ li H Φ H P- d H- Φ d H li d H <P ) Φ li Φ SU rt § <j PJ öd <i Φ PJ cn Φ φ * »Α Φ P-
Φ tr PJ φ d Φ Φ Φ -1 Φ Q. d ϊö i^1 o H- d P- C o tr φ o P- Ω d d P- d Λ r-r Ω H- α Ω H cn d φ Φ φ H Φ Hi l-h pι cn d d d H rt d n iQ 3 Φ tr Ω PJ H) Φ r i-i ϊö Hi d P- cn rt d tr cn Φ 1 3 öd O "* cn cn P- tr r Φ Φ P> CΛ d H- Φ Φ d d φ N Φ 3 J rt Φ H rt φ φ d td 3 J Φ r+ cn H & 13 • Hi σ Hi H φ Φ d P- P- cn H φ H N ι-i Q K Φ tr d P. φ S!Φ tr PJ φ d Φ Φ Φ - 1 Φ Q. d ϊö i ^ 1 o H- d P- C o tr φ o P- Ω dd P- d Λ rr Ω H- α Ω H cn d φ Φ φ H Φ Hi lh pι cn ddd H rt dn iQ 3 Φ tr Ω P J H) Φ r ii ϊö Hi d P- cn rt d tr cn Φ 1 3 öd O "* cn cn P- tr r Φ Φ P> CΛ d H- Φ Φ dd φ N Φ 3 J rt Φ H rt φ φ d td 3 J Φ r + cn H & 13 • Hi σ Hi H φ Φ d P- P- cn H φ HN ι-i QK Φ tr d P . φ S!
Φ cn cn . • H H H- Φ Φ H rt cn d φ 13 tr cn Φ φ Φ d -i d φ PJ d oΦ cn cn. • H H H- Φ Φ H rt cn d φ 13 tr cn Φ φ Φ d -i d φ PJ d o
P- rr x Φ P) K fr d H d cn φ 1-1 ι-i _— , H ^ ι-i rt cn d φ rt 1-1 ω d l-i o pi: σ H- α d Ω H- ) d Φ N Φ s: φ d P) H Φ d ι-i 13 d CΛ H N d cn rt rt tT Φ r P> H Φ cn d" Φ rr rt d cn ι-( Φ i-i JÖ d Ω l-i H P> φ Φ 13 φ Φ N Φ φ H P- α H Φ H H- N N 13 N H d = iQ tr J Φ o rt P- P- ι-i H d PJ Φ cnP- rr x Φ P ) K fr d H d cn φ 1-1 ι-i _—, H ^ ι-i rt cn d φ rt 1-1 ω d li o pi: σ H- α d Ω H- ) d Φ N Φ s: φ d P ) H Φ d ι-i 13 d CΛ HN d cn rt rt tT Φ r P> H Φ cn d "Φ rr rt d cn ι- (Φ ii JÖ d Ω li HP > φ Φ 13 φ Φ N Φ φ H P- α H Φ H H- NN 13 NH d = iQ tr J Φ o rt P- P- ι-i H d PJ Φ cn
1-1 Hl ι3 Hl H o. O Φ cn H Φ & d Ω Φ P- d tr H d Ω Φ 03 d H1-1 Hl ι3 Hl H o. O Φ cn H Φ & d Ω Φ P- d tr H d Ω Φ 03 d H
PJ P d d= Φ P- fV d a H 13 fu d Φ vQ ^ d H a Φ PJ P- tr Φ Ω Φ PJ ι-i ≤ d tr d l-i P- Φ φ Φ l-i d i-i Ω iQ d s: d fr P- Öd P- P- Φ Φ i- t a d φ ιQ φPJ P dd = Φ P- fV da H 13 fu d Φ vQ ^ d H a Φ PJ P- tr Φ Ω Φ PJ ι-i ≤ d tr d li P- Φ φ Φ li d ii Ω iQ ds: d fr P- Öd P- P- Φ Φ i- tad φ ιQ φ
Hi H ιQ 3 H ιQ d Ω P_ d J / rt d rt Φ d Φ d H H N φ d Ω Φ l-i z Φ _l. Φ X Φ d l=r Φ J Ω P Φ fr - P- N d ιC! d P- φ rt φ ι-i rt tr P- td ∑: P-Hi H ιQ 3 H ιQ d Ω P_ d J / rt d rt Φ d Φ d H H N φ d Ω Φ l-i z Φ _l. Φ X Φ d l = r Φ J Ω P Φ fr - P- N d ιC! d P- φ rt φ ι-i rt tr P- td ∑: P-
PJ d . — . Φ P) d d H er aj d P> Ω cn φ d d P- φ d Φ d cn N Φ φ o Φ d < α tr I-1 d s: PJ § cn td d tr d d d α rt Φ n . d iQ φ P d d dPJ d. -. Φ P ) dd H er a j d P> Ω cn φ dd P- φ d Φ d cn N Φ φ o Φ d <α tr I- 1 ds: P J § cn td d tr ddd α rt Φ n. d iQ φ P ddd
P- O Φ O: rr P- ιQ H- Cd P>: d rt H d rt d • d Φ N rt Φ rt P) H d S! d d cn PJ P- cn tr d d cn H φ d cn Φ fr ιQ ιQ cn Φ Φ d ^d Φ d rt O: rt φP- O Φ O: rr P- ιQ H- Cd P>: d rt H d rt d • d Φ N rt Φ rt P ) H d S! dd cn PJ P- cn tr dd cn H φ d cn Φ fr ιQ ιQ cn Φ Φ d ^ d Φ d rt O: rt φ
• H Ω φ d cn O- d iQ rt i-i Φ Φ ω ω H d Φ Ω α O l-i N d d• H Ω φ d cn O- d iQ rt i-i Φ Φ ω ω H d Φ Ω α O l-i N d d
1 Φ P- H Φ < d Φ d d P- Φ cn d Hl tr PJ 3 1 Φ i-i1 Φ P- H Φ <d Φ dd P- Φ cn d Hl tr PJ 3 1 Φ ii
3 Φ cn P- 1 ri- 1 l-i 1 d P- • Φ φ cn P> 1-1 Ω 1 1 1 d 1 1 1 1 1 tr 3 Φ cn P- 1 ri- 1 li 1 d P- • Φ φ cn P> 1-1 Ω 1 1 1 d 1 1 1 1 1 tr
Der Speicheraufwand für eine Sprachbestätigung ist dabei ca. um eine Zehnerpotenz höher als der eines Referenzsprachmusters. Zuallerletzt wird mit dem vorgestellten Verfahren in aller Regel eine höhere Worterkennungsrate als bei einer Ein- zelnutzung (nur ein Sprecher) des Spracherkenners erzielt. Die Verbesserung der Worterkennungsrate beruht dabei auf der Erweiterung der Sprachreferenzbasis eines Wortes durch das Training mit mehreren Sprechern.The storage effort for a voice confirmation is about a power of ten higher than that of a reference speech sample. Last but not least, the presented method generally achieves a higher word recognition rate than with a single use (only one speaker) of the speech recognizer. The improvement in the word recognition rate is based on the expansion of the language reference base of a word by training with several speakers.
Der erfinderische Schritt liegt in der Nutzung eines gemeinsamen Vokabulars für alle Benutzer eines Spracherkennungssystems, wobei einem Wort die Referenzsprachmuster von mehreren Benutzern zugeordnet werden. Das Verfahren erfordert die vorstehend beschriebene Rückweisungsstrategie beim Sprachtrai- ning und bei der Spracherkennung.The inventive step lies in the use of a common vocabulary for all users of a speech recognition system, with one word being assigned the reference speech pattern by several users. The method requires the rejection strategy described above for voice training and for voice recognition.
Das Verfahren eignet sich für Spracherkennungsanwendungen mit einem eingeschränkten Benutzerkreis von mehr als einem Benutzer. Dies sind insbesondere Anwendungen mit einer Sprach- Steuerung und -befehlseingabe aber auch mit einem sprachgesteuerten Datenbankzugriff. Ausführungsbeispiele sind sprachgesteuerte Telefone (sprachgesteuerte Wahl aus einem Telefonbuch, sprachgesteuerte Steuerung einzelner Funktionen, wie z.B. die des Anrufbeantworters) als auch sonstige sprachge- steuerte Maschinen/Geräte wie Haushaltsgeräte, Spielzeuge und Kraftfahrzeuge .The method is suitable for speech recognition applications with a restricted user group of more than one user. These are, in particular, applications with voice control and command input, but also with voice-controlled database access. Exemplary embodiments are voice-controlled telephones (voice-controlled dialing from a telephone book, voice-controlled control of individual functions, such as that of the answering machine) as well as other voice-controlled machines / devices such as household appliances, toys and motor vehicles.
Vorteilhafte Weiterbildungen der Erfindung sind in Unteransprüchen angegeben.Advantageous developments of the invention are specified in the subclaims.
Ein Ausführungsbeispiel der Erfindung ist anhand der FIGUREN 1 bis 8 erläutert. An embodiment of the invention is explained with reference to FIGURES 1 to 8.

Claims

Patentansprüche Patent claims
1. Verfahren zum sprachgesteuerten Initiieren von in einem Gerät ausführbaren Aktionen durch einen begrenzten Benutzer- kreis mit folgenden Merkmalen:1. Method for the voice-controlled initiation of actions that can be carried out in a device by a limited group of users with the following features:
(a) Durch die zu mindestens einem Benutzer des Benutzerkreises des Gerätes jeweils zugehörige Sprache wird das Gerät für mindestens einen von dem jeweiligen Benutzer gewählten Betriebsmodus jeweils in mindestens einer von dem Benutzer ein- zuleitenden Sprachtrainingsphase derart trainiert, daß(a) Through the language associated with at least one user of the user group of the device, the device is trained for at least one operating mode selected by the respective user in at least one language training phase to be initiated by the user in such a way that
(al) mindestens einer dieser Benutzer zu mindestens einer Aktion jeweils mindestens eine der Aktion jeweils zuzuordnenden Referenzsprachäußerung (reference speech utterance) in das Gerät eingibt, (al) at least one of these users enters at least one reference speech utterance that can be assigned to the action into the device for at least one action,
(a2) aus der Referenzsprachäußerung durch Sprachanalyse ein Referenzsprachmuster erzeugt wird, wobei bei mehreren Referenzsprachäußerungen das Referenzsprachmuster erzeugt wird, wenn die Referenzsprachäußerungen ähnlich sind, (a3) das Referenzsprachmuster der Aktion zugeordnet wird, (a4) das Referenzsprachmuster mit der zugeordneten Aktion vorbehaltlos gespeichert wird oder nur dann gespeichert wird, wenn das Referenzsprachmuster unähnlich zu den bereits gespeicherten anderen Referenzsprachmustern ist, die anderen Aktionen zugeordnet sind, (b) der jeweilige Benutzer gibt für den von dem Benutzer gewählten Betriebsmodus des Gerätes in einer Spracherkennungs- phase eine Erkennungssprachäußerung in das Gerät ein, (c) aus der Erkennungssprachäußerung wird durch Sprachanalyse ein Erkennungssprachmuster erzeugt, (d) das ErkennungsSprachmuster wird zumindest mit einem Teil der für den gewählten Betriebsmodus gespeicherten Referenzsprachmustern derart verglichen, daß die Ähnlichkeit zwischen dem jeweiligen Referenzsprachmuster und dem Erkennungssprachmuster ermittelt wird und eine Ähnlichkeitsrangfolge der gespeicherten Referenzsprachmuster anhand der ermittelten Ähnlichkeitswerte gebildet wird, ω N> N> P1 P1 (a2) a reference language pattern is generated from the reference language utterance by language analysis, whereby in the case of several reference language utterances, the reference language pattern is generated if the reference language utterances are similar, (a3) the reference language pattern is assigned to the action, (a4) the reference language pattern is stored without reservation with the assigned action or is only saved if the reference speech pattern is dissimilar to the other reference speech patterns already stored that are assigned to other actions, (b) the respective user enters a recognition speech utterance into the device in a speech recognition phase for the operating mode of the device selected by the user a, (c) a recognition speech pattern is generated from the recognition speech utterance by speech analysis, (d) the recognition speech pattern is compared with at least part of the reference speech patterns stored for the selected operating mode in such a way that the similarity between the respective reference speech pattern and the recognition speech pattern is determined and a similarity ranking the stored reference speech patterns are formed based on the similarity values determined, ω N>N> P 1 P 1
Cπ o cπ O cn o Cπ o 3 α d ω φ S O N a 3 d M td 3 <! cn fr P- cn o Cn a n P- ιP a ωCπ o cπ O cn o Cπ o 3 α d ω φ S O N a 3 d M td 3 <! cn fr P- cn o Cn a n P- ιP a ω
• d a cn a P- P- Φ d rt d 13 Φ ri¬ cn Φ PJ rt d d ri¬ Φ• da cn a P- P- Φ d rt d 13 Φ ri ¬ cn Φ PJ rt dd ri ¬ Φ
Φ Φ » a s: d φ Φ ' H o o 13 Φ Hi "d d H Φ Φ l-i tr P^1 d ι-1 P- — rt 1 Φ ^* H H tt) rt cn Φ d t- tt)Φ Φ » as: d φ Φ ' H oo 13 Φ Hi " dd H Φ Φ li tr P^ 1 d ι-1 P- — rt 1 Φ ^ * HH tt) rt cn Φ d t- tt)
H H rt- < φ rt H P- Ω H rt φ d tu rt P- P1 a tr J tr J H ιp Ω d d φ d tr Φ Φ d cn P. o cn P- O — ' Φ φ a Ω tr ^ cn H l-i d φ a* ι-J d d 1 l-i d P- a4 d d H CΛ cn H tuHH rt- < φ rt H P- Ω H rt φ d tu rt P- P 1 a tr J tr JH ιp Ω dd φ d tr Φ Φ d cn P. o cn P- O — ' Φ φ a Ω tr ^ cn H li d φ a* ι-J dd 1 li d P- a 4 dd H CΛ cn H tu
Φ ^P c Hi CΛ a P- 13 h_j Φ ςx Hi d α 3 P J ri¬ a Φ P ? Φ d d M cn tr Φ a a d H P- Φ d a a φ fr rt 13 a ri¬ cnΦ ^P c Hi CΛ a P- 13 h_j Φ ςx Hi d α 3 PJ ri ¬ a Φ P ? Φ dd M cn tr Φ aad H P- Φ daa φ fr rt 13 a ri ¬ cn
H rt n,Hrtn,
_~> PJ 13 Φ d H p7 P) d φ d d a N tt) t_ϊ Φ d P- Φ H Φ Φ H Φ tt) ) &j t H d Φ PJ J CΛ &_ tr «-. cn ω CQ ι Φ d d tr d a cn P- d N cn d tu d d a d H J rt d Ω 13 H cn Φ rt Hi 3 ιp d Φ rt Ω d ri¬ Ω Pt 3 d P- φ ; a Φ Ω P- ö" »< H φ cn Q d Φ o Φ CΛ t 3 Φ tr t tt) d Φ d' td d rt d d cn d p' cn < g cn J d 13 Φ d i-i 0 O ri¬ P- φ H fr Φ a H d 3 φ H- n PJ 3 5 Ω O d Φ Ω H H rt ι φ l-i tt) Ω Hl P- Φ Hi Φ ιP cn d d rt a o 3 J d d tr H cn a-1 d PJ pj: N N Φ H a PJ tr φ d Φ P- φ 3 CΛ cn er cn d P- Φ d P- £ J ω U3 rt N p PJ Ω rt Φ d p : d fr l-i P- rt l-i rt cn Φ rt rt P- H_~> PJ 13 Φ d H p7 P ) d φ dda N tt) t_ϊ Φ d P- Φ H Φ Φ H Φ tt) ) &j t H d Φ PJ J CΛ &_ tr «-. cn ω CQ ι Φ dd tr da cn P- d N cn d tu ddad HJ rt d Ω 13 H cn Φ rt Hi 3 ιp d Φ rt Ω d ri ¬ Ω Pt 3 d P- φ ; a Φ Ω P- ö" » < H φ cn Q d Φ o Φ CΛ t 3 Φ tr t tt) d Φ d' td d rt dd cn dp' cn < g cn J d 13 Φ d ii 0 O ri ¬ P- φ H fr Φ a H d 3 φ H- n PJ 3 5 Ω O d Φ Ω HH rt ι φ li tt) Ω Hl P- Φ Hi Φ ιP cn dd rt ao 3 J dd tr H cn a- 1 d PJ pj: NN Φ H a P J tr φ d Φ P- φ 3 CΛ cn er cn d P- Φ d P- £ J ω U3 rt N p PJ Ω rt Φ dp : d fr li P- rt li rt cn Φ rt rt P-H
PJ Ω Ω ri¬ P- Φ Φ d d Ω tr Φ H ι PJ rt Φ φ Φ φ a d cn Φ P- Φ 13 tr Φ N ΦPJ Ω Ω ri ¬ P- Φ Φ dd Ω tr Φ H ι PJ rt Φ φ Φ φ ad cn Φ P- Φ 13 tr Φ N Φ
H> X tr tt) co ι ι-i cn tr PJ= cn φ d rt P- d Φ Φ ι-i d d H Φ H Φ ι-f H φ rt P- H rt Φ d tr rt d Hi o s: cn rt N 1-1 J N 1 P> d H Φ hH > rt N 1-1 JN 1 P> d H Φ h
P P- H cn tr Φ Φ E P- d= i-i a P- cn r+ cn cn P) d cn a Φ Ω a N d frP P- H cn tr Φ Φ E P- d= ii a P- cn r+ cn cn P ) d cn a Φ Ω a N d fr
3 a Φ Φ cn H & φ d H Φ H P- Φ ι-i 13 [fci: d ιp 13 Φ Φ d s: Φ3 a Φ Φ cn H & φ d H Φ H P- Φ ι-i 13 [fci: d ιp 13 Φ Φ d s: Φ
-? φ cn <5 X d P- et cn l-i d H a d tr tu ι-i £? a Hi ι-i i-i cn $ d P- a d φ a 13 O o Φ d P- X 13 d P- Φ a φ d P) d Φ O J ri¬ d a 1-1 Φ d rr X Φ i-i d tr d Φ ö φ i-i d φ φ rt Φ a • d ιP Ω P- i-i Ω i: tt) cn o Φ a -f d-? φ cn <5 X d P- et cn li d H ad tr tu ι-i £? a Hi ι-i ii cn $ d P- ad φ a 13 O o Φ d P- X 13 d P- Φ a φ d P ) d Φ OJ ri ¬ da 1-1 Φ d rr Φ ö φ ii d φ φ rt Φ a • d ιP Ω P- ii Ω i: tt) cn o Φ a -fd
N PJ H d Φ d 5, H d uq ι-( d H P- a Hi _τ P- Φ iP P1 r tr rt Φ 3 dN PJ H d Φ d 5, H d uq ι-( d H P- a Hi _τ P- Φ iP P 1 r tr rt Φ 3 d
Φ l-i Ω P_ P- s Φ a Ω P- cn Φ Φ O 3 Ω Φ p d φ Φ Hi ) P- ιPΦ li Ω P_ P- s Φ a Ω P- cn Φ Φ O 3 Ω Φ pd φ Φ Hi ) P- ιP
13 S tr Φ φ < d Φ tr PJ n <! cn rf- P1 d tr d d H Φ P- d cn13 S tr Φ φ < d Φ tr PJ n <! cn rf- P 1 d tr dd H Φ P- d cn
Φ P- Φ 3 a l-i o a d 13 o rt CD ι cn > - PJ cn P- a H d n cn ι-i P rt M J rt l-i Φ P1 cn H d d td Φ rt φ er d ri¬ Ω Φ N Φ a 13Φ P- Φ 3 a li oad 13 o rt CD ι cn > - PJ cn P- a H dn cn ι-i P rt MJ rt li Φ P 1 cn H dd td Φ rt φ er d ri ¬ Ω Φ N Φ a 13
3 ^P tr "» PJ cn Q cn PJ "* PJ r Φ Φ P- P- tt) tr d d d a N Φ3 ^P tr "» PJ cn Q cn PJ " * PJ r Φ Φ P- P- tt) tr ddda N Φ
P- o d d Φ N Ω α d CΛ P- Hi P) i-i rt O d i-i T N Φ d 3 tu co rt a a a d ι Jjd cn P. d tr Φ d rt O Φ d (Λ d 1 φ to a cn H P1 Ω er a Φ J Φ tr rt Φ tr J Φ 3 H Φ d ι-( N i-i rt d P- Φ φ 13 tu: 0 trP- odd Φ N Ω α d CΛ P- Hi P ) ii rt O d ii TN Φ d 3 tu co rt aaad ι Jjd cn P. d tr Φ d rt O Φ d (Λ d 1 φ to a cn HP 1 Ω er a Φ J Φ tr rt Φ tr J Φ 3 H Φ d ι-( N ii rt d P- Φ φ 13 tu: 0 tr
Φ Φ l-i cn Φ tr cn PJ: PJ= l-f Φ a d J N Φ d rt Hi 3 -i cn φ tu: r-> H 3 a Φ et ι-i Φ rt tr cn fr td P. P" d Φ ι d d H tu: cn Φ PJ J φ a N H Φ > v tr i-f H P- Ω g cn l-i d er P- d d J n d PJ d c_ cn Φ φ d P- tu: &5Φ Φ li cn Φ tr cn PJ: PJ= lf Φ ad JN Φ d rt Hi 3 -i cn φ tu: r- > H 3 a Φ et ι-i Φ rt tr cn fr td P. P" d Φ ι dd H tu: cn Φ PJ J φ a NH Φ > v tr if H P- Ω g cn li d er P- dd J nd PJ d c_ cn Φ φ d P- tu: &5
M rt d Ω Φ d P-1 P- d d d P- cn O Hi Φ CΛ d P) Φ d a* H ι rt φ tr P- 1-1 CΛ α tr d a P- 1-1 ιp d d d cn Φ 13 φ H o o rt P- d d P P- l-fM rt d Ω Φ d P- 1 P- ddd P- cn O Hi Φ CΛ d P ) Φ da* H ι rt φ tr P- 1-1 CΛ α tr da P- 1-1 ιp ddd cn Φ 13 φ H oo rt P- dd P P- lf
N a a Ω 13 cn l-i cn Ω Ω d rt rt ι-1 l-i a P" l-i Φ P- ιP N a d Ω φ J dN a a Ω 13 cn l-i cn Ω Ω d rt rt ι-1 l-i a P" l-i Φ P- ιP N a d Ω φ J d
X a Φ tr H 3 Φ 5. 3 " tr Φ d N PJ Φ a PJ cn d ιP a P" Ω Hi cn Φ cn tr i-i d dX a Φ tr H 3 Φ 5. 3 " tr Φ d N PJ Φ a PJ cn d ιP a P" Ω Hi cn Φ cn tr i-i d d
Φ H PJ PJ P- Φ PJ ι-i u3 Φ d t Φ Ω ri¬ Φ Φ d P1 tr O 13 H et fr fr cn ι d Ω to et H &o a ^ cn H cn Φ 3 P4 tt) rt Φ φ P1 H Φ Φ PJ Hi tr 1 α ι a* Φ r Φ Q P) 13 ιp d P d PJ rt P- ι J H P- d = trΦ H PJ PJ P- Φ PJ ι-i u3 Φ dt Φ Ω ri ¬ Φ Φ d P 1 tr O 13 H et fr fr cn ι d Ω to et H &o a ^ cn H cn Φ 3 P 4 tt) rt Φ φ P 1 H Φ Φ PJ Hi tr 1 α ι a* Φ r Φ QP ) 13 ιp d P d PJ rt P- ι JH P- d = tr
Φ g • 5 a rt N Hl d tr ιP φ a P- d P- d cn cn Φ Ω ϊ? rt d tr Φ i-i PJ d φ d P- d s: P- Φ d PJ φ Hi Φ d cn tr cn P- rt rt _t d PJ: cn rt H NΦ g • 5 a rt N Hl d tr ιP φ a P- d P- d cn cn Φ Ω ϊ? rt d tr Φ i-i PJ d φ d P- d s: P- Φ d PJ φ Hi Φ d cn tr cn P- rt rt _t d PJ: cn rt H N
Φ i-i J fr cn φ d d P- d fr rt cn X d: rt P- rt φ cn Φ * P> § h-1 tr i-i ^ tr X o fr 3 rt d rt cn P- Φ P>: tr a Φ cn 1-1 rt ϊ f d d P- d PJ tu φ tr o P- Φ Φ td P- Φ Ω Φ Φ X tr H to Φ ι-{ d Cn Φ X cn Ω H" d s: H Ω d <! cn d ι-i d H tr 1-1 a o φ rt φ H d φ d ri¬ d o d rt tr P- ι φ Φ f^ φ 1 Ω rt d 3 cn φ rt a ii P- ri¬ Hi P- a tt) P) a tr 1 Φ fr Ω Hi d d er r Φ J3__;Φ ii J fr cn φ dd P- d fr rt cn X d: rt P- rt φ cn Φ * P> § h- 1 tr ii ^ tr Φ cn 1-1 rt ϊ fdd P- d PJ tu φ tr o P- Φ Φ td P- Φ Ω Φ Φ X tr H to Φ ι-{ d Cn Φ X cn Ω H" ds: H Ω d <! cn d ι-id H tr 1-1 ao φ rt φ H d φ d ri ¬ dod rt tr P- ι φ Φ f^ φ 1 Ω rt d 3 cn φ rt a ii P- ri ¬ Hi P- a tt ) P ) a tr 1 Φ fr Ω Hi dd er r Φ J 3 __;
•t S tr PJ Hi p- Ω d α d tt) a d H Φ Φ rt ι-1 Φ tr O d Φ o Φ N d Φ rt tr IS! Φ ιQ d X i-i p- Φ cn X cn d P- Φ P- P1 i Ω o CΛ > a d ιP H ι-i l_/. X φ d Φ φ Φ d ι- ι-i tu: rt P- ι a cn•t S tr PJ Hi p- Ω d α d tt) ad H Φ Φ rt ι-1 Φ tr O d Φ o Φ N d Φ rt tr IS! Φ ιQ d X φ d Φ φ Φ d ι- ι-i tu: rt P- ι a cn
Φ Φ P- d a Φ Φ Φ ιQ o d d M tr tr ri¬ a td a r cn cn Φ J er 13Φ Φ P- da Φ Φ Φ ιQ odd M tr tr ri ¬ a td a r cn cn Φ J er 13
PJ •τ) P- tr d P- P- X d P- P- Φ Φ d N P- ιP Φ tt) Φ Φ Φ CΛ d 1-1 rt cn P- i-iP J •τ) P- tr d P- P-
P1 H Ω rt d Φ rt φ d Ω cn tr rt 1 Ω P- P- * l-f Hi 3 rt P) J O P) P 1 H Ω rt d Φ rt φ d Ω cn tr rt 1 Ω P- P- * lf Hi 3 rt P ) JOP )
P- o lP cn Φ p- rt Φ H a tr φ Φ P* Φ Φ P- d O d td d Ω φ -. tr Φ rt Φ tr • d P- P- 1 P- &3 a Φ > ι-i H- PJ Ω ιP a H tr l-i i- I a 3 cn P- | Φ Φ Φ Ω P" P- v> Φ d tr Hi Φ Φ i^1 ιP d P) φ d tr tr P- Φ er d φ 0 H H φ Φ d 3 cn cn Φ Ω P- N 1 d 1 ιQ 1 1 P tr 1 1 1 1 P- o lP cn Φ p- rt Φ H a tr φ Φ P* Φ Φ P- d O d td d Ω φ -. tr Φ rt Φ tr • d P- P- 1 P- &3 a Φ > ι-i H- P J Ω ιP a H tr li i- I a 3 cn P- | Φ Φ Φ Ω P" P- v> Φ d tr Hi Φ Φ i^ 1 ιP d P ) φ d tr tr P- Φ er d φ 0 HH φ Φ d 3 cn cn Φ Ω P- N 1 d 1 ιQ 1 1 P tr 1 1 1 1
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet , daß vom Benutzer mindestens ein Wort als Referenzsprachäußerung eingegeben wird.4. Method according to one of claims 1 to 3, characterized in that at least one word is entered by the user as a reference speech utterance.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß der Benutzer den von ihm durchgeführten Sprachtrainingsphasen mindestens eine benutzerspezifische Kennung zuordnet.5. The method according to one of claims 1 to 4, characterized in that the user assigns at least one user-specific identifier to the language training phases he has carried out.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Benutzereingabe von mehreren zu einer Sprachtrainingspha- se gehörenden Referenzsprachäußerungen vom Gerät automatisch gesteuert wird, indem das Ende der zuerst eingegebenen Referenzsprachäußerung vom Gerät mittels einer Sprachaktivitäts- detektion erkannt wird, weil innerhalb einer vorgegebenen Zeit keine zu dieser Referenzsprachäußerung zuzuordnende wei- tere Sprachaktivität des Benutzer erfolgt ist, und der Benutzer vom Gerät von der zeitlich befristeten Eingabemöglichkeit mindestens einer weiteren Referenzsprachäußerung informiert wird.6. The method according to one of claims 1 to 5, characterized in that the user input of several reference speech utterances belonging to a language training phase is automatically controlled by the device in that the end of the first entered reference speech utterance is recognized by the device by means of speech activity detection, because No further speech activity by the user that can be attributed to this reference speech utterance has taken place within a predetermined time, and the user is informed by the device of the time-limited input option for at least one further reference speech utterance.
7. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Benutzereingabe von mehreren zu einer Sprachtrainingspha- se gehörenden Referenzsprachäußerungen durch Interaktion zwischen dem Benutzer und dem Gerät gesteuert wird, indem der Benutzer dem Gerät durch eine spezifische Bedienprozedur mitteilt, das mehrere Referenzsprachäußerungen von ihm eingegeben werden.7. The method according to one of claims 1 to 5, characterized in that the user input of several reference speech utterances belonging to a language training phase is controlled by interaction between the user and the device, in that the user informs the device through a specific operating procedure that several Reference language utterances are entered by him.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß in verschiedenen Sprachtrainingsphasen von den Benutzern zu einer Aktion unterschiedliche Referenzsprachäußerungen, z.B. in verschiedenen Sprachen "deutsch und englisch", eingegeben werden.8. The method according to one of claims 1 to 7, characterized in that in different language training phases the users use different reference language utterances for an action, for example in different languages “German and English”.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß der Benutzer eine Information, z.B. eine Telefonnummer, eingibt, durch die die Aktion definiert wird.9. Method according to one of claims 1 to 8, characterized in that the user enters information, e.g. a telephone number, through which the action is defined.
10. Verfahren nach Anspruch 9, dadurch gekennzeich- n e t , daß die Information mittels biometrischer Eingabetechniken eingegeben wird.10. The method according to claim 9, characterized in that the information is entered using biometric input techniques.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß die Information vor oder nach der Eingabe der Referenzsprachäußerung eingegeben wird.11. The method according to any one of claims 1 to 10, characterized in that the information is entered before or after the reference speech utterance is entered.
12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, daß die Aktion vom Gerät vorgegeben wird.12. The method according to any one of claims 1 to 11, characterized in that the action is specified by the device.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß die Erkennungssprachäußerung in der Spracherkennungsphase jederzeit mit Ausnahme während der Sprachtrainingsphase eingegeben werden kann.13. The method according to any one of claims 1 to 12, characterized in that the recognition speech utterance can be entered at any time in the speech recognition phase with the exception of during the speech training phase.
14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß die ErkennungsSprachäußerung erst dann eingegeben werden kann, wenn zuvor die Spracherkennungsphase in dem Gerät von dem Benutzer eingeleitet worden ist.14. The method according to one of claims 1 to 13, characterized in that the recognition speech utterance can only be entered if the speech recognition phase in the device has previously been initiated by the user.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet , daß der Sprachtrainings odus jeweils durch das Speichern des Re- ferenzsprachmusters beendet wird.15. The method according to one of claims 1 to 14, characterized in that The language training mode is ended by saving the reference language sample.
16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß dem Benutzer die Eingabe eines unzulässigen Erkennungsprachmuster mitgeteilt wird.16. The method according to one of claims 1 to 15, characterized in that the user is informed of the entry of an inadmissible recognition speech pattern.
17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, daß die Spracherkennunghsphase wie die Sprachtrainingsphase eingeleitet wird.17. The method according to any one of claims 1 to 16, characterized in that the speech recognition phase is initiated like the speech training phase.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß das sprachgesteuerte Initiieren von in einem Gerät ausführbaren Aktionen in Telekommunikationsendgeräten durchgeführt wird.18. The method according to any one of claims 1 to 17, characterized in that the voice-controlled initiation of actions that can be carried out in a device is carried out in telecommunications terminals.
19. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß das sprachgesteuerte Initiieren von in einem Gerät ausführbaren Aktionen in Haushaltsgeräten, in Fahrzeugen, in Geräten der Unterhaltungselektronik, in elektronischen Geräten zur Steuerung- und Befehlseingabe, z.B. einem Personal Computer oder einem Personal Digital Assistant, durchgeführt wird.19. The method according to one of claims 1 to 17, characterized in that the voice-controlled initiation of actions that can be carried out in a device in household appliances, in vehicles, in consumer electronics devices, in electronic devices for control and command input, e.g. a personal computer or a Personal Digital Assistant.
20. Verfahren nach Anspruch 17, dadurch gekennzeichnet, daß in einem ersten Betriebsmodus des Telekommunikationsendgerätes die Sprachwahl aus einem Telefonbuch oder das sprachgesteuerte Senden von "Short Message Service"-Nachrichten aus einem "Short Message Service"-Speicher durchgeführt wird.20. The method according to claim 17, characterized in that in a first operating mode of the telecommunications terminal the voice dialing from a telephone book or the voice-controlled sending of "Short Message Service" messages from a "Short Message Service" memory is carried out.
21. Verfahren nach Anspruch 17 oder 20, dadurch gekennzeichnet, daß in einem zweiten Betriebsmodus des Telekommunikationsendgerätes die Sprachsteuerung von Funktionseinheiten, z.B. Anrufbeantworter, "Short Message Service" -Speicher, durchgeführt wird. 21. The method according to claim 17 or 20, characterized in that In a second operating mode of the telecommunications terminal, the voice control of functional units, for example answering machines, "Short Message Service" memory, is carried out.
EP01921173A 2000-03-08 2001-03-08 Method for the voice-controlled initiation of actions by means of a limited circle of users, whereby said actions can be carried out in an appliance Withdrawn EP1261964A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10011178A DE10011178A1 (en) 2000-03-08 2000-03-08 Speech-activated control method for electrical device
DE10011178 2000-03-08
PCT/DE2001/000891 WO2001067435A1 (en) 2000-03-08 2001-03-08 Method for the voice-controlled initiation of actions by means of a limited circle of users, whereby said actions can be carried out in an appliance

Publications (1)

Publication Number Publication Date
EP1261964A1 true EP1261964A1 (en) 2002-12-04

Family

ID=7633897

Family Applications (1)

Application Number Title Priority Date Filing Date
EP01921173A Withdrawn EP1261964A1 (en) 2000-03-08 2001-03-08 Method for the voice-controlled initiation of actions by means of a limited circle of users, whereby said actions can be carried out in an appliance

Country Status (5)

Country Link
US (1) US20030040915A1 (en)
EP (1) EP1261964A1 (en)
CN (1) CN1217314C (en)
DE (1) DE10011178A1 (en)
WO (1) WO2001067435A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005029828A1 (en) 2003-09-17 2005-03-31 Siemens Aktiengesellschaft Method and telecommunication system involving wireless telecommunication between a mobile part and a base station for registering a mobile part
US20060287864A1 (en) * 2005-06-16 2006-12-21 Juha Pusa Electronic device, computer program product and voice control method
DE102008024257A1 (en) * 2008-05-20 2009-11-26 Siemens Aktiengesellschaft Speaker identification method for use during speech recognition in infotainment system in car, involves assigning user model to associated entry, extracting characteristics from linguistic expression of user and selecting one entry
CN102262879B (en) * 2010-05-24 2015-05-13 乐金电子(中国)研究开发中心有限公司 Voice command competition processing method and device as well as voice remote controller and digital television
US9316400B2 (en) * 2013-09-03 2016-04-19 Panasonic Intellctual Property Corporation of America Appliance control method, speech-based appliance control system, and cooking appliance
US10767879B1 (en) * 2014-02-13 2020-09-08 Gregg W Burnett Controlling and monitoring indoor air quality (IAQ) devices
US20150336786A1 (en) * 2014-05-20 2015-11-26 General Electric Company Refrigerators for providing dispensing in response to voice commands
CN105224523A (en) * 2014-06-08 2016-01-06 上海能感物联网有限公司 The sound remote self-navigation of unspecified person foreign language the control device driven a car
US10257629B2 (en) 2017-04-18 2019-04-09 Vivint, Inc. Event detection by microphone
AU2017435697B2 (en) * 2017-10-11 2021-04-29 Mitsubishi Electric Corporation Air conditioning controller
CN108509225B (en) 2018-03-28 2021-07-16 联想(北京)有限公司 Information processing method and electronic equipment

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4181821A (en) * 1978-10-31 1980-01-01 Bell Telephone Laboratories, Incorporated Multiple template speech recognition system
US5040213A (en) * 1989-01-27 1991-08-13 Ricoh Company, Ltd. Method of renewing reference pattern stored in dictionary
US5794205A (en) * 1995-10-19 1998-08-11 Voice It Worldwide, Inc. Voice recognition interface apparatus and method for interacting with a programmable timekeeping device
US6073101A (en) * 1996-02-02 2000-06-06 International Business Machines Corporation Text independent speaker recognition for transparent command ambiguity resolution and continuous access control
US5719921A (en) * 1996-02-29 1998-02-17 Nynex Science & Technology Methods and apparatus for activating telephone services in response to speech
DE19636452A1 (en) * 1996-09-07 1998-03-12 Altenburger Ind Naehmasch Multiple user speech input system
US5777571A (en) * 1996-10-02 1998-07-07 Holtek Microelectronics, Inc. Remote control device for voice recognition and user identification restrictions
CN1216137A (en) * 1996-12-24 1999-05-05 皇家菲利浦电子有限公司 Method for training speech recognition system and apparatus for practising said method, in particular, portable telephone apparatus
FR2761848B1 (en) * 1997-04-04 2004-09-17 Parrot Sa RADIOTELEPHONE VOICE COMMAND DEVICE, ESPECIALLY FOR USE IN A MOTOR VEHICLE
US6289140B1 (en) * 1998-02-19 2001-09-11 Hewlett-Packard Company Voice control input for portable capture devices
US6018711A (en) * 1998-04-21 2000-01-25 Nortel Networks Corporation Communication system user interface with animated representation of time remaining for input to recognizer
DE19841166A1 (en) * 1998-09-09 2000-03-16 Deutsche Telekom Ag Procedure for controlling the access authorization for voice telephony on a landline or mobile phone connection and communication network
US20030093281A1 (en) * 1999-05-21 2003-05-15 Michael Geilhufe Method and apparatus for machine to machine communication using speech

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO0167435A1 *

Also Published As

Publication number Publication date
WO2001067435A9 (en) 2002-11-28
US20030040915A1 (en) 2003-02-27
CN1416560A (en) 2003-05-07
WO2001067435A1 (en) 2001-09-13
CN1217314C (en) 2005-08-31
DE10011178A1 (en) 2001-09-13

Similar Documents

Publication Publication Date Title
DE69629873T2 (en) Method and device for controlling a telephone using voice commands
DE69820222T2 (en) METHOD AND DEVICE FOR ACTIVATING A LANGUAGE-CONTROLLED FUNCTION IN A MULTIPLE NETWORK THROUGH BOTH SPEAKER-DEPENDENT AND SPEAKER-INDEPENDENT LANGUAGE RECOGNITION
EP1256936B1 (en) Method for the training or the adaptation of a speech recognizer
EP0925578A1 (en) Speech-processing system and method
WO2000068933A1 (en) Adaptation of a speech recognition system across multiple remote sessions with a speaker
EP1649450A1 (en) Speech recognition method, and communication device
WO2001067435A1 (en) Method for the voice-controlled initiation of actions by means of a limited circle of users, whereby said actions can be carried out in an appliance
EP1884924A1 (en) Method for creating a context-based voice dialogue output in a voice dialogue system
DE60014583T2 (en) METHOD AND DEVICE FOR INTEGRITY TESTING OF USER INTERFACES OF VOICE CONTROLLED EQUIPMENT
US20010056345A1 (en) Method and system for speech recognition of the alphabet
WO2001086634A1 (en) Method for creating a speech database for a target vocabulary in order to train a speech recognition system
DE19751123C1 (en) Device and method for speaker-independent language name selection for telecommunications terminal equipment
DE60029456T2 (en) Method for online adjustment of pronunciation dictionaries
DE4243181C2 (en) Voice-controlled device and method for its operation
WO1999005681A1 (en) Process for storing search parameters of an image sequence and access to an image stream in said image sequence
WO1998021711A1 (en) Method for entering vocal orders
EP3735688B1 (en) Method, device and computer-readable storage medium having instructions for processing a speech input, motor vehicle, and user terminal with speech processing
WO2002103678A1 (en) Voice-recognition method and voice-recognition system
EP1214704A1 (en) Method and device for detecting and evaluating vocal signals representing a word emitted by a user of a voice-recognition system
DE19514849A1 (en) Remote control of device through communications network
EP1302928A1 (en) Method for speech recognition, particularly of names, and speech recognizer
EP1251491B1 (en) Method for querying database records by speech input
DE10220519B4 (en) Speech information dialogue processing system for call centre interactive voice response systems converts telephone caller speech to text for display using expert system database
DE102015006662B4 (en) Method for configuring a voice control device
DE60021175T2 (en) Speech recognition with probabilities of context hypotheses

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20020819

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

RBV Designated contracting states (corrected)

Designated state(s): DE ES FR GB IT

17Q First examination report despatched

Effective date: 20060928

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20081001