WO2004086360A1 - Verfahren zur sprecherabhängigen spracherkennung und spracherkennungssystem - Google Patents

Verfahren zur sprecherabhängigen spracherkennung und spracherkennungssystem Download PDF

Info

Publication number
WO2004086360A1
WO2004086360A1 PCT/EP2004/002137 EP2004002137W WO2004086360A1 WO 2004086360 A1 WO2004086360 A1 WO 2004086360A1 EP 2004002137 W EP2004002137 W EP 2004002137W WO 2004086360 A1 WO2004086360 A1 WO 2004086360A1
Authority
WO
WIPO (PCT)
Prior art keywords
speech
utterance
recognition system
command
speech recognition
Prior art date
Application number
PCT/EP2004/002137
Other languages
English (en)
French (fr)
Inventor
Roland Aubauer
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to JP2005518261A priority Critical patent/JP4437119B2/ja
Priority to DE502004002300T priority patent/DE502004002300D1/de
Priority to US10/550,481 priority patent/US7835913B2/en
Priority to EP04716578A priority patent/EP1606794B1/de
Publication of WO2004086360A1 publication Critical patent/WO2004086360A1/de

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Abstract

Bei einem Verfahren zur sprecherabhängigen Spracherkennung mit einem Spracherkennungssystem, bei dem Sprachäusserungen des Benutzers trainiert werden und den trainierten Sprachäusserungen Befehle zugeordnet werden, wird die Aufgabe, ein Trainieren neuer Befehle (5) zeitsparend durchzuführen, dadurch gelöst, dass bei Nichterkennung (3) einer Sprachäusserung durch das Spracherkennungssystem dem Benutzer angeboten wird, die Sprachäusserung unmittelbar einem neuen Befehl (9) zuzuordnen.

Description

Beschreibung
Verfahren zur sprecherabhängigen Spracherkennung und Spracherkennungssystem
Die Erfindung bezieht sich auf ein Verfahren zur sprecherabhängigen Spracherkennung mit einem Spracherkennungssystem, bei dem Sprachäußerungen eines Benutzers trainiert werden und den trainierten
Sprachäußerungen Befehle zugeordnet werden, sowie auf ein Spracherkennungssystem zur Durchführung des Verfahrens.
Ein solches Verfahren ist nach dem Stand der Technik aufgeteilt in einen Spracherkennungsmodus und einen Trainingsmodus . Bei dem Spracherkennungsmodus werden Sprachäußerungen des Benutzers erfasst, woraufhin in einer Datenbank ein der Sprachäußerung zugeordneter Befehl aufgefunden wird, sofern die Sprachäußerung eine ausreichende Übereinstimmung mit einer Sprachäußerung zeigt, die zu dem
Befehl gehört und zu einem früheren Zeitpunkt aufgenommen und gespeichert wurde. Im Spracherkennungsmodus ist eine neue Zuordnung zwischen einer neuen Sprachäußerung und einem neuen Befehl nicht möglich. Diese Vorgänge finden vielmehr in dem Trainingsmodus statt, bei dem der Benutzer
Sprachäußerungen von sich gibt und jeder einzelnen Sprachäußerung nach ihrer Aufnahme einen Befehl zugeordnet. Die gewonnene Zuordnung wird in der Datenbank abgelegt. Zugeordnete Befehle können beispielsweise Anwahlvorgänge für Teilnehmer eines Kommunikationsnetzwerkes oder Sprachsteuerbefehle sein.
Das Verfahren nach dem Stand der Technik hat den Nachteil, dass das Trainieren neuer Befehle insofern umständlich ist, dass jedes Mal von dem Spracherkennungsmodus zu dem
Trainingsmodus von dem Bunutzer aktiv umgeschaltet werden muss. Dies wirkt sich auch negativ auf die Akzeptanz von Spracherkennungssystemen im Markt aus.
Ausgehend hiervon liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zur sprecherabhängigen Spracherkennung sowie ein Spracherkennungssystem dafür anzugeben, bei dem ein Trainieren neuer Befehle zeitsparend durchführbar ist.
Diese Aufgabe wird hinsichtlich des Verfahrens der eingangs genannten Art dadurch gelöst, dass bei Nichterkennung einer Sprachäußerung durch das Spracherkennungssystem dem Benutzer angeboten wird, die Sprachäußerung unmittelbar einem neuen Befehl zuzuordnen.
Bei der Durchführung des Verfahrens befindet sich ein
Spracherkennungssystem immer im Spracherkennungsmodus, wobei jedoch die Option zur Verfügung steht, bei Nichterkennung einer Sprachäußerung unmittelbar eine neue Befehlszuordnung vorzunehmen. Auf diese Weise ist das Trainieren neuer Befehle in die Spracherkennung selbst integriert und kann dann stattfinden, wenn eine Sprachäußerung nicht erkannt worden ist. Befindet sich beispielsweise der Benutzer gerade in der Situation, dass er einen neuen Befehl für ein Spracherkennungssystem trainieren will, reicht es aus, eine bisher nicht benutzte Sprachäußerung zu artikulieren, wonach das Spracherkennungssystem eine Nichterkennung der neuen Sprachäußerung feststellt und dann die Option anbietet, die neue Sprachäußerung einem neuen Befehl zuzuordnen. Nach Vornahme der Zuordnung kann der Befehl unmittelbar ausgeführt werden.
Bei einer bevorzugten Ausführungsform kann bei Nichterkennung der Sprachäußerung durch das Spracherkennungssystem der Benutzer optional entweder die Sprachäußerung wiederholen oder die Sprachäußerung einem neuen Befehl zuordnen. Diese Ausführungsform trägt der Tatsache Rechnung, dass eine Sprachäußerung gerade außerhalb eines Ähnlichkeitsbereiches zu einer Sprachäußerung liegen kann, der bereits ein gewünschter Befehl zugeordnet ist. In diesem Fall ist keine Zuordnung einer neuen Sprachäußerung zu einem neuen Befehl beabsichtigt. Vielmehr muss diese Sprachäußerung zur Verknüpfung mit dem bereits trainierten Befehl wiederholt werden.
Hinsichtlich eines Anfangszustandes eines Spracherkennungssystems ist bevorzugt für das Verfahren vorgesehen, dass in dem Fall, wenn noch keiner Sprachäußerung ein Befehl zugeordnet ist, das Spracherkennungssystem nach seiner Aktivierung sofort das Trainieren eines neuen Befehls anbietet. Dies passiert automatisch, wenn das Spracherkennungssystem die erste Sprachäußerung naturgemäß nicht erkennt und die Option anbietet, einen neuen Befehl zu trainieren.
Bei einer weiteren Ausführungsform kann vorgesehen sein, dass bei Nichterkennung einer Sprachäußerung für einen bereits trainierten Befehl durch das Spracherkennungssystem der Benutzer den Befehl auswählen und diesen Befehl die Sprachäußerung zuordnen kann. Dies betrifft den Fall, dass in einer Datenbank, welche die Zuordnungen zwischen Sprachäußerungen und zugehörigen trainierten Befehlen enthält, eine „schlechte" Version der Sprachäußerung vorliegt, so dass eine Spracherkennung häufig fehlschlägt. In diesem Fall ist es möglich, dem bereits trainierten Befehl eine neue Sprachäußerung zuzuordnen.
Bevorzugt wird für eine Erkennung einer Sprachäußerung ein Sprachmuster erzeugt, das der Sprachäußerung zugeordnet ist. Solche Sprachmuster, denen eine Extraktion wesentlicher Sprachmerkmale der Sprachäußerung zugrunde liegt, werden dann auch in der Datenbank verwendet, die in diesem Fall eine Zuordnung zwischen Sprachmustern und trainierten Befehlen enthält. Nach ihrer Aufnahme wird jede Sprachäußerung in ein Sprachmuster umgesetzt, das dann weiter verarbeitet wird, beispielsweise für die Entscheidung, ob es erkennbar ist oder nicht, d. h. bereits innerhalb eines Ähnlichkeitsbereiches eines Sprachmusters in der Datenbank vorliegt.
In diesem Zusammenhang wird es als bevorzugt angesehen, vor einer Zuordnung eines Befehls zu einer Sprachäußerung zu prüfen, ob die Sprachäußerung zuvor gespeicherten Sprachäußerungen ähnlich ist. Auf diese Weise wird vermieden, dass bei einer Spracherkennung Verwechslungen unter verschiedenen Befehlen vorkommen, weil die jeweils zugehörigen Sprachäußerungen einander zu ähnlich sind. Dazu kann, beispielsweise unter Verwendung der Extraktionsmerkmale für ein Sprachmuster, ein zulässiger Ähnlichkeitsbereich definiert werden.
Die oben genannte Aufgabe wird hinsichtlich eines Spracherkennungssystems gelöst durch ein
Spracherkennungssystem für ein sprecherabhängiges Erkennen von Sprache mit einer Sprachaufnahmeeinrichtung zur Aufnahme einer Sprachäußerung eines Benutzers des
Spracherkennungssystems, einer Suchmaschine, die zum Zugriff auf eine Datenbank ausgebildet ist, die eine Zuordnung zwischen Sprachäußerungen und Befehlen enthält, um einen der Sprachäußerung zugeordneten Befehl aufzufinden, einer Umsetzeinrichtung zum Umsetzen des auf Grund der Sprachäußerung aufgefundenen Befehls, wobei das Spracherkennungssystem derart ausgebildet ist, dass bei Nichterkennung der Sprachäußerung durch das Spracherkennungssystem dem Benutzer angeboten wird, die Sprachäußerung unmittelbar einem neuen Befehl zuzuordnen.
Ein solches Spracherkennungssystem erlaubt die Durchführung des oben beschriebenen Verfahrens und zeichnet sich gegenüber bekannten Spracherkennungssystemen dadurch aus, dass innerhalb eines Spracherkennungsmodus das Trainieren neuer Befehle ermöglicht wird. Bevorzugt ist die Sprachaufnahmeeinrichtung mit einem Speicher verbunden, in dem die Sprachäußerung zwischengespeichert wird und der mit der Datenbank zum Einlesen der Sprachäußerung in die Datenbank verbunden ist. Dies ist bei bekannten Spracherkennungssystemen nicht der
Fall, denn dort wird für einen Trainingsmodus unmittelbar auf die Datenbank zugegriffen, während in einem Spracherkennungsmodus eine Sprachäußerung für die Funktion der Suchmaschine zwar zwischengespeichert wird, der dann benutze Speicher aber nicht zum Einlesen einer Sprachäußerung in die Datenbank ausgebildet/verknüpft ist.
Vorzugsweise ist eine Merkmalsextraktionseinrichtung zum Erzeugen eines Sprachmusters aus der Sprachäußerung zwischen der Sprachaufnahmeeinrichtung und dem Speicher vorgesehen und das Sprachmuster ersetzt die Sprachäußerung.
Weitere Vorteile und Merkmale des Spracherkennungssystems sind bereits oben anhand der Beschreibung des Verfahrens zur sprecherabhängigen Spracherkennung erläutert worden.
Ein Ausführungsbeispiel der Erfindung wird nachfolgend anhand der Zeichnung noch näher erläutert. Die einzige Figur zeigt ein Ablaufdiagramm eines Verfahrens zur sprecherabhängigen Spracherkennung.
Ein Verfahren zur sprecherabhängigen Spracherkennung mittels eines Spracherkennungssystems wird nunmehr anhand der Figur 1 erläutert. Nach einem Start des Spracherkennungssystems, das beispielsweise als Computersystem mit Anzeigeeinrichtung realisiert ist, wird einem Benutzer zunächst eine geeignete Benutzeroberfläche angezeigt, die auch eine Aktivierung für eine Aufnahme einer Sprachäußerung beinhaltet („Push-to- Talk -Aktivierung) . In einem ersten Verfahrensschritt 1 wird eine Sprachäußerung des Benutzers/Sprechers aufgenommen, und zwar mit Hilfe einer geeigneten Sprachaufnahmeeinrichtung. Mittels einer Merkmalsextraktionseinrichtung wird in einem zweiten Schritt 2 ein Sprachmuster der Sprachäußerung erzeugt, wobei ein Sprachmuster durch eine Kombination extrahierter, charakteristischer Sprachmerkmale definiert ist. Das Sprachmuster wird in einem Speicher zwischengespeichert.
In einem dritten Schritt 3 erfolgt mittels einer Suchmaschine die Abfrage, ob das erzeugte Sprachmuster in einer Datenbank enthalten ist, die Zuordnungen zwischen Sprachmustern und Befehlen enthält. Diese Datenbank wird in einem
Trainingsmodus des Spracherkennungssystems mit Inhalten versehen, wobei der Trainingsmodus in den Vorgang einer Spracherkennung integriert ist. Wird das Sprachmuster als in der Datenbank bereits vorhanden erkannt und der zugehörige Befehl aufgefunden, wird in einem vierten Schritt der Befehl ausgeführt, wonach der Betriebsvorgang des
Spracherkennungssystems beendet ist. Dabei erfolgt der Ablauf von dem Schritt 1 bis zu dem Schritt 4 im vorliegenden Ausführungsbeispiel automatisch.
Wird in dem dritten Schritt 3 das erzeugte Sprachmuster nicht erkannt, erhält der Benutzer über die Benutzeroberfläche des Computersystems die Option, dem nicht erkannten Sprachmuster bzw. der nicht erkannten Sprachäußerung einen neuen Befehl zuzuordnen. Dies geschieht in einem fünften Schritt 5 des
Verfahrens. An dieser Stelle wird das Spracherkennungssystem in einen Trainingsmodus umgeschaltet, sofern die Zuordnung eines neuen Befehls gewünscht ist oder automatisch herbeigeführt wird. Alternativ zu dem fünften Schritt 5 kann der Benutzer mit Hilfe der Benutzeroberfläche auch eine neue Sprachäußerungs-Aufnahme auslösen, so dass zu dem ersten Schritt 1 zurückgekehrt wird, um die Sprachäußerung zu wiederholen.
Wird die Zuordnung eines neuen Befehls zu dem nicht erkannten Sprachmuster gewählt, erfolgt in einem sechsten Schritt 6 die Aufnahme einer Sprachäußerung, die der nicht erkannten Sprachäußerung aus dem ersten Schritt entspricht. Im Anschluss daran wird in einem siebten Schritt 7 aus der in dem sechsten Schritt 6 aufgenommenen Sprachäußerung ein Sprachmuster erzeugt, und zwar in derselben Weise, wie in dem oben erläuterten zweiten Schritt 2.
In einem achten Schritt 8 wird eine Ähnlichkeitsprüfung zwischen dem neuen Sprachmuster aus dem siebten Schritt 7 und dem Sprachmuster aus dem zweiten Schritt 2 durchgeführt. Liegt ein gewünschtes Maß an Übereinstimmung zwischen den beiden Sprachmustern nicht vor, beginnt das Verfahren von neuem, bis ein zufriedenstellendes Ergebnis für die Ähnlichkeit der in dem zweiten Schritt 2 und in dem siebten Schritt 7 erzeugten Sprachmuster vorhanden ist. Dabei können der dritte Schritt 3 und der fünfte Schritt 5 übersprungen werden.
In dem achten Schritt 8 kann auch eine Ähnlichkeitsprüfung dahingehend vorgenommen werden, ob das Sprachmuster der neu aufgenommenen Sprachäußerung einen ausreichenden Abstand gegenüber bereits in der Datenbank vorhandenen Sprachmustern einhält. Im negativen Fall kann der Benutzer aufgefordert werden, eine andere Sprachäußerung zur Zuordnung für einen neuen Befehl zu verwenden. Für diese neue Sprachäußerung beginnt das Verfahren von neuem.
Im Anschluss daran wird in einem neunten Schritt 9 dem im zweiten Schritt 2 erzeugten Sprachmuster ein Befehl zugeordnet, und zwar durch geeignete Auswahl des Benutzers mit Hilfe der Benutzeroberfläche des Spracherkennungssystems. Dazu wird das Sprachmuster aus dem Speicher, in dem es in dem zweiten Schritt 2 zwischengespeichert wurde, ausgelesen, mit dem in Schritt 7 erzeugten Sprachmuster geeignet verknüpft, z. B. durch eine Mittelwertbildung einzelner Eigenschaften beider Sprachmuster, und zusammen mit dem neuen Befehl in die Datenbank geschrieben. In einem letzten Schritt 10 wird der neu zugeordnete Befehl ausgeführt, wonach der Spracherkennungsvorgang mit integriertem Trainingsmodus abgeschlossen ist.
Es ist hervorzuheben, dass die in dem vierten und letzten Schritt erfolgende Ausführung eines Befehls mit Hilfe einer Umsetzeinrichtung zum Umsetzen des Befehls vonstatten geht. Bei dem Befehl kann es sich beispielsweise um die Anwahl einer Telefonnummer in einem Kommunikationsnetzwerk oder einen Sprachbefehl handeln, mit dem an ein Netzwerk angeschlossene Geräte gesteuert werden.
Selbstverständlich kann bei einer vereinfachten Ausführungsform des Verfahrens bei der Zuordnung eines Befehls nach dem neunten Schritt 9 auf die Durchführung der vorangehenden Schritte 6 bis 8 verzichtet werden. Auf diese Weise erfolgt die Zuordnung eines Befehls unmittelbar auf die Abfrage aus dem fünften Schritt 5. Auch ist es möglich, bei der Durchführung des Verfahrens auf die unmittelbare Ausführung des neu trainierten Befehls (zehnter Schritt) zu verzichten.

Claims

Patentansprüche
1. Verfahren zur sprecherabhängigen Spracherkennung mit einem Spracherkennungssystem, bei dem Sprachäußerungen eines Benutzers trainiert werden und den trainierten Sprachäußerungen Befehle zugeordnet werden, d a d u r c h g e k e n n z e i c h n e t, dass bei Nichterkennung einer Sprachäußerung durch das Spracherkennungssystem dem Benutzer angeboten wird, die Sprachäußerung unmittelbar einem neuen Befehl zuzuordnen.
2. Verfahren nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, dass bei Nichterkennung der Sprachäußerung durch das Spracherkennungssystem der Benutzer optional entweder die Sprachäußerung wiederholen oder die Sprachäußerung einem neuen Befehl zuordnen kann.
3. Verfahren nach einem der Ansprüche 1 oder 2, d a d u r c h g e k e n n z e i c h n e t, dass in dem Fall, wenn noch keiner Sprachäußerung ein Befehl zugeordnet ist, das Spracherkennungssystem nach seiner Aktivierung das Trainieren eines neuen Befehls anbietet.
4. Verfahren nach einem der Ansprüche 1 bis 3, d a d u r c h g e k e n n z e i c h n e t, dass bei Nichterkennung einer Sprachäußerung für einen bereits trainierten Befehl durch das Spracherkennungssystem der Benutzer den Befehl auswählen und diesem Befehl die Sprachäußerung zuordnen kann.
5. Verfahren nach einem der Ansprüche 1 bis 4, d a d u r c h g e k e n n z e i c h n e t, dass für eine Erkennung einer Sprachäußerung ein Sprachmuster erzeugt wird, dass der Sprachäußerung zugeordnet ist.
6. Verfahren nach einem der Ansprüche 1 bis 5, d a d u r c h g e k e n n z e i c h n e t, dass vor einer Zuordnung eines Befehls zu einer Sprachäußerung geprüft wird, ob die Sprachäußerung zuvor gespeicherten Sprachäußerungen ähnlich ist.
7. Spracherkennungssystem für ein sprecherabhängiges Erkennen von Sprache mit einer Sprachaufnahmeeinrichtung zur Aufnahme einer Sprachäußerung eines Benutzers des Spracherkennungssystems, einer Suchmaschine, die zum Zugriff auf eine Datenbank ausgebildet ist, die eine Zuordnung zwischen Sprachäußerungen und Befehlen enthält, um einen der Sprachäußerung zugeordneten Befehl aufzufinden, einer Umsetzeinrichtung zum Umsetzen des auf Grund der Sprachäußerung aufgefundenen Befehls, d a d u r c h g e k e n n z e i c h n e t, dass das Spracherkennungssystem derart ausgebildet ist, dass bei Nichterkennung der Sprachäußerung durch das Spracherkennungssystem dem Benutzer angeboten wird, die Sprachäußerung unmittelbar einem neuen Befehl zuzuordnen.
8. Spracherkennungssystem nach Anspruch 7, d a d u r c h g e k e n n z e i c h n e t, dass die Sprachaufnahmeeinrichtung mit einem Speicher verbunden ist, in dem die Sprachäußerung zwischengespeichert wird und der mit der Datenbank zum Einlesen der Sprachäußerung in die Datenbank verbunden ist.
9. Spracherkennungssystem nach einem der Ansprüche 7 oder 8, d a d u r c h g e k e n n z e i c h n e t, dass eine Merkmalsextraktionseinrichtung zum Erzeugen eines Sprachmusters aus der Sprachäußerung zwischen der Sprachaufnahmeeinrichtung und dem Speicher vorgesehen ist und das Sprachmuster die Sprachäußerung ersetzt.
PCT/EP2004/002137 2003-03-25 2004-03-03 Verfahren zur sprecherabhängigen spracherkennung und spracherkennungssystem WO2004086360A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005518261A JP4437119B2 (ja) 2003-03-25 2004-03-03 話者に依存する音声認識方法および音声認識システム
DE502004002300T DE502004002300D1 (de) 2003-03-25 2004-03-03 Verfahren zur sprecherabhängigen spracherkennung und spracherkennungssystem
US10/550,481 US7835913B2 (en) 2003-03-25 2004-03-03 Speaker-dependent voice recognition method and voice recognition system
EP04716578A EP1606794B1 (de) 2003-03-25 2004-03-03 Verfahren zur sprecherabhängigen spracherkennung und spracherkennungssystem

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10313310.0 2003-03-25
DE10313310A DE10313310A1 (de) 2003-03-25 2003-03-25 Verfahren zur sprecherabhängigen Spracherkennung und Spracherkennungssystem dafür

Publications (1)

Publication Number Publication Date
WO2004086360A1 true WO2004086360A1 (de) 2004-10-07

Family

ID=33015971

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/002137 WO2004086360A1 (de) 2003-03-25 2004-03-03 Verfahren zur sprecherabhängigen spracherkennung und spracherkennungssystem

Country Status (8)

Country Link
US (1) US7835913B2 (de)
EP (1) EP1606794B1 (de)
JP (2) JP4437119B2 (de)
KR (1) KR100742408B1 (de)
CN (1) CN100559464C (de)
DE (2) DE10313310A1 (de)
ES (1) ES2278308T3 (de)
WO (1) WO2004086360A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215317A (ja) * 2005-02-04 2006-08-17 Hitachi Ltd 音声認識システム、音声認識装置及び音声認識プログラム
EP2045140A1 (de) 2007-10-01 2009-04-08 Harman/Becker Automotive Systems GmbH Sprachgesteuerte Einstellung von Fahrzeugteilen
CN102682767A (zh) * 2011-03-18 2012-09-19 株式公司Cs 一种应用于家庭网络的语音识别方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8374872B2 (en) * 2008-11-04 2013-02-12 Verizon Patent And Licensing Inc. Dynamic update of grammar for interactive voice response
KR101556594B1 (ko) * 2009-01-14 2015-10-01 삼성전자 주식회사 신호처리장치 및 신호처리장치에서의 음성 인식 방법
CN102301419B (zh) * 2009-01-30 2013-06-12 三菱电机株式会社 声音识别装置
CN102347060A (zh) * 2010-08-04 2012-02-08 鸿富锦精密工业(深圳)有限公司 电子记录装置及方法
US8818810B2 (en) 2011-12-29 2014-08-26 Robert Bosch Gmbh Speaker verification in a health monitoring system
KR101284594B1 (ko) * 2012-10-26 2013-07-10 삼성전자주식회사 영상처리장치 및 그 제어방법, 영상처리 시스템
CN104238379B (zh) * 2013-06-07 2017-07-28 艾默生过程控制流量技术有限公司 变送器、现场仪表以及用于控制变送器的方法
KR101427528B1 (ko) 2013-06-10 2014-08-07 이장호 외국어 동영상 컨텐츠를 이용한 대화형 외국어 학습 방법 및 그것을 위한 장치
TWI536366B (zh) * 2014-03-18 2016-06-01 財團法人工業技術研究院 新增口說語彙的語音辨識系統與方法及電腦可讀取媒體
KR102371697B1 (ko) * 2015-02-11 2022-03-08 삼성전자주식회사 음성 기능 운용 방법 및 이를 지원하는 전자 장치
DE102018103965A1 (de) * 2018-02-22 2019-08-22 Schuler Pressen Gmbh Verfahren zur Mensch-Maschine-Kommunikation mittels einer Mensch-Maschine-Schnittstelle und Vorrichtung hierfür
RU2744063C1 (ru) * 2018-12-18 2021-03-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и система определения говорящего пользователя управляемого голосом устройства

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774841A (en) * 1995-09-20 1998-06-30 The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration Real-time reconfigurable adaptive speech recognition command and control apparatus and method
US5852804A (en) * 1990-11-30 1998-12-22 Fujitsu Limited Method and apparatus for speech recognition

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5764800A (en) * 1980-10-09 1982-04-20 Sanyo Electric Co Voice recognizing device
JPS57102699A (en) 1980-12-18 1982-06-25 Matsushita Electric Ind Co Ltd Voice recognizer
JPS584198A (ja) 1981-06-30 1983-01-11 株式会社日立製作所 音声認識装置における標準パタ−ン登録方式
JPS61133996A (ja) * 1984-12-05 1986-06-21 株式会社リコー 音声認識装置
JPS62206596A (ja) * 1986-03-07 1987-09-11 株式会社東芝 音声認識システム
JP2838848B2 (ja) * 1989-02-10 1998-12-16 株式会社リコー 標準パターン登録方式
JP3314481B2 (ja) * 1993-10-12 2002-08-12 松下電器産業株式会社 構内交換電話装置
JPH0749697A (ja) * 1994-06-03 1995-02-21 Fujitsu Ten Ltd 音声認識装置
US5852801A (en) * 1995-10-04 1998-12-22 Apple Computer, Inc. Method and apparatus for automatically invoking a new word module for unrecognized user input
US5719921A (en) * 1996-02-29 1998-02-17 Nynex Science & Technology Methods and apparatus for activating telephone services in response to speech
US5832429A (en) * 1996-09-11 1998-11-03 Texas Instruments Incorporated Method and system for enrolling addresses in a speech recognition database
US6295391B1 (en) * 1998-02-19 2001-09-25 Hewlett-Packard Company Automatic data routing via voice command annotation
DE19825760A1 (de) * 1998-06-09 1999-12-16 Nokia Mobile Phones Ltd Verfahren zum Zuweisen einer auswählbaren Möglichkeit zu einem Stellmittel
JP2000029585A (ja) * 1998-07-08 2000-01-28 Canon Inc 音声コマンド認識画像処理装置
US6185530B1 (en) * 1998-08-14 2001-02-06 International Business Machines Corporation Apparatus and methods for identifying potential acoustic confusibility among words in a speech recognition system
US6208972B1 (en) * 1998-12-23 2001-03-27 Richard Grant Method for integrating computer processes with an interface controlled by voice actuated grammars
US6233560B1 (en) * 1998-12-16 2001-05-15 International Business Machines Corporation Method and apparatus for presenting proximal feedback in voice command systems
JP2000259172A (ja) 1999-03-11 2000-09-22 Canon Inc 音声認識装置と音声データの認識方法
US6487530B1 (en) * 1999-03-30 2002-11-26 Nortel Networks Limited Method for recognizing non-standard and standard speech by speaker independent and speaker dependent word models
US6327566B1 (en) * 1999-06-16 2001-12-04 International Business Machines Corporation Method and apparatus for correcting misinterpreted voice commands in a speech recognition system
JP4314680B2 (ja) * 1999-07-27 2009-08-19 ソニー株式会社 音声認識制御システム及び音声認識制御方法
DE19942869A1 (de) 1999-09-08 2001-03-15 Volkswagen Ag Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen
KR100633228B1 (ko) * 1999-12-31 2006-10-11 주식회사 케이티 가우시안 확률밀도 표현 방법 및 그를 얻기 위한 음성인식 훈련 방법
US6587824B1 (en) * 2000-05-04 2003-07-01 Visteon Global Technologies, Inc. Selective speaker adaptation for an in-vehicle speech recognition system
DE10122828A1 (de) * 2001-05-11 2002-11-14 Philips Corp Intellectual Pty Verfahren zum Training oder zur Adaption eines Spracherkenners
JP2003241790A (ja) * 2002-02-13 2003-08-29 Internatl Business Mach Corp <Ibm> 音声コマンド処理システム、コンピュータ装置、音声コマンド処理方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852804A (en) * 1990-11-30 1998-12-22 Fujitsu Limited Method and apparatus for speech recognition
US5774841A (en) * 1995-09-20 1998-06-30 The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration Real-time reconfigurable adaptive speech recognition command and control apparatus and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EIKE GEGENMANTEL: "VOCAPI - SMALL STANDARD API FOR COMMAND &CONTROL", 6TH EUROPEAN CONFERENCE ON SPEECH COMMUNICATION AND TECHNOLOGY, SEPTEMBER 5-9 1999, vol. 2, 5 September 1999 (1999-09-05) - 9 September 1999 (1999-09-09), Budapest, Ungarn, pages 927 - 930, XP007001131 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215317A (ja) * 2005-02-04 2006-08-17 Hitachi Ltd 音声認識システム、音声認識装置及び音声認識プログラム
JP4639094B2 (ja) * 2005-02-04 2011-02-23 株式会社日立製作所 音声認識システム、音声認識装置及び音声認識プログラム
EP2045140A1 (de) 2007-10-01 2009-04-08 Harman/Becker Automotive Systems GmbH Sprachgesteuerte Einstellung von Fahrzeugteilen
US9580028B2 (en) 2007-10-01 2017-02-28 Harman Becker Automotive Systems Gmbh Adjusting or setting vehicle elements through speech control
CN102682767A (zh) * 2011-03-18 2012-09-19 株式公司Cs 一种应用于家庭网络的语音识别方法

Also Published As

Publication number Publication date
CN1764943A (zh) 2006-04-26
EP1606794B1 (de) 2006-12-13
KR20060014369A (ko) 2006-02-15
JP2006514753A (ja) 2006-05-11
DE10313310A1 (de) 2004-10-21
US7835913B2 (en) 2010-11-16
JP2009211103A (ja) 2009-09-17
DE502004002300D1 (de) 2007-01-25
CN100559464C (zh) 2009-11-11
US20070100632A1 (en) 2007-05-03
KR100742408B1 (ko) 2007-07-24
ES2278308T3 (es) 2007-08-01
EP1606794A1 (de) 2005-12-21
JP4437119B2 (ja) 2010-03-24

Similar Documents

Publication Publication Date Title
EP1606794B1 (de) Verfahren zur sprecherabhängigen spracherkennung und spracherkennungssystem
DE69820222T2 (de) Verfahren und vorrichtung zur aktivierung einer sprachgesteuerten funktion in einem mehrplatznetzwerk mittels sowohl sprecherabhängiger als auch sprecherunabhängiger spracherkennung
DE102012212185B4 (de) Pflegen und Bereitstellen von Sprachmodellen
DE69725802T2 (de) Vorfilterung mittels lexikalischer Bäumen für die Spracherkennung
WO2005013261A1 (de) Verfahren zur spracherkennung und kommunikationsgerät
EP1264301B1 (de) Verfahren zur erkennung von sprachäusserungen nicht-muttersprachlicher sprecher in einem sprachverarbeitungssystem
EP1611568A1 (de) Dreistufige einzelworterkennung
DE102006036338A1 (de) Verfahren zum Erzeugen einer kontextbasierten Sprachdialogausgabe in einem Sprachdialogsystem
EP2250464A1 (de) Verfahren zum betrieb eines navigationssystems
EP1456837B1 (de) Verfahren und vorrichtung zur spracherkennung
DE69636731T2 (de) System und Verfahren zur Aufnahme von Namen in einer Spracherkennungsdatenbank
DE19920501A1 (de) Wiedergabeverfahren für sprachgesteuerte Systeme mit textbasierter Sprachsynthese
WO2001086634A1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
EP0595889A1 (de) Verfahren und anordnung zum erkennen von einzelwörtern gesprochener sprache.
EP1321851A2 (de) Verfahren zum Betrieb eines Sprach-Dialogsystems
DE19918382B4 (de) Erstellen eines Referenzmodell-Verzeichnisses für ein sprachgesteuertes Kommunikationsgerät
EP0677835B1 (de) Verfahren zum Ermitteln einer Folge von Wörtern
DE4111781A1 (de) Computersystem zur spracherkennung
DE19514849A1 (de) Verfahren zur Fernsteuerung und Vorrichtung dafür
DE10060295A1 (de) Verfahren zum Abspeichern von akustischen Informationen und Verfahren zum Auswählen von einer nach diesem Verfahren abgespeicherten Information
EP1604353B1 (de) Sprachrückmeldung bei der sprecherunabhängigen namenswahl
DE112018006597T5 (de) Sprachverarbeitungsvorrichtung und Sprachverarbeitungsverfahren
EP0833303A2 (de) Verfahren und Anordnung zum Durchführen von Datenbankanfragen
EP0519360A2 (de) Einrichtung und Verfahren zum Erkennen von Sprache
EP1251491A2 (de) Verfahren zum Ermitteln von Datenbankeinträgen durch Spracheingabe

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004716578

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2005518261

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007100632

Country of ref document: US

Ref document number: 10550481

Country of ref document: US

Ref document number: 20048078941

Country of ref document: CN

Ref document number: 1020057017953

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004716578

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057017953

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2004716578

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10550481

Country of ref document: US