DE19944325A1 - Verfahren und Vorrichtung zur Spracherkennung - Google Patents

Verfahren und Vorrichtung zur Spracherkennung

Info

Publication number
DE19944325A1
DE19944325A1 DE19944325A DE19944325A DE19944325A1 DE 19944325 A1 DE19944325 A1 DE 19944325A1 DE 19944325 A DE19944325 A DE 19944325A DE 19944325 A DE19944325 A DE 19944325A DE 19944325 A1 DE19944325 A1 DE 19944325A1
Authority
DE
Germany
Prior art keywords
speech recognition
speech
recognition
complicated
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19944325A
Other languages
English (en)
Inventor
Ernst F Schroeder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Thomson Brandt GmbH
Original Assignee
Deutsche Thomson Brandt GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Thomson Brandt GmbH filed Critical Deutsche Thomson Brandt GmbH
Priority to DE19944325A priority Critical patent/DE19944325A1/de
Priority to CN00123500A priority patent/CN1288224A/zh
Priority to KR1020000049110A priority patent/KR20010030122A/ko
Priority to ZA200004442A priority patent/ZA200004442B/xx
Priority to EP00119088A priority patent/EP1091347A3/de
Priority to JP2000277688A priority patent/JP2001134291A/ja
Publication of DE19944325A1 publication Critical patent/DE19944325A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Machine Translation (AREA)

Abstract

Sprachsteuerungssysteme finden in einer Vielfalt von technischen Gebieten Anwendung. Die gesprochenen Worte werden hierbei durch ein oder mehrere Mikrofone detektiert und dann einem Spracherkennungssystem zugeführt. Von Nachteil bei den bekannten Spracherkennungssystemen ist, daß der Benutzer die Spracherkennung zunächst aktivieren muß, beispielsweise durch Drücken eines hierfür an der Fernbedienung vorgesehenen Knopfes. Erfindungsgemäß werden zunächst eine einfache Spracherkennung und anschließend ein oder mehrere komplizierte Spracherkennungen durchgeführt werden. Hierbei ist die einfache Spracherkennung weitgehend dialekt- und sprecherunabhängig, weist aber nur einen geringen Wortschatz auf und ermöglicht kein Erkennen einer Wortfolge, wogegen mindestens eine der komplizierteren Spracherkennungen weitgehend dialekt- und sprecherabhängig ist, aber einen umfangreichen Wortschaft aufweist und/oder ein Erkennen einer Wortfolge ermöglicht. Vorteilhafterweise wird die einfache Spracherkennung zum Einschalten einer der kompliziereren Spracherkennungen verwendet.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Sprachsteuerung, insbesondere zur Steuerung von Geräten der Unterhaltungselektronik.
Stand der Technik
Sprachsteuerungssysteme finden in einer Vielzahl von technischen Gebieten Anwendung. Die gesprochenen Worte werden hierbei zunächst als Schallsignale detektiert, üblicherweise durch ein oder mehrere Mikrofone, und dann einem Spracherkennungssystem zugeführt. Die Spracherkennung basiert hierbei üblicherweise auf einem Akustik- und einem Sprachmodell. Das akustische Modell nutzt eine große Anzahl von Sprachmustern, wobei mathematische Algorithmen dazu verwendet werden, die akustisch am besten passenden Worte zu einem gesprochenen Wort anzugeben. Das Sprachmodell wiederum basiert auf einer Analyse, bei der anhand von einer Vielzahl von Dokumentproben festgestellt wird, in welchem Kontext und wie häufig gewisse Wörter normalerweise verwendet werden. Mit solchen Spracherkennungssystemen ist nicht nur das Erkennen einzelner Wörter, sondern auch von fließend gesprochenen Sätzen mit hohen Erkennungsraten möglich. Die Erkennungsrate sinkt jedoch drastisch, wenn nicht vernachlässigbare Hintergrundgeräusche vorliegen.
Die Robustheit gegen solche akustische Störeinflüsse kann auf verschiedene Weisen erhöht werden. So wird bei Diktiersystemen für Computer ein Mikrofon an einem Kopfhörergestell direkt vor dem Mund des Sprechers befestigt. Bei diesen Systemen kann nur durch die unmittelbare Nähe zum Mund ein sehr konstantes Signal und damit eine zum Teil beachtliche Erkennungsrate erreicht werden. Ebenso ist es bekannt, ein Fernsehgerät zu steuern, indem die Bedienungsbefehle in das in einer Fernbedienung integrierte Mikrofon gesprochen werden. Auch hier muß jedoch die Fernbedienung unmittelbar vor den Mund des Benutzers gehalten werden.
Von Nachteil bei den bekannten Spracherkennungsystemen ist jedoch, daß der Benutzer die Spracherkennung zunächst aktivieren muß, beispielsweise durch Drücken eines hierfür an der Fernbedienung vorgesehenen Knopfes.
Erfindung
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Sprachsteuerung anzugeben, welches eine Spracheingabe aus größerer Ferne ohne vorherige Aktivierung durch den Benutzer ermöglicht. Diese Aufgabe wird durch das in Anspruch 1 angegebene Verfahren gelöst.
Der Erfindung liegt die weitere Aufgabe zugrunde, eine Vorrichtung zur Durchführung des erfindungsgemäßen Verfahrens anzugeben. Diese Aufgabe wird durch die in Anspruch 6 angegebene Vorrichtung gelöst.
Im Prinzip besteht das Verfahren zur Spracherkennung, bei dem Sprachbefehlen entsprechende Schallsignale in elektrische Signale umgewandelt werden, die durch eine Spracherkennung in Bedienungsbefehle umgewandelt werden, darin, daß zunächst eine einfache Spracherkennung und anschließend eine oder mehrere kompliziertere Spracherkennungen durchgeführt werden.
Vorzugsweise ist die einfache Spracherkennung weitgehend dialekt- und sprecherunabhängig, weist aber nur einen geringen Wortschatz auf und ermöglicht kein Erkennen einer Wortfolge, wogegen mindestens eine der komplizierteren Spracherkennungen weitgehend dialekt- und sprecherabhängig ist, aber einen umfangreichen Wortschatz aufweist und/oder ein Erkennen einer Wortfolge ermöglicht.
Vorteilhafterweise wird die einfache Spracherkennung zum Einschalten einer der komplizierteren Spracherkennungen verwendet.
Ebenso kann es von Vorteil sein, wenn die einfache Spracherkennung zur Sprecher-Identifizierung dient.
Schließlich kann die einfache Spracherkennung vorteilhafterweise zur Stummschaltung oder Reduzierung der Lautstärke einer Audiowiedergabe dienen.
Zeichnung
Anhand der Zeichnung wird ein Ausführungsbeispiel der Erfindung beschrieben.
Diese zeigt einen schematischen Ablauf des erfindungsgemäßen Verfahrens.
Ausführungsbeispiele
In Fig. 1 ist schematisch der Ablauf eines erfindungsgemäßen Verfahrens in Form eines Flußdiagramms dargestellt. Zunächst wird in einem ersten Verfahrensschritt 1 ein Schallsignal durch ein oder mehrere Mikrofone in elektrische Signale umgewandelt, so daß ein analoges Sprachsignal vorliegt. Dieses wird dann in einem zweiten Verfahrensschritt 2 durch einen Analog- Digital-Wandler in ein digitales Sprachsignal umgewandelt. Dann wird in einem weiteren Schritt 3 geprüft, ob vorher bereits eine Spracherkennung durch einen einfachen Spracherkenner erfolgt ist. Wenn dieses der Fall ist, werden die Verfahrensschritte 4b, 5b, 6 durchlaufen, anderenfalls die Verfahrensschritte 4a, 5a, 6. Durch eine Signalverarbeitung bzw. -analyse 4a, 4b werden aus dem digitalisierten akustischen Signal Merkmale gewonnen, die möglichst typisch für die einzelnen Laute der Sprache und robust gegenüber Störungen und Schwankungen in der Aussprache sind. Diese Merkmalsextraktion erfolgt in dem dargestellten Ausführungsbeispiel getrennt für die verschiedenen Spracherkenner, kann aber auch gemeinsam erfolgen. Die eigentliche Spracherkennung erfolgt dann in den Verfahrensschritten 5a bzw. 5b. Die durch die Signalverarbeitung bzw. -analyse 4a gewonnenen Signale werden einem primitiven Spracherkenner 5a zugeführt, der das Signal auf ein oder mehrere vorgegebene Kommandos hin untersucht. Dieser Spracherkenner benötigt damit nur einen geringen Wortschatz und ist weitestgehend dialekt- und sprecherunabhängig. Wird nun ein vorgegebener Sprachbefehl detektiert, wie z. B. "Hey, Telly!" oder "Anschalten!", so wird dieses vermerkt, sodaß die weitere Verarbeitung durch die Signalverarbeitung bzw. -analyse 4b und den Spracherkenner 5b erfolgt. Dieser weist einen umfangreichen Wortschatz auf und ist in der Lage, auch Wortfolgen zu erkennen, wird aber erst aktiv, nachdem ein Kommando durch den einfachen Spracherkenner 5a erkannt wurde. Zu den erkannten Kommandos bzw. Wortfolgen werden dann in dem Verfahrensschritt 6 die entsprechenden Befehle ermittelt und zur Steuerung des sprachgesteuerten Systems, z. B. zu einer Menüsteuerung bzw. -navigation, verwendet.
Die Anzahl der Spracherkenner ist nicht auf zwei beschränkt, vielmehr ist es ebenso denkbar, auch eine hierarchische Anordnung von mehr als zwei Spracherkennern zu verwenden. So kann etwa der erste Spracherkenner lediglich zum Aktivieren der Spracherkennung genutzt werden, wofür ein nur sehr geringer Wortschatz nötig ist. Ein zweiter Spracherkenner mit bereits größerem Wortschatz kann dann zum Ansteuern bzw. zur Auswahl verschiedener Menüpunkte verwendet werden. Ein weiterer Spracherkenner kann dann unter dem jeweiligen Menüpunkt aktiviert werden. Dieser dritte Spracherkenner kann dann einen sehr umfangreichen Wortschatz aufweisen, um so Eingaben beliebiger Art, zum Beispiel die Eingabe eines Titels einer gewünschten Sendung oder eine Internetadresse im Fall von WebTV, zu ermöglichen.
Ebenso kann der erste Spracherkenner zusätzlich oder ausschließlich dazu genutzt werden, die Wiedergabe eines Geräts, wie beispielsweise eines Fernsehgeräts, stummzuschalten oder die Lautstärke zu reduzieren. Weiterhin kann einer der hierarchisch angeordneten Spracherkenner zur Sprecher-Identifikation genutzt werden. Dieses ist beispielsweise für eine Zugriffskontrolle, insbesondere Kindersicherung, oder für die Auswahl von persönlichen Einstellparametern zum Beispiel für die Grundeinstellungen eines Elektronischen Programmführers, von Interesse. Schließlich ist es auch denkbar, daß der erste Spracherkenner lediglich auf ein vorgegebenes Anschaltkommando reagiert, dieses jedoch in den verschiedensten Sprachen. In Abhängigkeit von der detektierten Sprache werden dann verschiedene zweite oder weitere Spracherkenner aktiviert.
Die verschiedenen Spracherkenner bzw. verschiedenen Stufen der Spracherkennung können mit separaten Algorithmen oder separaten Hardwareeinheiten durchgeführt werden. Ebenso ist es jedoch auch möglich, dieses mit einer einzigen Spracherkennungsmaschine durch die Auswahl verschiedener Parametersätze durchzuführen.
Zur Detektion der Sprachsignale kann ein einzelnes Mikrofon, aber auch ein Mikrofonarray aus zwei oder mehreren Mikrofonen vorgesehen sein. Das Mikrofonarray kann beispielsweise in einem Fernsehempfänger integriert sein. Die Mikrofone setzen die detektierten Schallsignale in elektrische Signale um, die durch Verstärker verstärkt, durch AD-Wandler in digitale Signale umgewandelt und darin einer Signalverarbeitungseinheit zugeführt werden. Diese kann den jeweiligen Aufenthaltsort des Benutzers durch eine unterschiedliche Skalierung bzw. Verarbeitung der detektierten Schallsignale berücksichtigen. Weiterhin kann auch eine Korrektur der Mikrofonsignalen bezüglich der von den Lautsprechern abgegebenen Schallsignale erfolgen. Das so bearbeitete Signal wird dann der erfindungsgemäßen Spracherkennungseinheit zugeführt, die, wie oben beschrieben, die elektrischen Signale in Worte umwandelt.
Die diesen Worten entsprechenden Befehle werden dann schließlich einem Systemmanager zur Steuerung des Systems zugeführt.
Die Erfindung kann zur Sprachfernbedienung von verschiedensten Geräten der Unterhaltungselektronik, wie z. B. von TV-Geräten, Videorecordern, DVD-Spielern, Satellitenempfängern, TV-Video-Kombinationen, Audiogeräten oder kompletten Audiosystemen, aber ebenso von Personalcomputern oder von Haushaltsgeräten eingesetzt werden.

Claims (6)

1. Verfahren zur mehrstufigen Spracherkennung, bei dem Sprachbefehlen entsprechende Schallsignale in elektrische Signale umgewandelt werden, die durch eine Spracherkennung in Bedienungsbefehle umgewandelt werden, dadurch gekennzeichnet, daß zunächst eine einfache Spracherkennung und anschließend eine oder mehrere kompliziertere Spracherkennungen durchgeführt werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die einfache Spracherkennung weitgehend dialekt- und sprecherunabhängig ist, aber nur einen geringen Wortschatz aufweist und kein Erkennen einer Wortfolge ermöglicht und mindestens eine der komplizierteren Spracherkennungen weitgehend dialekt- und sprecherabhängig ist, aber einen umfangreichen Wortschatz aufweist und/oder ein Erkennen einer Wortfolge ermöglicht.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die einfache Spracherkennung zum Einschalten einer der komplizierteren Spracherkennungen verwendet wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die einfache Spracherkennung zur Sprecher-Identifizierung dient.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die einfache Spracherkennung zur Stummschaltung oder Reduzierung der Lautstärke einer Audiowiedergabe dient.
6. Vorrichtung zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
DE19944325A 1999-09-15 1999-09-15 Verfahren und Vorrichtung zur Spracherkennung Withdrawn DE19944325A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE19944325A DE19944325A1 (de) 1999-09-15 1999-09-15 Verfahren und Vorrichtung zur Spracherkennung
CN00123500A CN1288224A (zh) 1999-09-15 2000-08-18 语音识别装置和方法
KR1020000049110A KR20010030122A (ko) 1999-09-15 2000-08-24 언어인식 방법 및 장치
ZA200004442A ZA200004442B (en) 1999-09-15 2000-08-28 Method and apparatus for speech recognition.
EP00119088A EP1091347A3 (de) 1999-09-15 2000-09-02 Mehrstufige Spracherkenung
JP2000277688A JP2001134291A (ja) 1999-09-15 2000-09-13 音声認識のための方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19944325A DE19944325A1 (de) 1999-09-15 1999-09-15 Verfahren und Vorrichtung zur Spracherkennung

Publications (1)

Publication Number Publication Date
DE19944325A1 true DE19944325A1 (de) 2001-03-22

Family

ID=7922183

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19944325A Withdrawn DE19944325A1 (de) 1999-09-15 1999-09-15 Verfahren und Vorrichtung zur Spracherkennung

Country Status (6)

Country Link
EP (1) EP1091347A3 (de)
JP (1) JP2001134291A (de)
KR (1) KR20010030122A (de)
CN (1) CN1288224A (de)
DE (1) DE19944325A1 (de)
ZA (1) ZA200004442B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10209324C1 (de) * 2002-03-02 2002-10-31 Daimler Chrysler Ag Automatische Detektion von Sprecherwechseln in sprecheradaptiven Spracherkennungssystemen

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117449B2 (en) * 2012-04-26 2015-08-25 Nuance Communications, Inc. Embedded system for construction of small footprint speech recognition with user-definable constraints
US9418656B2 (en) 2014-10-29 2016-08-16 Google Inc. Multi-stage hotword detection
KR102299330B1 (ko) * 2014-11-26 2021-09-08 삼성전자주식회사 음성 인식 방법 및 그 전자 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3235279A1 (de) * 1981-09-25 1983-04-21 Nissan Motor Co., Ltd., Yokohama, Kanagawa Spracherkennungseinrichtung
DE4412309A1 (de) * 1994-04-09 1995-10-12 Telefonbau & Normalzeit Gmbh Verfahren zur Verbesserung der Spracherkennung unter Berücksichtigung verschiedener digitaler Codierbedingungen
DE69026474T2 (de) * 1989-11-28 1996-09-19 Toshiba Kawasaki Kk System zur Spracherkennung
DE19635754A1 (de) * 1996-09-03 1998-03-05 Siemens Ag Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung
DE69128990T2 (de) * 1990-09-07 1998-08-27 Toshiba Kawasaki Kk Sprecherkennungsvorrichtung
DE69129883T2 (de) * 1990-09-28 1999-02-25 Texas Instruments Inc Rufnummerwahl mit Spracherkennung

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5864810A (en) * 1995-01-20 1999-01-26 Sri International Method and apparatus for speech recognition adapted to an individual speaker
US6122613A (en) * 1997-01-30 2000-09-19 Dragon Systems, Inc. Speech recognition using multiple recognizers (selectively) applied to the same input sample
DE69712485T2 (de) * 1997-10-23 2002-12-12 Sony Int Europe Gmbh Sprachschnittstelle für ein Hausnetzwerk
US6499013B1 (en) * 1998-09-09 2002-12-24 One Voice Technologies, Inc. Interactive user interface using speech recognition and natural language processing
US6185535B1 (en) * 1998-10-16 2001-02-06 Telefonaktiebolaget Lm Ericsson (Publ) Voice control of a user interface to service applications
WO2000058942A2 (en) * 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Client-server speech recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3235279A1 (de) * 1981-09-25 1983-04-21 Nissan Motor Co., Ltd., Yokohama, Kanagawa Spracherkennungseinrichtung
DE69026474T2 (de) * 1989-11-28 1996-09-19 Toshiba Kawasaki Kk System zur Spracherkennung
DE69128990T2 (de) * 1990-09-07 1998-08-27 Toshiba Kawasaki Kk Sprecherkennungsvorrichtung
DE69129883T2 (de) * 1990-09-28 1999-02-25 Texas Instruments Inc Rufnummerwahl mit Spracherkennung
DE4412309A1 (de) * 1994-04-09 1995-10-12 Telefonbau & Normalzeit Gmbh Verfahren zur Verbesserung der Spracherkennung unter Berücksichtigung verschiedener digitaler Codierbedingungen
DE19635754A1 (de) * 1996-09-03 1998-03-05 Siemens Ag Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10209324C1 (de) * 2002-03-02 2002-10-31 Daimler Chrysler Ag Automatische Detektion von Sprecherwechseln in sprecheradaptiven Spracherkennungssystemen

Also Published As

Publication number Publication date
JP2001134291A (ja) 2001-05-18
CN1288224A (zh) 2001-03-21
KR20010030122A (ko) 2001-04-16
EP1091347A3 (de) 2001-05-09
ZA200004442B (en) 2001-03-06
EP1091347A2 (de) 2001-04-11

Similar Documents

Publication Publication Date Title
DE60120062T2 (de) Sprachsteuerung von elektronischen Geräten
DE112014006542B4 (de) Einrichtung und Verfahren zum Verständnis von einer Benutzerintention
DE60015531T2 (de) Client-server spracherkennungssystem
DE10015960C2 (de) Spracherkennungsverfahren und Spracherkennungsvorrichtung
EP1256936B1 (de) Verfahren zum Training oder zur Adaption eines Spracherkenners
EP3224831B1 (de) Kraftfahrzeug-bedienvorrichtung mit korrekturstrategie für spracherkennung
EP2333768A2 (de) Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung
DE102018126133A1 (de) Generieren von Dialog auf Basis von Verifikationswerten
DE112016006496T5 (de) Stimmerkennungsvorrichtung
DE10334400A1 (de) Verfahren zur Spracherkennung und Kommunikationsgerät
DE112014007015T5 (de) Spracherkennungssystem
DE112012007103B4 (de) Spracherkennungsvorrichtung
DE112006000322T5 (de) Audioerkennungssystem zur Erzeugung von Antwort-Audio unter Verwendung extrahierter Audiodaten
DE102015106280B4 (de) Systeme und Verfahren zum Kompensieren von Sprachartefakten in Spracherkennungssystemen
DE60020504T2 (de) Anpassung eines spracherkenners an korrigierte texte
DE112006000225T5 (de) Dialogsystem und Dialogsoftware
DE19944325A1 (de) Verfahren und Vorrichtung zur Spracherkennung
DE10123823A1 (de) System und Verfahren zur parallelen Darbietung von mehreren Audioinformationsquellen
DE112014007288T5 (de) Spracherkennungssystem
EP0467157B1 (de) Sprachgesteuertes Gerät der Unterhaltungselektronik, insbesondere Videorecorder
DE60122257T2 (de) Vorrichtung zur spracherkennung mit referenztransformationsmitteln
DE102004017486A1 (de) Verfahren zur Geräuschreduktion bei einem Sprach-Eingangssignal
DE102005030967A1 (de) Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
EP1063633B1 (de) Verfahren zum Training eines automatischen Spracherkenners
KR100587260B1 (ko) 음향 기기의 음성인식장치

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8120 Willingness to grant licences paragraph 23
8139 Disposal/non-payment of the annual fee