DE19944325A1 - Verfahren und Vorrichtung zur Spracherkennung - Google Patents
Verfahren und Vorrichtung zur SpracherkennungInfo
- Publication number
- DE19944325A1 DE19944325A1 DE19944325A DE19944325A DE19944325A1 DE 19944325 A1 DE19944325 A1 DE 19944325A1 DE 19944325 A DE19944325 A DE 19944325A DE 19944325 A DE19944325 A DE 19944325A DE 19944325 A1 DE19944325 A1 DE 19944325A1
- Authority
- DE
- Germany
- Prior art keywords
- speech recognition
- speech
- recognition
- complicated
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 20
- 230000001419 dependent effect Effects 0.000 claims abstract description 3
- 230000005236 sound signal Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Selective Calling Equipment (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Machine Translation (AREA)
Abstract
Sprachsteuerungssysteme finden in einer Vielfalt von technischen Gebieten Anwendung. Die gesprochenen Worte werden hierbei durch ein oder mehrere Mikrofone detektiert und dann einem Spracherkennungssystem zugeführt. Von Nachteil bei den bekannten Spracherkennungssystemen ist, daß der Benutzer die Spracherkennung zunächst aktivieren muß, beispielsweise durch Drücken eines hierfür an der Fernbedienung vorgesehenen Knopfes. Erfindungsgemäß werden zunächst eine einfache Spracherkennung und anschließend ein oder mehrere komplizierte Spracherkennungen durchgeführt werden. Hierbei ist die einfache Spracherkennung weitgehend dialekt- und sprecherunabhängig, weist aber nur einen geringen Wortschatz auf und ermöglicht kein Erkennen einer Wortfolge, wogegen mindestens eine der komplizierteren Spracherkennungen weitgehend dialekt- und sprecherabhängig ist, aber einen umfangreichen Wortschaft aufweist und/oder ein Erkennen einer Wortfolge ermöglicht. Vorteilhafterweise wird die einfache Spracherkennung zum Einschalten einer der kompliziereren Spracherkennungen verwendet.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung
zur Sprachsteuerung, insbesondere zur Steuerung von
Geräten der Unterhaltungselektronik.
Sprachsteuerungssysteme finden in einer Vielzahl von
technischen Gebieten Anwendung. Die gesprochenen Worte
werden hierbei zunächst als Schallsignale detektiert,
üblicherweise durch ein oder mehrere Mikrofone, und dann
einem Spracherkennungssystem zugeführt. Die
Spracherkennung basiert hierbei üblicherweise auf einem
Akustik- und einem Sprachmodell. Das akustische Modell
nutzt eine große Anzahl von Sprachmustern, wobei
mathematische Algorithmen dazu verwendet werden, die
akustisch am besten passenden Worte zu einem gesprochenen
Wort anzugeben. Das Sprachmodell wiederum basiert auf
einer Analyse, bei der anhand von einer Vielzahl von
Dokumentproben festgestellt wird, in welchem Kontext und
wie häufig gewisse Wörter normalerweise verwendet werden.
Mit solchen Spracherkennungssystemen ist nicht nur das
Erkennen einzelner Wörter, sondern auch von fließend
gesprochenen Sätzen mit hohen Erkennungsraten möglich. Die
Erkennungsrate sinkt jedoch drastisch, wenn nicht
vernachlässigbare Hintergrundgeräusche vorliegen.
Die Robustheit gegen solche akustische Störeinflüsse kann
auf verschiedene Weisen erhöht werden. So wird bei
Diktiersystemen für Computer ein Mikrofon an einem
Kopfhörergestell direkt vor dem Mund des Sprechers
befestigt. Bei diesen Systemen kann nur durch die
unmittelbare Nähe zum Mund ein sehr konstantes Signal und
damit eine zum Teil beachtliche Erkennungsrate erreicht
werden. Ebenso ist es bekannt, ein Fernsehgerät zu
steuern, indem die Bedienungsbefehle in das in einer
Fernbedienung integrierte Mikrofon gesprochen werden. Auch
hier muß jedoch die Fernbedienung unmittelbar vor den Mund
des Benutzers gehalten werden.
Von Nachteil bei den bekannten Spracherkennungsystemen ist
jedoch, daß der Benutzer die Spracherkennung zunächst
aktivieren muß, beispielsweise durch Drücken eines hierfür
an der Fernbedienung vorgesehenen Knopfes.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren
zur Sprachsteuerung anzugeben, welches eine Spracheingabe
aus größerer Ferne ohne vorherige Aktivierung durch den
Benutzer ermöglicht. Diese Aufgabe wird durch das in
Anspruch 1 angegebene Verfahren gelöst.
Der Erfindung liegt die weitere Aufgabe zugrunde, eine
Vorrichtung zur Durchführung des erfindungsgemäßen
Verfahrens anzugeben. Diese Aufgabe wird durch die in
Anspruch 6 angegebene Vorrichtung gelöst.
Im Prinzip besteht das Verfahren zur Spracherkennung, bei
dem Sprachbefehlen entsprechende Schallsignale in
elektrische Signale umgewandelt werden, die durch eine
Spracherkennung in Bedienungsbefehle umgewandelt werden,
darin, daß zunächst eine einfache Spracherkennung und
anschließend eine oder mehrere kompliziertere
Spracherkennungen durchgeführt werden.
Vorzugsweise ist die einfache Spracherkennung weitgehend
dialekt- und sprecherunabhängig, weist aber nur einen
geringen Wortschatz auf und ermöglicht kein Erkennen einer
Wortfolge, wogegen mindestens eine der komplizierteren
Spracherkennungen weitgehend dialekt- und sprecherabhängig
ist, aber einen umfangreichen Wortschatz aufweist und/oder
ein Erkennen einer Wortfolge ermöglicht.
Vorteilhafterweise wird die einfache Spracherkennung zum
Einschalten einer der komplizierteren Spracherkennungen
verwendet.
Ebenso kann es von Vorteil sein, wenn die einfache
Spracherkennung zur Sprecher-Identifizierung dient.
Schließlich kann die einfache Spracherkennung
vorteilhafterweise zur Stummschaltung oder Reduzierung der
Lautstärke einer Audiowiedergabe dienen.
Anhand der Zeichnung wird ein Ausführungsbeispiel der
Erfindung beschrieben.
Diese zeigt einen schematischen Ablauf des
erfindungsgemäßen Verfahrens.
In Fig. 1 ist schematisch der Ablauf eines
erfindungsgemäßen Verfahrens in Form eines Flußdiagramms
dargestellt. Zunächst wird in einem ersten
Verfahrensschritt 1 ein Schallsignal durch ein oder
mehrere Mikrofone in elektrische Signale umgewandelt, so
daß ein analoges Sprachsignal vorliegt. Dieses wird dann
in einem zweiten Verfahrensschritt 2 durch einen Analog-
Digital-Wandler in ein digitales Sprachsignal umgewandelt.
Dann wird in einem weiteren Schritt 3 geprüft, ob vorher
bereits eine Spracherkennung durch einen einfachen
Spracherkenner erfolgt ist. Wenn dieses der Fall ist,
werden die Verfahrensschritte 4b, 5b, 6 durchlaufen,
anderenfalls die Verfahrensschritte 4a, 5a, 6. Durch eine
Signalverarbeitung bzw. -analyse 4a, 4b werden aus dem
digitalisierten akustischen Signal Merkmale gewonnen, die
möglichst typisch für die einzelnen Laute der Sprache und
robust gegenüber Störungen und Schwankungen in der
Aussprache sind. Diese Merkmalsextraktion erfolgt in dem
dargestellten Ausführungsbeispiel getrennt für die
verschiedenen Spracherkenner, kann aber auch gemeinsam
erfolgen. Die eigentliche Spracherkennung erfolgt dann in
den Verfahrensschritten 5a bzw. 5b. Die durch die
Signalverarbeitung bzw. -analyse 4a gewonnenen Signale
werden einem primitiven Spracherkenner 5a zugeführt, der
das Signal auf ein oder mehrere vorgegebene Kommandos hin
untersucht. Dieser Spracherkenner benötigt damit nur einen
geringen Wortschatz und ist weitestgehend dialekt- und
sprecherunabhängig. Wird nun ein vorgegebener Sprachbefehl
detektiert, wie z. B. "Hey, Telly!" oder "Anschalten!", so
wird dieses vermerkt, sodaß die weitere Verarbeitung durch
die Signalverarbeitung bzw. -analyse 4b und den
Spracherkenner 5b erfolgt. Dieser weist einen
umfangreichen Wortschatz auf und ist in der Lage, auch
Wortfolgen zu erkennen, wird aber erst aktiv, nachdem ein
Kommando durch den einfachen Spracherkenner 5a erkannt
wurde. Zu den erkannten Kommandos bzw. Wortfolgen werden
dann in dem Verfahrensschritt 6 die entsprechenden Befehle
ermittelt und zur Steuerung des sprachgesteuerten Systems,
z. B. zu einer Menüsteuerung bzw. -navigation, verwendet.
Die Anzahl der Spracherkenner ist nicht auf zwei
beschränkt, vielmehr ist es ebenso denkbar, auch eine
hierarchische Anordnung von mehr als zwei Spracherkennern
zu verwenden. So kann etwa der erste Spracherkenner
lediglich zum Aktivieren der Spracherkennung genutzt
werden, wofür ein nur sehr geringer Wortschatz nötig ist.
Ein zweiter Spracherkenner mit bereits größerem Wortschatz
kann dann zum Ansteuern bzw. zur Auswahl verschiedener
Menüpunkte verwendet werden. Ein weiterer Spracherkenner
kann dann unter dem jeweiligen Menüpunkt aktiviert werden.
Dieser dritte Spracherkenner kann dann einen sehr
umfangreichen Wortschatz aufweisen, um so Eingaben
beliebiger Art, zum Beispiel die Eingabe eines Titels
einer gewünschten Sendung oder eine Internetadresse im
Fall von WebTV, zu ermöglichen.
Ebenso kann der erste Spracherkenner zusätzlich oder
ausschließlich dazu genutzt werden, die Wiedergabe eines
Geräts, wie beispielsweise eines Fernsehgeräts,
stummzuschalten oder die Lautstärke zu reduzieren.
Weiterhin kann einer der hierarchisch angeordneten
Spracherkenner zur Sprecher-Identifikation genutzt werden.
Dieses ist beispielsweise für eine Zugriffskontrolle,
insbesondere Kindersicherung, oder für die Auswahl von
persönlichen Einstellparametern zum Beispiel für die
Grundeinstellungen eines Elektronischen Programmführers,
von Interesse. Schließlich ist es auch denkbar, daß der
erste Spracherkenner lediglich auf ein vorgegebenes
Anschaltkommando reagiert, dieses jedoch in den
verschiedensten Sprachen. In Abhängigkeit von der
detektierten Sprache werden dann verschiedene zweite oder
weitere Spracherkenner aktiviert.
Die verschiedenen Spracherkenner bzw. verschiedenen Stufen
der Spracherkennung können mit separaten Algorithmen oder
separaten Hardwareeinheiten durchgeführt werden. Ebenso
ist es jedoch auch möglich, dieses mit einer einzigen
Spracherkennungsmaschine durch die Auswahl verschiedener
Parametersätze durchzuführen.
Zur Detektion der Sprachsignale kann ein einzelnes
Mikrofon, aber auch ein Mikrofonarray aus zwei oder
mehreren Mikrofonen vorgesehen sein. Das Mikrofonarray
kann beispielsweise in einem Fernsehempfänger integriert
sein. Die Mikrofone setzen die detektierten Schallsignale
in elektrische Signale um, die durch Verstärker verstärkt,
durch AD-Wandler in digitale Signale umgewandelt und darin
einer Signalverarbeitungseinheit zugeführt werden. Diese
kann den jeweiligen Aufenthaltsort des Benutzers durch
eine unterschiedliche Skalierung bzw. Verarbeitung der
detektierten Schallsignale berücksichtigen. Weiterhin kann
auch eine Korrektur der Mikrofonsignalen bezüglich der von
den Lautsprechern abgegebenen Schallsignale erfolgen. Das
so bearbeitete Signal wird dann der erfindungsgemäßen
Spracherkennungseinheit zugeführt, die, wie oben
beschrieben, die elektrischen Signale in Worte umwandelt.
Die diesen Worten entsprechenden Befehle werden dann
schließlich einem Systemmanager zur Steuerung des Systems
zugeführt.
Die Erfindung kann zur Sprachfernbedienung von
verschiedensten Geräten der Unterhaltungselektronik, wie
z. B. von TV-Geräten, Videorecordern, DVD-Spielern,
Satellitenempfängern, TV-Video-Kombinationen, Audiogeräten
oder kompletten Audiosystemen, aber ebenso von
Personalcomputern oder von Haushaltsgeräten eingesetzt
werden.
Claims (6)
1. Verfahren zur mehrstufigen Spracherkennung, bei
dem Sprachbefehlen entsprechende Schallsignale in
elektrische Signale umgewandelt werden, die durch eine
Spracherkennung in Bedienungsbefehle umgewandelt
werden, dadurch gekennzeichnet, daß zunächst eine
einfache Spracherkennung und anschließend eine oder
mehrere kompliziertere Spracherkennungen durchgeführt
werden.
2. Verfahren nach Anspruch 1, dadurch
gekennzeichnet, daß die einfache Spracherkennung
weitgehend dialekt- und sprecherunabhängig ist, aber
nur einen geringen Wortschatz aufweist und kein
Erkennen einer Wortfolge ermöglicht und mindestens
eine der komplizierteren Spracherkennungen weitgehend
dialekt- und sprecherabhängig ist, aber einen
umfangreichen Wortschatz aufweist und/oder ein
Erkennen einer Wortfolge ermöglicht.
3. Verfahren nach Anspruch 1 oder 2, dadurch
gekennzeichnet, daß die einfache Spracherkennung zum
Einschalten einer der komplizierteren
Spracherkennungen verwendet wird.
4. Verfahren nach einem der vorhergehenden
Ansprüche, dadurch gekennzeichnet, daß die einfache
Spracherkennung zur Sprecher-Identifizierung dient.
5. Verfahren nach einem der vorhergehenden
Ansprüche, dadurch gekennzeichnet, daß die einfache
Spracherkennung zur Stummschaltung oder Reduzierung
der Lautstärke einer Audiowiedergabe dient.
6. Vorrichtung zur Durchführung eines Verfahrens
nach einem der vorhergehenden Ansprüche.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19944325A DE19944325A1 (de) | 1999-09-15 | 1999-09-15 | Verfahren und Vorrichtung zur Spracherkennung |
CN00123500A CN1288224A (zh) | 1999-09-15 | 2000-08-18 | 语音识别装置和方法 |
KR1020000049110A KR20010030122A (ko) | 1999-09-15 | 2000-08-24 | 언어인식 방법 및 장치 |
ZA200004442A ZA200004442B (en) | 1999-09-15 | 2000-08-28 | Method and apparatus for speech recognition. |
EP00119088A EP1091347A3 (de) | 1999-09-15 | 2000-09-02 | Mehrstufige Spracherkenung |
JP2000277688A JP2001134291A (ja) | 1999-09-15 | 2000-09-13 | 音声認識のための方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19944325A DE19944325A1 (de) | 1999-09-15 | 1999-09-15 | Verfahren und Vorrichtung zur Spracherkennung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19944325A1 true DE19944325A1 (de) | 2001-03-22 |
Family
ID=7922183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19944325A Withdrawn DE19944325A1 (de) | 1999-09-15 | 1999-09-15 | Verfahren und Vorrichtung zur Spracherkennung |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1091347A3 (de) |
JP (1) | JP2001134291A (de) |
KR (1) | KR20010030122A (de) |
CN (1) | CN1288224A (de) |
DE (1) | DE19944325A1 (de) |
ZA (1) | ZA200004442B (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10209324C1 (de) * | 2002-03-02 | 2002-10-31 | Daimler Chrysler Ag | Automatische Detektion von Sprecherwechseln in sprecheradaptiven Spracherkennungssystemen |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9117449B2 (en) * | 2012-04-26 | 2015-08-25 | Nuance Communications, Inc. | Embedded system for construction of small footprint speech recognition with user-definable constraints |
US9418656B2 (en) | 2014-10-29 | 2016-08-16 | Google Inc. | Multi-stage hotword detection |
KR102299330B1 (ko) * | 2014-11-26 | 2021-09-08 | 삼성전자주식회사 | 음성 인식 방법 및 그 전자 장치 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3235279A1 (de) * | 1981-09-25 | 1983-04-21 | Nissan Motor Co., Ltd., Yokohama, Kanagawa | Spracherkennungseinrichtung |
DE4412309A1 (de) * | 1994-04-09 | 1995-10-12 | Telefonbau & Normalzeit Gmbh | Verfahren zur Verbesserung der Spracherkennung unter Berücksichtigung verschiedener digitaler Codierbedingungen |
DE69026474T2 (de) * | 1989-11-28 | 1996-09-19 | Toshiba Kawasaki Kk | System zur Spracherkennung |
DE19635754A1 (de) * | 1996-09-03 | 1998-03-05 | Siemens Ag | Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung |
DE69128990T2 (de) * | 1990-09-07 | 1998-08-27 | Toshiba Kawasaki Kk | Sprecherkennungsvorrichtung |
DE69129883T2 (de) * | 1990-09-28 | 1999-02-25 | Texas Instruments Inc | Rufnummerwahl mit Spracherkennung |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5864810A (en) * | 1995-01-20 | 1999-01-26 | Sri International | Method and apparatus for speech recognition adapted to an individual speaker |
US6122613A (en) * | 1997-01-30 | 2000-09-19 | Dragon Systems, Inc. | Speech recognition using multiple recognizers (selectively) applied to the same input sample |
DE69712485T2 (de) * | 1997-10-23 | 2002-12-12 | Sony Int Europe Gmbh | Sprachschnittstelle für ein Hausnetzwerk |
US6499013B1 (en) * | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
US6185535B1 (en) * | 1998-10-16 | 2001-02-06 | Telefonaktiebolaget Lm Ericsson (Publ) | Voice control of a user interface to service applications |
WO2000058942A2 (en) * | 1999-03-26 | 2000-10-05 | Koninklijke Philips Electronics N.V. | Client-server speech recognition |
-
1999
- 1999-09-15 DE DE19944325A patent/DE19944325A1/de not_active Withdrawn
-
2000
- 2000-08-18 CN CN00123500A patent/CN1288224A/zh active Pending
- 2000-08-24 KR KR1020000049110A patent/KR20010030122A/ko not_active Application Discontinuation
- 2000-08-28 ZA ZA200004442A patent/ZA200004442B/xx unknown
- 2000-09-02 EP EP00119088A patent/EP1091347A3/de not_active Withdrawn
- 2000-09-13 JP JP2000277688A patent/JP2001134291A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3235279A1 (de) * | 1981-09-25 | 1983-04-21 | Nissan Motor Co., Ltd., Yokohama, Kanagawa | Spracherkennungseinrichtung |
DE69026474T2 (de) * | 1989-11-28 | 1996-09-19 | Toshiba Kawasaki Kk | System zur Spracherkennung |
DE69128990T2 (de) * | 1990-09-07 | 1998-08-27 | Toshiba Kawasaki Kk | Sprecherkennungsvorrichtung |
DE69129883T2 (de) * | 1990-09-28 | 1999-02-25 | Texas Instruments Inc | Rufnummerwahl mit Spracherkennung |
DE4412309A1 (de) * | 1994-04-09 | 1995-10-12 | Telefonbau & Normalzeit Gmbh | Verfahren zur Verbesserung der Spracherkennung unter Berücksichtigung verschiedener digitaler Codierbedingungen |
DE19635754A1 (de) * | 1996-09-03 | 1998-03-05 | Siemens Ag | Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10209324C1 (de) * | 2002-03-02 | 2002-10-31 | Daimler Chrysler Ag | Automatische Detektion von Sprecherwechseln in sprecheradaptiven Spracherkennungssystemen |
Also Published As
Publication number | Publication date |
---|---|
JP2001134291A (ja) | 2001-05-18 |
CN1288224A (zh) | 2001-03-21 |
KR20010030122A (ko) | 2001-04-16 |
EP1091347A3 (de) | 2001-05-09 |
ZA200004442B (en) | 2001-03-06 |
EP1091347A2 (de) | 2001-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60120062T2 (de) | Sprachsteuerung von elektronischen Geräten | |
DE112014006542B4 (de) | Einrichtung und Verfahren zum Verständnis von einer Benutzerintention | |
DE60015531T2 (de) | Client-server spracherkennungssystem | |
DE10015960C2 (de) | Spracherkennungsverfahren und Spracherkennungsvorrichtung | |
EP1256936B1 (de) | Verfahren zum Training oder zur Adaption eines Spracherkenners | |
EP3224831B1 (de) | Kraftfahrzeug-bedienvorrichtung mit korrekturstrategie für spracherkennung | |
EP2333768A2 (de) | Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung | |
DE102018126133A1 (de) | Generieren von Dialog auf Basis von Verifikationswerten | |
DE112016006496T5 (de) | Stimmerkennungsvorrichtung | |
DE10334400A1 (de) | Verfahren zur Spracherkennung und Kommunikationsgerät | |
DE112014007015T5 (de) | Spracherkennungssystem | |
DE112012007103B4 (de) | Spracherkennungsvorrichtung | |
DE112006000322T5 (de) | Audioerkennungssystem zur Erzeugung von Antwort-Audio unter Verwendung extrahierter Audiodaten | |
DE102015106280B4 (de) | Systeme und Verfahren zum Kompensieren von Sprachartefakten in Spracherkennungssystemen | |
DE60020504T2 (de) | Anpassung eines spracherkenners an korrigierte texte | |
DE112006000225T5 (de) | Dialogsystem und Dialogsoftware | |
DE19944325A1 (de) | Verfahren und Vorrichtung zur Spracherkennung | |
DE10123823A1 (de) | System und Verfahren zur parallelen Darbietung von mehreren Audioinformationsquellen | |
DE112014007288T5 (de) | Spracherkennungssystem | |
EP0467157B1 (de) | Sprachgesteuertes Gerät der Unterhaltungselektronik, insbesondere Videorecorder | |
DE60122257T2 (de) | Vorrichtung zur spracherkennung mit referenztransformationsmitteln | |
DE102004017486A1 (de) | Verfahren zur Geräuschreduktion bei einem Sprach-Eingangssignal | |
DE102005030967A1 (de) | Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen | |
EP1063633B1 (de) | Verfahren zum Training eines automatischen Spracherkenners | |
KR100587260B1 (ko) | 음향 기기의 음성인식장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8120 | Willingness to grant licences paragraph 23 | ||
8139 | Disposal/non-payment of the annual fee |