WO2001059761A1 - Verfahren zur spracherkennung - Google Patents

Verfahren zur spracherkennung Download PDF

Info

Publication number
WO2001059761A1
WO2001059761A1 PCT/DE2001/000261 DE0100261W WO0159761A1 WO 2001059761 A1 WO2001059761 A1 WO 2001059761A1 DE 0100261 W DE0100261 W DE 0100261W WO 0159761 A1 WO0159761 A1 WO 0159761A1
Authority
WO
WIPO (PCT)
Prior art keywords
speech
noise
sample
recognition
training
Prior art date
Application number
PCT/DE2001/000261
Other languages
English (en)
French (fr)
Inventor
Ralf Kern
Karl-Heinz Pflaum
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to AU39138/01A priority Critical patent/AU3913801A/en
Publication of WO2001059761A1 publication Critical patent/WO2001059761A1/de

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise

Definitions

  • the present invention relates to a method for compensating for disturbances in speech recognition systems.
  • the manner of speaking of the individual speakers is therefore trained and a speech sample (training speech sample) is generated and stored, with which a current speech input (recognition speech sample) which is made at a later time is compared, so that the speech recognition system can determine whether the acoustic signal comes from the speaker or is a background noise or recognizes the content of the speech input.
  • a speech recognition system is known from DE 195 21 258 AI, in which, in addition to the speech signal, an additional input signal describing the disturbance is evaluated in such a way that the information contained therein is suppressed as much as possible during recognition.
  • comparison vectors are formed, which are continuously adapted to the current disturbance.
  • the object on which the invention is based is to compensate for interference from signals to be processed in a speech recognition system.
  • the basic idea of the method according to claim 1 is to generate features (training sample) generated during a training session of a speech recognition system for a new speaker, which are compared with a recognition speech sample generated for a speech recognition on the basis of a speech signal recorded at a later point in time, possibly with a disturbance, that occurs during the recording of the speech signal and can distort the speech signal to link analog signals, the detection sample also being generated by linking the speech signal to signals analogous to the disturbance, so that the training sample and the detection speech sample are matched to the current disturbance.
  • the method according to the invention therefore ensures that when a voice signal is currently recorded in
  • An estimate of the function "convolutional noise" representing the difference between a training environment and the current environment of the speech recognition system is made in particular by a mathematical description of a disturbance model based on significant features that a current speech sample has, and has the advantage that it is simple as an algorithm can be implemented and a correction (filtering or convolution with inverse function) of a changed transmission function resulting from the difference between a training environment and the current environment of the speech recognition system is made possible.
  • An estimation of the current "additive noise” function, which reproduces background noises or disturbing noises, is carried out in particular by a mathematical description of a disturbance model on the basis of significant features that a current speech sample has, and also has the advantage that it can be easily implemented as an algorithm and a correction of the speech signal falsified by the background noise.
  • a weighting of the signals analogous to the disturbance by multiplication with at least one factor, which is intended in particular as an adjustable parameter, the value of which is determined, for example, with the aid of measurements or by simulation, enables an optimization of the compensation, since an optimized training sample and a recognition speech sample on one another can be coordinated.
  • the development according to claim 6 is easy to implement and achieves very good values in the compensation of the interference, since both "additive noise” and “convolutional noise" - by known algorithms - are estimated both with the speech signal and with the generated features
  • a flow chart of the inventive method used in a speech recognition system is shown.
  • the flowchart shown in the FIGURE shows the essential steps of the method according to the invention, which can be easily used in a common speech recognition system.
  • the method begins with a check (query) as to whether a voice input is made via a known room microphone preamplifier system
  • RMV system takes place, i.e. whether a speech signal s (t) was recorded.
  • This check is carried out until a speech signal s (t) has been recorded and a speech has thus been input by a speaker.
  • the speech signal s (t) is analyzed, so that an estimate of components of a "convolutional noise" n c (t) affecting the transfer function that occur during the recording of the speech signal s (t ) occurs, as well as parts of the disturbance (secondary or disturbing noise) superimposed on the speech signal, "additive noise” n a (t) is carried out.
  • a "convolutional noise” n c (t) affecting the transfer function that occur during the recording of the speech signal s (t ) occurs, as well as parts of the disturbance (secondary or disturbing noise) superimposed on the speech signal.
  • a comparison of the optimized training sample s ⁇ _ op t (t) and the recognition sample s E (t) is carried out according to an algorithm for speech recognition known to the experts from a comparison of a training sample and a recognition sample for speech recognition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Die während eines Trainings eines Spracherkennungssystems auf einen neuen Sprecher generierten Merkmale (Trainingsprobe), die mit einer auf Basis eines zu einem späteren Zeitpunkt aufgenommenen Sprachsignals erzeugten Erkennungsprobe für eine Spracherkennung verglichen werden, gegebenenfalls mit zu einer Störung, die während der Aufnahme des Sprachsignals auftritt und das Sprachsignal verfälschen kann, analogen Signalen zu verknüpfen, wobei sie auf die Erkennungsprobe, die ebenfalls durch Verknüpfung des Sprachsignals mit zu der Störung analogen Signalen generiert wird, abgestimmt ist.

Description

Beschreibung
Verfahren zur Spracherkennung
Die vorliegende Erfindung betrifft ein Verfahren zur Kompensation von Störungen in Spracherkennungssystemen .
Die rasante technische Entwicklung im Bereich der Telekommunikation, insbesondere der Mobilkommunikation, hat in den letzten Jahren zu einer ständig erhöhten Anforderung an die Sprachverarbeitung geführt .
Insbesondere in Spracherkennungssystemen wird daher die Sprechweise der einzelnen Sprecher trainiert und eine Sprach- probe (Trainingssprachprobe) erzeugt und gespeichert, mit der eine zu einem späteren Zeitpunkt erfolgende aktuelle Spracheingabe (Erkennungssprachprobe) verglichen wird, so daß das Spracherkennungssystem feststellen kann, ob das akustische Signal vom Sprecher stammt oder ein Nebengeräusch ist bzw. den Inhalt der Spracheingabe erkennt.
Da die Spracheingabe in Spracherkennungssystemen nicht immer über dasselbe System aus Raum-Mikrofon-Vorverstärker (RMV- System) erfolgt und sich die Umgebung bzw. die Störgeräusch- kulisse, insbesondere bei der Mobilkommunikation, häufig ändert, so daß die Sprache bei der Spracheingabe durch verschiedenartige Übertragungsfunktionen und Störgeräusche (in der englischen Literatur, Saeed V.Vaseghi, "Advanced Signal Processing and Digital Noise Reduction" , Stuttgart, 1996, Teubner B. G., mit "convolutional noise" und "additive noise" bezeichnet) , beeinflußt wird, ergibt sich eine Variation der signifikanten Merkmale der Sprache, die wiederum zu einer Degradation der Erkennungsrate des Spracherkennungssystems bzw. einer Obstruktion der Spracherkennung führen.
Zur Vermeidung der beschriebenen Probleme sind verschiedene Ansätze bekannt, die sich im wesentlichen dadurch auszeich- nen, daß das Störsignal, mit dem das beispielsweise durch ein Mikrofon aufgenommene Sprachsignal behaftet ist, geschätzt und eine Erkennungssprachprobe, beispielsweise durch Subtraktion (z.B. spektrale Subtraktion) des geschätzten "additive noise" und Faltung (z.B. mit Wiener Filter, Inversfilter) mit dem inversen geschätzten "convolutional noise" gemäß folgender Formel
sE(t) (nc(t)* s(t) )*nc (t) " + na(t) - na est (t!
s(t) Sprachsignal sτ(t) Trainingssprachprobe sE(t) Erkennungssprachprobe nc(t) "convolutional noise" na(t) "additive noise" nc_est ( t ) geschätztes (estimated) "convolutional noise" na_est ( ) geschätztes (estimated) "additional noise" * Faltungsoperator
erzeugt wird, wobei die Erkennungssprachprobe mit der Trainingssprachprobe verglichen wird.
Diese Ansätze haben den Nachteil, daß die beiden Arten der Störung lediglich geschätzt, jedoch nicht exakt vorhergesagt werden können.
Zur Optimierung dieser Ansätze sind zwar Verfahren bekannt, bei dem eine bzw. die für den späteren Einsatz eines Sprach- erkennungssystems zu erwartende Störgeräuschkulisse bzw. Störgeräusche während des Trainings simuliert wird, so daß die Trainingssprachprobe möglichst viel Informationen über die zu erwartenden akustischen Bedingungen während der Anwen- düng des Spracherkennungssystems enthält. Dennoch weisen alle genannten Verfahren das grundlegende Problem auf, daß sich die akustischen Bedingungen während des Trainings und während der späteren Anwendung (Spracheingabe) unterscheiden, da die tatsächlichen akustischen Bedingungen während einer Spracheingabe nicht exakt vorausgesagt werden können.
Aus der DE 195 21 258 AI ist ein Spracherkennungssystem bekannt, bei dem neben dem Sprachsignal ein zusätzliches, die Störung beschreibendes Eingabesignal so ausgewertet wird, dass die darin enthaltene Information bei der Erkennung möglichst unterdrückt wird. Dazu werden Vergleichsvektoren gebildet, die fortlaufend an die momentane Störung angepasst werden.
Die der Erfindung zugrunde liegende Aufgabe besteht darin, Störungen von in einem Spracherkennungssystem zu verarbeitender Signale zu kompensieren.
Diese Aufgabe wird durch die Merkmale des Verfahrensanspruchs 1 gelöst.
Grundgedanke des Verfahrens gemäß Anspruch 1 ist es, während eines Trainings eines Spracherkennungssystems auf einen neuen Sprecher generierte Merkmale (Trainingsprobe) , die mit einer auf Basis eines zu einem späteren Zeitpunkt aufgenommenen Sprachsignals erzeugten Erkennungssprachprobe für eine Spracherkennung verglichen wird, gegebenenfalls mit zu einer Störung, die während der Aufnahme des Sprachsignals auftritt und das Sprachsignal verfälschen kann, analogen Signalen zu verknüpfen, wobei die Erkennungsprobe ebenfalls durch Verknüpfung des Sprachsignals mit zu der Störung analogen Signalen generiert wird, so daß Trainingsprobe und Erkennungs- sprachprobe auf die aktuelle Störung abgestimmt sind.
Durch das erfindungsgemäße Verfahren wird daher gewährleistet, daß die bei der aktuellen Aufnahme eines Sprachsignals in
Figure imgf000006_0001
ergibt, so daß die Qualität und die Quantität der Erkennungsrate deutlich steigt.
Eine Schätzung einer den Unterschied zwischen einer Trai- ningsumgebung und aktuellen Umgebung des SpracherkennungsSystems wiedergebenden Funktion "convolutional noise" erfolgt insbesondere durch eine mathematische Beschreibung eines Störungsmodells anhand signifikanter Merkmale, die eine aktuelle Sprachprobe aufweist, und hat den Vorteil, daß sie sich als Algorithmus einfach implementieren läßt sowie eine Korrektur (Filterung bzw. Faltung mit inverser Funktion) einer sich durch den Unterschied zwischen einer Trainingsumgebung und aktuellen Umgebung des Spracherkennungssystems ergebenden veränderten Übertragungsfunktion ermöglicht.
Eine Schätzung der aktuellen Neben- bzw. Störgeräusche wiedergebenden Funktion "additive noise" erfolgt insbesondere durch eine mathematische Beschreibung eines Störungsmodells anhand signifikanter Merkmale, die eine aktuelle Sprachprobe aufweist, und hat ebenfalls den Vorteil, daß sie sich als Algorithmus einfach implementieren läßt sowie eine Korrektur des durch die Neben- bzw. Störgeräusche verfälschten Sprachsignals ermöglicht.
Die Schätzung und Verknüpfung sowohl von "convolutional noise" als auch "additive noise" verbessert die Kompensation von Störungen.
Eine Gewichtung der zur Störung analogen Signale durch Multi- plikation mit mindestens einem Faktor, der insbesondere als einstellbarer Parameter, dessen Wert beispielsweise mit Hilfe von Messungen oder durch Simulation ermittelt wird, gedacht ist, ermöglicht eine Optimierung der Kompensation, da optimierte Trainingsprobe und Erkennungssprachprobe aufeinander abgestimmt werden können. Die Weiterbildung gemäß Anspruch 6 ist einfach zu implementieren und erzielt sehr gute Werte bei der Kompensation der Störung, da sowohl "additive noise" als auch "convolutional noise" - durch bekannte Algorithmen - geschätzt sowohl mit dem Sprachsignal als auch mit den generierten Merkmalen
(Trainingsprobe) verknüpft wird, so daß die auftretende Störung im Idealfall sogar vollständig kompensiert wird.
Ein Ausführungsbeispiel der Erfindung wird anhand der einzi- gen FIGUR erläutert. Diese zeigt:
Ein Ablaufdiagramm des in einem Spracherkennungssystem eingesetzten erfindungsgemäßen Verfahrens.
Das in der FIGUR dargestellte Ablaufdiagramm gibt die wesentlichen Schritte des erfindungsgemäßen Verfahrens, welches in einem gängigen Spracherkennungssystem ohne weiteres eingesetzt werden kann.
Bei dem dargestellten Ausführungsbeispiel beginnt das Verfahren mit der Überprüfung (Abfrage) , ob eine Spracheingabe, welche über ein bekanntes Raum-Mikrofon-Vorverstarkersystem
(RMV-System) stattfindet, erfolgt ist, d.h. ob ein Sprachsignal s(t) aufgenommen wurde.
Diese Überprüfung wird solange durchgeführt, bis ein Sprach- signal s(t) aufgenommen wurde und somit eine Spracheingabe durch einen Sprecher erfolgt ist.
Ist die Spracheingabe erfolgt, wird das Sprachsignal s(t) a- nalysiert, so daß eine Schätzung von sich auf die Übertra- gungsfunktion auswirkender Anteile einer Störung "convolutional noise" nc(t), die während der Aufnahme des Sprachsignals s(t) auftritt, sowie sich dem Sprachsignal überlagernder Anteile der Störung (Neben- bzw. Störgeräusch) "additive noise" na(t) durchgeführt wird. (Die Verfahrensschritte der Analyse und Schätzung sind der Fachwelt bekannt und werden daher an dieser Stelle nicht näher erläutert.)
Mit dem geschätzten "convolutional noise" nc_est(t) und dem geschätzten "additive noise" na_est(t) wird in einem nächsten Schritt eine Erkennungsprobe sE(t) gemäß der Formel
sE(t) = (nc(t)* s(t) )*
Figure imgf000009_0001
+ na(t) ßna (t)
sowie aus einer gespeicherten Trainingsprobe sτ(t) in Verbindung mit dem geschätzten "convolutional noise" nc_est(t) und dem geschätzten "additive noise" na_est(t) eine optimierte Trainingsprobe sτ_opt (t) gemäß der Formel
sτ_opt (t) = (Sτ(t)*(l-ß)nc_eβt(t)) + (l-ß)na_est(t)
gebildet, wobei folgende Definitionen gelten:
s ( t ) Sprachsignal sτ (t) Trainingssprachprobe sT_opt ( t , optimierte Trainingssprachprobe sE (t ) Erkennungssprachprobe nc (t) "convolutional noise" na (t ) "additive noise" n-c_est \ - 1 geschätztes (estimated) "convolutional noise" na est ( t ] geschätztes (estimated) "additional noise"
Gewichtungsfaktor
Faltungsoperator
In einem letzen Schritt wird ein Vergleich von optimierter Trainingsprobe sτ_opt (t) und Erkennungsprobe sE(t) gemäß einem der Fachwelt bekannten Algorithmus zur Spracherkennung aus Vergleich von einer Trainingsprobe und einer Erkennungsprobe zur Spracherkennung durchgeführt .
Das genannte Ausführungsbeispiel stellt nur einen Teil der durch die Erfindung möglichen Ausführungsformen dar. So ist
Figure imgf000010_0002
Figure imgf000010_0001

Claims

Patentansprüche
1. Verfahren zur Spracherkennung, mit folgenden Merkmalen: a) Durch Verknüpfung eines aktuellen Sprachsignals (s(t)) mit mindestens einer eine Störung (na(t), nc(t)) des
Sprachsignals darstellenden Größe wird eine Erkennungssprachprobe (sE(t)) erzeugt, b) durch Verknüpfung einer dem Spracherkennungssystem bekannten Trainingssprachprobe (sτ(t)) mit mindestens einer die Störung (na(t), nc(t)) darstellenden Größe wird eine optimierte Trainingssprachprobe (sτ_opt (t)) erzeugt, c) die die Störung (na(t), nc(t)) darstellende Größe wird durch Schätzung einer den Unterschied zwischen einer Trainingsumgebung und aktuellen Umgebung des Spracherken- nungssystems wiedergebenden Funktion "convolutional noise" (nc_est(t)) ermittelt, d) die optimierte Trainingssprachprobe (sτ_opt (t) ) und die Erkennungssprachprobe (sE(t)) werden einem Spracherken- nungsverfahren zugeführt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß a) eine erste die Störung (na(t), nc(t)) darstellende Größe durch Schätzung einer den Unterschied zwischen einer Trainingsumgebung und einer Aufnahme des Sprachsignals (s(t)) aktuellen Umgebung des Spracherkennungssystems wiedergebenden Funktion "convolutional noise" (nc_eΞt(t)) ermittelt wird, b) eine zweite die Störung (na(t), nc(t)) darstellende Größe durch Schätzung einer die aktuellen Neben- bzw. Störgeräusche wiedergebenden Funktion "additive noise" (na_est(t)) ermittelt wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, da- durch gekennzeichnet, daß die die Störung (na (t ) , nc(t)) darstellende Größe durch Multiplikation mit mindestens einem Faktor gewichtet wird.
4. Verfahren nach Anspruch 5, dadurch gekennzeichnet , daß die Erkennungs sprachprobe (sE(t)) gemäß der Formel
sE(t) = (nc(t)* s(t) )* ßnc_est(t)-1 + na(t) - ßna_est(t)
und die optimierte Trainingssprachprobe (sτ_opt (t) ) gemäß der Formel
sτ_opt (t) = (sτ(t)*(l-ß)nc_est(t) ) + (l-ß)na_est(t)
mit
s(t) Sprachsignal
Sχ(t) Trainingssprachprobe Sτ_opt ( ) optimierte Trainingssprachprobe sE(t) Erkennungssprachprobe nc(t) "convolutional noise" na(t) "additive noise" nc_est ( t ) geschätztes "convolutional noise" na_est ( t ) geschätztes "additional noise" ß Gewichtungsfaktor
Faltungsoperator
gebildet werden.
PCT/DE2001/000261 2000-02-09 2001-01-23 Verfahren zur spracherkennung WO2001059761A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU39138/01A AU3913801A (en) 2000-02-09 2001-01-23 Speech recognition method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10005609.1 2000-02-09
DE2000105609 DE10005609C1 (de) 2000-02-09 2000-02-09 Verfahren zur Spracherkennung

Publications (1)

Publication Number Publication Date
WO2001059761A1 true WO2001059761A1 (de) 2001-08-16

Family

ID=7630282

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2001/000261 WO2001059761A1 (de) 2000-02-09 2001-01-23 Verfahren zur spracherkennung

Country Status (3)

Country Link
AU (1) AU3913801A (de)
DE (1) DE10005609C1 (de)
WO (1) WO2001059761A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0660300A1 (de) * 1993-12-27 1995-06-28 Nec Corporation Spracherkennungsgerät
US5864804A (en) * 1995-06-10 1999-01-26 U.S. Philips Corporation Voice recognition system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4325404C2 (de) * 1993-07-29 2002-04-11 Tenovis Gmbh & Co Kg Verfahren zum Ermitteln und Klassifizieren von Störgeräuschtypen
ES2161522T3 (es) * 1997-02-21 2001-12-01 Lernout & Hauspie Speechprod Eliminacion acelerada de ruido de convolucion.

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0660300A1 (de) * 1993-12-27 1995-06-28 Nec Corporation Spracherkennungsgerät
US5864804A (en) * 1995-06-10 1999-01-26 U.S. Philips Corporation Voice recognition system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHANG J ET AL: "A STUDY OF SPEECH RECOGNITION SYSTEM ROBUSTNESS TO MICROPHONE VARIATIONS", MADRID, SPAIN, SEPT. 18 - 21, 1995,MADRID: GRAFICAS BRENS,ES, vol. CONF. 4, 18 September 1995 (1995-09-18), pages 1529 - 1532, XP000854993 *
MATROUF D ET AL: "MODEL COMPENSATION FOR NOISES IN TRAINING AND TEST DATA", IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING (ICASSP),US,LOS ALAMITOS, IEEE COMP. SOC. PRESS, 21 April 1997 (1997-04-21), pages 831 - 834, XP000822576, ISBN: 0-8186-7920-4 *
NOLAZCO FLORES J A ET AL: "CONTINUOUS SPEECH RECOGNITION IN NOISE USING SPECTRAL SUBTRACTION AND HMM ADAPTION", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, ANDSIGNAL PROCESSING. (ICASSP),US,NEW YORK, IEEE, vol. 1, 19 April 1994 (1994-04-19), pages 409 - 412, XP000529412, ISBN: 0-7803-1775-9 *

Also Published As

Publication number Publication date
DE10005609C1 (de) 2001-08-09
AU3913801A (en) 2001-08-20

Similar Documents

Publication Publication Date Title
EP1143416B1 (de) Geräuschunterdrückung im Zeitbereich
DE60027438T2 (de) Verbesserung eines verrauschten akustischen signals
DE60009206T2 (de) Rauschunterdrückung mittels spektraler Subtraktion
DE69913262T2 (de) Vorrichtung und verfahren zur anpassung der rauschschwelle zur sprachaktivitätsdetektion in einer nichtstationären geräuschumgebung
DE69830017T2 (de) Verfahren und Vorrichtung zur Spracherkennung
DE69931580T2 (de) Identifikation einer akustischer Anordnung mittels akustischer Maskierung
DE69838474T2 (de) Verfahren und vorrichtung zum blinden ausgleich von übertragungskanaleffekten auf ein digitales sprachsignal
EP0747880B1 (de) Spracherkennungssystem
DE602006000109T2 (de) Verfahren und Vorrichtung zur Verringerung von Geräuschbeeinträchtigung eines alternativen Sensorsignals während multisensorischer Sprachverstärkung
DE69730721T2 (de) Verfahren und vorrichtungen zur geräuschkonditionierung von signalen welche audioinformationen darstellen in komprimierter und digitalisierter form
DE4243831A1 (de) Verfahren zur Laufzeitschätzung an gestörten Sprachkanälen
DE112017007005B4 (de) Akustiksignal-verarbeitungsvorrichtung, akustiksignalverarbeitungsverfahren und freisprech-kommunikationsvorrichtung
EP0912974A1 (de) Verfahren zur verringerung von störungen eines sprachsignals
DE69635141T2 (de) Verfahren zur Erzeugung von Sprachmerkmalsignalen und Vorrichtung zu seiner Durchführung
DE112007003625T5 (de) Echounterdrückungsvorrichtung, echounterdrückungssystem, Echounterdrückungsverfahren und Computerprogramm
DE102013011761A1 (de) Kraftfahrzeug mit einer Freisprecheinrichtung und Verfahren zur Erzeugung eines Frequenzganges für Freisprecheinrichtungen
EP2080197B1 (de) Vorrichtung zur geräuschunterdrückung bei einem audiosignal
EP3065417B1 (de) Verfahren zur unterdrückung eines störgeräusches in einem akustischen system
DE602005000897T2 (de) Eingangsschallprozessor
DE60304147T2 (de) Virtuelle Mikrophonanordnung
DE10157535B4 (de) Verfahren und Vorrichtung zur Reduzierung zufälliger, kontinuierlicher, instationärer Störungen in Audiosignalen
DE60303278T2 (de) Vorrichtung zur Verbesserung der Spracherkennung
WO2001059761A1 (de) Verfahren zur spracherkennung
EP1212751B1 (de) Verfahren zur unterdrückung von störrauschen in einem signalfeld
DE10150519B4 (de) Verfahren und Anordnung zur Sprachverarbeitung

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU BR CA CN HU IN JP KR PL RU US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP