WO2001059761A1 - Verfahren zur spracherkennung - Google Patents
Verfahren zur spracherkennung Download PDFInfo
- Publication number
- WO2001059761A1 WO2001059761A1 PCT/DE2001/000261 DE0100261W WO0159761A1 WO 2001059761 A1 WO2001059761 A1 WO 2001059761A1 DE 0100261 W DE0100261 W DE 0100261W WO 0159761 A1 WO0159761 A1 WO 0159761A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- speech
- noise
- sample
- recognition
- training
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 31
- 239000000654 additive Substances 0.000 claims description 12
- 230000000996 additive effect Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
Definitions
- the present invention relates to a method for compensating for disturbances in speech recognition systems.
- the manner of speaking of the individual speakers is therefore trained and a speech sample (training speech sample) is generated and stored, with which a current speech input (recognition speech sample) which is made at a later time is compared, so that the speech recognition system can determine whether the acoustic signal comes from the speaker or is a background noise or recognizes the content of the speech input.
- a speech recognition system is known from DE 195 21 258 AI, in which, in addition to the speech signal, an additional input signal describing the disturbance is evaluated in such a way that the information contained therein is suppressed as much as possible during recognition.
- comparison vectors are formed, which are continuously adapted to the current disturbance.
- the object on which the invention is based is to compensate for interference from signals to be processed in a speech recognition system.
- the basic idea of the method according to claim 1 is to generate features (training sample) generated during a training session of a speech recognition system for a new speaker, which are compared with a recognition speech sample generated for a speech recognition on the basis of a speech signal recorded at a later point in time, possibly with a disturbance, that occurs during the recording of the speech signal and can distort the speech signal to link analog signals, the detection sample also being generated by linking the speech signal to signals analogous to the disturbance, so that the training sample and the detection speech sample are matched to the current disturbance.
- the method according to the invention therefore ensures that when a voice signal is currently recorded in
- An estimate of the function "convolutional noise" representing the difference between a training environment and the current environment of the speech recognition system is made in particular by a mathematical description of a disturbance model based on significant features that a current speech sample has, and has the advantage that it is simple as an algorithm can be implemented and a correction (filtering or convolution with inverse function) of a changed transmission function resulting from the difference between a training environment and the current environment of the speech recognition system is made possible.
- An estimation of the current "additive noise” function, which reproduces background noises or disturbing noises, is carried out in particular by a mathematical description of a disturbance model on the basis of significant features that a current speech sample has, and also has the advantage that it can be easily implemented as an algorithm and a correction of the speech signal falsified by the background noise.
- a weighting of the signals analogous to the disturbance by multiplication with at least one factor, which is intended in particular as an adjustable parameter, the value of which is determined, for example, with the aid of measurements or by simulation, enables an optimization of the compensation, since an optimized training sample and a recognition speech sample on one another can be coordinated.
- the development according to claim 6 is easy to implement and achieves very good values in the compensation of the interference, since both "additive noise” and “convolutional noise" - by known algorithms - are estimated both with the speech signal and with the generated features
- a flow chart of the inventive method used in a speech recognition system is shown.
- the flowchart shown in the FIGURE shows the essential steps of the method according to the invention, which can be easily used in a common speech recognition system.
- the method begins with a check (query) as to whether a voice input is made via a known room microphone preamplifier system
- RMV system takes place, i.e. whether a speech signal s (t) was recorded.
- This check is carried out until a speech signal s (t) has been recorded and a speech has thus been input by a speaker.
- the speech signal s (t) is analyzed, so that an estimate of components of a "convolutional noise" n c (t) affecting the transfer function that occur during the recording of the speech signal s (t ) occurs, as well as parts of the disturbance (secondary or disturbing noise) superimposed on the speech signal, "additive noise” n a (t) is carried out.
- a "convolutional noise” n c (t) affecting the transfer function that occur during the recording of the speech signal s (t ) occurs, as well as parts of the disturbance (secondary or disturbing noise) superimposed on the speech signal.
- a comparison of the optimized training sample s ⁇ _ op t (t) and the recognition sample s E (t) is carried out according to an algorithm for speech recognition known to the experts from a comparison of a training sample and a recognition sample for speech recognition.
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Die während eines Trainings eines Spracherkennungssystems auf einen neuen Sprecher generierten Merkmale (Trainingsprobe), die mit einer auf Basis eines zu einem späteren Zeitpunkt aufgenommenen Sprachsignals erzeugten Erkennungsprobe für eine Spracherkennung verglichen werden, gegebenenfalls mit zu einer Störung, die während der Aufnahme des Sprachsignals auftritt und das Sprachsignal verfälschen kann, analogen Signalen zu verknüpfen, wobei sie auf die Erkennungsprobe, die ebenfalls durch Verknüpfung des Sprachsignals mit zu der Störung analogen Signalen generiert wird, abgestimmt ist.
Description
Beschreibung
Verfahren zur Spracherkennung
Die vorliegende Erfindung betrifft ein Verfahren zur Kompensation von Störungen in Spracherkennungssystemen .
Die rasante technische Entwicklung im Bereich der Telekommunikation, insbesondere der Mobilkommunikation, hat in den letzten Jahren zu einer ständig erhöhten Anforderung an die Sprachverarbeitung geführt .
Insbesondere in Spracherkennungssystemen wird daher die Sprechweise der einzelnen Sprecher trainiert und eine Sprach- probe (Trainingssprachprobe) erzeugt und gespeichert, mit der eine zu einem späteren Zeitpunkt erfolgende aktuelle Spracheingabe (Erkennungssprachprobe) verglichen wird, so daß das Spracherkennungssystem feststellen kann, ob das akustische Signal vom Sprecher stammt oder ein Nebengeräusch ist bzw. den Inhalt der Spracheingabe erkennt.
Da die Spracheingabe in Spracherkennungssystemen nicht immer über dasselbe System aus Raum-Mikrofon-Vorverstärker (RMV- System) erfolgt und sich die Umgebung bzw. die Störgeräusch- kulisse, insbesondere bei der Mobilkommunikation, häufig ändert, so daß die Sprache bei der Spracheingabe durch verschiedenartige Übertragungsfunktionen und Störgeräusche (in der englischen Literatur, Saeed V.Vaseghi, "Advanced Signal Processing and Digital Noise Reduction" , Stuttgart, 1996, Teubner B. G., mit "convolutional noise" und "additive noise" bezeichnet) , beeinflußt wird, ergibt sich eine Variation der signifikanten Merkmale der Sprache, die wiederum zu einer Degradation der Erkennungsrate des Spracherkennungssystems bzw. einer Obstruktion der Spracherkennung führen.
Zur Vermeidung der beschriebenen Probleme sind verschiedene Ansätze bekannt, die sich im wesentlichen dadurch auszeich-
nen, daß das Störsignal, mit dem das beispielsweise durch ein Mikrofon aufgenommene Sprachsignal behaftet ist, geschätzt und eine Erkennungssprachprobe, beispielsweise durch Subtraktion (z.B. spektrale Subtraktion) des geschätzten "additive noise" und Faltung (z.B. mit Wiener Filter, Inversfilter) mit dem inversen geschätzten "convolutional noise" gemäß folgender Formel
sE(t) (nc(t)* s(t) )*nc (t) " + na(t) - na est (t!
s(t) Sprachsignal sτ(t) Trainingssprachprobe sE(t) Erkennungssprachprobe nc(t) "convolutional noise" na(t) "additive noise" nc_est ( t ) geschätztes (estimated) "convolutional noise" na_est ( ) geschätztes (estimated) "additional noise" * Faltungsoperator
erzeugt wird, wobei die Erkennungssprachprobe mit der Trainingssprachprobe verglichen wird.
Diese Ansätze haben den Nachteil, daß die beiden Arten der Störung lediglich geschätzt, jedoch nicht exakt vorhergesagt werden können.
Zur Optimierung dieser Ansätze sind zwar Verfahren bekannt, bei dem eine bzw. die für den späteren Einsatz eines Sprach- erkennungssystems zu erwartende Störgeräuschkulisse bzw. Störgeräusche während des Trainings simuliert wird, so daß die Trainingssprachprobe möglichst viel Informationen über die zu erwartenden akustischen Bedingungen während der Anwen- düng des Spracherkennungssystems enthält.
Dennoch weisen alle genannten Verfahren das grundlegende Problem auf, daß sich die akustischen Bedingungen während des Trainings und während der späteren Anwendung (Spracheingabe) unterscheiden, da die tatsächlichen akustischen Bedingungen während einer Spracheingabe nicht exakt vorausgesagt werden können.
Aus der DE 195 21 258 AI ist ein Spracherkennungssystem bekannt, bei dem neben dem Sprachsignal ein zusätzliches, die Störung beschreibendes Eingabesignal so ausgewertet wird, dass die darin enthaltene Information bei der Erkennung möglichst unterdrückt wird. Dazu werden Vergleichsvektoren gebildet, die fortlaufend an die momentane Störung angepasst werden.
Die der Erfindung zugrunde liegende Aufgabe besteht darin, Störungen von in einem Spracherkennungssystem zu verarbeitender Signale zu kompensieren.
Diese Aufgabe wird durch die Merkmale des Verfahrensanspruchs 1 gelöst.
Grundgedanke des Verfahrens gemäß Anspruch 1 ist es, während eines Trainings eines Spracherkennungssystems auf einen neuen Sprecher generierte Merkmale (Trainingsprobe) , die mit einer auf Basis eines zu einem späteren Zeitpunkt aufgenommenen Sprachsignals erzeugten Erkennungssprachprobe für eine Spracherkennung verglichen wird, gegebenenfalls mit zu einer Störung, die während der Aufnahme des Sprachsignals auftritt und das Sprachsignal verfälschen kann, analogen Signalen zu verknüpfen, wobei die Erkennungsprobe ebenfalls durch Verknüpfung des Sprachsignals mit zu der Störung analogen Signalen generiert wird, so daß Trainingsprobe und Erkennungs- sprachprobe auf die aktuelle Störung abgestimmt sind.
Durch das erfindungsgemäße Verfahren wird daher gewährleistet, daß die bei der aktuellen Aufnahme eines Sprachsignals
in
ergibt, so daß die Qualität und die Quantität der Erkennungsrate deutlich steigt.
Eine Schätzung einer den Unterschied zwischen einer Trai- ningsumgebung und aktuellen Umgebung des SpracherkennungsSystems wiedergebenden Funktion "convolutional noise" erfolgt insbesondere durch eine mathematische Beschreibung eines Störungsmodells anhand signifikanter Merkmale, die eine aktuelle Sprachprobe aufweist, und hat den Vorteil, daß sie sich als Algorithmus einfach implementieren läßt sowie eine Korrektur (Filterung bzw. Faltung mit inverser Funktion) einer sich durch den Unterschied zwischen einer Trainingsumgebung und aktuellen Umgebung des Spracherkennungssystems ergebenden veränderten Übertragungsfunktion ermöglicht.
Eine Schätzung der aktuellen Neben- bzw. Störgeräusche wiedergebenden Funktion "additive noise" erfolgt insbesondere durch eine mathematische Beschreibung eines Störungsmodells anhand signifikanter Merkmale, die eine aktuelle Sprachprobe aufweist, und hat ebenfalls den Vorteil, daß sie sich als Algorithmus einfach implementieren läßt sowie eine Korrektur des durch die Neben- bzw. Störgeräusche verfälschten Sprachsignals ermöglicht.
Die Schätzung und Verknüpfung sowohl von "convolutional noise" als auch "additive noise" verbessert die Kompensation von Störungen.
Eine Gewichtung der zur Störung analogen Signale durch Multi- plikation mit mindestens einem Faktor, der insbesondere als einstellbarer Parameter, dessen Wert beispielsweise mit Hilfe von Messungen oder durch Simulation ermittelt wird, gedacht ist, ermöglicht eine Optimierung der Kompensation, da optimierte Trainingsprobe und Erkennungssprachprobe aufeinander abgestimmt werden können.
Die Weiterbildung gemäß Anspruch 6 ist einfach zu implementieren und erzielt sehr gute Werte bei der Kompensation der Störung, da sowohl "additive noise" als auch "convolutional noise" - durch bekannte Algorithmen - geschätzt sowohl mit dem Sprachsignal als auch mit den generierten Merkmalen
(Trainingsprobe) verknüpft wird, so daß die auftretende Störung im Idealfall sogar vollständig kompensiert wird.
Ein Ausführungsbeispiel der Erfindung wird anhand der einzi- gen FIGUR erläutert. Diese zeigt:
Ein Ablaufdiagramm des in einem Spracherkennungssystem eingesetzten erfindungsgemäßen Verfahrens.
Das in der FIGUR dargestellte Ablaufdiagramm gibt die wesentlichen Schritte des erfindungsgemäßen Verfahrens, welches in einem gängigen Spracherkennungssystem ohne weiteres eingesetzt werden kann.
Bei dem dargestellten Ausführungsbeispiel beginnt das Verfahren mit der Überprüfung (Abfrage) , ob eine Spracheingabe, welche über ein bekanntes Raum-Mikrofon-Vorverstarkersystem
(RMV-System) stattfindet, erfolgt ist, d.h. ob ein Sprachsignal s(t) aufgenommen wurde.
Diese Überprüfung wird solange durchgeführt, bis ein Sprach- signal s(t) aufgenommen wurde und somit eine Spracheingabe durch einen Sprecher erfolgt ist.
Ist die Spracheingabe erfolgt, wird das Sprachsignal s(t) a- nalysiert, so daß eine Schätzung von sich auf die Übertra- gungsfunktion auswirkender Anteile einer Störung "convolutional noise" nc(t), die während der Aufnahme des Sprachsignals s(t) auftritt, sowie sich dem Sprachsignal überlagernder Anteile der Störung (Neben- bzw. Störgeräusch) "additive noise" na(t) durchgeführt wird. (Die Verfahrensschritte der Analyse
und Schätzung sind der Fachwelt bekannt und werden daher an dieser Stelle nicht näher erläutert.)
Mit dem geschätzten "convolutional noise" nc_est(t) und dem geschätzten "additive noise" na_est(t) wird in einem nächsten Schritt eine Erkennungsprobe sE(t) gemäß der Formel
sowie aus einer gespeicherten Trainingsprobe sτ(t) in Verbindung mit dem geschätzten "convolutional noise" nc_est(t) und dem geschätzten "additive noise" na_est(t) eine optimierte Trainingsprobe sτ_opt (t) gemäß der Formel
sτ_opt (t) = (Sτ(t)*(l-ß)nc_eβt(t)) + (l-ß)na_est(t)
gebildet, wobei folgende Definitionen gelten:
s ( t ) Sprachsignal sτ (t) Trainingssprachprobe sT_opt ( t , optimierte Trainingssprachprobe sE (t ) Erkennungssprachprobe nc (t) "convolutional noise" na (t ) "additive noise" n-c_est \ - 1 geschätztes (estimated) "convolutional noise" na est ( t ] geschätztes (estimated) "additional noise"
Gewichtungsfaktor
Faltungsoperator
In einem letzen Schritt wird ein Vergleich von optimierter Trainingsprobe sτ_opt (t) und Erkennungsprobe sE(t) gemäß einem der Fachwelt bekannten Algorithmus zur Spracherkennung aus Vergleich von einer Trainingsprobe und einer Erkennungsprobe zur Spracherkennung durchgeführt .
Claims
1. Verfahren zur Spracherkennung, mit folgenden Merkmalen: a) Durch Verknüpfung eines aktuellen Sprachsignals (s(t)) mit mindestens einer eine Störung (na(t), nc(t)) des
Sprachsignals darstellenden Größe wird eine Erkennungssprachprobe (sE(t)) erzeugt, b) durch Verknüpfung einer dem Spracherkennungssystem bekannten Trainingssprachprobe (sτ(t)) mit mindestens einer die Störung (na(t), nc(t)) darstellenden Größe wird eine optimierte Trainingssprachprobe (sτ_opt (t)) erzeugt, c) die die Störung (na(t), nc(t)) darstellende Größe wird durch Schätzung einer den Unterschied zwischen einer Trainingsumgebung und aktuellen Umgebung des Spracherken- nungssystems wiedergebenden Funktion "convolutional noise" (nc_est(t)) ermittelt, d) die optimierte Trainingssprachprobe (sτ_opt (t) ) und die Erkennungssprachprobe (sE(t)) werden einem Spracherken- nungsverfahren zugeführt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß a) eine erste die Störung (na(t), nc(t)) darstellende Größe durch Schätzung einer den Unterschied zwischen einer Trainingsumgebung und einer Aufnahme des Sprachsignals (s(t)) aktuellen Umgebung des Spracherkennungssystems wiedergebenden Funktion "convolutional noise" (nc_eΞt(t)) ermittelt wird, b) eine zweite die Störung (na(t), nc(t)) darstellende Größe durch Schätzung einer die aktuellen Neben- bzw. Störgeräusche wiedergebenden Funktion "additive noise" (na_est(t)) ermittelt wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, da- durch gekennzeichnet, daß die die Störung (na (t ) , nc(t)) darstellende Größe durch Multiplikation mit mindestens einem Faktor gewichtet wird.
4. Verfahren nach Anspruch 5, dadurch gekennzeichnet , daß die Erkennungs sprachprobe (sE(t)) gemäß der Formel
sE(t) = (nc(t)* s(t) )* ßnc_est(t)-1 + na(t) - ßna_est(t)
und die optimierte Trainingssprachprobe (sτ_opt (t) ) gemäß der Formel
sτ_opt (t) = (sτ(t)*(l-ß)nc_est(t) ) + (l-ß)na_est(t)
mit
s(t) Sprachsignal
Sχ(t) Trainingssprachprobe Sτ_opt ( ) optimierte Trainingssprachprobe sE(t) Erkennungssprachprobe nc(t) "convolutional noise" na(t) "additive noise" nc_est ( t ) geschätztes "convolutional noise" na_est ( t ) geschätztes "additional noise" ß Gewichtungsfaktor
Faltungsoperator
gebildet werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU39138/01A AU3913801A (en) | 2000-02-09 | 2001-01-23 | Speech recognition method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10005609.1 | 2000-02-09 | ||
DE2000105609 DE10005609C1 (de) | 2000-02-09 | 2000-02-09 | Verfahren zur Spracherkennung |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2001059761A1 true WO2001059761A1 (de) | 2001-08-16 |
Family
ID=7630282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/DE2001/000261 WO2001059761A1 (de) | 2000-02-09 | 2001-01-23 | Verfahren zur spracherkennung |
Country Status (3)
Country | Link |
---|---|
AU (1) | AU3913801A (de) |
DE (1) | DE10005609C1 (de) |
WO (1) | WO2001059761A1 (de) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0660300A1 (de) * | 1993-12-27 | 1995-06-28 | Nec Corporation | Spracherkennungsgerät |
US5864804A (en) * | 1995-06-10 | 1999-01-26 | U.S. Philips Corporation | Voice recognition system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4325404C2 (de) * | 1993-07-29 | 2002-04-11 | Tenovis Gmbh & Co Kg | Verfahren zum Ermitteln und Klassifizieren von Störgeräuschtypen |
ES2161522T3 (es) * | 1997-02-21 | 2001-12-01 | Lernout & Hauspie Speechprod | Eliminacion acelerada de ruido de convolucion. |
-
2000
- 2000-02-09 DE DE2000105609 patent/DE10005609C1/de not_active Expired - Fee Related
-
2001
- 2001-01-23 AU AU39138/01A patent/AU3913801A/en not_active Abandoned
- 2001-01-23 WO PCT/DE2001/000261 patent/WO2001059761A1/de active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0660300A1 (de) * | 1993-12-27 | 1995-06-28 | Nec Corporation | Spracherkennungsgerät |
US5864804A (en) * | 1995-06-10 | 1999-01-26 | U.S. Philips Corporation | Voice recognition system |
Non-Patent Citations (3)
Title |
---|
CHANG J ET AL: "A STUDY OF SPEECH RECOGNITION SYSTEM ROBUSTNESS TO MICROPHONE VARIATIONS", MADRID, SPAIN, SEPT. 18 - 21, 1995,MADRID: GRAFICAS BRENS,ES, vol. CONF. 4, 18 September 1995 (1995-09-18), pages 1529 - 1532, XP000854993 * |
MATROUF D ET AL: "MODEL COMPENSATION FOR NOISES IN TRAINING AND TEST DATA", IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING (ICASSP),US,LOS ALAMITOS, IEEE COMP. SOC. PRESS, 21 April 1997 (1997-04-21), pages 831 - 834, XP000822576, ISBN: 0-8186-7920-4 * |
NOLAZCO FLORES J A ET AL: "CONTINUOUS SPEECH RECOGNITION IN NOISE USING SPECTRAL SUBTRACTION AND HMM ADAPTION", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, ANDSIGNAL PROCESSING. (ICASSP),US,NEW YORK, IEEE, vol. 1, 19 April 1994 (1994-04-19), pages 409 - 412, XP000529412, ISBN: 0-7803-1775-9 * |
Also Published As
Publication number | Publication date |
---|---|
DE10005609C1 (de) | 2001-08-09 |
AU3913801A (en) | 2001-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1143416B1 (de) | Geräuschunterdrückung im Zeitbereich | |
DE60027438T2 (de) | Verbesserung eines verrauschten akustischen signals | |
DE60009206T2 (de) | Rauschunterdrückung mittels spektraler Subtraktion | |
DE69913262T2 (de) | Vorrichtung und verfahren zur anpassung der rauschschwelle zur sprachaktivitätsdetektion in einer nichtstationären geräuschumgebung | |
DE69830017T2 (de) | Verfahren und Vorrichtung zur Spracherkennung | |
DE69931580T2 (de) | Identifikation einer akustischer Anordnung mittels akustischer Maskierung | |
DE69838474T2 (de) | Verfahren und vorrichtung zum blinden ausgleich von übertragungskanaleffekten auf ein digitales sprachsignal | |
EP0747880B1 (de) | Spracherkennungssystem | |
DE602006000109T2 (de) | Verfahren und Vorrichtung zur Verringerung von Geräuschbeeinträchtigung eines alternativen Sensorsignals während multisensorischer Sprachverstärkung | |
DE69730721T2 (de) | Verfahren und vorrichtungen zur geräuschkonditionierung von signalen welche audioinformationen darstellen in komprimierter und digitalisierter form | |
DE4243831A1 (de) | Verfahren zur Laufzeitschätzung an gestörten Sprachkanälen | |
DE112017007005B4 (de) | Akustiksignal-verarbeitungsvorrichtung, akustiksignalverarbeitungsverfahren und freisprech-kommunikationsvorrichtung | |
EP0912974A1 (de) | Verfahren zur verringerung von störungen eines sprachsignals | |
DE69635141T2 (de) | Verfahren zur Erzeugung von Sprachmerkmalsignalen und Vorrichtung zu seiner Durchführung | |
DE112007003625T5 (de) | Echounterdrückungsvorrichtung, echounterdrückungssystem, Echounterdrückungsverfahren und Computerprogramm | |
DE102013011761A1 (de) | Kraftfahrzeug mit einer Freisprecheinrichtung und Verfahren zur Erzeugung eines Frequenzganges für Freisprecheinrichtungen | |
EP2080197B1 (de) | Vorrichtung zur geräuschunterdrückung bei einem audiosignal | |
EP3065417B1 (de) | Verfahren zur unterdrückung eines störgeräusches in einem akustischen system | |
DE602005000897T2 (de) | Eingangsschallprozessor | |
DE60304147T2 (de) | Virtuelle Mikrophonanordnung | |
DE10157535B4 (de) | Verfahren und Vorrichtung zur Reduzierung zufälliger, kontinuierlicher, instationärer Störungen in Audiosignalen | |
DE60303278T2 (de) | Vorrichtung zur Verbesserung der Spracherkennung | |
WO2001059761A1 (de) | Verfahren zur spracherkennung | |
EP1212751B1 (de) | Verfahren zur unterdrückung von störrauschen in einem signalfeld | |
DE10150519B4 (de) | Verfahren und Anordnung zur Sprachverarbeitung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AK | Designated states |
Kind code of ref document: A1 Designated state(s): AU BR CA CN HU IN JP KR PL RU US |
|
AL | Designated countries for regional patents |
Kind code of ref document: A1 Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
122 | Ep: pct application non-entry in european phase | ||
NENP | Non-entry into the national phase |
Ref country code: JP |