WO2005069278A1 - Verfahren und vorrichtung zur bearbeitung eines sprachsignals für die robuste spracherkennung - Google Patents

Verfahren und vorrichtung zur bearbeitung eines sprachsignals für die robuste spracherkennung Download PDF

Info

Publication number
WO2005069278A1
WO2005069278A1 PCT/EP2004/052427 EP2004052427W WO2005069278A1 WO 2005069278 A1 WO2005069278 A1 WO 2005069278A1 EP 2004052427 W EP2004052427 W EP 2004052427W WO 2005069278 A1 WO2005069278 A1 WO 2005069278A1
Authority
WO
WIPO (PCT)
Prior art keywords
speech
noise
speech signal
signal
suppressed
Prior art date
Application number
PCT/EP2004/052427
Other languages
English (en)
French (fr)
Inventor
Tim Fingscheidt
Panji Setiawan
Sorel Stan
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP04791139A priority Critical patent/EP1704561A1/de
Priority to US10/585,747 priority patent/US20080228477A1/en
Publication of WO2005069278A1 publication Critical patent/WO2005069278A1/de

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Definitions

  • the invention relates to a method and a device for processing a speech signal, which has noise, for a subsequent speech recognition.
  • Speech recognition is increasingly used to facilitate the operation of electrical devices.
  • a so-called acoustic model must be created.
  • voice commands are trained, which can be done at the factory, for example, in the case of speaker-independent speech recognition.
  • Training means that so-called feature vectors describing the voice command are created on the basis of multiple speaking of a voice command.
  • feature vectors which are also called prototypes
  • HMM Hidden Markov Model
  • the acoustic model serves to determine the probability of the observed feature vectors 25 (during the recognition) of a given sequence of voice commands or words selected from the vocabulary.
  • a so-called language model is used for speech recognition or recognition of the flowing language, which specifies the probability of individual words being successive in the language to be recognized.
  • the aim of current improvements in speech recognition is to gradually achieve better speech recognition rates, ie to increase the probability that a word or voice command spoken by a user of the mobile communication device will also be recognized as this becomes.
  • this speech recognition is used in many ways, it is also used in environments that are disturbed by noise. In this case, the speech recognition rates drop drastically, since the feature vectors located in the acoustic model, for example the HMM, are based on pure, i.e. speech created with noises. This leads to unsatisfactory speech recognition in noisy environments, such as on the street, in busy buildings or even in the car.
  • the speech signal is processed before it is, for example, fed to speech recognition.
  • the speech signal is noise-suppressed.
  • the voice signal is regarding its
  • the voice signal here comprises one or more voice commands.
  • the voice signal can optionally also be supplied to a unit for determining the voice activity. Because of this noise-reduced Speech signal is then determined whether there is speech or a speech pause.
  • the standardization factor for signal level normalization is determined depending on this. In particular, the normalization factor can be set in such a way that speech pauses are suppressed more. This makes the difference between speech signal sections in which speech is present and those in which there is no (speech pauses) even clearer. This facilitates speech recognition.
  • a method with the features described above can also be used in so-called distributed speech recognition systems.
  • a distributed speech recognition system is characterized in that not all steps in the context of speech recognition are carried out in the same component. So more than one component is required.
  • one component can be a communication device and another component can be an element of a communication network.
  • the voice signal detection takes place in a communication device designed as a mobile station, whereas the actual voice recognition takes place in the communication network element on the network side.
  • This method can be used for speech recognition as well as for the creation of the acoustic model, for example an HMM.
  • An application already during the creation of acoustic models shows a further increase in the speech recognition rate in connection with a speech recognition which is based on a signal preprocessed according to the invention.
  • Fig.l A histogram, in which voice signals containing one or more voice commands are plotted against their signal level, in the case of training to create an acoustic model
  • Fig. 2 A histogram of speech signals versus their signal level in the event of speech recognition
  • 3 A schematic configuration of a processing according to the invention
  • Fig. 4 A histogram in which the noise-reduced and speech-level-normalized speech signal is plotted against the speech signal level
  • 5 shows a histogram in which the noise-reduced speech signal is plotted against the signal level
  • 6 shows a histogram in which the speech signal is preprocessed according to the invention during training
  • 7 shows the diagram of a distributed speech processing
  • Fig. 8 An electrical device which can be used in the context of a distributed speech processing.
  • FIG. 8 shows an electrical device designed as a mobile phone or mobile station MS. It has a microphone M for recording voice signals containing voice commands, a processor unit CPU for processing the voice signals and a radio interface FS for transmitting data, for example processed voice signals.
  • the electrical device alone or in conjunction with other components, can implement voice recognition with regard to the recorded or recorded voice command.
  • a histogram can be seen in FIG. 1, in which speech signals which contain one or more speech commands have been sorted with respect to their signal level L and this frequency H has been plotted against the signal level or level L.
  • a speech signal S contains, e.g. is referred to in the following figures, one or more voice commands.
  • the voice signal contains a voice command.
  • a voice command can be formed, for example, in the case of an electrical device designed as a mobile phone by the request “call” and optionally a specific name.
  • a voice command must be sent to a
  • HMM's instead, which is already done by the manufacturer. These feature vectors will later be used for speech recognition.
  • the training of voice commands is carried out at a defined signal level or volume level ("single level training").
  • single level training In order to optimally utilize the dynamic range of the AD converter for converting the voice signal into a digital signal, it is preferred to work at -26 dB.
  • decibels (dB) results from the bits available for the signal level. So 0 dB would mean an overflow (i.e. exceeding the maximum volume or the maximum level).
  • dB decibels
  • 0 dB would mean an overflow (i.e. exceeding the maximum volume or the maximum level).
  • training at several signal levels for example at -16, -26 and -36 dB can be performed.
  • 1 shows the frequency distribution of the speech level for a speech command for training.
  • the result for a voice command is an average signal value X me and a certain distribution of the levels of the voice signal. This can be represented as a Gaussian function with the mean signal level X mean and a variance ⁇ .
  • FIG. 2 After the distribution of the voice commands for a training situation can be seen in FIG. 1, the situation in the case of speech recognition is shown in FIG. 2, which in turn indicates the frequency H compared to the signal level L corresponding to FIG. 1:
  • the speech signal S ' is shown here. with one or more voice commands, as it is referred to in the following figures, sorted with regard to its signal level L and the frequency H plotted.
  • Table 1 Training with pure language at different volume levels or signal levels (multi-level).
  • the speech recognition rates refer to the test speech, which was normalized to the signal levels -16, -26, -36 dB.
  • Table 1 shows the speech recognition rate
  • the test language that is to say the speech signal from FIG. 1, was standardized to three different levels or levels at -16 dB, -26 dB and -36 dB.
  • the speech recognition rates for different types of noise are shown with a noise level of 5 dB.
  • the different noises are typical ambient noises such as U-
  • babble noise i.e. e.g. a cafeteria environment with speech and other noises, the background noise in a car or "car”, as well as an exhibition environment ("similar to Babble Noise only possibly worse with announcements, music etc.). From Table 1 it can be seen that speech recognition in noise-free speech is largely unaffected by variations in the test speech energy level. However, a significant drop in speech recognition can be seen for noisy speech.
  • the voice command or speech signal S e.g. a word spoken by a person experiences noise suppression NR. After this noise suppression NR, there is a noise-suppressed speech signal S '.
  • the noise-reduced speech signal S is then subjected to a signal level normalization or normalization of the signal value SLN.
  • This standardization is used to produce a signal value that is comparable to the average signal value, which is marked Xmean in FIG. 1. It has been found that higher speech recognition rates can be achieved with comparable signal mean values, which means that this shift in the signal value already increases the speech recognition rate.
  • a standardized and noise-reduced voice signal S '' is available. This can e.g. in the case of a speech recognition SR with a higher speech recognition rate, even in the case of a test language originally containing noise, can be used.
  • the noise-reduced signal S ' is split up and, in addition to the signal value normalization SLN, also flows to a voice activity determination unit or "Voice Activity Detection" VAD.
  • VAD Voice Activity Detection
  • the normalization value with which the noise-reduced speech signal S 1 is normalized is set become.
  • a smaller multiplicative normalization factor can be used in speech pauses, as a result of which the signal level of the noise-reduced speech signal S 'is reduced more during speech pauses than during the presence of speech. This enables a stronger distinction between speech, for example individual speech commands, and speech pauses, which further improves downstream speech recognition with regard to the speech recognition rate.
  • noise reduction or noise suppression NR for example those operating in the frequency domain Methods.
  • Such a method is described in "Computationally efficient speech enhancement using RLS and psycho-acoustic motivated algorithm” by Ch. Beaugeant et al. in Proceedings of 6th World Multi-conference on Systemics, Cybernetics and Informatics, Orlando 2002.
  • the system described there is based on an analysis-by-synthesis system, in which the parameters describing the (pure) speech signal and the noise signal are recursively extracted (see section 2 "Noise Reduction in the Frequency Domain", section 3 "Recursive” Implementation of the least square algorithm ").
  • the pure speech signal obtained in this way is further weighted (see section 4 "Practical RLS Weighting Rule") and the power of the noise signal is estimated (see section 5 "Noise Power Estimation”).
  • the result obtained can be refined using psychoacoustically motivated methods (Section 6: “Psychoacoustic motivated method”). Further noise reduction methods that can be used according to an embodiment according to FIG. 3 are described for example in ETSI ES 202 0505 VI.1.1 from October 2002 in section 5.1 ("Noise Reduction").
  • a speech signal S which has not been processed with respect to noise suppression NR and signal level normalization SN forms the basis for the frequency distributions in FIGS. 1 (training situation) and 2 (test situation, i.e. for speech recognition).
  • the noise-reduced voice signal S ' is the basis of the frequency distribution in FIG. 5.
  • the noise-reduced and signal-level-standardized signal forms the basis of the distributions in FIGS. 4 (test situation) and 5 (training situation).
  • FIG. 5 shows a frequency distribution for a noise-reduced speech signal S ', as occurs, for example, in FIG. 3 after the noise suppression NR.
  • FIG. 2 which relates, for example, to the frequency distribution for a speech signal S shown in FIG. 3, noise suppression NR was thus carried out.
  • the center of the frequency distribution of this noise-reduced speech signal S 'compared to the speech level L is at an average x mean ' • Die
  • Distribution has a wide ⁇ '.
  • a signal level normalization SLN is carried out on the noise-reduced speech signal S ′ shown in FIG. 5.
  • the speech signal on which the distribution in FIG. 4 is based would thus correspond, for example, to the noise-reduced and signal-level-normalized speech signal S 1 '.
  • Signal level normalization brings the actual signal level in FIG. 5 to a desired signal level, for example the signal level marked X mean in FIG. 1 and achieved during training. Furthermore, the
  • Signal level normalization SLN means that the distribution becomes narrower, ie that ⁇ '' is smaller than ⁇ '. This allows the average signal level x m ea n '' in Fig. 4 will be more readily reacted with the average signal level in Xmean. Fig. 1, which has been achieved in practice to cover. This leads to higher speech recognition rates.
  • the speech recognition can take place in one component or distributed over several components.
  • means for detecting the speech signal for example the microphone M shown in FIG.
  • Means for noise suppression NR and means for signal level normalization SN are located.
  • the latter can be implemented as part of the processor unit CPU.
  • the idea of a voice signal processing shown in FIG. 3 according to an embodiment of the invention and the subsequent voice recognition in a mobile radio device or mobile station can thus be implemented alone or in connection with an element of a communication network.
  • the speech recognition SR takes place on the network side itself.
  • the feature vectors created from a voice signal S ′′ are transmitted via a channel, in particular a radio channel, to a central unit in the network.
  • the speech recognition is then found there on the basis of the transmitted feature vectors
  • the proposed speech recognition can be applied to speaker-independent speech recognition, as is carried out in the context of the so-called Aurora scenario.
  • a further improvement results if voice commands are standardized with regard to their signal level during the factory production of the acoustic model or during training. This makes the distribution of the signal levels narrower, which results in an even better match between the distribution shown in FIG. 4 and the distribution achieved in training.
  • the resulting training mean value X mean _ new coincides with the mean value x mean '' (FIG.
  • DSR 7 shows a distributed speech recognition or "distributed speech recognition" (DSR).
  • DSR distributed speech recognition
  • Distributed speech recognition can be used, for example, in the AURORA project of the ETSI STQ (Speech Transmission Quality) already mentioned.
  • a speech signal for example a speech command
  • feature vectors describing this speech signal are created.
  • These feature vectors are transmitted to another unit, for example a network server.
  • the feature vectors are processed there and speech recognition is carried out on the basis of these feature vectors.
  • FIG. 7 shows a mobile station MS as the first unit or component and a network element NE.
  • the mobile station MS which is also referred to as a terminal, has means AFE for terminal-based preprocessing, which is used to create the feature vectors.
  • the mobile station MS is a
  • the AFE agent for terminal-based preprocessing is, for example, the "Advanced Front End" discussed in the AURORA project.
  • the means AFE for terminal-based preprocessing includes means for standard processing of speech signals. This standard speech processing is shown, for example, in the specification ETSI ES 202050 VI.1.1 from October 2002 4.1 described. On the mobile station side, the standard speech processing includes a feature extraction with the steps of noise reduction, signal form or "waveform processing", cepstrum calculation and a concealed compensation or "blind equalization”. A compression of the features and a preparation for the transfer then take place. This processing is known to the person skilled in the art, which is why it is not discussed in more detail here. According to one embodiment of the invention, the means AFE for terminal-based preprocessing also include means for signal level normalization and voice activity detection, so that preprocessing according to FIG. 3 is realized.
  • Feature vector compression Terminal-based preprocessing AFE the one or more feature vectors which are created from the voice command are compressed for the purpose of transmission over a channel CH.
  • the other unit is formed, for example, by a network server as a network element NE.
  • the feature vectors are decompressed again using means FDC for feature vector decompression.
  • server-side preprocessing takes place via means SSP, in order to then carry out speech recognition on the basis of a hidden Markov model HMM using means SR for speech recognition.
  • Tables 1 to 2 show speech recognition rates for different training of the voice commands as well as different speech levels or volumes which are used for speech recognition (test language).
  • Table 2 now shows the speech recognition rates for different energy levels of the test language. The training took place at a language energy level of -26 dB.
  • the test speech was subjected to noise suppression and speech level normalization according to FIG. 3. It can be seen from Table 2 that the speech recognition rates for pure speech are again consistently high.
  • the main improvement over the previous speech recognition process is that the difference in the speech recognition rates for noise-laden speech (for a signal-to-noise ratio or "signal-to-noise ratio" of 5 dB) as shown in Table 1 depends on the energy level of the test speech is canceled.
  • the "Advanced Front End" described above was used for speech recognition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Noise Elimination (AREA)

Abstract

Die Erfindung betrifft Verfahren zur Bearbeitung eines geräuschbehafteten Sprachsignals (S) für eine nachfolgende Spracherkennung (SR), wobei das Sprachsignal (S) zumindest ein Sprachkommando repräsentiert, mit folgenden Schritten: a) Erfassen des geräuschbehafteten Sprachsignals (S); b) Anwendung einer Geräuschunterdrückung (NR) auf das Sprachsignal (S) zur Generierung eines geräuschunterdrückten Sprachsignals (S’); c) Normieren des geräuschunterdrückten Sprachsignals (S1) mittels eines Normierungsfaktors auf einen Soll-Signalwert zur Generierung eines geräuschunterdrückten, normierten Sprachsignals (S' ').

Description

VERFAHREN UND VOORICHTUNG ZUR BEARBEITUNG EINES SPRACHSIGNALS FÜR DIE ROBUSTE SPRACHERKENNUNG
5 Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bearbeitung eines Sprachsignals, welches Rauschen aufweist, für eine anschließende Spracherkennung.
Spracherkennung wird in zunehmendem Maße eingesetzt, um die 10 Bedienung von elektrischen Geräten zu erleichtern. Um eine Spracherkennung zu ermöglichen, muss ein sogenanntes akustisches Modell erstellt werden. Dazu werden Sprachkommandos trainiert, was beispielsweise - für den Fall einer sprecherunabhängigen Spracherkennung -schon werkseitig 15 erfolgen kann. Unter Training versteht man dabei, dass auf der Basis von mehrfachem Sprechen eines Sprachkommandos sogenannte, das Sprachkommando beschreibende, Merkmalsvektoren erstellt werden. Diese Merkmalsvektoren (die auch Prototypen genannt werden) werden dann in dem 20 akustischen Modell, beispielsweise einem sogenannten HMM (Hidden Markov Modell) gesammelt. Das akustische Modell dient dazu einer gegebenen Folge von aus dem Vokabular ausgewählten Sprachkommandos bzw. Wörtern die Wahrscheinlichkeit der beobachteten Merkmalsvektoren 25 (während der Erkennung) zu ermitteln.
Zur Spracherkennung bzw. Erkennung der fließenden Sprache wird neben einem akustischen Modell auch ein sogenanntes Sprachmodell benutzt, das die Wahrscheinlichkeit des 30 Aufeinanderfolgens einzelner Wörter in der zu erkennenden Sprache angibt.
Ziel von derzeitigen Verbesserungen bei der Spracherkennung ist es, nach und nach bessere Spracherkennungsraten zu 35 erzielen, d.h. die Wahrscheinlichkeit zu erhöhen, dass ein von einem Benutzer des mobilen Kommunikationsgeräts gesprochenes Wort oder Sprachkommando auch als dieses erkannt wird.
Da diese Spracherkennung vielseitig eingesetzt wird, erfolgt die Benutzung auch in Umgebungen, die durch Geräusch gestört sind. In diesem Fall sinken die Spracherkennungsraten drastisch, da die im akustischen Modell, beispielsweise dem HMM befindlichen Merkmalsvektoren auf Basis von reiner, d.h. nicht mit Rauschen behafteter Sprache erstellt wurden. Dies führt zu einer unbefriedigenden Spracherkennung in lauten Umgebungen, wie etwa auf der Straße, in viel besuchten Gebäuden oder auch im Auto.
Ausgehend von diesem Stand der Technik ist es Aufgabe der Erfindung, eine Möglichkeit zu schaffen, Spracherkennung auch in geräuschbehafteten Umgebungen mit einer hohen Spracherkennungsrate durchzuführen.
Diese Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche .
Es ist Kern der Erfindung, dass eine Verarbeitung des Sprachsignals stattfindet, bevor dieses beispielsweise einer Spracherkennung zugeführt wird. Im Rahmen dieser Verarbeitung erfährt das Sprachsignal eine Geräuschunterdrückung. Anschließend wird das Sprachsignal hinsichtlich seine
Signallevels bzw. Signalpegels normiert. Das Sprachsignal umfasst hierbei ein oder mehrere Sprachkommandos.
Dies hat den Vorteil, dass die Spracherkennungsraten für ein Sprachkommando bei einem derart vorverarbeiteten Sprachsignal mit geräuschbehafteter Sprache signifikant höher sind als bei einer herkömmlich Spracherkennung mit geräuschbehafteten Sprachsignalen .
Optional kann das Sprachsignal nach der Geräuschunterdrückung auch einer Einheit zur Bestimmung der Sprachaktivität zugeführt werden. Aufgrund dieses geräuschreduzierten Sprachsignals wird dann festgestellt ob Sprache oder eine Sprachpause vorliegt. In Abhängigkeit davon wird der Normierungsfaktor für eine Signallevelnormierung festgelegt . Insbesondere kann der Normierungsfaktor so festgelegt werden, dass Sprachpausen stärker unterdrückt werden. Damit wird der Unterschied zwischen Sprachsignalabschnitten, in denen Sprache vorliegt und solchen, in denen keine vorliegt (Sprachpausen), noch deutlicher. Dies erleichtert eine Spracherkennung .
Ein Verfahren mit den oben beschriebenen Merkmalen kann auch bei sogenannten verteilten Spracherkennungssystemen angewendet werden. Ein verteiltes Spracherkennungssystem ist dadurch gekennzeichnet, dass nicht alle Schritte im Rahmen der Spracherkennung in derselben Komponente durchgeführt werden. Es ist also mehr als eine Komponenten erforderlich. Beispielsweise kann es sich bei einer Komponente um ein Kommunikationsgerät und bei einer weiteren Komponente um ein Element eines Kommunikationsnetzwerkes handeln. Hierbei findet beispielsweise die Sprachsignalerfassung bei einem als Mobilstation ausgestalteten Kommunikationsgerät statt, die eigentliche Spracherkennung dagegen in dem Kommunikationsnetzwerk-Element netze-seitig.
Dieses Verfahren lässt sich sowohl bei der Spracherkennung anwenden, als auch bereits bei der Erstellung des akustischen Modells, beispielsweise eines HMM's. Eine Anwendung bereits bei der Erstellung von akustischen Modellen_zeigt in Zusammenhang mit einer Spracherkennung, die auf einem erfindungsgemäß vorverarbeiteten Signal basiert, eine weitere Erhöhung der Spracherkennungsrate .
Weitere Vorteile werden anhand ausgewählter Ausführungsbeispiele dargestellt, die auch in den Figuren abgebildet sind.
Es zeigen: Fig.l: Ein Histogramm, in dem Sprachsignale, die ein oder mehrere Sprachkommandos enthalten, gegenüber ihrem Signallevel aufgetragen sind, für den Fall eines Trainings zur Erstellung eines akustischen Modells; Fig.2: Ein Histogramm von Sprachsignalen gegenüber ihrem Signallevel für den Fall einer Spracher ennung; Fig.3: Eine schematische Ausgestaltung einer erfindungsgemäßen Verarbeitung; Fig.4: Ein Histogramm, in dem das geräuschreduzierte und sprachlevelnormierte Sprachsignal gegen den Sprachsignallevel aufgetragen ist; Fig. 5 Ein Histogramm, in dem das geräuschreduzierte Sprachsignal gegenüber dem Signallevel aufgetragen ist; Fig. 6 Ein Histogramm, in dem das Sprachsignal im Training erfindungsgemäß vorverarbeitet wird; Fig. 7 Das Schema einer verteilten Sprachverarbeitung; Fig. 8 Ein elektrisches Gerät, welches im Rahmen einer verteilten Sprachverarbeitung einsetzbar ist .
In Fig. 8 ist ein als Mobiltelefon bzw. Mobilstation MS ausgebildetes elektrisches Gerät dargestellt. Es verfügt über ein Mikrofon M zur Aufnahme von Sprachkommandos enthaltender Sprachsignale, eine Prozessoreinheit CPU zur Verarbeitung der Sprachsignale und eine Funkschnittstelle FS zum Übermitteln von Daten, beispielsweise verarbeiteten Sprachsignalen.
Das elektrische Gerät kann allein oder im Zusammenhang mit anderen Komponenten eine Spracherkennung bezüglich des aufgenommenen bzw. erfassten Sprachkommandos realisieren. Es sollen nun zunächst eingehende Untersuchungen dargestellt werden, die zur Erfindung geführt haben:
In Fig. 1 ist ein Histogramm zu sehen, in dem Sprachsignale, welche eines oder mehrere Sprachkommandos enthalten, bezüglich ihres Signallevels L sortiert wurden und diese Häufigkeit H gegenüber dem Signallevel bzw. -pegel L aufgetragen wurde. Dabei enthält ein Sprachsignal S, wie es z.B. in den folgenden Figuren bezeichnet wird, ein oder mehrere Sprachkommandos. Zur Vereinfachung sei im Folgenden angenommen, dass das Sprachsignal ein Sprachkommando enthalte. Ein Sprachkommando kann beispielsweise bei einem als Mobiltelefon ausgestalteten elektrischen Gerät durch die Aufforderung "Anruf" sowie optional einem bestimmten Namen gebildet werden. Ein Sprachkommando muss bei einer
Spracherkennung trainiert_werden, d.h. auf Basis eines oftmaligen Sprechens des Sprachkommandos wird ein Merkmalsvektor oder werden mehrere, d.h. mehr als ein, Merkmalsvektoren erstellt. Dieses Training findet im Rahmen der Erstellung des akustischen Modells, beispielsweise des
HMM's statt, welches bereits herstellerseitig erfolgt. Diese Merkmalsvektoren werden später zur Spracherkennung herangezogen .
Das Training von Sprachkommandos, welches zur Erstellung von Merkmalsvektoren dient, wird auf einem festgelegten Signallevel bzw. Lautstärkepegel durchgeführt ("Single Level Training") . Um den dynamischen Bereich des AD-Wandlers zum Umwandeln des Ξprachsignals in ein digitales Signal optimal auszunutzen, wird vorzugsweise bei -26 dB gearbeitet. Die Festlegung auf Dezibel (dB) ergibt sich aus den für den Signallevel zur Verfügung stehenden Bits . So würde 0 dB einen Überlauf bedeuten (also ein Überschreiten der maximalen Lautstärke bzw. des maximalen Pegels ) . Alternativ kann anstelle eines "Single Level Trainings" auch ein Training auf mehreren Signallevels, beispielsweise bei -16, -26 und -36 dB durchgeführt werden.
In Fig. 1 ist hierbei die Häufigkeitsverteilung des Sprachlevels bei einem Sprachkommando für ein Training zu sehen.
Es ergeben sich für ein Sprachkommando ein mittlerer Signalwert Xmean sowie eine gewisse Verteilung der Levels des Sprachsignals. Dies kann als eine Gauss-Funktion mit dem mittleren Signallevel Xmean und einer Varianz σ dargestellt werden .
Nachdem in Fig. 1 die Verteilung der Sprachkommandos für eine Trainingssituation zu sehen ist, ist in Fig. 2, welche wiederum die Häufigkeit H gegenüber dem Signallevel L entsprechend Fig. 1 angibt die Situation bei einer Spracherkennung dargestellt: Es ist hier das Sprachsignal S' mit einem oder mehreren Sprachkommandos, wie es in den nachfolgenden Figuren bezeichnet wird, hinsichtlich seines Signallevels L sortiert und die Häufigkeit H aufgetragen.
Aufgrund von Umgebungseinflüssen ergibt sich auch nach einer bereits angewendeten Geräuschunterdrückung NR (vgl. Fig. 3) eine gegenüber der Trainingssituation in Fig. 1 verschobene Verteilung mit einem neuen, gegenüber dem Mittelwert Xmean im Training verschobenen mittleren Signallevel xmean-
Es hat sich in Untersuchungen erwiesen, dass die Spracherkennungsrate aufgrund dieses verschobenen mittleren Signallevels xmean drastisch zurückgeht.
Dies ist aus der nachfolgenden Tabelle 1 zu ersehen:
Tabelle 1: Training mit reiner ("clean") Sprache verschiedener Lautstärkestufen bzw. Signallevel (Multi- Level) .
Die Spracherkennungsraten beziehen sich auf Testsprache, die auf die Signallevel -16, -26, -36 dB normalisiert wurde.
Figure imgf000009_0001
In Tabelle 1 ist die Spracherkennungsrate bzw.
Worterkennungsrate für verschiedene Gerauschumgebungen aufgeführt, wobei ein Training mit geräuschfreier Sprache ("Clean Speech") verschiedener Lautstärke stattgefunden hat. Die Testsprache, also das Spraσhsignal aus Fig. 1 wurde auf drei unterschiedliche Levels bzw. Pegeln bei -16 dB, -26 dB und -36 dB normiert. Für diese unterschiedlichen Testsprachenergielevel sind die Spracherkennungsraten für unterschiedliche Arten von Geräuschen mit einem Geräuschpegel von 5 dB aufgezeigt. Bei den unterschiedlichen Geräuschen handelt es sich um typische Umgebungsgeräusche wie etwa U-
Bahn bzw. "subway", sogenanntes Babble Noise, d.h. z.B. eine Cafeteria-Umgebung mit Sprache und anderen Geräuschen, das Hintergrundgeräusch in einem Auto bzw. "car", sowie eine AusStellungsumgebung bzw. "exhibition", (d.h. ähnlich wie Babble Noise nur schlimmer evtl. mit Durchsagen, Musik usw.) . Aus der Tabelle 1 ist ersichtlich, dass die Spracherkennung bei geräuschfreier Sprache weitgehend unbeeinflusst ist von Variationen im Testspracheenergielevel . Allerdings ist für geräuschbehaftete Sprache signifikanter Abfall der Spracherkennung zu erkennen. Zur Spracherkennung wurde hierbei die weiter unten beschriebene terminalbasierte Vorverarbeitung AFE, die zur Erstellung der Merkmalsvektoren dient, herangezogen.
Bei den in Tabelle 1 untersuchten Spracherkennungsraten - die gleichwohl nicht befriedigend sind- ist die Situation dennoch gegenüber einer Spracherkennung basierend auf einem Training mit nur einer Lautstärkenstufe wesentlich verbessert. In anderen Worten, der Effekt, den ein Umgebungsgeräusch auf ein akustisches Modell hat, das auf Basis nur einer Lautstärke der Trainingssprache erstellt wurde, ist noch deutlicher verschlechternd.
Dies hat zu den im folgenden dargestellten erfindungsgemäßen Verbesserungen geführt:
In Fig. 3 ist nun der Ablauf gemäß einer Ausführungsform der Erfindung dargestellt. Das Sprachkommando bzw. Sprachsignal S, z.B. ein von einem Menschen gesprochenes Wort erfährt eine Geräuschunterdrückung NR. Nach dieser Geräuschunterdrückung NR liegt ein geräuschunterdrücktes Sprachsignal S' vor.
Das geräuschreduzierte Sprachsignal S " wird anschließend einer Signallevelnormierung bzw. Normierung des Signalwertes SLN unterzogen. Diese Normierung dient zur Herstellung eines Signalwertes, der mit dem mittleren Signalwert, der in Fig. 1 mit Xmean gekennzeichnet ist, vergleichbar ist. Es hat sich herausgestellt, dass bei vergleichbaren Signalmittelwerten höhere Spracherkennungsraten erzielt werden. Das heißt, dass durch diese Verschiebung des Signalwertes die Spracherkennungsrate bereits erhöht wird.
Im Anschluss an die Signalwertnormierung SLN liegt ein normiertes und geräuschreduziertes Sprachsignal S'' vor. Dies kann im Folgenden z.B. bei einer Spracherkennung SR mit einer höheren Spracherkennungsrate auch bei einer ursprünglich mit Rauschen behafteten Testsprache, verwendet werden.
Optional wird das geräuschreduzierte Signal S ' aufgespalten und fließt neben der Signalwertnormierung SLN auch einer Sprachaktivitätsbestimmungseinheit bzw. "Voice Activity Detection" VAD zu. In Abhängigkeit davon, ob Sprache oder eine Sprachpause vorliegt, der Normierungswert, mit dem das geräuschreduzierte Sprachsignal S1 normiert wird, eingestellt werden. Beispielsweise kann in Sprachpausen ein kleinerer multiplikativer Normierungsfaktor verwendet werden, wodurch der Signallevel des geräuschreduzierten Sprachsignals S ' in Sprachpausen stärker reduziert wird, als während des Vorliegens von Sprache. Damit ist eine stärkere Unterscheidung zwischen Sprache, also z.B. einzelnen Sprachkommandos, und Sprachpausen möglich, was eine nachgeschaltete Spracherkennung hinsichtlich der Spracherkennungsrate weiter deutlich verbessert.
Weiterhin ist es vorgesehen, den Normierungsfaktor nicht nur zwischen Sprachpausen und Sprachabschnitten zu verändern, sondern auch innerhalb eines Wortes für unterschiedliche Sprachabschnitte zu variieren. Auch dadurch kann die Spracherkennung verbessert werden, da einige Sprachabschnitte aufgrund der in ihnen enthaltenen Phoneme einen sehr hohen Signallevel, beispielsweise bei Plosivlauten (z.B. p) , aufweisen, während andere eher inhärent leise sind.
Für die Signallevelnormierung werden unterschiedliche
Methoden herangezogen, beispielsweise eine Echt-Zeit-Energie- Normalisierung, wie sie im Artikel "Robust Endpoint Detection and Energy Normalisation for Real-Time Speech and Speaker recognition" von Qi Li et al . in IEEE Transactions on Speech and Audio Processing Vol. 10, No . 3, März 2002 im Abschnitt C (S. 149-150) beschrieben wird. Im Rahmen der ITU wurde weiterhin eine Signallevelnormierungsmethode beschrieben, die unter ITU-T, '"SVP56: The Speech Voltmeter'', in Software Tool Library 2000 User ' s Manual, Seiten 151-161, Genf, Schweiz, Dezember 2000 zu finden ist. Die dort beschriebene Normierung arbeitet "off-line" bzw. in einem sogenannten "Batch-Modus", d.h. nicht zeitgleich bzw. zeitnahe mit der Spracherfassung.
Für die Geräuschreduktion bzw. Geräuschunterdrückung NR (vgl. Fig.3) sind ebenfalls verschiedene bekannte Methoden vorgesehen, beispielsweise im Frequenzraum operierende Methoden. Eine solche Methode ist in "Computationally efficient speech enhancement using RLS and psycho-acoustic motivated algorithm" von Ch. Beaugeant et al . in Proceedings of 6th World Multi-conference on Systemics, Cybernetics and Informatics, Orlando 2002 beschrieben. Das dort beschrieben System basiert auf einem Analyse-durch-Synthese System, bei dem rahmenweise rekursiv die das (reine) Sprachsignal und das Rauschsignal beschreibende Parameter extrahiert werden (vgl. dort Abschnitt 2 "Noise Reduction in the Frequency Domain", Abschnitt 3 "Recursive Implementation of the least Square algorithm") . Das so erhaltene reine Sprachsignal wird weiterhin gewichtet (Vgl. Abschnitt 4 "Practical RLS Weighting Rule") und eine Schätzung der Leistung des Rauschsignals erfolgt (Vgl. Abschnitt 5 "Noise Power Estimation") . Optional kann eine Verfeinerung des erhaltenen Resultats mittels psychoakustisch motivierter Methoden erfolgen (Abschnitt 6: "Psychoacoustic motivated method"). Weitere Geräuschreduktionsmethoden, die gemäß einer Ausführungsform nach Fig. 3 herangezogen werden können sind beispielsweise in ETSI ES 202 0505 VI.1.1 vom Oktober 2002 in Abschnitt 5.1 ("Noise Reduction") beschrieben.
Ein in Bezug auf Geräuschunterdrückung NR und Signallevelnormierung SN unbearbeitetes Sprachsignal S liegt den Häufigkeitsverteilungen in den Fig. 1 (Trainingssituation) und 2 (Testsituation, d.h. für eine Spracherkennung) zugrunde. Das geräuschreduziert Sprachsignal S' liegt der Häufigkeitsverteilung in der Figur 5 zugrunde. Das geräuschreduzierte und signallevelnormierte Signal liegt den Verteilungen in den Figuren 4 (Testsituation) und 5 (Trainingssituation) zugrunde.
Die zugrundeliegende Idee des in Fig. 3 gezeigten, schematischen Ablaufes einer SprachsignalVerarbeitung zu einer nachgeordneten Spracherkennung ist in den Figuren 4 bis 6 dargestellt. In Fig. 5 ist eine Häufigkeitsverteilung für ein geräuschreduziertes Sprachsignal S' dargestellt, wie es z.B. in Fig. 3 nach der Geräuschunterdrückung NR auftritt. Gegenüber Fig. 2, die sich z.B. auf die Häufigkeits erteilung für ein in Fig. 3 dargestelltes Sprachsignal S bezieht, wurde also nach eine Geräuschunterdrückung NR durchgeführt.
Das Zentrum der Häufigkeitsverteilung dieses geräuschreduzierten Sprachsignals S ' gegenüber dem Sprachlevel L befindet sich bei einem Mittelwert xmean ' • Die
Verteilung hat eine breite σ' . Im Übergang zu Fig. 4 wird auf das in Fig. 5 dargestellte geräuschreduzierte Sprachsignal S' eine Signallevelnormierung SLN durchgeführt. Damit würde das der Verteilung in Fig. 4 zugrundeliegende Sprachsignal beispielsweise dem geräuschreduzierten und signallevelnormierten Sprachsignal S1' entsprechen. Eine Signallevelnormierung bringt den tatsächlichen Signallevel in Fig. 5, auf einen gewünschten Signallevel, beispielsweise den in Fig. 1 mit Xmean gekennzeichneten, im Training erzielten Signallevel. Weiterhin führt die
Signallevelnormierung SLN dazu, dass die Verteilung schmaler wird, d.h. also dass σ' ' kleiner ist als σ' . Dadurch kann der mittlere Signallevel xmean'' i-n Fig. 4 leichter mit dem mittleren Signallevel Xmean in. Fig. 1, welcher im Training erzielt wurde, zur Deckung gebracht werden. Dies führt zu höheren Spracherkennungsraten.
Im Zusammenhang mit Fig. 7 wird nun auf eine Anwendung des oben erläuterten für eine Spracherkennung eingegangen.
Wie bereits eingangs dargelegt, kann die Spracherkennung in einer Komponente oder auf mehrere Komponenten verteilt stattfinden.
Beispielsweise können sich in einem elektrischen Gerät MS, welches als Mobilstation ausgebildet ist, Mittel zum Erfassen des Sprachsignal, z.B. das in Fig. 8 gezeigt Mikrofon M, Mittel zur Ger uschunterdrüσkung NR und Mittel zur Signallevelnormierung SN befinden. Letztere können im Rahmen der Prozessoreinheit CPU realisiert werden. Damit kann die in Fig. 3 dargestellte Idee einer SprachsignalVerarbeitung gemäß einer Aus ührungsform der Erfindung sowie die sich anschließende Spracherkennung in einem Mobilfunkgerät bzw. Mobilstation allein oder im Zusammenhang mit einem Element eines Kommunikationsnetzes implementiert werden.
Gemäß einer der Alternativen erfolgt die Spracherkennung SR (siehe Fig. 3) selbst netz-seitig. Dazu werden die aus einem Sprachsignal S'' erstellten Merkmalsvektoren über einen Kanal, insbesondere einen Funkkanal zu einer zentralen Einheit im Netz übertragen. Dort findet auf Basis der übertragenen Merkmalsvektoren dann die Spracherkennung auf
Basis des insbesondere bereits werkseitig erstellten Modells statt. Werkseitig kann insbesondere bedeuten, dass das akustische Modell vom Netzbetreiber erstellt wird.
Insbesondere kann die vorgeschlagene Spracherkennung auf sprecherunabhängige Spracherkennung, wie sie im Rahmen des sogenannten Aurora Szenarios vorgenommen wird, angewendet werden . Eine weitere Verbesserung ergibt sich, wenn Sprachkommandos bereits bei der werkseitigen Herstellung des akustischen Modells bzw. dem Training hinsichtlich ihres Signallevels normiert werden. Dadurch wird nämlich die Verteilung der Signallevel schmaler, wodurch eine noch bessere Übereinstimmung zwischen der in Fig. 4 gezeigten Verteilung und der im Training erzielten Verteilung erreicht wird. Eine solche Verteilung der Häufigkeit H gegenüber dem Signalpegel L bei einem Sprachkommando im Training, bei dem bereits eine Signallevelnormierung durchgeführt wurde, ist in Fig. 6 dargestellt. Der sich ergebende Trainings-Mittelwert Xmean_neu stimmt mit dem dem Mittelwert xmean ' ' (Fig.4) der geräuschreduzierten und signallevelnormierten Sprachsignals S"' (Fig.3) überein. Wie bereits dargelegt ist eine Übereinstimmung der Mittelwerte eines der Kriterien für eine hohe Spracherkennungsrate.Weiterhin ist die Breite der Verteilung in Fig. 6 sehr schmal, was es erleichtert, diese Verteilung mit der Verteilung in Fig. 4 zur Deckung zu bringen, d.h. auf den gleichen Signallevel zu bringen.
In Fig.7 ist eine verteilte Spracherkennung bzw. "Distributed Speech Recognition" (DSR) dargestellt . Eine verteilte Spracherkennung kann beispielsweise im Rahmen bereits erwähnten AURORA-Projekts der ETSI STQ (Speech Transmission Quality) Anwendung finden.
Bei einer verteilten Spracherkennung wird bei einer Einheit ein Sprachsignal, beispielsweise ein Sprachkommando erfasst und dieses Sprachsignal beschreibende Merkmalsvektoren erstellt. Diese Merkmalsvektoren werden zu einer anderen Einheit, beispielsweise einem Netzwerkserver übertragen. Dort werden die Merkmalsvektoren verarbeitet und auf Basis dieser Merkmalsvektoren eine Spracherkennung durchgeführt.
In Fig. 7 ist eine Mobilstation MS als erste Einheit bzw. Komponente und eine Netzwerkelement NE dargestellt.
Die Mobilstation MS, welche auch als Terminal bezeichnet wird, weist Mittel AFE zurterminalbasierte Vorverarbeitung, die zur Erstellung der Merkmalsvektoren dient, .
Beispielsweise handelt es sich bei der Mobilstation MS um ein
Mobilfunk-Endgerät, portablen Computern, oder ein beliebiges anderes mobiles Kommunikationsgerät. Bei dem Mittel AFE zur terminalbasierten Vorverarbeitung handelt es sich beispielsweise um das im Rahmen des AURORA-Projekts diskutierte "Advanced Front End" .
Das Mittel AFE zur terminalbasierten Vorverarbeitung umfasst Mittel zur Standardbearbeitung von Sprachsignalen. Diese Standard-Sprachverarbeitung ist beispielsweise in der Spezifikation ETSI ES 202050 VI.1.1 vom Oktober 2002 in Bild 4.1 beschrieben. Auf Seiten der Mobilstation beinhaltet die Standard-Sprachverarbeitung eine Merkmalsextraktion mit den Schritten Geräuschreduktion, Signalform bzw. "Waveform- Processing", Cepstrum-Berechnung sowie einen verdeckten Ausgleich bzw. "Blind Equalization" . Anschließend erfolgt einer Merkmalskompression und eine Vorbereitung der Übertragung. Diese Verarbeitung ist dem Fachmann bekannt, weshalb hier nicht näher darauf eingegangen wird. Gemäß einer Ausgestaltung der Erfindung umfassen die Mittel AFE zur terminalbasierten Vorverarbeitung auch Mittel zur Signallevenormierung und Sprachaktivitätsdetektion, damit eine Vorverabeitung gemäß Fig. 3 realisiert wird.
Diese Mittel können in die Mittel AFE integriert oder alternativ als getrennte Komponente realisiert sein.
Über sich anschließende Mittel FC zur
Merkmalsvektorkomprimierung terminalbasierte Vorverarbeitung AFE werden der eine oder die mehreren Merkmalsvektoren, welche aus dem Sprachkommando erstellt werden, zum Zwecke der Übertragung über einen Kanal CH komprimiert.
Die andere Einheit wird beispielsweise durch einen Netzwerkserver als Netzwerkelement NE gebildet. In diesem Netzwerkelement NS werden die Merkmalsvektoren über Mittel FDC zur Merkmalsvektordekompression wieder dekomprimiert .Weiterhin erfolgt über Mittel SSP erfolgt eine serverseitige Vorverarbeitung , um dann mit Mitteln SR zur Spracherkennung eine Spracherkennung auf Basis eines Hidden Markov Modells HMM durchzuführen.
Die Ergebnisse von erfindungsgemäßen Verbesserungen werden nun erläutert: Spracherkennungsraten für verschiedene Trainings der Sprachkommandos sowie verschiedene Sprachlevel bzw. Lautstärken, die zur Spracherkennung herangezogen werden (Testsprache) sind in den Tabellen 1 bis 2 dargestellt. In Tabelle 2 sind nun die Spracherkennungsraten für unterschiedliche Energielevel der Testsprache gezeigt. Das Training fand auf einem Sprachenergielevel von -26 dB statt. Die Testsprache wurde einer Geräuschunterdrückung und Sprachlevelnormalisierung gemäß Fig. 3 unterzogen. Aus Tabelle 2 ist zu sehen, dass die Spracherkennungsraten für reine Sprache wiederum gleichbleibend hoch sind. Die wesentliche Verbesserung gegenüber dem bisherigen Spracherkennungsverfahren liegt darin, dass der in Tabelle 1 ersichtliche Unterschied in den Spracherkennungsraten für geräuschbehaftete Sprache (bei einem Signal zu Rauschen Verhältnis bzw. "Signal-to-Noise Ratio" von 5 dB) in Abhängigkeit vom Energielevel der Testsprache aufgehoben ist. Für die Spracherkennung wurde das weiter oben beschriebene "Advanced Front End" herangezogen .
Tabelle 2 :
Figure imgf000017_0001

Claims

Patentansprüche
1. Verfahren zur Bearbeitung eines geräuschbehafteten Sprachsignals (S) für eine nachfolgende Spracherkennung (SR) , wobei das Sprachsignal (S) zumindest ein Sprachkommando repräsentiert, mit folgenden Schritten: a) Erfassen des geräuschbehafteten Sprachsignals (S) ; b) Anwendung einer Geräuschunterdrückung (NR) auf das Sprachsignal (S) zur Generierung eines geräuschunterdrückten Sprachsignals (S'); c) Normieren des geräuschunterdrückten Sprachsignals (S') mittels eines Normierungsfaktors auf einen Soll-Signalwert zur Generierung eines geräuschunterdrückten, normierten Sprachsignals (S") .
2. Verfahren nach Anspruch 1, bei dem der Wert des Normierungsfaktors in Abhängigkeit von einer Sprachaktivität festgelegt wird.
3. Verfahren nach Anspruch 1 oder 2, bei dem die
Sprachaktivität auf Basis des geräuschunterdrückten Sprachsignals ermittelt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche mit folgendem weiteren Schritt: d) Beschreiben des geräuschunterdrückten, normierten Sprachkommandos durch einen oder mehrere Merkmalsvektoren.
5. Verfahren nach Anspruch 4, bei dem der eine oder die mehreren Merkmalsvektoren zum Beschreiben des geräuschunterdrückten, normierten Sprachkommandos erstellt werden .
6. Verfahren nach einem der vorhergehenden Ansprüche mit folgendem weiteren Schritt: e) Übermitteln eines den Merkmalsvektor oder die Merkmals ektoren beschreibenden Signals.
7. Verfahren nach einem der vorhergehenden Ansprüche mit folgendem weiteren Schritt : f) Durchführen einer Spracherkennung auf Basis des geräuschunterdrückten, normierten Sprachkommandos.
8. Verfahren nach Anspruch 6 oder 7, bei dem das Erfassen der Sprachsignals in Schritt a) und das Durchführen der
Spracherkennung in Schritt f) örtlich getrennt durchgeführt werden.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem eine Vorverabeitung (AFE) und eine
Merkmalsvektorkomprimierung (FC) von Merkmalsvektoren, welche ein Sprachsignal beschreiben räumlich getrennt oder ortsgleich durchgeführt wird.
10. Verfahren zum Training eines Sprachkommandos in einem geräuschbehafteten Sprachsignal mit folgenden Schritten: a') Erfassen des geräuschbehafteten Sprachsignals; b1) Anwendung einer Geräuschunterdrückung auf das Sprachsignal zur Generierung eines geräuschunterdrückten Sprachsignals ; c') Normieren des geräuschunterdrückten Sprachsignals mittels eines Normierungsfaktors auf einen Soll-Signalwert zur Generierung eines geräuschunterdrückten, normierten Sprachsignals.
11. Verfahren nach Anspruch 10, bei dem das Training zur Erstellung eines akustischen Modells, insbesondere eines HMM ' s dient .
12. Elektrisches Gerät (MS) mit einem Mikrofon (M) und einer Prozessoreinheit (CPU) , welches zur Durchführung eines Verfahrens nach Anspruch 1 bis 11 eingerichtet ist, insbesondere zur Durchführung der Schritte a, b und c) .
13.Vorrichtung nach Anspruch 12 mit einer Einrichtung zur Erstellung von Merkmalsvektoren zur Beschreibung eines Sprachsignals .
14. Elektrisches Gerät nach Anspruch 12 oder 13, welches als Kommunikationsgerät, insbesondere Mobilstation, ausgestaltet ist, mit einer Sende/Empfangseinrichtung (FS) und einer Vorrichtung nach Anspruch 12 oder 13.
15. Kommunikationssystem mit einer Mobilstation nach Anspruch 14 und einem Kommunikationsnetz, in dem eine Spracherkennung durchgeführt wird.
PCT/EP2004/052427 2004-01-13 2004-10-04 Verfahren und vorrichtung zur bearbeitung eines sprachsignals für die robuste spracherkennung WO2005069278A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04791139A EP1704561A1 (de) 2004-01-13 2004-10-04 Verfahren und vorrichtung zur bearbeitung eines sprachsignals für die robuste spracherkennung
US10/585,747 US20080228477A1 (en) 2004-01-13 2004-10-04 Method and Device For Processing a Voice Signal For Robust Speech Recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004001863.4 2004-01-13
DE102004001863A DE102004001863A1 (de) 2004-01-13 2004-01-13 Verfahren und Vorrichtung zur Bearbeitung eines Sprachsignals

Publications (1)

Publication Number Publication Date
WO2005069278A1 true WO2005069278A1 (de) 2005-07-28

Family

ID=34744705

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/052427 WO2005069278A1 (de) 2004-01-13 2004-10-04 Verfahren und vorrichtung zur bearbeitung eines sprachsignals für die robuste spracherkennung

Country Status (5)

Country Link
US (1) US20080228477A1 (de)
EP (1) EP1704561A1 (de)
CN (1) CN1902684A (de)
DE (1) DE102004001863A1 (de)
WO (1) WO2005069278A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1949364B (zh) * 2005-10-12 2010-05-05 财团法人工业技术研究院 语音识别的前级检测系统与方法
US8831183B2 (en) 2006-12-22 2014-09-09 Genesys Telecommunications Laboratories, Inc Method for selecting interactive voice response modes using human voice detection analysis
CN111161171A (zh) * 2019-12-18 2020-05-15 三明学院 爆破振动信号基线漂零校正和消噪方法、装置、设备及系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014018004A1 (en) * 2012-07-24 2014-01-30 Nuance Communications, Inc. Feature normalization inputs to front end processing for automatic speech recognition
KR102188090B1 (ko) * 2013-12-11 2020-12-04 엘지전자 주식회사 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템
CN106340306A (zh) * 2016-11-04 2017-01-18 厦门盈趣科技股份有限公司 一种提高语音识别度的方法及装置
CN107103904B (zh) * 2017-04-12 2020-06-09 奇瑞汽车股份有限公司 一种应用于车载语音识别的双麦克风降噪系统及降噪方法
JP7028311B2 (ja) * 2018-03-12 2022-03-02 日本電信電話株式会社 学習用音声データ生成装置、その方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6098040A (en) * 1997-11-07 2000-08-01 Nortel Networks Corporation Method and apparatus for providing an improved feature set in speech recognition by performing noise cancellation and background masking
US6266633B1 (en) * 1998-12-22 2001-07-24 Itt Manufacturing Enterprises Noise suppression and channel equalization preprocessor for speech and speaker recognizers: method and apparatus

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60184691A (ja) * 1984-03-02 1985-09-20 Permelec Electrode Ltd 耐久性を有する電極及びその製造方法
DE4111995A1 (de) * 1991-04-12 1992-10-15 Philips Patentverwaltung Schaltungsanordnung zur spracherkennung
US5465317A (en) * 1993-05-18 1995-11-07 International Business Machines Corporation Speech recognition system with improved rejection of words and sounds not in the system vocabulary
SE505156C2 (sv) * 1995-01-30 1997-07-07 Ericsson Telefon Ab L M Förfarande för bullerundertryckning genom spektral subtraktion
JPH0990974A (ja) * 1995-09-25 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> 信号処理方法
JPH10257583A (ja) * 1997-03-06 1998-09-25 Asahi Chem Ind Co Ltd 音声処理装置およびその音声処理方法
US6122384A (en) * 1997-09-02 2000-09-19 Qualcomm Inc. Noise suppression system and method
US6173258B1 (en) * 1998-09-09 2001-01-09 Sony Corporation Method for reducing noise distortions in a speech recognition system
US6524647B1 (en) * 2000-03-24 2003-02-25 Pilkington Plc Method of forming niobium doped tin oxide coatings on glass and coated glass formed thereby
US6990446B1 (en) * 2000-10-10 2006-01-24 Microsoft Corporation Method and apparatus using spectral addition for speaker recognition
US20020117199A1 (en) * 2001-02-06 2002-08-29 Oswald Robert S. Process for producing photovoltaic devices
US7035797B2 (en) * 2001-12-14 2006-04-25 Nokia Corporation Data-driven filtering of cepstral time trajectories for robust speech recognition
US20040148160A1 (en) * 2003-01-23 2004-07-29 Tenkasi Ramabadran Method and apparatus for noise suppression within a distributed speech recognition system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6098040A (en) * 1997-11-07 2000-08-01 Nortel Networks Corporation Method and apparatus for providing an improved feature set in speech recognition by performing noise cancellation and background masking
US6266633B1 (en) * 1998-12-22 2001-07-24 Itt Manufacturing Enterprises Noise suppression and channel equalization preprocessor for speech and speaker recognizers: method and apparatus

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DATABASE INSPEC [online] THE INSTITUTION OF ELECTRICAL ENGINEERS, STEVENAGE, GB; December 1998 (1998-12-01), SANG-MUN CHI ET AL: "The suppression of noise-induced speech distortions for speech recognition", XP008040656, Database accession no. 6261641 *
FLORIAN HILGER AND HERMANN NEY: "NOISE LEVEL NORMALIZATION AND REFERENCE ADAPTATION FOR ROBUST SPEECH RECOGNITION", AUTOMATIC SPEECH RECOGNITION, CHALLENGES FOR THE NEW MILLENIUM, 18 September 2000 (2000-09-18) - 20 September 2000 (2000-09-20), PARIS, FRANCE, pages 1 - 5, XP007005548 *
JOURNAL OF THE INSTITUTE OF ELECTRONICS ENGINEERS OF KOREA S INST. ELECTRON. ENG., vol. 35-S, no. 12, December 1998 (1998-12-01), KOREA SOUTH KOREA, pages 93 - 102, ISSN: 1226-5837 *
RATHINAVELU CHENGALVARAYAN: "ROBUST ENERGY NORMALIZATION USING SPEECH/NONSPEECH DISCRIMINATOR FOR GERMAN CONNECTED DIGIT RECOGNITION", 6TH EUROPEAN CONFERENCE ON SPEECH COMMUNICATION AND TECHNOLOGY. EUROSPEECH '99, vol. 1, 5 September 1999 (1999-09-05) - 9 September 1999 (1999-09-09), BUDAPEST, HUNGARY, pages 61 - 64, XP007000915 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1949364B (zh) * 2005-10-12 2010-05-05 财团法人工业技术研究院 语音识别的前级检测系统与方法
US8831183B2 (en) 2006-12-22 2014-09-09 Genesys Telecommunications Laboratories, Inc Method for selecting interactive voice response modes using human voice detection analysis
US9721565B2 (en) 2006-12-22 2017-08-01 Genesys Telecommunications Laboratories, Inc. Method for selecting interactive voice response modes using human voice detection analysis
CN111161171A (zh) * 2019-12-18 2020-05-15 三明学院 爆破振动信号基线漂零校正和消噪方法、装置、设备及系统
CN111161171B (zh) * 2019-12-18 2023-04-07 三明学院 爆破振动信号基线漂零校正和消噪方法、装置、设备及系统

Also Published As

Publication number Publication date
DE102004001863A1 (de) 2005-08-11
EP1704561A1 (de) 2006-09-27
US20080228477A1 (en) 2008-09-18
CN1902684A (zh) 2007-01-24

Similar Documents

Publication Publication Date Title
DE10041512B4 (de) Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
DE69827667T2 (de) Vokoder basierter spracherkenner
DE60125542T2 (de) System und verfahren zur spracherkennung mit einer vielzahl von spracherkennungsvorrichtungen
DE69127961T2 (de) Verfahren zur Spracherkennung
DE60023517T2 (de) Klassifizierung von schallquellen
DE112010005959B4 (de) Verfahren und System zur automatischen Erkennung eines Endpunkts einer Tonaufnahme
DE69430082T2 (de) Verfahren und Vorrichtung zur Sprachdetektion
DE60024236T2 (de) Sprach endpunktbestimmung in einem rauschsignal
DE60007637T2 (de) Vermeidung von Online-Sprecherüberanpassung bei der Spracherkennung
DE69830017T2 (de) Verfahren und Vorrichtung zur Spracherkennung
DE60314128T2 (de) Parametrische online-histogramm normierung zur rauschrobusten spracherkennung
DE602005001048T2 (de) Erweiterung der Bandbreite eines schmalbandigen Sprachsignals
DE10334400A1 (de) Verfahren zur Spracherkennung und Kommunikationsgerät
DE10030105A1 (de) Spracherkennungseinrichtung
DE60025748T2 (de) Spracherkennung
DE20004416U1 (de) Spracherkennungsvorrichtung unter Verwendung mehrerer Merkmalsströme
DE60204504T2 (de) Schlüsselworterkennung in einem verrauschten Signal
DE69924596T2 (de) Auswahl akustischer Modelle mittels Sprecherverifizierung
DE69635141T2 (de) Verfahren zur Erzeugung von Sprachmerkmalsignalen und Vorrichtung zu seiner Durchführung
DE60133537T2 (de) Automatisches umtrainieren eines spracherkennungssystems
DE60034772T2 (de) Zurückweisungsverfahren in der spracherkennung
DE60108104T2 (de) Verfahren zur Sprecheridentifikation
DE69512961T2 (de) Spracherkennung auf Grundlage von &#34;HMMs&#34;
WO2001086634A1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
WO2005069278A1 (de) Verfahren und vorrichtung zur bearbeitung eines sprachsignals für die robuste spracherkennung

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480040358.1

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004791139

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10585747

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2004791139

Country of ref document: EP