DE4106405A1 - Geraeuschunterdrueckungseinrichtung - Google Patents

Geraeuschunterdrueckungseinrichtung

Info

Publication number
DE4106405A1
DE4106405A1 DE19914106405 DE4106405A DE4106405A1 DE 4106405 A1 DE4106405 A1 DE 4106405A1 DE 19914106405 DE19914106405 DE 19914106405 DE 4106405 A DE4106405 A DE 4106405A DE 4106405 A1 DE4106405 A1 DE 4106405A1
Authority
DE
Germany
Prior art keywords
noise
data
unit
microphone
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19914106405
Other languages
English (en)
Other versions
DE4106405C2 (de
Inventor
Takashi Ariyoshi
Junichiroh Fujimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2074690A external-priority patent/JPH03274099A/ja
Priority claimed from JP2074689A external-priority patent/JPH03274098A/ja
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of DE4106405A1 publication Critical patent/DE4106405A1/de
Application granted granted Critical
Publication of DE4106405C2 publication Critical patent/DE4106405C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

Die Erfindung betrifft einen Geräuschunterdrückungseinrich­ tung in einem Spracherkennungssystem nach dem Oberbegriff des Anspruchs 1 oder 11, und betrifft insbesondere eine Geräusch­ unterdrückungseinrichtung in einem Spracherkennungssystem, in welchem ein Geräusch unterdrückt werden kann, das von einer Audioeinheit, wie einem Stereo-Radiogerät oder einem Stereo- Bandrecorder erzeugt worden ist.
Ein Spracherkennungssystem mit einer Geräuschunterdrückungs­ einrichtung gemäß der Erfindung wird beispielsweise in einem Fahrzeug verwendet. Diese Art Spracherkennungssystem wird beim Wählen eines in dem Fahrzeug vorgesehenen Telephons und zum Steuern verschiedener Einheiten, wie Audio-Einheiten, Luft- Conditioner oder Klima-Anlagen sowie Navigationssystemen ver­ wendet, welche im Fahrzeug vorgesehen sind. Das vorerwähnte Spracherkennungssystem kann auch in einem Haus, in einem Büro u. ä. verwendet werden.
Vor kurzem ist auch das Eingeben von Informationen in eine Maschine mit Hilfe der Sprache gemeldet worden. Das heißt, es ist ein Spracherkennungssystem vorgeschlagen worden, welches bei einer Steuereinheit verwendet werden kann, um eine Audio­ Einheit, einen Luft-Conditioner bzw. eine Klimaanlage, ein Navigationssystem u. ä. zu steuern, welche in einem Fahrzeug vorgesehen sind. In dem Fahrzeug beeinflussen verschiedene Arten von Geräuschen im Fahrzeuginneren das Spracherkennungs­ system, wenn das Fahrzeug fährt, und Klänge von in dem Fahr­ zeug vorgesehenen Audio-Einheiten wirken auf das Spracherken­ nungssystem, wie Geräusche im Fahrzeuginneren. Folglich muß in dem im Fahrzeug vorgesehenen Spracherkennungssystem eine Ge­ räuschunterdrückungseinrichtung vorgesehen werden, um die verschiedenen Arten von Geräuschen im Fahrzeuginneren zu un­ terdrücken.
Beispiele von herkömmlicher Spracherkennung sind die "Spek­ trale Subtrakionsmethode von S.F.Boll u. a." und eine "Adapti­ ve Geräuschunterdrückungsmethode von B.Window u. a.".
In der "spektralen Subtraktionsmethode" wird ein Spektrum des Geräusches unter einer Bedingung abgetastet, bei welcher kei­ ne Sprache vorhanden ist, welche erkannt werden sollte, und dann wird das abgetastete Spektrum des Geräusches in einer Speichereinheit gespeichert. Das abgetastete Spektrum des Ge­ räusches in der Speichereinheit wird fortlaufend aktualisiert. Wenn die Stimme eines Sprechers mit einem Mikrophon unter der Voraussetzung aufgenommen wird, daß es verschiedene Arten von Geräuschen gibt, wird das Spektrum des in der Speichereinheit gespeicherten Geräusches von einem akustischen Spektrum sub­ trahiert, welches einem akustischen Signal entspricht, das über das Mikrophon erhalten worden ist, so daß nur eine Stim­ menspektrumskomponente, welche der Stimme des Sprechers ent­ spricht, erhalten wird.
In der vorerwähnten "spektralen Subtraktionsmethode" können, da das Geräuschspektrum laufend aktualisiert wird, Hinter­ grundgeräusche von dem akustischen Signal subtrahiert werden. Es ist jedoch schwierig, ein unregelmäßiges Geräusch, welches bezüglich der Zeit in unregelmäßiger Weise erzeugt wird, von dem akustischen Signal zu subtrahieren. Das unregelmäßige Ge­ räusch enthält den Klang, welcher von der Audio-Einheit, wie einem Radiogerät und einem Stereo-Bandrecorder abgegeben wor­ den ist.
Bei der "adaptiven Geräuschunterdrückungsmethode", bei wel­ cher beispielsweise zwei Mikrophone verwendet werden, ist ein erstes Mikrophon nahe bei dem Sprecher und ein zweites Mikro­ phon weit von dem Sprecher entfernt vorgesehen. Die Stimme des Sprechers wird hauptsächlich von dem ersten Mikrophon aufgenommen. Verschiedene Arten von Geräuschen gelangen in die beiden Mikrophone bzw. werden von diesen aufgenommen. In diesem Fall wird ein Geräuschsignal, welches über das zweite Mikrophon erhalten worden ist, in einem adaptiven Filter ver­ arbeitet, in welchem dessen Filtercharakteristik gesteuert werden kann. Das von dem adaptiven Filter abgegebene Signal wird von dem akustischen Signal subtrahiert, welches über das erste Mikrphon erhalten worden ist, so daß ein Stimmensignal, welches der Stimme des Sprechers entspricht, erhalten wird. Die Filtercharakteristik des vorerwähnten adaptiven Filters wird so gesteuert, daß der Fehler (ε) eines Ausgangssignals minimiert wird.
Bei der vorstehend erwähnten "adaptiven Geräuschunterdrückungs­ methode" mit zwei Mikrophonen ist ein Computer für eine aufwendige Berechnung erforderlich, um die Filtercharakteris­ tik des adaptiven Filters zu steuern. Daher werden die Kosten der Geräuschunterdrückungseinrichtung höher. In einem Fall, bei welchem das Geräusch, welches beachtet werden sollte, auf den Klang von der Audio-Einheit beschränkt wird, ist die Ge­ räuschunterdrückungseinrichtung, die nach der vorerwähnten "adaptiven Geräuschunterdrückungsmethode" arbeitet, für den praktischen Gebrauch nicht gut. Außerdem ist es dann, wenn eine Vielzahl von Geräuschen zusammentrifft, schwierig, die Filtercharakteristik des vorerwähnten adaptiven Filters zu steuern, so daß keine richtige Rauschunterdrückung durchge­ führt werden kann.
Gemäß der Erfindung soll daher eine Geräuschunterdrückungs­ einrichtung für ein Spracherkennungssystem geschaffen werden, bei welchem die Nachteile des Standes der Technik ausgeschal­ tet sind. Ferner soll gemäß der Erfindung eine Geräuschunter­ drückungseinrichtung geschaffen werden, in welcher ein Ge­ räusch leicht aus dem akustischen Signal entfernt werden kann, selbst wenn der Klang der Audio-Einheit dem akustischen Signal als das Geräusch überlagert ist. Gemäß der Erfindung ist dies bei einer Geräuschunterdrückungseinrichtung nach dem Oberbegriff des Anspruchs 1 oder 11 durch die Merkmale im kennzeichnenden Teil des jeweiligen Anspruchs erreicht. Vor­ teilhafte Weiterbildungen sind Gegenstand der auf einen der Ansprüche mittelbar oder unmittelbar rückbezogenen Unteran­ sprüche.
Nachfolgend wird die Erfindung anhand von bevorzugten Ausfüh­ rungsformen unter Bezugnahme auf die anliegenden Zeichnungen im einzelnen erläutert. Es zeigen
Fig. 1 ein Blockdiagramm eines Spracherkennungssy­ stems mit einer Geräuschunterdrückungsein­ richtung gemäß einer ersten Ausführungsform der Erfindung;
Fig. 2 ein Blockdiagramm einer Modifikation des in Fig. 1 dargestellten Spracherkennungssystems;
Fig. 3 ein Blockdiagramm eines Spracherkennungssy­ stems mit einer Geräuschunterdrückungsein­ richtung gemäß einer zweiten Ausführungsform der Erfindung;
Fig. 4 ein Blockdiagramm einer Modifikation des in Fig. 3 dargestellten Spracherkennungssystems;
Fig. 5 ein Diagramm, in welchem Detektoren zum Fest­ stellen des Öffnens und Schließens von Fahr­ zeugtüren dargestellt sind, und
Fig. 6 ein Diagramm eines Detektors, um festzustel­ len, wie oft ein Fahrzeug-Fenster geöffnet wird.
Nunmehr wird eine erste Ausführungsform der Erfindung anhand von Fig. 1 beschrieben. Das in Fig. 1 dargestellte Spracherken­ nungssystem ist beispielsweise in einem Fahrzeug vorgesehen. In Fig. 1 sind in dem Fahrzeug ein Mikrophon 1 und ein Laut­ sprecher 2 vorgesehen. Ein Radiogerät, ein Stereo-Gerät, u. ä. welche in dem Fahrzeug vorgesehen sind, liefern wiederzuge­ bende Signale an den Lautsprecher 2, und der Lautsprecher 2 setzt die wiederzugebenden Signale in Klänge um. Die Stimme eines Sprechers, die Klänge aus dem Lautsprecher 2 und ver­ schiedene Geräusche im Fahrzeuginneren werden von dem Mikro­ phon 1 aufgenommen. Ein erste Kennzeichen-Extrahiereinheit 10 holt Kennzeichen oder Merkmale aus dem akustischen Signal heraus, welche Geräusche enthalten, wobei die akustischen Signale von dem Mikrophon 1 aus der ersten Kennzeichen-Ex­ trahiereinheit 10 zugeführt werden. Eine zweite Kennzeichen- Extrahiereinheit 20 holt Merkmale oder Kennzeichen aus wie­ derzugebenden Signalen heraus, welche von jeder Audio-Einheit, wie dem Radiogerät und dem Stereo-Gerät geliefert worden sind. Eine erste Geräusche-Subtrahiereinheit 30 subtrahiert Geräuschdaten, welche von der zweiten Kennzeichen-Extrahier­ einheit 20 erhalten worden sind, von Audio-Daten, welche von der ersten Kennzeichen-Extrahiereinheit 10 erhalten worden sind. Eine Sprachintervall-Detektionseinheit 40 stellt Sprachintervalle, welche Intervalle für Sprachen oder Stimmen sind, in einer Datenreihe fest, welche von der ersten Geräu­ sche-Subtrahiereinheit 30 zugeführt worden sind. Eine Geräu­ sche-Vermutungseinheit 50 vermutet Nicht-Sprachen-Intervalle, welche Intervalle außer dem Sprachintervall sind, in der Da­ tenreihe, welche von der ersten Geräusche-Subtrahiereinheit 30 geliefert werden. Eine zweite Geräusche-Subtrahiereinheit 60 subtrahiert die Geräuschkomponente, welche durch die Vermu­ tungsoperation in der Geräusche-Vermutungseinheit 50 erhalten worden sind, von den Daten in den Sprachintervallen, welche durch die Sprachintervall-Detektionseinheit 40 festgestellt worden sind. Eine Eingangsmuster erzeugende Einheit 70 er­ zeugt ein eingegebenes Sprachmuster der Stimme des Sprechers auf der Basis der Daten, welche von der zweiten Geräusche- Subtrahiereinheit 60 abgegeben worden sind. Eine Erkennungs­ einheit 90 vergleicht verschiedene Referenzmuster, welche in einem Referenzmusterspeicher 80 gespeichert sind und das ein­ gegebene Sprachmuster, das von der eingegebene Muster verglei­ chenden Einheit 70 erzeugt worden ist, und gibt ein Erken­ nungsergebnis ab, welches durch den vorstehenden Vergleich erhalten wird.
Nunmehr wird das in Fig. 1 dargestellte Spracherkennungssystem im einzelnen beschrieben. Die erste Kennzeichen-Extrahierein­ heit 10, welche die Merkmale oder Kennzeichen aus dem von dem Mikrophon zugeführten, akustischen Signal extrahiert, weist einen Verstärker 11, eine Vorverzerrungsschaltung 12, eine Bandpaß-Filterbank 13, einen Multiplexer 14 und einen A/D-Um­ setzer 15 auf. Der Verstärker 11 hat eine vorherbestimmte Verstärkung und verstärkt das akustische, von dem Mikrophon 1 zugeführte Signal. Die Vorverzerrerschaltung 12 hebt Frequenz­ komponenten in dem Hochfrequenzband des von dem Verstärker 11 zugeführten, akustischen Signals an. Die Bandpaß-Filterbank 13 hat fünfzehn Bandpaß-Filter. Die verschiedenen Frequenz­ bänder der fünfzehn Bandpaß-Filter unterscheiden sich vonein­ ander. Fünfzehn Frequenzen, welche auf einer Achse von loga­ rithmischen Koordinaten, welche von 250 Hz bis 6,5 Khz reichen, in regelmäßigen Intervallen angeordnet sind, sind Mittenfre­ quenzen der Frequenzbänder der fünfzehn Bandpaß-Filter. Die Bandpaß-Filterbank 13 hat auch Gleichrichter und Tiefpaßfil­ ter, welche jeweils einem der Frequenzbänder entsprechen. Mit Hilfe der Bandpaß-Filter, der Gleichrichter und der Tiefpaß­ filter stellt die Bandpaß-Filterbank 13 Spektren des von dem Mikrophon 1 aufgenommenen Klangs fest. Der Multiplexer 14 wählt eines der Spektren in den fünfzehn Frequenzbändern aus, wobei die Spektren von der Bandpaß-Filterbank 13 zugeführt werden. Der A/D-Umsetzer 15 setzt ein Spektrum in jedem Fre­ quenzband mit einer Abtastfrequenz von 10 ms in digitale Daten um. Daher wird in der ersten Kennzeichen-Extrahiereinheit 10 das Signal, welches den Verstärker 11, die Vorverzerrerschal­ tung 12, die Bandpaß-Filterbank 13, den Multiplexer 14 und den A/D-Umsetzer 15 passiert hat, in ein zeitspektrales Mu­ ster X(t,f) umgesetzt, das Geräusche enthält, wobei t eine Zeitkomponente und f eine Frequenzkomponente ist.
Die zweite Kennzeichen-Extrahiereinheit 20 extrahiert die Merkmale aus dem wiederzugebenden Signal, welches durch den Lautsprecher 2 in den Klang umgesetzt werden sollte. Der Klang aus dem Lautsprecher 2 wird als Geräusch dem Mikrophon 1 zugeführt. Die zweite Kennzeichen-Extrahiereinheit 20 weist eine Vorverzerrerschaltung 22, eine Bandpaß-Filterbank 23, einen Multiplexer 24 und einen A/D-Umsetzer 25 auf. Die Vor­ verzerrerschaltung 22 hebt die Frequenzkomponenten in dem hochfrequenten Band des wiederzugebenden Signals an, das von den Audio-Einheiten zugeführt worden ist. Die Bandpaß-Filter­ bank 23 ermittelt Spektren des wiederzugebenden Signals in derselben Weise wie die Bandpaß-Filterbank 13 der ersten Kennzeichen-Extrahiereinheit 10. Der Multiplexer 24 wählt eines der von der Bandpaß-Filterbank 23 gelieferten Spektren aus. Der A/D-Umsetzer 25 setzt ein Spektrum in jedem Frequenz­ band, wobei das Spektrum von dem Multiplexer 24 zugeführt wird, in digitale Daten um. In der zweiten Kennzeichen-Extra­ hiereinheit 20 wird das wiederzugebende Signal, welches die Vorverzerrerschaltung 12, die Bandpaß-Filterbank 23, den Mul­ tiplexer 24 und den A/D-Umsetzer 25 passiert hat, in ein zeitspektrales Muster N(t,f) des wiederzugebenden Signals umge­ setzt, das dem Lautsprecher 2 zugeführt werden soll.
Eine Übertragungsfunktion H(f) zwischen dem Lautsprecher 2 und dem Mikrophon 1 ist vorher in einem Übertragungsfunk­ tions-Speicher 28 gespeichert worden. Die Übertragungsfunk­ tion H(f) zeigt eine Voraussetzung an, bei welcher der von dem Lautsprecher 2 abgegebene Klang sich zu dem Mikrophon 1 hin ausbreitet. Das heißt, die Übertragungsfunktion H(f) zeigt eine Beziehung zwischen einem von dem Lautsprecher 2 abgegebenen Klang und einem an dem Mikrophon 1 ankommenden Klang an und verändert sie auf der Basis eines Zustands des Raums, welcher den Lautsprecher 2 und das Mikrophon 1 um­ gibt. Die Übertragungsfunktion H(f) kann experimentell erhal­ ten werden. Wenn beispielsweise ein pulsförmiges Signal durch den Lautsprecher 2 in einen Klang umgewandelt wird, wird ein durch das Mikrophon 1 erhaltener Impuls-Frequenzbereich ent­ sprechend einer Fourier-Transformation verarbeitet. Hierdurch wird die Übertragungsfunktion H(f) zwischen dem Lautsprecher 2 und dem Mikrophon 1 erhalten. Die Übertragungsfunktion H(f) zwischen dem Lautsprecher 2 und dem Mikrophon 1 kann auch auf der Basis eines Frequenzbereichs des Mikrophons 1 erhalten werden, wenn der Lautsprecher 2 ein weißes Rauschen oder Sig­ nale mit einer Frequenzabtastung wiedergibt.
In einer Multipliziereinheit 27 wird das zeitspektrale Muster N(t,f) von dem A/D-Umsetzer 25 und die aus dem Speicher 28 gelesene Übertragungsfunktion H(f) eingegeben, und sie (27) berechnet eines erstes zeitspektrales Geräuschmuster N1(t,f) entsprechend der folgenden Formel:
N1(t,f) = N(t,f)×H(f).
Das erste zeitspektrale Geräuschmuster N1(t,f) entspricht einem zeitspektralen Muster eines Klangs, welcher von dem Mi­ krophon 1 aufgenommen wird, wenn der Lautsprecher 2 einen Klang mit dem zeitspektralen Muster N(t,f) abgibt.
Die erste Geräusche-Subtrahiereinheit 30 erhält das von der ersten Kennzeichen-Extrahiereinheit 10 abgegebene zeitspek­ trale Muster X(t,f) und das erste, von der zweiten Kennzei­ chen-Extrahiereinheit 20 abgegebene, zeitspektrale Geräusch­ muster N1(t,f) und subtrahiert das erste zeitspektrale Ge­ räuschmuster N1(t,f) von dem zeitspektralen Muster X(t,f). Daher erzeugt die erste Geräusche-Subtrahiereinheit 30 ein zeitspektrales Muster X1(t,f) entsprechend der nachstehenden Formel
X₁(t,f) = X(t,f) - N₁(t,f).
Wie vorstehend bereits beschrieben worden ist, entspricht das zeitspektrale Muster X1(t,f) einem Signal, welches erhalten wird, indem das Geräusch, welches auf dem wiederzugebenden Signal basiert, welches durch den Lautsprecher 2 in den Klang umgewandelt werden soll, von dem akustischen Signal subtra­ hiert wird, das von dem Mikrophon 1 erhalten wird. Die Sprachintervall-Detektionseinheit 40 ermittelt die Sprachin­ tervalle auf der Basis der zeitspektralen Muster X1(t,f), welche von der ersten Geräusche-Subtrahiereinheit abgegeben worden sind. Die Sprachintervall-Detektionseinheit 40 ermit­ telt die Sprachintervalle wie folgt.
In jedem Rahmen für eine Abtastzeit (beispielsweise 10 ms) werden die zeitspektralen Muster X1(t,f) in allen (fünfzehn) Frequenzbändern so addiert, daß die folgende Gesamtsumme er­ halten wird:
Wenn die Gesamtsumme größer als ein vorherbestimmter Schwel­ lenwert ist, wird der Rahmen als das Sprachintervall festge­ legt.
Die Geräusche-Vermutungseinheit 50 nimmt fortlaufend das Mit­ tel der zeitspektralen Muster X1n(t,f), welche von der ersten Geräusche-Subtrahiereinheit 30 abgegeben werden, in Interval­ len außer dem Sprachintervall, das von der Sprachintervall- Detektionseinheit 40 ermittelt worden ist. In den vorstehend angeführten Mustern X1 (t,f) sind mit n die Intervalle außer den Sprachintervallen (d. h. keine Sprache enthaltende Inter­ valle bzw. Nicht-Sprachen-Intervalle) bezeichnet. Die Geräu­ sche-Vermutungseinheit 50 gibt das Mittel der zeitspektralen Muster X1n(t,f) als ein zweites zeitspektrales Geräuschmuster N2(t,f) ab. Das zweite zeitspektrale Geräuschmuster N2(t,f) entspricht inneren Geräuschen und nicht dem von dem Lautspre­ cher 2 abgegebenen Klang. Das heißt, das zweite zeitspektrale Geräuschmuster N2(t,f) entspricht einem Motorgeräusch, einem Straßengeräusch u. ä., welches hauptsächlich regelmäßige Ge­ räusche sind, in welchen sich über einen entsprechenden Zeit­ abschnitt bezüglich der Zeit nicht viel ändert. Die zweite Geräusche-Subtrahiereinheit 60 subtrahiert das zweite zeit­ spektrale Geräuschmuster N2(t,f) von den zeitspektralen Mu­ stern X1s(t,f), welche von der ersten Geräusche-Subtrahier­ einheit 30 in mittels der Einheit 40 ermittelten Sprachinter­ valle abgegeben werden, so daß die zweite Geräusche-Subtra­ hiereinheit 60 die folgenden zeitspektralen Muster S(t,f) ab­ gibt, welche der Stimme des Sprechers entsprechen sollen.
S(t,f) = X1s(t,f) - N₂(t,f).
In dem vorstehenden Term X1s(t,f) ist mit s das Zeitsprachin­ tervall bezeichnet. Die Sprachintervall-Feststelleinheit 40, die Geräusche-Vermutungseinheit 50 und die zweite Geräusche- Subtrahiereinheit 60 arbeiten entsprechend der herkömmlichen "spektralen Subtraktionsmethode".
Die Eingangsmuster erzeugende Einheit 70 wandelt die Merkmale oder Kennzeichen, welche durch die zeitspektralen Muster S(t,f) festgesetzt worden sind, welche von der zweiten Geräu­ sche-Subtrahiereinheit 60 geliefert worden sind, in ein ein­ gegebenes Sprachmuster entsprechend einem bekannten BTSP- (Binary Time Spectrum Pattern)Spracherkennungsverfahren um. Das BTSP-Spracherkennungsverfahren ist beispielsweise in "Fuzzy Sets and Systems 32 (1989), Stn. 181 bis 191" be­ schrieben. Der Speicher 80 speichert die Referenzmuster. Je­ des der Referenzmuster hat ein Format, das auf dem BTSP- Spracherkennungsverfahren basiert. Die Erkennungseinheit 90 gibt das eingegebene Sprachmuster von der Eingabemuster er­ zeugenden Einheit 70 und die Referenzmuster von dem Referenz­ musterspeicher 80 ein und führt eine Erkennungsoperation auf der Basis des BTSP-Spracherkennungsverfahrens durch.
Die Sprachintervall-Detektionseinheit 40, die Geräusche-Ver­ mutungseinheit 50, die zweite Geräusche-Subtrahiereinheit 60, die Eingabemuster erzeugende Einheit 70 und die Erkennungs­ einheit 90 sind beispielsweise in einem Mikrocomputer ausge­ bildet. Außerdem können die Methode, die Sprachintervalle in der Sprachintervall-Detektionseinheit 40 zu detektieren, die Methode, das Geräusch in der zweiten Geräusch-Subtrahierein­ heit 60 zu subtrahieren, das Verfahren, das eingegebene Sprachmuster in der Eingabemuster erzeugenden Einheit 70, das Format des in dem Speicher 80 gespeicherten Musters und eine Erkennungsoperation in der Erkennungseinheit 90 zu erzeugen, in solche Verfahren abgeändert werden, welche auf dem Gebiet der Spracherkennung bekannt sind. Eine digitale Signal­ funktionsschaltung, wie eine schnelle Fourier-Transformation (FFT), kann an die Stelle von jeder der Bandpaß-Filterbänke 13 und 23 gesetzt werden. Die ersten und zweiten Kennzeichen-Ex­ trahiereinheiten 10 bzw. 20 haben die A/D-Umsetzer 15 und 25; die ersten und zweiten Kennzeichen-Extrahiereinheiten können jedoch auch statt dessen einen A/D-Umsetzer durch eine Time- Sharing-Steuerung gemeinsam benutzen.
Nunmehr wird eine Modifikation der ersten Ausführungsform an­ hand von Fig. 2 beschrieben. Fig. 2 zeigt das Spracherkennungs­ system, um eine Sprache (Stimme) eines Sprechers unter einer Voraussetzung zu erkennen, bei welcher zwei Lautsprecher in dem Fahrzeug Klänge abgeben. In Fig. 2 sind die Teile, welche dieselben sind wie die in Fig. 1 dargestellten Teile mit den­ selben Bezugszeichen bezeichnet.
In Fig. 2 wird ein erstes wiederzugebendes Signal einem ersten Lautsprecher 2a und ein zweites wiederzugebendes Signal einem zweiten Lautsprecher 2b zugeführt. Das erste wiederzugebende Signal wird auch an eine zweite Kennzeichen-Extrahiereinheit 20a angelegt, und das zweite wiederzugebende Signal wird auch an eine andere, zweite Kennzeichen-Extrahiereinheit 20b ange­ legt. Das heißt, in diesem Spracherkennungssystem sind zwei zweite Kennzeichen-Extrahiereinheiten 20a und 20b vorgesehen. Eine zweite Kennzeichen-Extrahiereinheit 20a hat eine Vorver­ zerrerschaltung 22a, eine Bandpaß-Filterbank 23a, einen Mul­ tiplexer 24a und einen A/D-Umsetzer 25a in derselben Weise wie in Fig. 1 dargestellt ist. Die andere, zweite Kennzeichen- Extrahiereinheit 20b hat eine Vorverzerrerschaltung 22b, eine Bandpaß-Filterbank 23b, einen Multiplexer 24b und einen A/D- Umsetzer 25b in derselben Weise, wie in Fig. 1 dargestellt ist. Ein Speicher 28a speichert eine erste Übertragungsfunk­ tion Ha(f) zwischen dem ersten Lautsprecher 2a und dem Mikro­ phon 1. Die erste Übertragungsfunktion Ha(f) zeigt einen Zu­ stand an, bei welchem der von dem ersten Lautsprecher 2a ab­ gegebene Klang sich zu dem Mikrophon 1 hin ausbreitet. Das heißt, die erste Übertragungsfunktion Ha(f) gibt eine Bezie­ hung zwischen einem von dem ersten Lautsprecher 2a abgegebe­ nen Klang und einem an dem Mikrophon 1 ankommenden Klang wie­ der und ändert sich aufgrund der Bedingungen in einem Raum, welcher den ersten Lautsprecher 2a und das Mikrophon 1 um­ gibt. Die erste Übertragungsfunktion H(f) kann auch experi­ mentell in derselben Weise wie in dem anhand von Fig. 1 be­ schriebenen Fall erhalten werden. Ein Speicher 28b in der an­ deren zweiten Kennzeichen-Extrahiereinheit 20b speichert eine zweite Übertragungsfunktion Hb(f) zwischen dem zweiten Laut­ sprecher 2b und dem Mikrophon 1. Die zweite Übertragungsfunk­ tion Hb(f) gibt einen Zustand wieder, unter welchem sich der von dem zweiten Lautsprecher 2b abgegebene Klang zu dem Mi­ krophon 1 hin ausbreitet bzw. fortpflanzt. Das heißt, die zweite Übertragungsfunktion Hb(f) gibt eine Beziehung zwi­ schen einem von dem zweiten Lautsprecher 2a abgegebenen Klang und einem an dem Mikrophon 1 ankommenden Klang wieder und än­ dert sich aufgrund des Zustandes bzw. der Voraussetzungen in einem Raum, welcher den zweiten Lautsprecher 2b und das Mikro­ phon 1 umgibt. Die zweite Übertragungsfunktion Hb(f) kann auch auf dieselbe Weise wie in dem unter Bezugnahme auf Fig. 1 beschriebenen Fall experimentell erhalten werden.
In der zweiten Kennzeichen-Extrahiereinheit 20a wird ein zeitspektrales Muster Na(t,f) des ersten wiederzugebenden Signals erhalten, und dann multipliziert eine Multiplizier­ einheit 27a das zeitspektrale Muster Na(t,f) und die erste Übertragungsfunktion Ha(f), so daß dann die Multiplizierein­ heit 27a abgibt: Na(t,f)×Ha( f). In der anderen, zweiten Kennzeichen-Extrahiereinheit 20b wird ein zeitspektrales Mu­ ster Nb(t,f) des zweiten wiederzugebenden Signals erhalten, und dann multipliziert eine Multipliziereinheit 27b die zeit­ spektralen Muster Nb(t,f) und die zweite Übertragungsfunktion Hb(f), so daß dann die Multipliziereinheit 27b abgibt: Nb(t,f)×Hb(f). Ein Addierer 29 erhält Na(t,f) ×Ha(f) von der Multipliziereinheit 27a und Nb(t,f)×Hb(f) von der Mul­ tipliziereinheit 27b und gibt das folgende, zeitspektrale Ge­ räuschmuster N1(t,f) ab:
N₁(t,f) = Na(t,f) × Ha(f) + Nb(t,f) × Hb(f).
Der Spracherkennungsprozeß wird dann auf der Basis des zeit­ spektralen Musters X(t,f), das von der ersten Kennzeichen-Ex­ trahiereinheit 10 abgegeben worden ist, auf der Basis des zeitspektralen Geräuschmusters N1(t,f), das von dem Addierer 29 abgegeben worden ist, und der Referenzmuster aus dem Spei­ cher 80 in derselben Weise wie bei dem vorstehend anhand von Fig. 1 beschriebenen Prozeß durchgeführt.
Das in Fig. 2 dargestellte Spracherkennungssystem wird in dem Fall angewendet, wenn zwei Lautsprecher 2a und 2b im Inneren des Fahrzeugs vorgesehen sind. Selbst wenn die Anzahl von im Inneren des Fahrzeugs vorgesehener Lautsprecher größer als zwei ist, kann jedoch das Spracherkennungssystem in derselben Weise wie in Fig. 2 dargestellt ist, durchgeführt werden. Das heißt, eine zweite Kennzeichen-Extrahiereinheit, eine Multiplizier­ einheit und einen Übertragungsfunktionsspeicher, welcher je­ dem der Lautsprecher entspricht, sind vorgegeben und Aus­ gangssignale von den verschiedenen zweiten Kennzeichen-Ex­ trahiereinheiten werden so addiert, daß das zeitspektrale Ge­ räuschmuster N1(t,f) erhalten wird.
Nunmehr wird eine zweite Ausführungsform der Erfindung anhand von Fig. 3 beschrieben. Die Übertragungsfunktion H(f) zwischen dem Lautsprecher 2 und dem Mikrophon 1 ändert sich aufgrund des Zustands bzw. der Voraussetzungen eines Raums, welcher den Lautsprecher 2 und das Mikrophon 1 umgibt. Menschliche Körper absorbieren eine akustische Welle, so daß sich bei­ spielsweise in dem Fahrzeug die Übertragungsfunktion H(f) in Abhängigkeit von der Anzahl der Personen im Inneren des Fahr­ zeugs ändert. Die Übertragungsfunktion H(f) ändert sich auch in Zusammenhang mit der Anzahl geöffneter Türen und/oder Fen­ ster in dem Fahrzeug. Daher werden in der zweiten Ausfüh­ rungsform eine Anzahl Übertragungsfunktionen in dem Übertra­ gungsfunktions-Speicher gespeichert, wobei jede der Übertra­ gungsfunktionen der Anzahl Personen oder der Anzahl geöffne­ ter Türen und/oder Fenster in dem Fahrzeug entspricht.
In Fig. 3 sind die Teile, welche dieselben wie diejenigen in Fig. 1 sind, mit denselben Bezugszeichen bezeichnet. In Fig. 3 werden eine Anzahl Übertragungsfunktionen Hr(t,f) vorher in dem Übertragungsfunktions-Speicher 28 gespeichert. In den Funktionen Hr(t,f) ist mit r ein bestimmter Typ der Übertra­ gungsfunktionen H(t,f) bezeichnet. Beispielsweise wird dann, wenn die Anzahl Personen im Inneren des Fahrzeugs gleich r (r = 1, 2, . . .) ist, die Übertragungsfunktion mit Hr(f) be­ zeichnet. Jede der Übertragungsfunktionen Hr(f) wird experi­ mentell unter der Voraussetzung erhalten, bei welcher r Per­ sonen in einem Fahrzeug sitzen. Beispielsweise wird jede der Übertragungsfunktionen Hr(f) auf der Basis des Impuls-Fre­ quenzbereichs zwischen dem Lautsprecher 2 und dem Mikrophon 1 unter der Voraussetzung erhalten, daß r Personen in dem Fahr­ zeug sitzen.
Ein Wählschalter 28′ ist zum Auswählen einer der Übertragungs­ funktionen Hr(f) vorgesehen. Der Wählschalter 28′ hat eine Anzahl von Schaltelementen, welche jeweils der Anzahl Perso­ nen in dem Fahrzeug entsprechen. Wenn beispielsweise r Perso­ nen in dem Fahrzeug sitzen, kann der Fahrer des Fahrzeugs ein Schalterelement betätigen, das r Personen entspricht. Infolge der Betätigung des r Personen entsprechenden Schaltelements in dem Wählschalter 28′ wird die Übertragungsfunktion Hr(f) aus dem Speicher 28 ausgelesen und der Multipliziereinheit 27 zugeführt. Die Multipliziereinheit 27 berechnet dann das fol­ gende zeitspektrale Geräuschmuster N1(t,f).
N₁(t,f) = N(t,f) × Hr(f).
Folglich wird dieses zeitspektrale Geräuschmuster N1(t,f) von der zweiten Kennzeichen-Extrahiereinheit 20 abgegeben.
Dann werden die Spracherkennungsprozesse auf der Basis des zeitspektralen Musters X(t,f), das von der ersten Kennzei­ chen-Extrahiereinheit 10 abgegeben worden ist, auf der Basis des zeitspektralen Geräuschmusters N1(t,f), das von der Kenn­ zeichen-Extrahiereinheit 20 abgegeben worden ist, und auf der Basis des von dem Speicher 80 abgegebenen Referenzmusters in derselben Weise wie die anhand von Fig. 1 beschriebenen Prozesse durchgeführt.
Bei der zweiten Ausführungsform kann die Übertragungsfunktion entsprechend der Anzahl Personen, welche in dem Fahrzeug sit­ zen, ausgewählt werden, so daß absolut sicher das Geräusch von dem Lautsprecher 2 von dem Geräusch an dem Mikrophon 1 bzw. das von dem Mikrophon 1 aufgenommen worden ist, subtrahiert wird, selbst wenn sich die Anzahl Personen im Inneren des Fahrzeugs ändert.
Nunmehr werden verschiedene Modifikationen der zweiten Aus­ führungsform anhand von Fig. 4 bis 6 beschrieben. In Fig. 4 ist ein Spracherkennungssystem dargestellt, bei welchem zwei Lautsprecher 2a und 2b im Inneren des Fahrzeugs vorgesehen sind. In Fig. 4 sind die Teile, welche dieselben sind wie die in Fig. 2 und 3 dargestellten Teile mit denselben Bezugszei­ chen bezeichnet. In diesem Fall hat das Spracherkennungssystem zwei zweite Kennzeichen-Extrahiereinheiten 20a und 20b, wel­ che den jeweiligen Lautsprechern 2a und 2b in derselben Weise wie diejenigen in Fig. 2 entsprechen. In jeder der zweiten Kennzeichen-Extrahiereinheiten 20a und 20b werden eine Anzahl Übertragungsfunktionen Hr(f) in dem jeweiligen Übertragungs­ funktions-Speicher 28a (28b) in derselben Weise wie in dem anhand von Fig. 2 beschriebenen Spracherkennungssystem gespei­ chert. Dann wählt der Wählschalter 28′ eine der in dem jewei­ ligen Speicher 28a (28b) gespeicherten Übertragungsfunktionen in derselben Weise aus, wie in Fig. 3 dargestellt und anhand von Fig. 3 beschrieben ist.
Die Übertragungsfunktion ändert sich in Abhängigkeit von einem Zustand, ob nämlich jede der Türen und/oder Fenster des Fahrzeugs geöffnet oder geschlossen ist. In diesem Fall werden eine Anzahl Übertragungsfunktionen Hr(f) vorher in dem in Fig. 3 dargestellten Speicher 28 oder in jedem der in Fig. 4 dargestellten Speicher 28a und 28b gespeichert. Beispielswei­ se gibt es verschiedene Zustände, daß nämlich jede der Türen des Fahrzeugs entweder geöffnet oder geschlossen ist. Wenn das Fahrzeug V vier Türen D1 bis D4 hat, wie in Fig. 5 dargestellt ist, gibt es 16 (24) Zustände, da jede der Türen D1 bis D4 entweder geöffnet oder geschlossen sein kann. Folglich ent­ spricht jede der Übertragungsfunktionen Hr(f) dem r-ten Zu­ stand der Türen (r = 1, 2, ...16). Jede der Übertragungsfunk­ tionen Hr(f) wird beispielweise auf der Basis des Impuls- Frequenzverlaufs zwischen jedem Lautsprecher und dem Mikro­ phon 1 in dem r-ten Zustand der Türen erhalten.
In diesem Fall sind in dem Fahrzeug V, wie in Fig. 5 darge­ stellt ist, vier Schalter SW1 bis SW4 vorgesehen, um festzu­ stellen ob verschiedene Türen D1 bis D4 geöffnet sind oder nicht. Jeder der Schalter SW1 bis SW4 wird automatisch ange­ schaltet, wenn eine der entsprechenden Türen D1 bis D4 ge­ schlossen ist. Ein-/Aus-Signale, welche von den Schaltern SW1 bis SW4 abgegeben werden, werden einer Steuereinheit 100 zugeführt. Die Steuereinheit 100 hat Zugriff zu dem Speicher 28 und wählt eine Übertragungsfunktion H (f) aus, welche dem r-ten Zustand der Türen entspricht, welcher durch die Ein-/ Aus-Signale spezifiziert ist, welche durch die Schalter SW1 bis SW4 geliefert worden sind. Die ausgewählte Übertragungs­ funktion Hr(f) wird an die Multipliziereinheit 27 angelegt, welche dann das folgende zeitspektrale Geräuschmuster N1(t,f) in derselben Weise wie in Fig. 1 dargestellt ist, berechnet, nämlich:
N₁(t,f) = X(t,f) × Hr(f).
Es kann auch eine Übertragungsfunktion zwischen dem Lautspre­ cher und dem Mikrophon entsprechend verschiedenen Zuständen bestimmt werden, je nachdem welches der Fenster des Fahrzeugs geöffnet oder geschlossen ist. Außerdem kann die Übertragungs­ funktion zwischen dem Lautsprecher und dem Mikrophon in Über­ einstimmung damit bestimmt werden, wie viele der verschiede­ nen Fenster, die in dem Fahrzeug vorgesehen sind, geöffnet sind. In diesem Fall ist eine Fühleinrichtung, um festzustel­ len, wie viele der Fenster jeweils geöffnet sind, in dem Spracherkennungssystem vorgesehen, wie in Fig. 6 dargestellt ist.
In Fig. 6 hat eine Fühleinheit 40 einen Schiebewiderstand R, welcher an einem Rahmen 41 jedes Fensters WD vorgesehen ist, eine Gleichstromversorgung Vo und ein Amperemeter 42. Das Fenster WD kann in dem Rahmen auf- und abwärts bewegt werden. Der Wert des Schiebewiderstands R wird entsprechend der Grö­ ße der Kante des Fensters WD geändert,die mit dem Schiebewi­ derstand R in Kontakt steht. Die Gleichstromquelle Vo, der Schiebewiderstand R und das Amperemeter 42 sind in Reihe ge­ schaltet, so daß der Wert des Schiebwiderstand R durch das Amperemeter 42 gemessen wird. Das heißt, ein Ausgangssignal von dem Amperemeter 42 gibt wieder, wie weit jedes Fenster WD geöffnet ist. Das Ausgangssignal von dem Amperemeter 42 wird der Steuereinheit 100 zugeführt, welche wiederum die Übertra­ gungsfunktion auswählt, welche einem Ausgangssignal ent­ spricht, das von jeder Fühleinheit 40 geliefert worden ist, die an jedem der Fenster des Fahrzeugs vorgesehen ist.
Um zu verhindern, daß die Anzahl an Übertragungsfunktionen zunimmt, ist es wünschenswert, daß, wie weit jedes Fenster WD geöffnet wird, in zwei oder drei Stufen eingeteilt wird. Bei­ spielsweise ist in der ersten Stufe jedes Fenster geschlossen oder befindet sich in einem Zustand zwischen dem geschlossenen Zustand und einem Zustand, in welchem es zu einem Drittel ge­ öffnet ist. In der zweiten Stufe befindet sich jedes Fenster in dem Zustand, daß es zu einem Drittel geöffnet ist, oder weist einen Zustand zwischen dem Zustand, in welchem zu einem Drittel geöffnet ist, und einem Zustand, in welchem es zu zwei Drittel geöffnet ist. In einer dritten Stufe nimmt jedes Fenster einen Zustand ein, in welchem es zu zwei Drittel ge­ öffnet ist, oder es ist vollständig geöffnet oder nimmt einen Zustand zwischen dem Zustand, in welchem es zu zwei Drittel geöffnet ist, und dem vollständig geöffneten Zustand ein. Wenn in diesem Fall vier Fenster in dem Fahrzeug vorgesehen sind, haben die Fenster 81 (34) Zustände. Jede Übertragungs­ funktion, welche jedem der 81 Zustände der Fenster entspricht, ist dann in dem Übertragungsfunktions-Speicher 28 vorgesehen.
Wieviel jedes Fenster geöffnet ist, kann auch mit Hilfe opti­ scher Sensoren festgestellt werden. Außerdem kann die Über­ tragungsfunktion auf der Basis einer Kombination von zwei oder mehr der folgenden Faktoren bestimmt werden: die Anzahl Personen im Inneren des Fahrzeugs, die Anordnung der Personen im Inneren des Fahrzeugs, ob jede Tür geöffnet oder geschlos­ sen ist, und wie weit jedes Fenster geöffnet ist.
Gemäß der Erfindung kann das Geräusch von dem Lautsprecher von dem Klang, welcher dem Mikrophon zugeführt bzw. von diesem aufgenommen wird, mit Hilfe der Übertragungskenndaten, wie der Übertragungsfunktion zwischen Lautsprecher und dem Mikro­ phon, subtrahiert werden. Somit kann ohne weiteres das Geräusch gegenüber dem akustischen Signal unterdrückt werden.

Claims (15)

1. Geräuschunterdrückungseinrichtung für ein Spracherken­ nungssystem, in welchem eine Sprache eines Sprechers, welche einem Mikrophon (1) zugeführt worden ist, erkannt werden kann, wobei das Mikrophon in einem Raum zwischen einem Lautsprecher (2), welcher einen Klang abgibt, der einem wiederzugebenden Signal entspricht, welches von einer Audio-Einheit zugeführt wird, und dem Lautsprecher (2) vorgesehen ist, gekennzeichnet durch
eine erste Kennzeichen-Extrahiereinheit (10), um erste Kenn­ zeichendaten aus einem akustischen Signal zu extrahieren, das von dem Mikrophon (1) abgegeben worden ist, wobei die ersten Kennzeichendaten ein Kennzeichen des akustischen Signals dar­ stellen;
eine zweite Kennzeichen-Extrahiereinheit (20), um zweite Kennzeichendaten aus dem wiederzugebenden Signal zu extrahie­ ren, welches dem Lautsprecher (2) zugeführt werden sollte, wobei die zweiten Kennzeichendaten ein Kennzeichen des wie­ derzugebenden Signals darstellen;
einen Speicher (28) zum Speichern von Übertragungskenndaten, welche einen Zustand darstellen, unter welchem sich ein Klang von dem Lautsprecher (2) zu dem Mikrophon (1) ausbreitet, wo­ bei die Übertragungskenndaten vorher in dem Raum gemessen worden sind, in welchem das Mikrophon (1) und der Lautspre­ cher (2) vorgesehen werden;
eine erste Geräuschkomponenten erzeugende Einheit (27), wel­ che mit der zweiten Kennzeichen-Extrahiereinheit (20) und dem Speicher (28) verbunden ist, um Geräuschdaten, welche auf den zweiten Kennzeichendaten von der zweiten Kennzeichen-Ex­ trahiereinheit (20) und den Übertragungskenndaten von dem Speicher (28) beruhen, zu erzeugen, wobei die Geräuschdaten einen Klang darstellen, welcher sich von dem Lautsprecher (2) durch den Raum zu dem Mikrophon (1) fortpflanzt, und
eine erste Geräusche-Subtrahiereinheit (30), welche mit der ersten Kennzeichen-Extrahiereinheit (10) und der ersten Ge­ räuschkomponenten erzeugenden Einheit (27) verbunden ist, um die Geräuschdaten, welche von der Geräuschkomponenten erzeu­ genden Einrichtung (27) zugeführt worden sind, von den ersten Kennzeichendaten zu subtrahieren, die von der ersten Kenn­ zeichen-Extrahiereinheit (10) zugeführt worden sind, und um erste Sprachdaten abzugeben,
so daß die ersten Sprachdaten verwendet werden, um die Spra­ che/Stimme des Sprechers zu erkennen.
2. Einrichtung nach Anspruch 1, dadurch gekenn­ zeichnet, daß die Übertragungskenndaten eine Übertra­ gungsfunktion zwischen dem Lautsprecher (2) und dem Mikro­ phon (1) sind, wobei die Übertragungsfunktion eine Beziehung zwischen einem Klang, welcher von dem Lautsprecher (2) abge­ geben wird und einem Klang darstellt welcher von dem Laut­ sprecher (2) dem Mikrophon (1) zugeführt wird.
3. Einrichtung nach Anspruch 2, dadurch gekenn­ zeichnet, daß die erste Geräuschkomponenten erzeu­ gende Einheit eine Multipliziereinheit (27) aufweist, welche die zweiten Kennzeichendaten und die Übertragungsfunktion miteinander multipliziert, wobei das Multiplizierergebnis in der Multipliziereinheit (27) als die Geräuschdaten verwen­ det werden.
4. Einrichtung nach Anspruch 1, dadurch gekenn­ zeichnet, daß der Speicher (28) eine Anzahl Übertra­ gungskenndaten speichert, welche jeweils einem Zustand des Raumes entsprechen, in welchem der Lautsprecher (2) und das Mikrophon (1) vorgesehen sind, und daß die Rauschunterdrückungs­ einrichtung ferner eine Wähleinheit (28′) aufweist, um eine der Übertragungskenndaten aus dem Speicher (28) ent­ sprechend einem Zustand des Raums auszuwählen, in welchem der Lautsprecher (2) und das Mikrophon (1) vorhanden sind, so daß die ausgewählten Übertragungskenndaten der ersten Ge­ räuschkomponenten erzeugenden Einheit (27) zugeführt werden.
5. Einrichtung nach Anspruch 4, dadurch gekenn­ zeichnet, daß das Mikrophon (1) im Inneren eines Fahr­ zeugs vorgesehen ist, in welchem der Lautsprecher (2) vorge­ sehen ist, und daß jede der Übertragungskenndaten auf der Ba­ sis der Anzahl Personen im Inneren des Fahrzeugs bestimmt wird, und daß die Wähleinheit (28′) die Übertragungskenndaten auswählt, welche der Anzahl Personen im Inneren des Fahrzeugs entsprechen.
6. Einrichtung nach Anspruch 4, dadurch gekenn­ zeichnet, daß das Mikrophon (1) im Inneren eines Fahr­ zeugs vorgesehen ist, in welchem ein Lautsprecher (2) vorge­ sehen ist, und daß Übertragungskenndaten jeweils in Abhängig­ keit davon bestimmt werden, ob jede Tür des Fahrzeugs geöff­ net oder geschlossen ist, und daß die Wähleinheit (28′) die­ jenigen Übertragungskenndaten auswählt, welche dem Zustand entsprechen, bei welchem die Türen des Fahrzeugs geöffnet oder geschlossen sind.
7. Einrichtung nach Anspruch 6, dadurch gekenn­ zeichnet, daß die Wähleinheit (28′) Fühleinheiten (SW1 bis SW4; 100) aufweist, um festzustellen, ob jede Tür des Fahrzeugs geöffnet ist oder nicht, so daß die jeweilige Über­ tragungscharakteristik auf der Basis eines Fühlergebnisses in der Fühleinheit (SW1 bis SW4; 100) gewählt wird.
8. Einrichtung nach Anspruch 4, dadurch gekenn­ zeichnet, daß das Mikrophon (1) im Inneren eines Fahr­ zeugs vorgesehen ist, in welchem der Lautsprecher (2) vorge­ sehen ist, und daß Übertragungskenndaten jeweils in Abhängig­ keit davon bestimmt werden, wie weit jedes Fenster (WD) des Fahrzeugs geöffnet ist, und daß die Wähleinheit (28′) die je­ weiligen Übertragungskenndaten in Abhängigkeit davon auswählt, wie weit jedes Fenster des Fahrzeugs geöffnet ist.
9. Einrichtung nach Anspruch 8, dadurch gekenn­ zeichnet, daß die Wähleinheit (28′) eine Fühleinheit (40) hat, um festzustellen, wie weit jedes Fenster des Fahr­ zeugs geöffnet ist, so daß eine Übertragungscharakteristik in Abhängigkeit davon gewählt wird, wie weit jedes Fenster geöffnet ist, was mittels der Fühleinheit (40) festgestellt worden ist.
10. Einrichtung nach Anspruch 1, gekennzeichnet durch eine Geräuschkomponenten erzeugende Einheit (40, 50), welche mit der ersten Geräusche-Subtrahiereinheit (30) ver­ bunden ist, um eine Geräuschkomponente auf der Basis der er­ sten Sprachdaten zu erzeugen, und eine zweite Geräusche-Sub­ trahiereinheit (60), um die Geräuschkomponente, welche von der zweiten Geräuschkomponenten erzeugenden Einheit (40, 50) erzeugt worden ist, von den ersten Sprachdaten zu subtrahie­ ren, welche von der ersten Geräusche-Subtrahiereinheit (30) zugeführt worden sind, wobei die zweite Geräusche-Subtrahier­ einheit (60) zweite Sprachdaten abgibt, so daß die zweiten Sprachdaten zum Erkennen der Sprache/Stimme des Sprechers verwendet werden.
11. Sprachunterdrückungseinrichtung für ein Spracherkennungs­ system, in welche eine Sprache/Stimme eines Sprechers, welche einem Mikrophon (1) zugeführt worden ist, erkannt wird, wobei das Mikrophon (1) in einem Raum mit einer Anzahl Lautsprecher (2a, 2b) vorgesehen ist, wobei jeder der Lautsprecher (2a, 2b) einen Klang abgibt, welcher einem wiederzugebenden Signal entspricht, welches von einer Audio-Einheit jedem der Laut­ sprecher (2a, 2b) zugeführt wird, gekennzeich­ net durch
eine erste Kennzeichen-Extrahiereinheit (10), um erste Kenn­ zeichendaten aus einem akustischen Signal zu extrahieren, das von dem Mikrophon (1) abgegeben worden ist, wobei die er­ sten Kennzeichendaten einem Kennzeichen des akustischen Sig­ nals entsprechen;
eine zweite Kennzeichen-Extrahiereinheit (20a, 20b), um zwei­ te Kennzeichendaten von dem wiederzugebenden Signal zu extra­ hieren, das jedem der Lautsprecher (2a, 2b) zugeführt werden sollte, wobei die zweiten Kennzeichendaten ein Kennzeichen des wiederzugebenden Signals darstellen;
Speicher (28, 28b) zum Speichern von Übertragungskenndaten, welche einen Zustand darstellen, bei welchem ein Klang sich von jedem der Lautsprecher (2a, 2b) zu dem Mikrophon (1) fortpflanzt, wobei die Übertragungskenndaten vorher in dem Raum gemessen worden sind, in welchem das Mikrophon (1) und die Lautsprecher (2a, 2b) vorgesehen werden;
eine erste Geräuschkomponenten erzeugende Einrichtung (27a, 27b), welche mit der zweiten Kennzeichen-Extrahiereinrich­ tung (20a, 20b) und den Speichern (28a, 28b) verbunden ist, um eine Geräuschkomponente auf der Basis der zweiten Kenn­ zeichendaten von der zweiten Kennzeichen-Extrahiereinrich­ tung (20a, 20b) und die Übertragungskenndaten von den Spei­ chern (28a, 28b) zu erzeugen, wobei die Geräuschkomponente einen Klang darstellt, welcher sich von jedem der Lautspre­ cher (2a, 2b) über den Raum zu dem Mikrophon (1) ausbreitet.
eine Geräuschdaten erzeugende Einrichtung (29) zum Erzeugen von Geräuschdaten auf der Basis der jeweiligen Geräuschkompo­ nente von der die erste Geräuschkomponente erzeugenden Ein­ richtung (27a, 27b), und
eine erste Geräusche-Subtrahiereinrichtung (30), welche mit der ersten Kennzeichen-Extrahiereinrichtung (10) und der er­ sten Geräuschdaten erzeugenden Einrichtung (29) verbunden ist, um die Geräuschdaten, welche von der Geräuschdaten er­ zeugenden Einrichtung (29) zugeführt worden sind, von den er­ sten Kennzeichendaten zu subtrahieren, welche von der ersten Kennzeichen-Extrahiereinrichtung (10) zugeführt worden sind, und um erste Sprachdaten abzugeben,
so daß die ersten Sprachdaten zum Erkennen der Sprache/Stimme des Sprechers verwendet werden.
12. Einrichtung nach Anspruch 11, dadurch gekenn­ zeichnet, daß die Übertragungskenndaten eine Übertra­ gungsfunktion zwischen jedem der Lautsprecher (2a, 2b) und dem Mikrophon (1) sind, wobei die Übertragungsfunktion eine Beziehung zwischen einem Klang, welcher von jedem der Laut­ sprecher (2a, 2b) abgegeben wird, und einem Klang darstellen, welcher von jedem der Lautsprecher (2a, 2b) dem Mikrophon (1) zugeführt wird.
13. Einrichtung nach Anspruch 12, dadurch gekenn­ zeichnet, daß die erste Geräuschkomponenten erzeugende Einrichtung eine Multipliziereinrichtung (27a, 27b) aufweist, um die zweiten Kennzeichendaten und die Übertragungsfunktion miteinander zu multiplizieren, wobei ein Multiplizierergebnis in der Multipliziereinrichtung (27a, 27b) als die Geräusch­ komponente verwendet wird.
14. Einrichtung nach Anspruch 13, dadurch gekenn­ zeichnet, daß Geräuschdaten erzeugende Einrichtung einen Addierer (29) aufweist, um Geräuschkomponenten, welche von der jeweiligen Multipliziereinrichtung (27a, 27b) zuge­ führt worden sind, zu addieren, wobei dann der Addierer (29) die Geräusch­ daten abgibt.
15. Einrichtung nach Anspruch 11, gekennzeichnet durch eine zweite Geräuschkomponenten erzeugende Einrichtung (40, 50), welche mit der ersten Geräusche-Subtrahiereinrich­ tung (30) verbunden ist, um eine Geräuschkomponente auf der Basis der ersten Sprachdaten zu erzeugen, und eine zweite Geräusche-Subtrahiereinrichtung (60) zum Subtra­ hieren der Geräuschkomponente, welche von der zweiten Ge­ räuschkomponenten erzeugenden Einrichtung (40, 50) erzeugt worden ist, von den ersten Sprachdaten zu subtrahieren, wel­ che von der ersten Geräusche-Subtrahiereinrichtung (30) zu­ geführt worden sind, wobei die zweite Geräusche-Subtrahier­ einrichtung (60) zweite Sprachdaten abgibt, so daß die zwei­ ten Sprachdaten zum Erkennen der Sprache/Stimme des Sprechers verwendet werden.
DE19914106405 1990-03-23 1991-02-28 Geräuschunterdrückungseinrichtung für ein Spracherkennungsystem Expired - Fee Related DE4106405C2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2074690A JPH03274099A (ja) 1990-03-23 1990-03-23 音声認識装置
JP2074689A JPH03274098A (ja) 1990-03-23 1990-03-23 雑音除去方式

Publications (2)

Publication Number Publication Date
DE4106405A1 true DE4106405A1 (de) 1991-09-26
DE4106405C2 DE4106405C2 (de) 1996-02-29

Family

ID=26415875

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19914106405 Expired - Fee Related DE4106405C2 (de) 1990-03-23 1991-02-28 Geräuschunterdrückungseinrichtung für ein Spracherkennungsystem

Country Status (1)

Country Link
DE (1) DE4106405C2 (de)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4307688A1 (de) * 1993-03-11 1994-09-15 Daimler Benz Ag Verfahren zur Geräuschreduktion für gestörte Sprachkanäle
US5400409A (en) * 1992-12-23 1995-03-21 Daimler-Benz Ag Noise-reduction method for noise-affected voice channels
EP0749108A1 (de) * 1995-06-15 1996-12-18 MAGNETI MARELLI S.p.A. Anti-Rauscherzeugungsgerät für Kraftfahrzeuge
DE19942868A1 (de) * 1999-09-08 2001-03-15 Volkswagen Ag Verfahren zum Betrieb einer Mehrfachmikrofonanordnung in einem Kraftfahrzeug sowie Mehrfachmikrofonanordnung selbst
DE19854399C2 (de) * 1998-11-25 2001-04-05 Mannesmann Vdo Ag Adaptives Navigationssystem
EP1189031A2 (de) * 2000-09-19 2002-03-20 Robert Bosch Gmbh Verfahren zur Verarbeitung von Audiosignalen
US6947892B1 (en) 1999-08-18 2005-09-20 Siemens Aktiengesellschaft Method and arrangement for speech recognition
US7010129B1 (en) 1998-05-06 2006-03-07 Volkswagen Ag Method and device for operating voice-controlled systems in motor vehicles
WO2006043193A1 (en) * 2004-10-18 2006-04-27 Koninklijke Philips Electronics N.V. A system for monitoring a person
US7467084B2 (en) 2003-02-07 2008-12-16 Volkswagen Ag Device and method for operating a voice-enhancement system
US7760889B2 (en) 2004-08-10 2010-07-20 Volkswagen Ag Speech support system for a vehicle
US7912228B2 (en) 2003-07-18 2011-03-22 Volkswagen Ag Device and method for operating voice-supported systems in motor vehicles
DE102010006285A1 (de) * 2010-01-30 2011-08-04 GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Mich. KFZ-Audiosystem
US8285545B2 (en) 2008-10-03 2012-10-09 Volkswagen Ag Voice command acquisition system and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9263040B2 (en) 2012-01-17 2016-02-16 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance speech recognition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3925589A1 (de) * 1989-08-02 1991-02-14 Blaupunkt Werke Gmbh Verfahren und anordnung zur stoerbefreiung von sprachsignalen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3925589A1 (de) * 1989-08-02 1991-02-14 Blaupunkt Werke Gmbh Verfahren und anordnung zur stoerbefreiung von sprachsignalen

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BOLL, S.F.: Suppression of Acoustic Noise in Speech Using Spectral Subtraction. In: IEEE Transactions on Acoustics, Speech, and Signal Processing, Vol. ASSP-27, Nr. 2, April 1979, S. 113-120 *
FUJIMOTO, J., NAKATANI, T., YONEYAMA, M.: Speaker-Independent Word Recognition Using Fuzzy Pattern Matching. In: Fuzzy Sets and Systems 32 (1989) North-Holland, S. 181-191 *
WIDROW, B. et al: Adaptive Noise Cancelling: Principles and Applications. In: Proceedings of the IEEE, Vol. 63, Nr .12, Dez. 1975, S.1682-1716 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5400409A (en) * 1992-12-23 1995-03-21 Daimler-Benz Ag Noise-reduction method for noise-affected voice channels
DE4307688A1 (de) * 1993-03-11 1994-09-15 Daimler Benz Ag Verfahren zur Geräuschreduktion für gestörte Sprachkanäle
EP0749108A1 (de) * 1995-06-15 1996-12-18 MAGNETI MARELLI S.p.A. Anti-Rauscherzeugungsgerät für Kraftfahrzeuge
US7010129B1 (en) 1998-05-06 2006-03-07 Volkswagen Ag Method and device for operating voice-controlled systems in motor vehicles
DE19854399C2 (de) * 1998-11-25 2001-04-05 Mannesmann Vdo Ag Adaptives Navigationssystem
US6308133B1 (en) 1998-11-25 2001-10-23 Mannessmann Vdo Ag Adaptive navigation system
US6947892B1 (en) 1999-08-18 2005-09-20 Siemens Aktiengesellschaft Method and arrangement for speech recognition
DE19942868A1 (de) * 1999-09-08 2001-03-15 Volkswagen Ag Verfahren zum Betrieb einer Mehrfachmikrofonanordnung in einem Kraftfahrzeug sowie Mehrfachmikrofonanordnung selbst
EP1189031A3 (de) * 2000-09-19 2004-03-31 Robert Bosch Gmbh Verfahren zur Verarbeitung von Audiosignalen
EP1189031A2 (de) * 2000-09-19 2002-03-20 Robert Bosch Gmbh Verfahren zur Verarbeitung von Audiosignalen
US7467084B2 (en) 2003-02-07 2008-12-16 Volkswagen Ag Device and method for operating a voice-enhancement system
US7912228B2 (en) 2003-07-18 2011-03-22 Volkswagen Ag Device and method for operating voice-supported systems in motor vehicles
US7760889B2 (en) 2004-08-10 2010-07-20 Volkswagen Ag Speech support system for a vehicle
WO2006043193A1 (en) * 2004-10-18 2006-04-27 Koninklijke Philips Electronics N.V. A system for monitoring a person
US8285545B2 (en) 2008-10-03 2012-10-09 Volkswagen Ag Voice command acquisition system and method
DE102010006285A1 (de) * 2010-01-30 2011-08-04 GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Mich. KFZ-Audiosystem

Also Published As

Publication number Publication date
DE4106405C2 (de) 1996-02-29

Similar Documents

Publication Publication Date Title
DE69131883T2 (de) Vorrichtung zur Rauschreduzierung
DE4126902C2 (de) Sprachintervall - Feststelleinheit
DE69131739T2 (de) Einrichtung zur Sprachsignalverarbeitung für die Bestimmung eines Sprachsignals in einem verrauschten Sprachsignal
DE2719973C2 (de)
DE4106405C2 (de) Geräuschunterdrückungseinrichtung für ein Spracherkennungsystem
EP1143416B1 (de) Geräuschunterdrückung im Zeitbereich
DE69816610T2 (de) Verfahren und vorrichtung zur rauschverminderung, insbesondere bei hörhilfegeräten
EP1091349B1 (de) Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung
DE4308923C2 (de) Aktive Geräuschverringerungsvorrichtung
DE60316704T2 (de) Mehrkanalige spracherkennung in ungünstigen umgebungen
DE69420027T2 (de) Rauschverminderung
DE69124005T2 (de) Sprachsignalverarbeitungsvorrichtung
DE69318926T2 (de) Tonwiedergabesystem
DE69735396T2 (de) Akustischer Teilband-Echokompensator
EP0642290A2 (de) Mobilfunkgerät mit einer Sprachverarbeitungseinrichtung
EP0747880B1 (de) Spracherkennungssystem
DE3235279C2 (de) Spracherkennungseinrichtung
EP0912974A1 (de) Verfahren zur verringerung von störungen eines sprachsignals
DE102008027848A1 (de) Echounterdrücker, Echounterdrückungsverfahren und computerlesbares Speichermedium
DE3925589A1 (de) Verfahren und anordnung zur stoerbefreiung von sprachsignalen
DE112007003625T5 (de) Echounterdrückungsvorrichtung, echounterdrückungssystem, Echounterdrückungsverfahren und Computerprogramm
DE69616724T2 (de) Verfahren und System für die Spracherkennung
EP0623995B1 (de) Anordnung zur geräuschabhängigen Regelung der Lautstärke eines Autoradios
DE602005000897T2 (de) Eingangsschallprozessor
DE69511602T2 (de) Signalquellencharakterisiersystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee