DE4106405A1 - Geraeuschunterdrueckungseinrichtung - Google Patents
GeraeuschunterdrueckungseinrichtungInfo
- Publication number
- DE4106405A1 DE4106405A1 DE19914106405 DE4106405A DE4106405A1 DE 4106405 A1 DE4106405 A1 DE 4106405A1 DE 19914106405 DE19914106405 DE 19914106405 DE 4106405 A DE4106405 A DE 4106405A DE 4106405 A1 DE4106405 A1 DE 4106405A1
- Authority
- DE
- Germany
- Prior art keywords
- noise
- data
- unit
- microphone
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006870 function Effects 0.000 claims abstract description 61
- 238000000605 extraction Methods 0.000 claims abstract description 27
- 230000001629 suppression Effects 0.000 claims abstract description 9
- 230000015654 memory Effects 0.000 claims description 28
- 230000005540 biological transmission Effects 0.000 claims description 24
- 230000009467 reduction Effects 0.000 claims description 4
- 230000003595 spectral effect Effects 0.000 description 37
- 238000000034 method Methods 0.000 description 16
- 238000001228 spectrum Methods 0.000 description 16
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000011410 subtraction method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000035772 mutation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009131 signaling function Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Description
Die Erfindung betrifft einen Geräuschunterdrückungseinrich
tung in einem Spracherkennungssystem nach dem Oberbegriff des
Anspruchs 1 oder 11, und betrifft insbesondere eine Geräusch
unterdrückungseinrichtung in einem Spracherkennungssystem, in
welchem ein Geräusch unterdrückt werden kann, das von einer
Audioeinheit, wie einem Stereo-Radiogerät oder einem Stereo-
Bandrecorder erzeugt worden ist.
Ein Spracherkennungssystem mit einer Geräuschunterdrückungs
einrichtung gemäß der Erfindung wird beispielsweise in einem
Fahrzeug verwendet. Diese Art Spracherkennungssystem wird beim
Wählen eines in dem Fahrzeug vorgesehenen Telephons und zum
Steuern verschiedener Einheiten, wie Audio-Einheiten, Luft-
Conditioner oder Klima-Anlagen sowie Navigationssystemen ver
wendet, welche im Fahrzeug vorgesehen sind. Das vorerwähnte
Spracherkennungssystem kann auch in einem Haus, in einem Büro
u. ä. verwendet werden.
Vor kurzem ist auch das Eingeben von Informationen in eine
Maschine mit Hilfe der Sprache gemeldet worden. Das heißt, es
ist ein Spracherkennungssystem vorgeschlagen worden, welches
bei einer Steuereinheit verwendet werden kann, um eine Audio
Einheit, einen Luft-Conditioner bzw. eine Klimaanlage, ein
Navigationssystem u. ä. zu steuern, welche in einem Fahrzeug
vorgesehen sind. In dem Fahrzeug beeinflussen verschiedene
Arten von Geräuschen im Fahrzeuginneren das Spracherkennungs
system, wenn das Fahrzeug fährt, und Klänge von in dem Fahr
zeug vorgesehenen Audio-Einheiten wirken auf das Spracherken
nungssystem, wie Geräusche im Fahrzeuginneren. Folglich muß in
dem im Fahrzeug vorgesehenen Spracherkennungssystem eine Ge
räuschunterdrückungseinrichtung vorgesehen werden, um die
verschiedenen Arten von Geräuschen im Fahrzeuginneren zu un
terdrücken.
Beispiele von herkömmlicher Spracherkennung sind die "Spek
trale Subtrakionsmethode von S.F.Boll u. a." und eine "Adapti
ve Geräuschunterdrückungsmethode von B.Window u. a.".
In der "spektralen Subtraktionsmethode" wird ein Spektrum des
Geräusches unter einer Bedingung abgetastet, bei welcher kei
ne Sprache vorhanden ist, welche erkannt werden sollte, und
dann wird das abgetastete Spektrum des Geräusches in einer
Speichereinheit gespeichert. Das abgetastete Spektrum des Ge
räusches in der Speichereinheit wird fortlaufend aktualisiert.
Wenn die Stimme eines Sprechers mit einem Mikrophon unter der
Voraussetzung aufgenommen wird, daß es verschiedene Arten von
Geräuschen gibt, wird das Spektrum des in der Speichereinheit
gespeicherten Geräusches von einem akustischen Spektrum sub
trahiert, welches einem akustischen Signal entspricht, das
über das Mikrophon erhalten worden ist, so daß nur eine Stim
menspektrumskomponente, welche der Stimme des Sprechers ent
spricht, erhalten wird.
In der vorerwähnten "spektralen Subtraktionsmethode" können,
da das Geräuschspektrum laufend aktualisiert wird, Hinter
grundgeräusche von dem akustischen Signal subtrahiert werden.
Es ist jedoch schwierig, ein unregelmäßiges Geräusch, welches
bezüglich der Zeit in unregelmäßiger Weise erzeugt wird, von
dem akustischen Signal zu subtrahieren. Das unregelmäßige Ge
räusch enthält den Klang, welcher von der Audio-Einheit, wie
einem Radiogerät und einem Stereo-Bandrecorder abgegeben wor
den ist.
Bei der "adaptiven Geräuschunterdrückungsmethode", bei wel
cher beispielsweise zwei Mikrophone verwendet werden, ist ein
erstes Mikrophon nahe bei dem Sprecher und ein zweites Mikro
phon weit von dem Sprecher entfernt vorgesehen. Die Stimme
des Sprechers wird hauptsächlich von dem ersten Mikrophon
aufgenommen. Verschiedene Arten von Geräuschen gelangen in
die beiden Mikrophone bzw. werden von diesen aufgenommen. In
diesem Fall wird ein Geräuschsignal, welches über das zweite
Mikrophon erhalten worden ist, in einem adaptiven Filter ver
arbeitet, in welchem dessen Filtercharakteristik gesteuert
werden kann. Das von dem adaptiven Filter abgegebene Signal
wird von dem akustischen Signal subtrahiert, welches über das
erste Mikrphon erhalten worden ist, so daß ein Stimmensignal,
welches der Stimme des Sprechers entspricht, erhalten wird.
Die Filtercharakteristik des vorerwähnten adaptiven Filters
wird so gesteuert, daß der Fehler (ε) eines Ausgangssignals
minimiert wird.
Bei der vorstehend erwähnten "adaptiven Geräuschunterdrückungs
methode" mit zwei Mikrophonen ist ein Computer für eine
aufwendige Berechnung erforderlich, um die Filtercharakteris
tik des adaptiven Filters zu steuern. Daher werden die Kosten
der Geräuschunterdrückungseinrichtung höher. In einem Fall,
bei welchem das Geräusch, welches beachtet werden sollte, auf
den Klang von der Audio-Einheit beschränkt wird, ist die Ge
räuschunterdrückungseinrichtung, die nach der vorerwähnten
"adaptiven Geräuschunterdrückungsmethode" arbeitet, für den
praktischen Gebrauch nicht gut. Außerdem ist es dann, wenn
eine Vielzahl von Geräuschen zusammentrifft, schwierig, die
Filtercharakteristik des vorerwähnten adaptiven Filters zu
steuern, so daß keine richtige Rauschunterdrückung durchge
führt werden kann.
Gemäß der Erfindung soll daher eine Geräuschunterdrückungs
einrichtung für ein Spracherkennungssystem geschaffen werden,
bei welchem die Nachteile des Standes der Technik ausgeschal
tet sind. Ferner soll gemäß der Erfindung eine Geräuschunter
drückungseinrichtung geschaffen werden, in welcher ein Ge
räusch leicht aus dem akustischen Signal entfernt werden
kann, selbst wenn der Klang der Audio-Einheit dem akustischen
Signal als das Geräusch überlagert ist. Gemäß der Erfindung
ist dies bei einer Geräuschunterdrückungseinrichtung nach dem
Oberbegriff des Anspruchs 1 oder 11 durch die Merkmale im
kennzeichnenden Teil des jeweiligen Anspruchs erreicht. Vor
teilhafte Weiterbildungen sind Gegenstand der auf einen der
Ansprüche mittelbar oder unmittelbar rückbezogenen Unteran
sprüche.
Nachfolgend wird die Erfindung anhand von bevorzugten Ausfüh
rungsformen unter Bezugnahme auf die anliegenden Zeichnungen
im einzelnen erläutert. Es zeigen
Fig. 1 ein Blockdiagramm eines Spracherkennungssy
stems mit einer Geräuschunterdrückungsein
richtung gemäß einer ersten Ausführungsform
der Erfindung;
Fig. 2 ein Blockdiagramm einer Modifikation des in
Fig. 1 dargestellten Spracherkennungssystems;
Fig. 3 ein Blockdiagramm eines Spracherkennungssy
stems mit einer Geräuschunterdrückungsein
richtung gemäß einer zweiten Ausführungsform
der Erfindung;
Fig. 4 ein Blockdiagramm einer Modifikation des in
Fig. 3 dargestellten Spracherkennungssystems;
Fig. 5 ein Diagramm, in welchem Detektoren zum Fest
stellen des Öffnens und Schließens von Fahr
zeugtüren dargestellt sind, und
Fig. 6 ein Diagramm eines Detektors, um festzustel
len, wie oft ein Fahrzeug-Fenster geöffnet
wird.
Nunmehr wird eine erste Ausführungsform der Erfindung anhand
von Fig. 1 beschrieben. Das in Fig. 1 dargestellte Spracherken
nungssystem ist beispielsweise in einem Fahrzeug vorgesehen.
In Fig. 1 sind in dem Fahrzeug ein Mikrophon 1 und ein Laut
sprecher 2 vorgesehen. Ein Radiogerät, ein Stereo-Gerät, u. ä.
welche in dem Fahrzeug vorgesehen sind, liefern wiederzuge
bende Signale an den Lautsprecher 2, und der Lautsprecher 2
setzt die wiederzugebenden Signale in Klänge um. Die Stimme
eines Sprechers, die Klänge aus dem Lautsprecher 2 und ver
schiedene Geräusche im Fahrzeuginneren werden von dem Mikro
phon 1 aufgenommen. Ein erste Kennzeichen-Extrahiereinheit 10
holt Kennzeichen oder Merkmale aus dem akustischen Signal
heraus, welche Geräusche enthalten, wobei die akustischen
Signale von dem Mikrophon 1 aus der ersten Kennzeichen-Ex
trahiereinheit 10 zugeführt werden. Eine zweite Kennzeichen-
Extrahiereinheit 20 holt Merkmale oder Kennzeichen aus wie
derzugebenden Signalen heraus, welche von jeder Audio-Einheit,
wie dem Radiogerät und dem Stereo-Gerät geliefert worden
sind. Eine erste Geräusche-Subtrahiereinheit 30 subtrahiert
Geräuschdaten, welche von der zweiten Kennzeichen-Extrahier
einheit 20 erhalten worden sind, von Audio-Daten, welche von
der ersten Kennzeichen-Extrahiereinheit 10 erhalten worden
sind. Eine Sprachintervall-Detektionseinheit 40 stellt
Sprachintervalle, welche Intervalle für Sprachen oder Stimmen
sind, in einer Datenreihe fest, welche von der ersten Geräu
sche-Subtrahiereinheit 30 zugeführt worden sind. Eine Geräu
sche-Vermutungseinheit 50 vermutet Nicht-Sprachen-Intervalle,
welche Intervalle außer dem Sprachintervall sind, in der Da
tenreihe, welche von der ersten Geräusche-Subtrahiereinheit 30
geliefert werden. Eine zweite Geräusche-Subtrahiereinheit 60
subtrahiert die Geräuschkomponente, welche durch die Vermu
tungsoperation in der Geräusche-Vermutungseinheit 50 erhalten
worden sind, von den Daten in den Sprachintervallen, welche
durch die Sprachintervall-Detektionseinheit 40 festgestellt
worden sind. Eine Eingangsmuster erzeugende Einheit 70 er
zeugt ein eingegebenes Sprachmuster der Stimme des Sprechers
auf der Basis der Daten, welche von der zweiten Geräusche-
Subtrahiereinheit 60 abgegeben worden sind. Eine Erkennungs
einheit 90 vergleicht verschiedene Referenzmuster, welche in
einem Referenzmusterspeicher 80 gespeichert sind und das ein
gegebene Sprachmuster, das von der eingegebene Muster verglei
chenden Einheit 70 erzeugt worden ist, und gibt ein Erken
nungsergebnis ab, welches durch den vorstehenden Vergleich
erhalten wird.
Nunmehr wird das in Fig. 1 dargestellte Spracherkennungssystem
im einzelnen beschrieben. Die erste Kennzeichen-Extrahierein
heit 10, welche die Merkmale oder Kennzeichen aus dem von dem
Mikrophon zugeführten, akustischen Signal extrahiert, weist
einen Verstärker 11, eine Vorverzerrungsschaltung 12, eine
Bandpaß-Filterbank 13, einen Multiplexer 14 und einen A/D-Um
setzer 15 auf. Der Verstärker 11 hat eine vorherbestimmte
Verstärkung und verstärkt das akustische, von dem Mikrophon 1
zugeführte Signal. Die Vorverzerrerschaltung 12 hebt Frequenz
komponenten in dem Hochfrequenzband des von dem Verstärker 11
zugeführten, akustischen Signals an. Die Bandpaß-Filterbank
13 hat fünfzehn Bandpaß-Filter. Die verschiedenen Frequenz
bänder der fünfzehn Bandpaß-Filter unterscheiden sich vonein
ander. Fünfzehn Frequenzen, welche auf einer Achse von loga
rithmischen Koordinaten, welche von 250 Hz bis 6,5 Khz reichen,
in regelmäßigen Intervallen angeordnet sind, sind Mittenfre
quenzen der Frequenzbänder der fünfzehn Bandpaß-Filter. Die
Bandpaß-Filterbank 13 hat auch Gleichrichter und Tiefpaßfil
ter, welche jeweils einem der Frequenzbänder entsprechen. Mit
Hilfe der Bandpaß-Filter, der Gleichrichter und der Tiefpaß
filter stellt die Bandpaß-Filterbank 13 Spektren des von dem
Mikrophon 1 aufgenommenen Klangs fest. Der Multiplexer 14
wählt eines der Spektren in den fünfzehn Frequenzbändern aus,
wobei die Spektren von der Bandpaß-Filterbank 13 zugeführt
werden. Der A/D-Umsetzer 15 setzt ein Spektrum in jedem Fre
quenzband mit einer Abtastfrequenz von 10 ms in digitale Daten
um. Daher wird in der ersten Kennzeichen-Extrahiereinheit 10
das Signal, welches den Verstärker 11, die Vorverzerrerschal
tung 12, die Bandpaß-Filterbank 13, den Multiplexer 14 und
den A/D-Umsetzer 15 passiert hat, in ein zeitspektrales Mu
ster X(t,f) umgesetzt, das Geräusche enthält, wobei t eine
Zeitkomponente und f eine Frequenzkomponente ist.
Die zweite Kennzeichen-Extrahiereinheit 20 extrahiert die
Merkmale aus dem wiederzugebenden Signal, welches durch den
Lautsprecher 2 in den Klang umgesetzt werden sollte. Der
Klang aus dem Lautsprecher 2 wird als Geräusch dem Mikrophon
1 zugeführt. Die zweite Kennzeichen-Extrahiereinheit 20 weist
eine Vorverzerrerschaltung 22, eine Bandpaß-Filterbank 23,
einen Multiplexer 24 und einen A/D-Umsetzer 25 auf. Die Vor
verzerrerschaltung 22 hebt die Frequenzkomponenten in dem
hochfrequenten Band des wiederzugebenden Signals an, das von
den Audio-Einheiten zugeführt worden ist. Die Bandpaß-Filter
bank 23 ermittelt Spektren des wiederzugebenden Signals in
derselben Weise wie die Bandpaß-Filterbank 13 der ersten
Kennzeichen-Extrahiereinheit 10. Der Multiplexer 24 wählt
eines der von der Bandpaß-Filterbank 23 gelieferten Spektren
aus. Der A/D-Umsetzer 25 setzt ein Spektrum in jedem Frequenz
band, wobei das Spektrum von dem Multiplexer 24 zugeführt
wird, in digitale Daten um. In der zweiten Kennzeichen-Extra
hiereinheit 20 wird das wiederzugebende Signal, welches die
Vorverzerrerschaltung 12, die Bandpaß-Filterbank 23, den Mul
tiplexer 24 und den A/D-Umsetzer 25 passiert hat, in ein
zeitspektrales Muster N(t,f) des wiederzugebenden Signals umge
setzt, das dem Lautsprecher 2 zugeführt werden soll.
Eine Übertragungsfunktion H(f) zwischen dem Lautsprecher 2
und dem Mikrophon 1 ist vorher in einem Übertragungsfunk
tions-Speicher 28 gespeichert worden. Die Übertragungsfunk
tion H(f) zeigt eine Voraussetzung an, bei welcher der von
dem Lautsprecher 2 abgegebene Klang sich zu dem Mikrophon 1
hin ausbreitet. Das heißt, die Übertragungsfunktion H(f)
zeigt eine Beziehung zwischen einem von dem Lautsprecher 2
abgegebenen Klang und einem an dem Mikrophon 1 ankommenden
Klang an und verändert sie auf der Basis eines Zustands des
Raums, welcher den Lautsprecher 2 und das Mikrophon 1 um
gibt. Die Übertragungsfunktion H(f) kann experimentell erhal
ten werden. Wenn beispielsweise ein pulsförmiges Signal durch
den Lautsprecher 2 in einen Klang umgewandelt wird, wird ein
durch das Mikrophon 1 erhaltener Impuls-Frequenzbereich ent
sprechend einer Fourier-Transformation verarbeitet. Hierdurch
wird die Übertragungsfunktion H(f) zwischen dem Lautsprecher 2
und dem Mikrophon 1 erhalten. Die Übertragungsfunktion H(f)
zwischen dem Lautsprecher 2 und dem Mikrophon 1 kann auch auf
der Basis eines Frequenzbereichs des Mikrophons 1 erhalten
werden, wenn der Lautsprecher 2 ein weißes Rauschen oder Sig
nale mit einer Frequenzabtastung wiedergibt.
In einer Multipliziereinheit 27 wird das zeitspektrale Muster
N(t,f) von dem A/D-Umsetzer 25 und die aus dem Speicher 28
gelesene Übertragungsfunktion H(f) eingegeben, und sie (27)
berechnet eines erstes zeitspektrales Geräuschmuster N1(t,f)
entsprechend der folgenden Formel:
N1(t,f) = N(t,f)×H(f).
Das erste zeitspektrale Geräuschmuster N1(t,f) entspricht
einem zeitspektralen Muster eines Klangs, welcher von dem Mi
krophon 1 aufgenommen wird, wenn der Lautsprecher 2 einen
Klang mit dem zeitspektralen Muster N(t,f) abgibt.
Die erste Geräusche-Subtrahiereinheit 30 erhält das von der
ersten Kennzeichen-Extrahiereinheit 10 abgegebene zeitspek
trale Muster X(t,f) und das erste, von der zweiten Kennzei
chen-Extrahiereinheit 20 abgegebene, zeitspektrale Geräusch
muster N1(t,f) und subtrahiert das erste zeitspektrale Ge
räuschmuster N1(t,f) von dem zeitspektralen Muster X(t,f).
Daher erzeugt die erste Geräusche-Subtrahiereinheit 30 ein
zeitspektrales Muster X1(t,f) entsprechend der nachstehenden
Formel
X₁(t,f) = X(t,f) - N₁(t,f).
Wie vorstehend bereits beschrieben worden ist, entspricht das
zeitspektrale Muster X1(t,f) einem Signal, welches erhalten
wird, indem das Geräusch, welches auf dem wiederzugebenden
Signal basiert, welches durch den Lautsprecher 2 in den Klang
umgewandelt werden soll, von dem akustischen Signal subtra
hiert wird, das von dem Mikrophon 1 erhalten wird. Die
Sprachintervall-Detektionseinheit 40 ermittelt die Sprachin
tervalle auf der Basis der zeitspektralen Muster X1(t,f),
welche von der ersten Geräusche-Subtrahiereinheit abgegeben
worden sind. Die Sprachintervall-Detektionseinheit 40 ermit
telt die Sprachintervalle wie folgt.
In jedem Rahmen für eine Abtastzeit (beispielsweise 10 ms)
werden die zeitspektralen Muster X1(t,f) in allen (fünfzehn)
Frequenzbändern so addiert, daß die folgende Gesamtsumme er
halten wird:
Wenn die Gesamtsumme größer als ein vorherbestimmter Schwel
lenwert ist, wird der Rahmen als das Sprachintervall festge
legt.
Die Geräusche-Vermutungseinheit 50 nimmt fortlaufend das Mit
tel der zeitspektralen Muster X1n(t,f), welche von der ersten
Geräusche-Subtrahiereinheit 30 abgegeben werden, in Interval
len außer dem Sprachintervall, das von der Sprachintervall-
Detektionseinheit 40 ermittelt worden ist. In den vorstehend
angeführten Mustern X1 (t,f) sind mit n die Intervalle außer
den Sprachintervallen (d. h. keine Sprache enthaltende Inter
valle bzw. Nicht-Sprachen-Intervalle) bezeichnet. Die Geräu
sche-Vermutungseinheit 50 gibt das Mittel der zeitspektralen
Muster X1n(t,f) als ein zweites zeitspektrales Geräuschmuster
N2(t,f) ab. Das zweite zeitspektrale Geräuschmuster N2(t,f)
entspricht inneren Geräuschen und nicht dem von dem Lautspre
cher 2 abgegebenen Klang. Das heißt, das zweite zeitspektrale
Geräuschmuster N2(t,f) entspricht einem Motorgeräusch, einem
Straßengeräusch u. ä., welches hauptsächlich regelmäßige Ge
räusche sind, in welchen sich über einen entsprechenden Zeit
abschnitt bezüglich der Zeit nicht viel ändert. Die zweite
Geräusche-Subtrahiereinheit 60 subtrahiert das zweite zeit
spektrale Geräuschmuster N2(t,f) von den zeitspektralen Mu
stern X1s(t,f), welche von der ersten Geräusche-Subtrahier
einheit 30 in mittels der Einheit 40 ermittelten Sprachinter
valle abgegeben werden, so daß die zweite Geräusche-Subtra
hiereinheit 60 die folgenden zeitspektralen Muster S(t,f) ab
gibt, welche der Stimme des Sprechers entsprechen sollen.
S(t,f) = X1s(t,f) - N₂(t,f).
In dem vorstehenden Term X1s(t,f) ist mit s das Zeitsprachin
tervall bezeichnet. Die Sprachintervall-Feststelleinheit 40,
die Geräusche-Vermutungseinheit 50 und die zweite Geräusche-
Subtrahiereinheit 60 arbeiten entsprechend der herkömmlichen
"spektralen Subtraktionsmethode".
Die Eingangsmuster erzeugende Einheit 70 wandelt die Merkmale
oder Kennzeichen, welche durch die zeitspektralen Muster
S(t,f) festgesetzt worden sind, welche von der zweiten Geräu
sche-Subtrahiereinheit 60 geliefert worden sind, in ein ein
gegebenes Sprachmuster entsprechend einem bekannten BTSP-
(Binary Time Spectrum Pattern)Spracherkennungsverfahren um.
Das BTSP-Spracherkennungsverfahren ist beispielsweise in
"Fuzzy Sets and Systems 32 (1989), Stn. 181 bis 191" be
schrieben. Der Speicher 80 speichert die Referenzmuster. Je
des der Referenzmuster hat ein Format, das auf dem BTSP-
Spracherkennungsverfahren basiert. Die Erkennungseinheit 90
gibt das eingegebene Sprachmuster von der Eingabemuster er
zeugenden Einheit 70 und die Referenzmuster von dem Referenz
musterspeicher 80 ein und führt eine Erkennungsoperation auf
der Basis des BTSP-Spracherkennungsverfahrens durch.
Die Sprachintervall-Detektionseinheit 40, die Geräusche-Ver
mutungseinheit 50, die zweite Geräusche-Subtrahiereinheit 60,
die Eingabemuster erzeugende Einheit 70 und die Erkennungs
einheit 90 sind beispielsweise in einem Mikrocomputer ausge
bildet. Außerdem können die Methode, die Sprachintervalle in
der Sprachintervall-Detektionseinheit 40 zu detektieren, die
Methode, das Geräusch in der zweiten Geräusch-Subtrahierein
heit 60 zu subtrahieren, das Verfahren, das eingegebene
Sprachmuster in der Eingabemuster erzeugenden Einheit 70, das
Format des in dem Speicher 80 gespeicherten Musters und eine
Erkennungsoperation in der Erkennungseinheit 90 zu erzeugen,
in solche Verfahren abgeändert werden, welche auf dem
Gebiet der Spracherkennung bekannt sind. Eine digitale Signal
funktionsschaltung, wie eine schnelle Fourier-Transformation
(FFT), kann an die Stelle von jeder der Bandpaß-Filterbänke 13
und 23 gesetzt werden. Die ersten und zweiten Kennzeichen-Ex
trahiereinheiten 10 bzw. 20 haben die A/D-Umsetzer 15 und 25;
die ersten und zweiten Kennzeichen-Extrahiereinheiten können
jedoch auch statt dessen einen A/D-Umsetzer durch eine Time-
Sharing-Steuerung gemeinsam benutzen.
Nunmehr wird eine Modifikation der ersten Ausführungsform an
hand von Fig. 2 beschrieben. Fig. 2 zeigt das Spracherkennungs
system, um eine Sprache (Stimme) eines Sprechers unter einer
Voraussetzung zu erkennen, bei welcher zwei Lautsprecher in
dem Fahrzeug Klänge abgeben. In Fig. 2 sind die Teile, welche
dieselben sind wie die in Fig. 1 dargestellten Teile mit den
selben Bezugszeichen bezeichnet.
In Fig. 2 wird ein erstes wiederzugebendes Signal einem ersten
Lautsprecher 2a und ein zweites wiederzugebendes Signal einem
zweiten Lautsprecher 2b zugeführt. Das erste wiederzugebende
Signal wird auch an eine zweite Kennzeichen-Extrahiereinheit
20a angelegt, und das zweite wiederzugebende Signal wird auch
an eine andere, zweite Kennzeichen-Extrahiereinheit 20b ange
legt. Das heißt, in diesem Spracherkennungssystem sind zwei
zweite Kennzeichen-Extrahiereinheiten 20a und 20b vorgesehen.
Eine zweite Kennzeichen-Extrahiereinheit 20a hat eine Vorver
zerrerschaltung 22a, eine Bandpaß-Filterbank 23a, einen Mul
tiplexer 24a und einen A/D-Umsetzer 25a in derselben Weise
wie in Fig. 1 dargestellt ist. Die andere, zweite Kennzeichen-
Extrahiereinheit 20b hat eine Vorverzerrerschaltung 22b, eine
Bandpaß-Filterbank 23b, einen Multiplexer 24b und einen A/D-
Umsetzer 25b in derselben Weise, wie in Fig. 1 dargestellt
ist. Ein Speicher 28a speichert eine erste Übertragungsfunk
tion Ha(f) zwischen dem ersten Lautsprecher 2a und dem Mikro
phon 1. Die erste Übertragungsfunktion Ha(f) zeigt einen Zu
stand an, bei welchem der von dem ersten Lautsprecher 2a ab
gegebene Klang sich zu dem Mikrophon 1 hin ausbreitet. Das
heißt, die erste Übertragungsfunktion Ha(f) gibt eine Bezie
hung zwischen einem von dem ersten Lautsprecher 2a abgegebe
nen Klang und einem an dem Mikrophon 1 ankommenden Klang wie
der und ändert sich aufgrund der Bedingungen in einem Raum,
welcher den ersten Lautsprecher 2a und das Mikrophon 1 um
gibt. Die erste Übertragungsfunktion H(f) kann auch experi
mentell in derselben Weise wie in dem anhand von Fig. 1 be
schriebenen Fall erhalten werden. Ein Speicher 28b in der an
deren zweiten Kennzeichen-Extrahiereinheit 20b speichert eine
zweite Übertragungsfunktion Hb(f) zwischen dem zweiten Laut
sprecher 2b und dem Mikrophon 1. Die zweite Übertragungsfunk
tion Hb(f) gibt einen Zustand wieder, unter welchem sich der
von dem zweiten Lautsprecher 2b abgegebene Klang zu dem Mi
krophon 1 hin ausbreitet bzw. fortpflanzt. Das heißt, die
zweite Übertragungsfunktion Hb(f) gibt eine Beziehung zwi
schen einem von dem zweiten Lautsprecher 2a abgegebenen Klang
und einem an dem Mikrophon 1 ankommenden Klang wieder und än
dert sich aufgrund des Zustandes bzw. der Voraussetzungen in
einem Raum, welcher den zweiten Lautsprecher 2b und das Mikro
phon 1 umgibt. Die zweite Übertragungsfunktion Hb(f) kann
auch auf dieselbe Weise wie in dem unter Bezugnahme auf Fig. 1
beschriebenen Fall experimentell erhalten werden.
In der zweiten Kennzeichen-Extrahiereinheit 20a wird ein
zeitspektrales Muster Na(t,f) des ersten wiederzugebenden
Signals erhalten, und dann multipliziert eine Multiplizier
einheit 27a das zeitspektrale Muster Na(t,f) und die erste
Übertragungsfunktion Ha(f), so daß dann die Multiplizierein
heit 27a abgibt: Na(t,f)×Ha( f). In der anderen, zweiten
Kennzeichen-Extrahiereinheit 20b wird ein zeitspektrales Mu
ster Nb(t,f) des zweiten wiederzugebenden Signals erhalten,
und dann multipliziert eine Multipliziereinheit 27b die zeit
spektralen Muster Nb(t,f) und die zweite Übertragungsfunktion
Hb(f), so daß dann die Multipliziereinheit 27b abgibt:
Nb(t,f)×Hb(f). Ein Addierer 29 erhält Na(t,f) ×Ha(f) von
der Multipliziereinheit 27a und Nb(t,f)×Hb(f) von der Mul
tipliziereinheit 27b und gibt das folgende, zeitspektrale Ge
räuschmuster N1(t,f) ab:
N₁(t,f) = Na(t,f) × Ha(f) + Nb(t,f) × Hb(f).
Der Spracherkennungsprozeß wird dann auf der Basis des zeit
spektralen Musters X(t,f), das von der ersten Kennzeichen-Ex
trahiereinheit 10 abgegeben worden ist, auf der Basis des
zeitspektralen Geräuschmusters N1(t,f), das von dem Addierer
29 abgegeben worden ist, und der Referenzmuster aus dem Spei
cher 80 in derselben Weise wie bei dem vorstehend anhand von
Fig. 1 beschriebenen Prozeß durchgeführt.
Das in Fig. 2 dargestellte Spracherkennungssystem wird in dem
Fall angewendet, wenn zwei Lautsprecher 2a und 2b im Inneren
des Fahrzeugs vorgesehen sind. Selbst wenn die Anzahl von im
Inneren des Fahrzeugs vorgesehener Lautsprecher größer als
zwei ist, kann jedoch das Spracherkennungssystem in derselben
Weise wie in Fig. 2 dargestellt ist, durchgeführt werden. Das
heißt, eine zweite Kennzeichen-Extrahiereinheit, eine Multiplizier
einheit und einen Übertragungsfunktionsspeicher, welcher je
dem der Lautsprecher entspricht, sind vorgegeben und Aus
gangssignale von den verschiedenen zweiten Kennzeichen-Ex
trahiereinheiten werden so addiert, daß das zeitspektrale Ge
räuschmuster N1(t,f) erhalten wird.
Nunmehr wird eine zweite Ausführungsform der Erfindung anhand
von Fig. 3 beschrieben. Die Übertragungsfunktion H(f) zwischen
dem Lautsprecher 2 und dem Mikrophon 1 ändert sich aufgrund
des Zustands bzw. der Voraussetzungen eines Raums, welcher
den Lautsprecher 2 und das Mikrophon 1 umgibt. Menschliche
Körper absorbieren eine akustische Welle, so daß sich bei
spielsweise in dem Fahrzeug die Übertragungsfunktion H(f) in
Abhängigkeit von der Anzahl der Personen im Inneren des Fahr
zeugs ändert. Die Übertragungsfunktion H(f) ändert sich auch
in Zusammenhang mit der Anzahl geöffneter Türen und/oder Fen
ster in dem Fahrzeug. Daher werden in der zweiten Ausfüh
rungsform eine Anzahl Übertragungsfunktionen in dem Übertra
gungsfunktions-Speicher gespeichert, wobei jede der Übertra
gungsfunktionen der Anzahl Personen oder der Anzahl geöffne
ter Türen und/oder Fenster in dem Fahrzeug entspricht.
In Fig. 3 sind die Teile, welche dieselben wie diejenigen in
Fig. 1 sind, mit denselben Bezugszeichen bezeichnet. In Fig. 3
werden eine Anzahl Übertragungsfunktionen Hr(t,f) vorher in
dem Übertragungsfunktions-Speicher 28 gespeichert. In den
Funktionen Hr(t,f) ist mit r ein bestimmter Typ der Übertra
gungsfunktionen H(t,f) bezeichnet. Beispielsweise wird dann,
wenn die Anzahl Personen im Inneren des Fahrzeugs gleich r
(r = 1, 2, . . .) ist, die Übertragungsfunktion mit Hr(f) be
zeichnet. Jede der Übertragungsfunktionen Hr(f) wird experi
mentell unter der Voraussetzung erhalten, bei welcher r Per
sonen in einem Fahrzeug sitzen. Beispielsweise wird jede der
Übertragungsfunktionen Hr(f) auf der Basis des Impuls-Fre
quenzbereichs zwischen dem Lautsprecher 2 und dem Mikrophon 1
unter der Voraussetzung erhalten, daß r Personen in dem Fahr
zeug sitzen.
Ein Wählschalter 28′ ist zum Auswählen einer der Übertragungs
funktionen Hr(f) vorgesehen. Der Wählschalter 28′ hat eine
Anzahl von Schaltelementen, welche jeweils der Anzahl Perso
nen in dem Fahrzeug entsprechen. Wenn beispielsweise r Perso
nen in dem Fahrzeug sitzen, kann der Fahrer des Fahrzeugs ein
Schalterelement betätigen, das r Personen entspricht. Infolge
der Betätigung des r Personen entsprechenden Schaltelements
in dem Wählschalter 28′ wird die Übertragungsfunktion Hr(f)
aus dem Speicher 28 ausgelesen und der Multipliziereinheit 27
zugeführt. Die Multipliziereinheit 27 berechnet dann das fol
gende zeitspektrale Geräuschmuster N1(t,f).
N₁(t,f) = N(t,f) × Hr(f).
Folglich wird dieses zeitspektrale Geräuschmuster N1(t,f) von
der zweiten Kennzeichen-Extrahiereinheit 20 abgegeben.
Dann werden die Spracherkennungsprozesse auf der Basis des
zeitspektralen Musters X(t,f), das von der ersten Kennzei
chen-Extrahiereinheit 10 abgegeben worden ist, auf der Basis
des zeitspektralen Geräuschmusters N1(t,f), das von der Kenn
zeichen-Extrahiereinheit 20 abgegeben worden ist, und auf der
Basis des von dem Speicher 80 abgegebenen Referenzmusters in
derselben Weise wie die anhand von Fig. 1 beschriebenen
Prozesse durchgeführt.
Bei der zweiten Ausführungsform kann die Übertragungsfunktion
entsprechend der Anzahl Personen, welche in dem Fahrzeug sit
zen, ausgewählt werden, so daß absolut sicher das Geräusch von
dem Lautsprecher 2 von dem Geräusch an dem Mikrophon 1 bzw.
das von dem Mikrophon 1 aufgenommen worden ist, subtrahiert
wird, selbst wenn sich die Anzahl Personen im Inneren des
Fahrzeugs ändert.
Nunmehr werden verschiedene Modifikationen der zweiten Aus
führungsform anhand von Fig. 4 bis 6 beschrieben. In Fig. 4 ist
ein Spracherkennungssystem dargestellt, bei welchem zwei
Lautsprecher 2a und 2b im Inneren des Fahrzeugs vorgesehen
sind. In Fig. 4 sind die Teile, welche dieselben sind wie die
in Fig. 2 und 3 dargestellten Teile mit denselben Bezugszei
chen bezeichnet. In diesem Fall hat das Spracherkennungssystem
zwei zweite Kennzeichen-Extrahiereinheiten 20a und 20b, wel
che den jeweiligen Lautsprechern 2a und 2b in derselben Weise
wie diejenigen in Fig. 2 entsprechen. In jeder der zweiten
Kennzeichen-Extrahiereinheiten 20a und 20b werden eine Anzahl
Übertragungsfunktionen Hr(f) in dem jeweiligen Übertragungs
funktions-Speicher 28a (28b) in derselben Weise wie in dem
anhand von Fig. 2 beschriebenen Spracherkennungssystem gespei
chert. Dann wählt der Wählschalter 28′ eine der in dem jewei
ligen Speicher 28a (28b) gespeicherten Übertragungsfunktionen in
derselben Weise aus, wie in Fig. 3 dargestellt und anhand von
Fig. 3 beschrieben ist.
Die Übertragungsfunktion ändert sich in Abhängigkeit von
einem Zustand, ob nämlich jede der Türen und/oder Fenster des
Fahrzeugs geöffnet oder geschlossen ist. In diesem Fall werden
eine Anzahl Übertragungsfunktionen Hr(f) vorher in dem in
Fig. 3 dargestellten Speicher 28 oder in jedem der in Fig. 4
dargestellten Speicher 28a und 28b gespeichert. Beispielswei
se gibt es verschiedene Zustände, daß nämlich jede der Türen
des Fahrzeugs entweder geöffnet oder geschlossen ist. Wenn das
Fahrzeug V vier Türen D1 bis D4 hat, wie in Fig. 5 dargestellt
ist, gibt es 16 (24) Zustände, da jede der Türen D1 bis D4
entweder geöffnet oder geschlossen sein kann. Folglich ent
spricht jede der Übertragungsfunktionen Hr(f) dem r-ten Zu
stand der Türen (r = 1, 2, ...16). Jede der Übertragungsfunk
tionen Hr(f) wird beispielweise auf der Basis des Impuls-
Frequenzverlaufs zwischen jedem Lautsprecher und dem Mikro
phon 1 in dem r-ten Zustand der Türen erhalten.
In diesem Fall sind in dem Fahrzeug V, wie in Fig. 5 darge
stellt ist, vier Schalter SW1 bis SW4 vorgesehen, um festzu
stellen ob verschiedene Türen D1 bis D4 geöffnet sind oder
nicht. Jeder der Schalter SW1 bis SW4 wird automatisch ange
schaltet, wenn eine der entsprechenden Türen D1 bis D4 ge
schlossen ist. Ein-/Aus-Signale, welche von den Schaltern SW1
bis SW4 abgegeben werden, werden einer Steuereinheit 100
zugeführt. Die Steuereinheit 100 hat Zugriff zu dem Speicher
28 und wählt eine Übertragungsfunktion H (f) aus, welche dem
r-ten Zustand der Türen entspricht, welcher durch die Ein-/
Aus-Signale spezifiziert ist, welche durch die Schalter SW1
bis SW4 geliefert worden sind. Die ausgewählte Übertragungs
funktion Hr(f) wird an die Multipliziereinheit 27 angelegt,
welche dann das folgende zeitspektrale Geräuschmuster N1(t,f)
in derselben Weise wie in Fig. 1 dargestellt ist, berechnet,
nämlich:
N₁(t,f) = X(t,f) × Hr(f).
Es kann auch eine Übertragungsfunktion zwischen dem Lautspre
cher und dem Mikrophon entsprechend verschiedenen Zuständen
bestimmt werden, je nachdem welches der Fenster des Fahrzeugs
geöffnet oder geschlossen ist. Außerdem kann die Übertragungs
funktion zwischen dem Lautsprecher und dem Mikrophon in Über
einstimmung damit bestimmt werden, wie viele der verschiede
nen Fenster, die in dem Fahrzeug vorgesehen sind, geöffnet
sind. In diesem Fall ist eine Fühleinrichtung, um festzustel
len, wie viele der Fenster jeweils geöffnet sind, in dem
Spracherkennungssystem vorgesehen, wie in Fig. 6 dargestellt ist.
In Fig. 6 hat eine Fühleinheit 40 einen Schiebewiderstand R,
welcher an einem Rahmen 41 jedes Fensters WD vorgesehen ist,
eine Gleichstromversorgung Vo und ein Amperemeter 42. Das
Fenster WD kann in dem Rahmen auf- und abwärts bewegt werden.
Der Wert des Schiebewiderstands R wird entsprechend der Grö
ße der Kante des Fensters WD geändert,die mit dem Schiebewi
derstand R in Kontakt steht. Die Gleichstromquelle Vo, der
Schiebewiderstand R und das Amperemeter 42 sind in Reihe ge
schaltet, so daß der Wert des Schiebwiderstand R durch das
Amperemeter 42 gemessen wird. Das heißt, ein Ausgangssignal
von dem Amperemeter 42 gibt wieder, wie weit jedes Fenster WD
geöffnet ist. Das Ausgangssignal von dem Amperemeter 42 wird
der Steuereinheit 100 zugeführt, welche wiederum die Übertra
gungsfunktion auswählt, welche einem Ausgangssignal ent
spricht, das von jeder Fühleinheit 40 geliefert worden ist,
die an jedem der Fenster des Fahrzeugs vorgesehen ist.
Um zu verhindern, daß die Anzahl an Übertragungsfunktionen
zunimmt, ist es wünschenswert, daß, wie weit jedes Fenster WD
geöffnet wird, in zwei oder drei Stufen eingeteilt wird. Bei
spielsweise ist in der ersten Stufe jedes Fenster geschlossen
oder befindet sich in einem Zustand zwischen dem geschlossenen
Zustand und einem Zustand, in welchem es zu einem Drittel ge
öffnet ist. In der zweiten Stufe befindet sich jedes Fenster
in dem Zustand, daß es zu einem Drittel geöffnet ist, oder
weist einen Zustand zwischen dem Zustand, in welchem zu einem
Drittel geöffnet ist, und einem Zustand, in welchem es zu
zwei Drittel geöffnet ist. In einer dritten Stufe nimmt jedes
Fenster einen Zustand ein, in welchem es zu zwei Drittel ge
öffnet ist, oder es ist vollständig geöffnet oder nimmt einen
Zustand zwischen dem Zustand, in welchem es zu zwei Drittel
geöffnet ist, und dem vollständig geöffneten Zustand ein.
Wenn in diesem Fall vier Fenster in dem Fahrzeug vorgesehen
sind, haben die Fenster 81 (34) Zustände. Jede Übertragungs
funktion, welche jedem der 81 Zustände der Fenster entspricht,
ist dann in dem Übertragungsfunktions-Speicher 28 vorgesehen.
Wieviel jedes Fenster geöffnet ist, kann auch mit Hilfe opti
scher Sensoren festgestellt werden. Außerdem kann die Über
tragungsfunktion auf der Basis einer Kombination von zwei
oder mehr der folgenden Faktoren bestimmt werden: die Anzahl
Personen im Inneren des Fahrzeugs, die Anordnung der Personen
im Inneren des Fahrzeugs, ob jede Tür geöffnet oder geschlos
sen ist, und wie weit jedes Fenster geöffnet ist.
Gemäß der Erfindung kann das Geräusch von dem Lautsprecher
von dem Klang, welcher dem Mikrophon zugeführt bzw. von diesem
aufgenommen wird, mit Hilfe der Übertragungskenndaten, wie
der Übertragungsfunktion zwischen Lautsprecher und dem Mikro
phon, subtrahiert werden. Somit kann ohne weiteres das
Geräusch gegenüber dem akustischen Signal unterdrückt werden.
Claims (15)
1. Geräuschunterdrückungseinrichtung für ein Spracherken
nungssystem, in welchem eine Sprache eines Sprechers, welche
einem Mikrophon (1) zugeführt worden ist, erkannt werden kann,
wobei das Mikrophon in einem Raum zwischen einem Lautsprecher
(2), welcher einen Klang abgibt, der einem wiederzugebenden
Signal entspricht, welches von einer Audio-Einheit zugeführt
wird, und dem Lautsprecher (2) vorgesehen ist,
gekennzeichnet durch
eine erste Kennzeichen-Extrahiereinheit (10), um erste Kenn zeichendaten aus einem akustischen Signal zu extrahieren, das von dem Mikrophon (1) abgegeben worden ist, wobei die ersten Kennzeichendaten ein Kennzeichen des akustischen Signals dar stellen;
eine zweite Kennzeichen-Extrahiereinheit (20), um zweite Kennzeichendaten aus dem wiederzugebenden Signal zu extrahie ren, welches dem Lautsprecher (2) zugeführt werden sollte, wobei die zweiten Kennzeichendaten ein Kennzeichen des wie derzugebenden Signals darstellen;
einen Speicher (28) zum Speichern von Übertragungskenndaten, welche einen Zustand darstellen, unter welchem sich ein Klang von dem Lautsprecher (2) zu dem Mikrophon (1) ausbreitet, wo bei die Übertragungskenndaten vorher in dem Raum gemessen worden sind, in welchem das Mikrophon (1) und der Lautspre cher (2) vorgesehen werden;
eine erste Geräuschkomponenten erzeugende Einheit (27), wel che mit der zweiten Kennzeichen-Extrahiereinheit (20) und dem Speicher (28) verbunden ist, um Geräuschdaten, welche auf den zweiten Kennzeichendaten von der zweiten Kennzeichen-Ex trahiereinheit (20) und den Übertragungskenndaten von dem Speicher (28) beruhen, zu erzeugen, wobei die Geräuschdaten einen Klang darstellen, welcher sich von dem Lautsprecher (2) durch den Raum zu dem Mikrophon (1) fortpflanzt, und
eine erste Geräusche-Subtrahiereinheit (30), welche mit der ersten Kennzeichen-Extrahiereinheit (10) und der ersten Ge räuschkomponenten erzeugenden Einheit (27) verbunden ist, um die Geräuschdaten, welche von der Geräuschkomponenten erzeu genden Einrichtung (27) zugeführt worden sind, von den ersten Kennzeichendaten zu subtrahieren, die von der ersten Kenn zeichen-Extrahiereinheit (10) zugeführt worden sind, und um erste Sprachdaten abzugeben,
so daß die ersten Sprachdaten verwendet werden, um die Spra che/Stimme des Sprechers zu erkennen.
eine erste Kennzeichen-Extrahiereinheit (10), um erste Kenn zeichendaten aus einem akustischen Signal zu extrahieren, das von dem Mikrophon (1) abgegeben worden ist, wobei die ersten Kennzeichendaten ein Kennzeichen des akustischen Signals dar stellen;
eine zweite Kennzeichen-Extrahiereinheit (20), um zweite Kennzeichendaten aus dem wiederzugebenden Signal zu extrahie ren, welches dem Lautsprecher (2) zugeführt werden sollte, wobei die zweiten Kennzeichendaten ein Kennzeichen des wie derzugebenden Signals darstellen;
einen Speicher (28) zum Speichern von Übertragungskenndaten, welche einen Zustand darstellen, unter welchem sich ein Klang von dem Lautsprecher (2) zu dem Mikrophon (1) ausbreitet, wo bei die Übertragungskenndaten vorher in dem Raum gemessen worden sind, in welchem das Mikrophon (1) und der Lautspre cher (2) vorgesehen werden;
eine erste Geräuschkomponenten erzeugende Einheit (27), wel che mit der zweiten Kennzeichen-Extrahiereinheit (20) und dem Speicher (28) verbunden ist, um Geräuschdaten, welche auf den zweiten Kennzeichendaten von der zweiten Kennzeichen-Ex trahiereinheit (20) und den Übertragungskenndaten von dem Speicher (28) beruhen, zu erzeugen, wobei die Geräuschdaten einen Klang darstellen, welcher sich von dem Lautsprecher (2) durch den Raum zu dem Mikrophon (1) fortpflanzt, und
eine erste Geräusche-Subtrahiereinheit (30), welche mit der ersten Kennzeichen-Extrahiereinheit (10) und der ersten Ge räuschkomponenten erzeugenden Einheit (27) verbunden ist, um die Geräuschdaten, welche von der Geräuschkomponenten erzeu genden Einrichtung (27) zugeführt worden sind, von den ersten Kennzeichendaten zu subtrahieren, die von der ersten Kenn zeichen-Extrahiereinheit (10) zugeführt worden sind, und um erste Sprachdaten abzugeben,
so daß die ersten Sprachdaten verwendet werden, um die Spra che/Stimme des Sprechers zu erkennen.
2. Einrichtung nach Anspruch 1, dadurch gekenn
zeichnet, daß die Übertragungskenndaten eine Übertra
gungsfunktion zwischen dem Lautsprecher (2) und dem Mikro
phon (1) sind, wobei die Übertragungsfunktion eine Beziehung
zwischen einem Klang, welcher von dem Lautsprecher (2) abge
geben wird und einem Klang darstellt welcher von dem Laut
sprecher (2) dem Mikrophon (1) zugeführt wird.
3. Einrichtung nach Anspruch 2, dadurch gekenn
zeichnet, daß die erste Geräuschkomponenten erzeu
gende Einheit eine Multipliziereinheit (27) aufweist, welche
die zweiten Kennzeichendaten und die Übertragungsfunktion
miteinander multipliziert, wobei das Multiplizierergebnis
in der Multipliziereinheit (27) als die Geräuschdaten verwen
det werden.
4. Einrichtung nach Anspruch 1, dadurch gekenn
zeichnet, daß der Speicher (28) eine Anzahl Übertra
gungskenndaten speichert, welche jeweils einem Zustand des
Raumes entsprechen, in welchem der Lautsprecher (2) und das
Mikrophon (1) vorgesehen sind, und daß die Rauschunterdrückungs
einrichtung ferner eine Wähleinheit (28′) aufweist, um
eine der Übertragungskenndaten aus dem Speicher (28) ent
sprechend einem Zustand des Raums auszuwählen, in welchem der
Lautsprecher (2) und das Mikrophon (1) vorhanden sind, so
daß die ausgewählten Übertragungskenndaten der ersten Ge
räuschkomponenten erzeugenden Einheit (27) zugeführt werden.
5. Einrichtung nach Anspruch 4, dadurch gekenn
zeichnet, daß das Mikrophon (1) im Inneren eines Fahr
zeugs vorgesehen ist, in welchem der Lautsprecher (2) vorge
sehen ist, und daß jede der Übertragungskenndaten auf der Ba
sis der Anzahl Personen im Inneren des Fahrzeugs bestimmt
wird, und daß die Wähleinheit (28′) die Übertragungskenndaten
auswählt, welche der Anzahl Personen im Inneren des Fahrzeugs
entsprechen.
6. Einrichtung nach Anspruch 4, dadurch gekenn
zeichnet, daß das Mikrophon (1) im Inneren eines Fahr
zeugs vorgesehen ist, in welchem ein Lautsprecher (2) vorge
sehen ist, und daß Übertragungskenndaten jeweils in Abhängig
keit davon bestimmt werden, ob jede Tür des Fahrzeugs geöff
net oder geschlossen ist, und daß die Wähleinheit (28′) die
jenigen Übertragungskenndaten auswählt, welche dem Zustand
entsprechen, bei welchem die Türen des Fahrzeugs geöffnet
oder geschlossen sind.
7. Einrichtung nach Anspruch 6, dadurch gekenn
zeichnet, daß die Wähleinheit (28′) Fühleinheiten (SW1
bis SW4; 100) aufweist, um festzustellen, ob jede Tür des
Fahrzeugs geöffnet ist oder nicht, so daß die jeweilige Über
tragungscharakteristik auf der Basis eines Fühlergebnisses in
der Fühleinheit (SW1 bis SW4; 100) gewählt wird.
8. Einrichtung nach Anspruch 4, dadurch gekenn
zeichnet, daß das Mikrophon (1) im Inneren eines Fahr
zeugs vorgesehen ist, in welchem der Lautsprecher (2) vorge
sehen ist, und daß Übertragungskenndaten jeweils in Abhängig
keit davon bestimmt werden, wie weit jedes Fenster (WD) des
Fahrzeugs geöffnet ist, und daß die Wähleinheit (28′) die je
weiligen Übertragungskenndaten in Abhängigkeit davon auswählt,
wie weit jedes Fenster des Fahrzeugs geöffnet ist.
9. Einrichtung nach Anspruch 8, dadurch gekenn
zeichnet, daß die Wähleinheit (28′) eine Fühleinheit
(40) hat, um festzustellen, wie weit jedes Fenster des Fahr
zeugs geöffnet ist, so daß eine Übertragungscharakteristik
in Abhängigkeit davon gewählt wird, wie weit jedes Fenster
geöffnet ist, was mittels der Fühleinheit (40) festgestellt
worden ist.
10. Einrichtung nach Anspruch 1, gekennzeichnet
durch eine Geräuschkomponenten erzeugende Einheit (40, 50),
welche mit der ersten Geräusche-Subtrahiereinheit (30) ver
bunden ist, um eine Geräuschkomponente auf der Basis der er
sten Sprachdaten zu erzeugen, und eine zweite Geräusche-Sub
trahiereinheit (60), um die Geräuschkomponente, welche von
der zweiten Geräuschkomponenten erzeugenden Einheit (40, 50)
erzeugt worden ist, von den ersten Sprachdaten zu subtrahie
ren, welche von der ersten Geräusche-Subtrahiereinheit (30)
zugeführt worden sind, wobei die zweite Geräusche-Subtrahier
einheit (60) zweite Sprachdaten abgibt, so daß die zweiten
Sprachdaten zum Erkennen der Sprache/Stimme des Sprechers
verwendet werden.
11. Sprachunterdrückungseinrichtung für ein Spracherkennungs
system, in welche eine Sprache/Stimme eines Sprechers, welche
einem Mikrophon (1) zugeführt worden ist, erkannt wird, wobei
das Mikrophon (1) in einem Raum mit einer Anzahl Lautsprecher
(2a, 2b) vorgesehen ist, wobei jeder der Lautsprecher (2a,
2b) einen Klang abgibt, welcher einem wiederzugebenden Signal
entspricht, welches von einer Audio-Einheit jedem der Laut
sprecher (2a, 2b) zugeführt wird, gekennzeich
net durch
eine erste Kennzeichen-Extrahiereinheit (10), um erste Kenn zeichendaten aus einem akustischen Signal zu extrahieren, das von dem Mikrophon (1) abgegeben worden ist, wobei die er sten Kennzeichendaten einem Kennzeichen des akustischen Sig nals entsprechen;
eine zweite Kennzeichen-Extrahiereinheit (20a, 20b), um zwei te Kennzeichendaten von dem wiederzugebenden Signal zu extra hieren, das jedem der Lautsprecher (2a, 2b) zugeführt werden sollte, wobei die zweiten Kennzeichendaten ein Kennzeichen des wiederzugebenden Signals darstellen;
Speicher (28, 28b) zum Speichern von Übertragungskenndaten, welche einen Zustand darstellen, bei welchem ein Klang sich von jedem der Lautsprecher (2a, 2b) zu dem Mikrophon (1) fortpflanzt, wobei die Übertragungskenndaten vorher in dem Raum gemessen worden sind, in welchem das Mikrophon (1) und die Lautsprecher (2a, 2b) vorgesehen werden;
eine erste Geräuschkomponenten erzeugende Einrichtung (27a, 27b), welche mit der zweiten Kennzeichen-Extrahiereinrich tung (20a, 20b) und den Speichern (28a, 28b) verbunden ist, um eine Geräuschkomponente auf der Basis der zweiten Kenn zeichendaten von der zweiten Kennzeichen-Extrahiereinrich tung (20a, 20b) und die Übertragungskenndaten von den Spei chern (28a, 28b) zu erzeugen, wobei die Geräuschkomponente einen Klang darstellt, welcher sich von jedem der Lautspre cher (2a, 2b) über den Raum zu dem Mikrophon (1) ausbreitet.
eine Geräuschdaten erzeugende Einrichtung (29) zum Erzeugen von Geräuschdaten auf der Basis der jeweiligen Geräuschkompo nente von der die erste Geräuschkomponente erzeugenden Ein richtung (27a, 27b), und
eine erste Geräusche-Subtrahiereinrichtung (30), welche mit der ersten Kennzeichen-Extrahiereinrichtung (10) und der er sten Geräuschdaten erzeugenden Einrichtung (29) verbunden ist, um die Geräuschdaten, welche von der Geräuschdaten er zeugenden Einrichtung (29) zugeführt worden sind, von den er sten Kennzeichendaten zu subtrahieren, welche von der ersten Kennzeichen-Extrahiereinrichtung (10) zugeführt worden sind, und um erste Sprachdaten abzugeben,
so daß die ersten Sprachdaten zum Erkennen der Sprache/Stimme des Sprechers verwendet werden.
eine erste Kennzeichen-Extrahiereinheit (10), um erste Kenn zeichendaten aus einem akustischen Signal zu extrahieren, das von dem Mikrophon (1) abgegeben worden ist, wobei die er sten Kennzeichendaten einem Kennzeichen des akustischen Sig nals entsprechen;
eine zweite Kennzeichen-Extrahiereinheit (20a, 20b), um zwei te Kennzeichendaten von dem wiederzugebenden Signal zu extra hieren, das jedem der Lautsprecher (2a, 2b) zugeführt werden sollte, wobei die zweiten Kennzeichendaten ein Kennzeichen des wiederzugebenden Signals darstellen;
Speicher (28, 28b) zum Speichern von Übertragungskenndaten, welche einen Zustand darstellen, bei welchem ein Klang sich von jedem der Lautsprecher (2a, 2b) zu dem Mikrophon (1) fortpflanzt, wobei die Übertragungskenndaten vorher in dem Raum gemessen worden sind, in welchem das Mikrophon (1) und die Lautsprecher (2a, 2b) vorgesehen werden;
eine erste Geräuschkomponenten erzeugende Einrichtung (27a, 27b), welche mit der zweiten Kennzeichen-Extrahiereinrich tung (20a, 20b) und den Speichern (28a, 28b) verbunden ist, um eine Geräuschkomponente auf der Basis der zweiten Kenn zeichendaten von der zweiten Kennzeichen-Extrahiereinrich tung (20a, 20b) und die Übertragungskenndaten von den Spei chern (28a, 28b) zu erzeugen, wobei die Geräuschkomponente einen Klang darstellt, welcher sich von jedem der Lautspre cher (2a, 2b) über den Raum zu dem Mikrophon (1) ausbreitet.
eine Geräuschdaten erzeugende Einrichtung (29) zum Erzeugen von Geräuschdaten auf der Basis der jeweiligen Geräuschkompo nente von der die erste Geräuschkomponente erzeugenden Ein richtung (27a, 27b), und
eine erste Geräusche-Subtrahiereinrichtung (30), welche mit der ersten Kennzeichen-Extrahiereinrichtung (10) und der er sten Geräuschdaten erzeugenden Einrichtung (29) verbunden ist, um die Geräuschdaten, welche von der Geräuschdaten er zeugenden Einrichtung (29) zugeführt worden sind, von den er sten Kennzeichendaten zu subtrahieren, welche von der ersten Kennzeichen-Extrahiereinrichtung (10) zugeführt worden sind, und um erste Sprachdaten abzugeben,
so daß die ersten Sprachdaten zum Erkennen der Sprache/Stimme des Sprechers verwendet werden.
12. Einrichtung nach Anspruch 11, dadurch gekenn
zeichnet, daß die Übertragungskenndaten eine Übertra
gungsfunktion zwischen jedem der Lautsprecher (2a, 2b) und
dem Mikrophon (1) sind, wobei die Übertragungsfunktion eine
Beziehung zwischen einem Klang, welcher von jedem der Laut
sprecher (2a, 2b) abgegeben wird, und einem Klang darstellen,
welcher von jedem der Lautsprecher (2a, 2b) dem Mikrophon (1)
zugeführt wird.
13. Einrichtung nach Anspruch 12, dadurch gekenn
zeichnet, daß die erste Geräuschkomponenten erzeugende
Einrichtung eine Multipliziereinrichtung (27a, 27b) aufweist,
um die zweiten Kennzeichendaten und die Übertragungsfunktion
miteinander zu multiplizieren, wobei ein Multiplizierergebnis
in der Multipliziereinrichtung (27a, 27b) als die Geräusch
komponente verwendet wird.
14. Einrichtung nach Anspruch 13, dadurch gekenn
zeichnet, daß Geräuschdaten erzeugende Einrichtung
einen Addierer (29) aufweist, um Geräuschkomponenten, welche
von der jeweiligen Multipliziereinrichtung (27a, 27b) zuge
führt worden sind, zu addieren, wobei dann der Addierer (29) die Geräusch
daten abgibt.
15. Einrichtung nach Anspruch 11, gekennzeichnet
durch eine zweite Geräuschkomponenten erzeugende Einrichtung
(40, 50), welche mit der ersten Geräusche-Subtrahiereinrich
tung (30) verbunden ist, um eine Geräuschkomponente auf der
Basis der ersten Sprachdaten zu erzeugen, und
eine zweite Geräusche-Subtrahiereinrichtung (60) zum Subtra
hieren der Geräuschkomponente, welche von der zweiten Ge
räuschkomponenten erzeugenden Einrichtung (40, 50) erzeugt
worden ist, von den ersten Sprachdaten zu subtrahieren, wel
che von der ersten Geräusche-Subtrahiereinrichtung (30) zu
geführt worden sind, wobei die zweite Geräusche-Subtrahier
einrichtung (60) zweite Sprachdaten abgibt, so daß die zwei
ten Sprachdaten zum Erkennen der Sprache/Stimme des Sprechers
verwendet werden.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2074690A JPH03274099A (ja) | 1990-03-23 | 1990-03-23 | 音声認識装置 |
JP2074689A JPH03274098A (ja) | 1990-03-23 | 1990-03-23 | 雑音除去方式 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4106405A1 true DE4106405A1 (de) | 1991-09-26 |
DE4106405C2 DE4106405C2 (de) | 1996-02-29 |
Family
ID=26415875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19914106405 Expired - Fee Related DE4106405C2 (de) | 1990-03-23 | 1991-02-28 | Geräuschunterdrückungseinrichtung für ein Spracherkennungsystem |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4106405C2 (de) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4307688A1 (de) * | 1993-03-11 | 1994-09-15 | Daimler Benz Ag | Verfahren zur Geräuschreduktion für gestörte Sprachkanäle |
US5400409A (en) * | 1992-12-23 | 1995-03-21 | Daimler-Benz Ag | Noise-reduction method for noise-affected voice channels |
EP0749108A1 (de) * | 1995-06-15 | 1996-12-18 | MAGNETI MARELLI S.p.A. | Anti-Rauscherzeugungsgerät für Kraftfahrzeuge |
DE19942868A1 (de) * | 1999-09-08 | 2001-03-15 | Volkswagen Ag | Verfahren zum Betrieb einer Mehrfachmikrofonanordnung in einem Kraftfahrzeug sowie Mehrfachmikrofonanordnung selbst |
DE19854399C2 (de) * | 1998-11-25 | 2001-04-05 | Mannesmann Vdo Ag | Adaptives Navigationssystem |
EP1189031A2 (de) * | 2000-09-19 | 2002-03-20 | Robert Bosch Gmbh | Verfahren zur Verarbeitung von Audiosignalen |
US6947892B1 (en) | 1999-08-18 | 2005-09-20 | Siemens Aktiengesellschaft | Method and arrangement for speech recognition |
US7010129B1 (en) | 1998-05-06 | 2006-03-07 | Volkswagen Ag | Method and device for operating voice-controlled systems in motor vehicles |
WO2006043193A1 (en) * | 2004-10-18 | 2006-04-27 | Koninklijke Philips Electronics N.V. | A system for monitoring a person |
US7467084B2 (en) | 2003-02-07 | 2008-12-16 | Volkswagen Ag | Device and method for operating a voice-enhancement system |
US7760889B2 (en) | 2004-08-10 | 2010-07-20 | Volkswagen Ag | Speech support system for a vehicle |
US7912228B2 (en) | 2003-07-18 | 2011-03-22 | Volkswagen Ag | Device and method for operating voice-supported systems in motor vehicles |
DE102010006285A1 (de) * | 2010-01-30 | 2011-08-04 | GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Mich. | KFZ-Audiosystem |
US8285545B2 (en) | 2008-10-03 | 2012-10-09 | Volkswagen Ag | Voice command acquisition system and method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9263040B2 (en) | 2012-01-17 | 2016-02-16 | GM Global Technology Operations LLC | Method and system for using sound related vehicle information to enhance speech recognition |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3925589A1 (de) * | 1989-08-02 | 1991-02-14 | Blaupunkt Werke Gmbh | Verfahren und anordnung zur stoerbefreiung von sprachsignalen |
-
1991
- 1991-02-28 DE DE19914106405 patent/DE4106405C2/de not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3925589A1 (de) * | 1989-08-02 | 1991-02-14 | Blaupunkt Werke Gmbh | Verfahren und anordnung zur stoerbefreiung von sprachsignalen |
Non-Patent Citations (3)
Title |
---|
BOLL, S.F.: Suppression of Acoustic Noise in Speech Using Spectral Subtraction. In: IEEE Transactions on Acoustics, Speech, and Signal Processing, Vol. ASSP-27, Nr. 2, April 1979, S. 113-120 * |
FUJIMOTO, J., NAKATANI, T., YONEYAMA, M.: Speaker-Independent Word Recognition Using Fuzzy Pattern Matching. In: Fuzzy Sets and Systems 32 (1989) North-Holland, S. 181-191 * |
WIDROW, B. et al: Adaptive Noise Cancelling: Principles and Applications. In: Proceedings of the IEEE, Vol. 63, Nr .12, Dez. 1975, S.1682-1716 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5400409A (en) * | 1992-12-23 | 1995-03-21 | Daimler-Benz Ag | Noise-reduction method for noise-affected voice channels |
DE4307688A1 (de) * | 1993-03-11 | 1994-09-15 | Daimler Benz Ag | Verfahren zur Geräuschreduktion für gestörte Sprachkanäle |
EP0749108A1 (de) * | 1995-06-15 | 1996-12-18 | MAGNETI MARELLI S.p.A. | Anti-Rauscherzeugungsgerät für Kraftfahrzeuge |
US7010129B1 (en) | 1998-05-06 | 2006-03-07 | Volkswagen Ag | Method and device for operating voice-controlled systems in motor vehicles |
DE19854399C2 (de) * | 1998-11-25 | 2001-04-05 | Mannesmann Vdo Ag | Adaptives Navigationssystem |
US6308133B1 (en) | 1998-11-25 | 2001-10-23 | Mannessmann Vdo Ag | Adaptive navigation system |
US6947892B1 (en) | 1999-08-18 | 2005-09-20 | Siemens Aktiengesellschaft | Method and arrangement for speech recognition |
DE19942868A1 (de) * | 1999-09-08 | 2001-03-15 | Volkswagen Ag | Verfahren zum Betrieb einer Mehrfachmikrofonanordnung in einem Kraftfahrzeug sowie Mehrfachmikrofonanordnung selbst |
EP1189031A3 (de) * | 2000-09-19 | 2004-03-31 | Robert Bosch Gmbh | Verfahren zur Verarbeitung von Audiosignalen |
EP1189031A2 (de) * | 2000-09-19 | 2002-03-20 | Robert Bosch Gmbh | Verfahren zur Verarbeitung von Audiosignalen |
US7467084B2 (en) | 2003-02-07 | 2008-12-16 | Volkswagen Ag | Device and method for operating a voice-enhancement system |
US7912228B2 (en) | 2003-07-18 | 2011-03-22 | Volkswagen Ag | Device and method for operating voice-supported systems in motor vehicles |
US7760889B2 (en) | 2004-08-10 | 2010-07-20 | Volkswagen Ag | Speech support system for a vehicle |
WO2006043193A1 (en) * | 2004-10-18 | 2006-04-27 | Koninklijke Philips Electronics N.V. | A system for monitoring a person |
US8285545B2 (en) | 2008-10-03 | 2012-10-09 | Volkswagen Ag | Voice command acquisition system and method |
DE102010006285A1 (de) * | 2010-01-30 | 2011-08-04 | GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Mich. | KFZ-Audiosystem |
Also Published As
Publication number | Publication date |
---|---|
DE4106405C2 (de) | 1996-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69131883T2 (de) | Vorrichtung zur Rauschreduzierung | |
DE4126902C2 (de) | Sprachintervall - Feststelleinheit | |
DE69131739T2 (de) | Einrichtung zur Sprachsignalverarbeitung für die Bestimmung eines Sprachsignals in einem verrauschten Sprachsignal | |
DE2719973C2 (de) | ||
DE4106405C2 (de) | Geräuschunterdrückungseinrichtung für ein Spracherkennungsystem | |
EP1143416B1 (de) | Geräuschunterdrückung im Zeitbereich | |
DE69816610T2 (de) | Verfahren und vorrichtung zur rauschverminderung, insbesondere bei hörhilfegeräten | |
EP1091349B1 (de) | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung | |
DE4308923C2 (de) | Aktive Geräuschverringerungsvorrichtung | |
DE60316704T2 (de) | Mehrkanalige spracherkennung in ungünstigen umgebungen | |
DE69420027T2 (de) | Rauschverminderung | |
DE69124005T2 (de) | Sprachsignalverarbeitungsvorrichtung | |
DE69318926T2 (de) | Tonwiedergabesystem | |
DE69735396T2 (de) | Akustischer Teilband-Echokompensator | |
EP0642290A2 (de) | Mobilfunkgerät mit einer Sprachverarbeitungseinrichtung | |
EP0747880B1 (de) | Spracherkennungssystem | |
DE3235279C2 (de) | Spracherkennungseinrichtung | |
EP0912974A1 (de) | Verfahren zur verringerung von störungen eines sprachsignals | |
DE102008027848A1 (de) | Echounterdrücker, Echounterdrückungsverfahren und computerlesbares Speichermedium | |
DE3925589A1 (de) | Verfahren und anordnung zur stoerbefreiung von sprachsignalen | |
DE112007003625T5 (de) | Echounterdrückungsvorrichtung, echounterdrückungssystem, Echounterdrückungsverfahren und Computerprogramm | |
DE69616724T2 (de) | Verfahren und System für die Spracherkennung | |
EP0623995B1 (de) | Anordnung zur geräuschabhängigen Regelung der Lautstärke eines Autoradios | |
DE602005000897T2 (de) | Eingangsschallprozessor | |
DE69511602T2 (de) | Signalquellencharakterisiersystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |