DE19948308C2 - Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung - Google Patents
Verfahren und Vorrichtung zur Geräuschunterdrückung bei der SprachübertragungInfo
- Publication number
- DE19948308C2 DE19948308C2 DE19948308A DE19948308A DE19948308C2 DE 19948308 C2 DE19948308 C2 DE 19948308C2 DE 19948308 A DE19948308 A DE 19948308A DE 19948308 A DE19948308 A DE 19948308A DE 19948308 C2 DE19948308 C2 DE 19948308C2
- Authority
- DE
- Germany
- Prior art keywords
- layer
- noise
- signal
- filter
- spectrum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000001629 suppression Effects 0.000 title claims abstract description 11
- 230000005540 biological transmission Effects 0.000 title claims abstract description 5
- 238000001228 spectrum Methods 0.000 claims abstract description 37
- 210000002569 neuron Anatomy 0.000 claims abstract description 31
- 238000006243 chemical reaction Methods 0.000 claims abstract description 28
- 238000009792 diffusion process Methods 0.000 claims abstract description 23
- 230000010354 integration Effects 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 238000001914 filtration Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000003595 spectral effect Effects 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 238000013016 damping Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 20
- 230000002123 temporal effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001014642 Rasta Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Telephone Function (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Noise Elimination (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Description
Die Erfindung betrifft ein Verfahren und eine Vorrich
tung zur Geräuschunterdrückung bei der Sprachübertra
gung durch ein mehrschichtiges, selbstorganisierendes,
rückgekoppeltes neuronales Netzwerk.
Mit einem derartigen Verfahren, wie es aus der DE 43 09 985 A1
bekannt ist, soll das bei der Telekommunikation
sowie bei der Aufzeichnung von Sprache in tragbaren
Speichergeräten auftretende Problem gelöst werden, daß
die Sprachverständlichkeit durch Störgeräusche stark
beeinträchtigt ist. Insbesondere beim Telefonieren im
Auto mit Hilfe einer Freisprecheinrichtung ist dieses
Problem evident. Zur Unterdrückung der Störgeräusche
werden Filter in den Signalweg eingebaut. Klassische
Bandpaßfilter bieten nur einen geringen Nutzen, da
Störgeräusche im allgemeinen in denselben Frequenzbe
reichen liegen wie das Sprachsignal. Daher werden adap
tive Filter benötigt, die sich selbständig den vorhan
denen Störgeräuschen und den Eigenschaften des zu über
tragenden Sprachsignals anpassen. Hierzu sind verschie
dene Konzepte bekannt, beispielsweise mehrschichtige,
rückgekoppelte neurale Netzwerke, wie aus der DE 694 14 752 T2
bekannt sind.
Ferner ist aus der optimalen Filtertheorie das Wiener-
Komolgorov-Filter abgeleitet, wie es in S. V. Vaseghi,
Advanced Signal Processing and Digital Noise Reduction",
John Wiley and Teubner-Verlag, 1996 beschrieben
ist. Dieses Verfahren basiert auf der Minimierung des
mittleren quadratischen Fehlers zwischen dem tatsächli
chen und dem erwarteten Sprachsignal. Dieses Filterkon
zept erfordert einen erheblichen Rechenaufwand. Außer
dem ist, wie bei den meisten bekannten Verfahren, ein
stationäres Störsignal theoretische Voraussetzung.
Ein ähnliches Filterprinzip liegt dem Kalman-Filter zu
grunde, wie es in E. Wan and A. Nelson, Removal of noi
se from speech using the Dual Extended Kalman Filter
algorithm, Proceedings of the IEEE International Confe
rence on Acoustics and Signal Processing (ICASSP '98),
Seattle 1998 beschrieben ist. Nachteilig bei diesem
Filterkonzept wirkt sich die lange Trainingszeit aus,
die benötigt wird, um die Filterparameter zu ermitteln.
Ein weiteres Filterkonzept ist aus H. Hermansky and N.
Morgan, RASTA processing of speech, IEEE Transactions
on Speech and Audio Processing, Vol. 2, No. 4, p. 587,
1994, bekannt. Auch bei diesem Verfahren ist eine Trai
ningsprozedur erforderlich, außerdem erfordern unter
schiedliche Störgeräusche verschiedene Parameterein
stellungen.
Ein als LPC bekanntes Verfahren benötigt die aufwendige
Berechnung von Korrelationsmatrizen, um mit Hilfe eines
linearen Prädiktionsverfahrens Filterkoeffizienten zu
berechnen, wie aus T. Arai, H. Hermansky, M. Paveland,
C. Avendano, Intelligibility of Speech with Filtered
Time Trajectories of LPC Cepstrum, The Journal of the
Acoustical Society of Maerica, Vol. 100, No. 4, Pt. 2,
p. 2756, 1996, bekannt ist.
Andere bekannte Verfahren setzen neuronale Netzwerke
vom Typ eines mehrschichtigen Perzeptrons zur Sprachverstärkung
ein, so wie in H. Hermansky, E. Wan, C.
Avendano, Speech Enhancement Based an Temporal Proces
sing. Proceedings of the IEEE International Conference
an Acoustics and Signal Processing (ICASSP '95), De
troit, 1995, beschrieben.
Aus der DE 197 28 756 A1 ist es schließlich bekannt,
Halbleiter mittels Diffusion zu dotieren, um sie mit
bestimmten elektrischen Eigenschaften zu versehen.
Hierbei entstehen fest vorgegebene Einstellungen der
Gewichte eines neuronalen Netzwerkes; für eine adaptive
Geräuschunterdrückung ist dies ungeeignet.
Aufgabe der vorliegenden Erfindung ist es, ein Verfah
ren zu schaffen, das mit geringem Rechenaufwand ein
Sprachsignal an seinen zeitlichen und spektralen Eigen
schaften erkennt und von Störgeräuschen befreit werden
kann.
Gelöst wird diese Aufgabe dadurch, daß eine Minimade
tektionsschicht, eine Reaktionsschicht, eine Diffusi
onsschicht und eine Integrationsschicht eine Filter
funktion F(f,T) zur Geräuschfilterung bestimmen.
Ein derart ausgelegtes Netzwerk erkennt ein Sprachsi
gnal an seinen zeitlichen und spektralen Eigenschaften
und befreit dieses von Störgeräuschen. Im Vergleich zu
bekannten Verfahren ist der benötigte Rechenaufwand ge
ring. Das Verfahren zeichnet sich durch eine besonders
kurze Adaptionszeit aus, innerhalb derer sich das Sy
stem auf die Art des Störgeräusches einstellt. Die Si
gnalverzögerung bei der Verarbeitung des Signals ist
sehr kurz, so daß das Filter im Echtzeitbetrieb für Te
lekommunikation einsatzfähig ist.
Weitere vorteilhafte Maßnahmen sind in den Unteransprü
chen beschrieben. Die Erfindung ist in der beiliegenden
Zeichnung dargestellt und wird nachfolgend näher be
schrieben; es zeigt:
Fig. 1 das Gesamtsystem zur Sprachfilterung;
Fig. 2 ein eine Minimadetektions-Schicht, eine
Reaktions-Schicht, eine Diffusions-
Schicht und eine Integrations-Schicht
enthaltendes neuronales Netzwerk;
Fig. 3 ein Neuron der Minima-Detektions-Schicht,
welche M(f,T) ermittelt;
Fig. 4 ein Neuron der Reaktions-Schicht, welches
mit Hilfe einer Reaktionsfunktion x[S(T-
1)] aus dem Integralsignal S(T-1) und ei
nem frei wählbaren Parameter K, welcher
den Grad der Geräuschunterdrückung be
stimmt, aus A(f,T) und M(f,T) das Rela
tivspektrum R(f,T) ermittelt;
Fig. 5 Neuronen der Diffusionsschicht, in wel
cher eine der Diffusion entsprechende,
lokale Kopplung zwischen den Moden herge
stellt wird;
Fig. 6 ein Neuron der gezeigte Ausführung der
Integrationsschicht;
Fig. 7 ein Beispiel für Filtereigenschaften der
Erfindung bei verschiedenen Einstellungen
des Kontrollparameters K.
Der in der Fig. 1 schematisch und beispielhaft darge
stellte Gesamtsystem zur Sprachfilterung. Dieses be
steht aus einer Samplingeinheit 10, die das geräuschbe
haftete Sprachsignal in der Zeit t abtastet und diskre
tisiert und somit Samples x(t) erzeugt, die in der Zeit
T zu Frames aus n Samples zusammengefaßt werden.
Von jedem Frame wird mittels Fouriertransformiation das
Spektrum A(f,T) zur Zeit T ermittelt und einer Filtereinheit
11 zugeführt, die mit Hilfe eines neuronalen
Netzwerks, wie es in der Fig. 2 dargestellt ist, eine
Filterfunktion F(f,T) berechnet, mit der das Spektrum
A(f,T) des Signals multipliziert wird, um das ge
räuschbefreite Spektrum B(f,T) zu erzeugen. Anschlie
ßend wird das so gefilterte Signal einer Syntheseein
heit (12) übergeben, die mittels inverser Fouriertrans
formation aus dem gefilterten Spektrum B(f,T) das ge
räuschbefreite Sprachsignal y(t) synthetisiert.
Die Fig. 2 zeigt ein eine Minimadetektions-Schicht,
eine Reaktions-Schicht, eine Diffusions-Schicht und ei
ne Integrations-Schicht enthaltende neuronales Netz
werk,
welchem das Spektrum A(f,T) des Eingangssignals zu
geführt wird, woraus die Filterfunktion F(f,T) berech
net wird. Jeder der Moden des Spektrums, die sich durch
die Frequenz f unterscheiden, entspricht dabei ein ein
zelnes Neuron pro Schicht des Netzwerks mit Ausnahme
der Integrationsschicht. Die einzelnen Schichten werden
in den folgenden Figuren genauer spezifiziert.
So zeigt Fig. 3 ein Neuron der Minima-Detektions-
Schicht, welche M(f,T) ermittelt. M(f,T) ist in der Mo
de mit Frequenz f das Minimum der über m Frames gemit
telten Amplitude A(f,T) innerhalb eines Intervalls der
Zeit T, welches der Länge von l Frames entspricht.
Fig. 4 zeigt ein Neuron der Reaktions-Schicht, welches
mit Hilfe einer Reaktionsfunktion r[S(T-1)] aus dem In
tegralsignal S(T-1), wie es in der Fig. 6 im Detail
dargestellt ist, und einem frei wählbaren Parameter K,
welcher den Grad der Geräuschunterdrückung bestimmt,
aus A(f,T) und M(f,T) das Relativspektrum R(f,T) ermit
telt. R(f,T) hat einen Wert zwischen null und eins. Die
Reaktionsschicht unterscheidet Sprache von Geräuschen
anhand des zeitlichen Verhaltens des Signals.
Fig. 5 zeigt ein Neuronen der Diffusionsschicht, in
welcher eine der Diffusion entsprechende, lokale Kopp
lung zwischen den Moden hergestellt wird. Die Diffusi
onskonstante D bestimmt dabei die Stärke der resultie
renden Glättung über den Frequenzen f bei festgehalte
ner Zeit T. Die Diffusionsschicht bestimmt aus dem Re
lativsignal R(f,T) die eigentliche Filterfunktion
F(f,T), mit der das Spektrum A(f,T) multipliziert wird,
um Störgeräusche zu eliminieren. In der Diffusions
schicht wird Sprache von Geräuschen anhand spektraler
Eigenschaften unterschieden.
Fig. 6 zeigt das in der gewählten Ausführung der Er
findung einzige Neuron der Integrationsschicht, das die
Filterfunktion F(f,T) bei festgehaltener Zeit T über
die Frequenzen f integriert und das so erhaltene Inte
gralsignal S(T) in die Reaktionsschicht zurückkoppelt,
wie Fig. 2 zeigt. Diese globale Kopplung sorgt dafür,
daß bei hohem Störpegel stark gefiltert wird, während
geräuschfreie Sprache unverfälscht übertragen wird.
Fig. 7 zeigt beispielhafte Angabe der Filtereigen
schaften der Erfindung für verschiedene Einstellungen
des Kontrollparameters K. Die restlichen Parameter der
Erfindung haben die Werte n = 256 Samples/Frame, m = 2.5
Frames, l = 15 Frames, D = 0.25. Die Abbildung zeigt die
Dämpfung von amplitudenmoduliertem weißen Rauschen in
Abhängigkeit der Modulationsfrequenz. Bei Modulations
frequenzen zwischen 0.6 Hz und 6 Hz beträgt die Dämp
fung weniger als 3 dB. Dieses Intervall entspricht der
typischen Modulation menschlicher Sprache.
Die Erfindung wird im folgenden anhand eines Ausfüh
rungsbeispiels näher erläutert. Zunächst wird ein
Sprachsignal, das durch beliebige Störgeräusche beein
trächtigt sei, in einer Sampling-Einheit 10 abgetastet
und digitalisiert, wie die Fig. 1 zeigt. Auf diese
Weise erhält man in der Zeit t die Samples x(t). Von
diesen Samples werden jeweils n zu einem Frame zusam
mengefaßt, von dem zur Zeit T mittels Fouriertransfor
mation ein Spektrum A(f,T) berechnet wird.
Die Moden des Spektrums unterscheiden sich durch ihre
Frequenz f. In einer Filtereinheit 11 wird aus dem
Spektrum A(f,T) eine Filterfunktion F(f,T) erzeugt und
mit dem Spektrum multipliziert. Dadurch erhält man das
gefilterte Spektrum B(f,T), aus dem in einer Synthese
einheit durch inverse Fouriertransformation das ge
räuschbefreite Sprachsignal y(t) erzeugt wird. Dieses
kann nach Digital-Analog-Wandlung in einem Lautsprecher
hörbar gemacht werden.
Die Filterfunktion F(f,T) wird von einem neuronalen
Netzwerk erzeugt, das eine Minimadetektions-Schicht,
eine Reaktions-Schicht, eine Diffusions-Schicht und ei
ne Integrationsschicht enthält, wie Fig. 2 zeigt. Das
von der Samplingeinheit 10 erzeugte Spektrum A(f,T)
wird zunächst der Minimadetektions-Schicht zugeführt,
wie sie die Fig. 3 zeigt.
Ein einzelnes Neuron dieser Schicht bearbeitet unabhän
gig von den anderen Neuronen der Minimadetektions-
Schicht eine einzelne Mode, die durch die Frequenz f
gekennzeichnet ist. Für diese Mode mittelt das Neuron
die Amplituden A(f,T) in der Zeit T über m Frames. Von
diesen gemittelten Amplituden bestimmt das Neuron so
dann über einen Zeitraum in T, der der Länge von l Fra
mes entspricht, für seine Mode das Minimum. Auf diese
Weise erzeugen die Neuronen der Minimadetektionsschicht
das Signal M(f,T), das sodann der Reaktionsschicht zu
geführt wird.
Auch jedes Neuron der Reaktionsschicht, wie sie Fig. 4
zeigt, bearbeitet eine einzelne Mode der Frequenz f,
unabhängig von den anderen Neuronen in dieser Schicht.
Dazu wird allen Neuronen außerdem ein extern einstell
barer Paramter K zugeführt, dessen Größe den Grad der
Geräuschunterdrückung des gesamten Filters bestimmt Zu
sätzlich steht diesen Neuronen das Integralsignal S(T-
1) vom vorigen Frame (Zeitpunkt T-1) zur Verfügung, das
in der Integrations-Schicht, wie sie Fig. 6 zeigt, be
rechnet wurde.
Dieses Signal ist das Argument einer nichtlinearen Re
aktionsfunktion r, mit deren Hilfe die Neuronen der Re
aktionsschicht das Relativspektrum R(f,T) zum Zeitpunkt
T berechnen.
Der Wertebereich der Reaktionsfunktion ist auf ein In
tervall [r1, r2] eingeschränkt. Der Wertebereich des
auf diese Weise resultierenden Relativspektrums R(f,T)
beschränkt sich auf das Intervall [0, 1].
In der Reaktionsschicht wird das zeitliche Verhalten
des Sprachsignals zur Unterscheidung von Nutz- und
Störsignal ausgewertet.
Spektrale Eigenschaften des Sprachsignals werden in der
Diffusionsschicht, wie sie die Fig. 5 zeigt, ausgewer
tet, deren Neuronen eine lokale Modenkopplung nach Art
einer Diffusion im Frequenzraum durchführen.
In der von den Neuronen der Diffusions-Schicht erzeug
ten Filterfunktion F(f,T) führt dies zu einer Anglei
chung benachbarter Moden, deren Stärke durch die Diffusionskonstante
D bestimmt wird. Ähnliche Mechanismen,
wie sie in der Reaktions- und der Diffusionsschicht am
Werke sind, führen in sogenannten dissipativen Medien
zu Strukturbildungsphänomenen, die ein Forschungsgegen
stand der nichtlinearen Physik sind.
Alle Moden der Filterfunktion F(f,T) werden zum Zeit
punkt T mit den entsprechenden Amplituden A(f,T) multi
pliziert. Auf diese Weise resultiert das von Störgeräu
schen befreite Spektrum B(f,T), das mittels inverser
Fouriertransformation in das geräuschbefreite Sprachsi
gnal y(t) verwandelt wird. Über die Moden der Filter
funktion F(f,T) wird in der Integrations-Schicht inte
griert, so daß das Integralsignal S(T) resultiert, wie
es Fig. 6 zeigt.
Dieses Integralsignal wird in die Reaktions-Schicht zu
rückgekoppelt. Diese globale Kopplung führt dazu, daß
die Stärke der Signalmanipulation im Filter vom Störpe
gel abhängig ist. Sprachsignale mit geringer Ge
räuschbelastung passieren das Filter praktisch unbeein
flußt, während bei hohem Geräuschpegel ein starker Fil
tereffekt wirksam wird. Dadurch unterscheidet sich die
Erfindung von klassischen Bandpaßfiltern, deren Einfluß
auf das Signal nur von den gewählten, fest vorgegebenen
Parametern abhängig ist.
Anders als ein klassisches Filter besitzt der Gegen
stand der Erfindung keinen Frequenzgang im herkömmli
chen Sinne. Bei der Messung mit einem durchstimmbaren
sinusförmigen Testsignal würde bereits die Modulations
geschwindigkeit des Testsignals die Filtereigenschaften
beeinflussen.
Ein geeignetes Verfahren zur Analyse der Eigenschaften
des Filters benutzt ein amplitudenmoduliertes Rauschsignal,
um in Abhängigkeit der Modulationsfrequenz die
Dämpfung des Filters zu bestimmen, wie die Fig.
7 zeigt. Dazu setzt man die eingangs- und ausgangsseiti
ge mittlere integrale Leistung zueinander ins Verhält
nis und trägt diesen Wert gegen die Modulationsfrequenz
des Testsignals auf. In Fig. 7 ist dieser "Modula
tionsgang" für verschiedene Werte des Kontrollparame
ters K dargestellt.
Für Modulationsfrequenzen zwischen 0.6 Hz und 6 Hz be
trägt die Dämpfung für alle gezeigten Werte des Kon
trollparameters K weniger als 3 dB. Dieses Intervall
entspricht der Modulation menschlicher Sprache, die den
Filter daher optimal passieren kann. Signale außerhalb
des genannten Modulationsfrequenzintervalls werden da
gegen als Störgeräusche identifiziert und in Abhängig
keit der Einstellung des Parameters K stark gedämpft.
10
Samplingeinheit, die ein Sprachsignal x(t) abta
stet, digitalisiert, in Frames zerlegt und durch
Fouriertransformation das Spektrum A(f,T) ermit
telt
11
Filtereinheit, die aus dem Spektrum A(f,T) eine
Filterfunktion F(f,T) berechnet und damit das ge
räuschbefreite Spektrum B(f,T) erzeugt
12
Syntheseeinheit, die aus dem gefilterten Spektrum
B(f,T) das geräuschbefreite Sprachsignal y(t) er
zeugt
A(f,T) Signalspektrum, d. h. Amplitude der Mode der Frequenz f zum Zeitpunkt T
B(f,T) spektrale Amplitude der Mode der Frequenz f zum Zeitpunkt T nach der Filterung
D Diffusionskonstante, die die Stärke der Glät tung in der Diffusions-Schicht bestimmt
F(f,T) Filterfunktion, die B(f,T) aus A(f,t) er zeugt: B(f,T) = F(f,T)A(f,T) für alle f zur Zeit T
f Frequenz, durch die sich die Moden eines Spektrums unterscheiden
K Parameter zum Einstellen der Stärke der Ge räuschunterdrückung.
l Anzahl der Frames, aus denen man M(f,T) als Minimum der gemittelten A(f,T) er hält
m Anzahl der Frames, über die bei der Bestim mung von M(f,T) gemittelt wird
n Anzahl der Abtastwerte (Samples) pro Frame
M(f,T) Minimum der über m Frames gemittelten Ampli tude A(f,T) innerhalb von l Frames.
R(f,T) Relativspektrum, das von der Reaktionsschicht erzeugt wird
r[S(T)] Reaktionsfunktion der Neuronen in der Reakti onsschicht
r1, r2 Grenzen des Wertebereichs der Reaktionsfunk tion r1 < r(S(T)) < r2
S(T) Integralsignal, das dem Integral von F(f,T) über f zum Zeitpunkt T entspricht
t Zeit in der das Sprachsignal abgetastet wird
T Zeit in der das Zeitsignal zu Frames und die se zu Spektren verarbeitet werden
x(t) Samples des geräuschbehafteten Sprachsignals
y(t) Samples des geräuschbefreiten Sprachsignals
A(f,T) Signalspektrum, d. h. Amplitude der Mode der Frequenz f zum Zeitpunkt T
B(f,T) spektrale Amplitude der Mode der Frequenz f zum Zeitpunkt T nach der Filterung
D Diffusionskonstante, die die Stärke der Glät tung in der Diffusions-Schicht bestimmt
F(f,T) Filterfunktion, die B(f,T) aus A(f,t) er zeugt: B(f,T) = F(f,T)A(f,T) für alle f zur Zeit T
f Frequenz, durch die sich die Moden eines Spektrums unterscheiden
K Parameter zum Einstellen der Stärke der Ge räuschunterdrückung.
l Anzahl der Frames, aus denen man M(f,T) als Minimum der gemittelten A(f,T) er hält
m Anzahl der Frames, über die bei der Bestim mung von M(f,T) gemittelt wird
n Anzahl der Abtastwerte (Samples) pro Frame
M(f,T) Minimum der über m Frames gemittelten Ampli tude A(f,T) innerhalb von l Frames.
R(f,T) Relativspektrum, das von der Reaktionsschicht erzeugt wird
r[S(T)] Reaktionsfunktion der Neuronen in der Reakti onsschicht
r1, r2 Grenzen des Wertebereichs der Reaktionsfunk tion r1 < r(S(T)) < r2
S(T) Integralsignal, das dem Integral von F(f,T) über f zum Zeitpunkt T entspricht
t Zeit in der das Sprachsignal abgetastet wird
T Zeit in der das Zeitsignal zu Frames und die se zu Spektren verarbeitet werden
x(t) Samples des geräuschbehafteten Sprachsignals
y(t) Samples des geräuschbefreiten Sprachsignals
Claims (20)
1. Verfahren zur Geräuschunterdrückung bei der Sprachü
bertragung durch ein mehrschichtiges, selbstorgani
sierendes, rückgekoppeltes neuronales Netzwerk, da
durch gekennzeichnet, daß eine Minimadetektions
schicht, eine Reaktionsschicht, eine Diffusions
schicht und eine Integrationsschicht eine Filter
funktion F(f,T) zur Geräuschfilterung bestimmen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß das mittels der Filterfunktion F(f,T) von Stör
geräuschen befreite Spektrum B(f,T) mittels inverser
Fouriertransformation in ein geräuschbefreites
Sprachsignal y(t) verwandelt wird.
3. Verfahren nach den Ansprüchen 1 und 2, dadurch ge
kennzeichnet, daß die Signalverzögerung bei der Ver
arbeitung des Signals so kurz ist, daß das Filter im
Echtzeitbetrieb für Telekommunikation einsatzfähig
bleibt wird, wobei allen Neuronen ein extern ein
stellbarer Paramter K zugeführt wird, dessen Größe
den Grad der Geräuschunterdrückung des gesamten Fil
ters bestimmt.
4. Verfahren nach den Ansprüchen 1 bis 3, dadurch ge
kennzeichnet, daß das die Filterfunktion F(f,T) bei
festgehaltener Zeit T über die Frequenzen f inte
griert und das so erhaltene Integralsignal S(T) in
die Reaktionsschicht zurückkoppelt wird.
5. Verfahren nach den Ansprüchen 1 bis 4, dadurch ge
kennzeichnet, daß das von einer Samplingeinheit (10)
erzeugte Spektrum A(f,T) der Minimadetektions-
Schicht zugeführt wird.
6. Verfahren nach den Ansprüchen 1 bis 5, dadurch ge
kennzeichnet, daß in einer Filtereinheit (11) aus
dem Spektrum A(f,T) eine Filterfunktion F(f,T) er
zeugt und mit dem Spektrum multipliziert wird.
7. Verfahren nach den Ansprüchen 1 bis 6, gekennzeich
net durch einen Frame mittels dem eine Fouriertrans
formiation das Spektrum A(f,T) zur Zeit T ermittelt
und einer Filtereinheit (11) zugeführt wird, die mit
Hilfe eines neuronalen Netzwerks eine Filterfunktion
F(f,T) berechnet, mit der das Spektrum A(f,T) des
Signals multipliziert wird, um ein geräuschbefreites
Spektrum B(f,T) zu erzeugen.
8. Verfahren nach den Ansprüchen 1 bis 7, dadurch ge
kennzeichnet, daß das ein gefiltertes Signal einer
Syntheseeinheit (12) übergeben wird, die mittels in
verser Fouriertransformation aus dem gefilterten
Spektrum B(f,T) ein geräuschbefreites Sprachsignal
y(t) synthetisiert.
9. Verfahren nach den Ansprüchen 1 bis 8, dadurch ge
kennzeichnet, daß ein einzelnes Neuron einer Schicht
unabhängig von den anderen Neuronen der Minimadetek
tions-Schicht eine einzelne Mode bearbeitet, die
durch die Frequenz f gekennzeichnet ist.
10. Verfahren nach den Ansprüchen 1 bis 9, dadurch ge
kennzeichnet, daß die spektralen Eigenschaften des
Sprachsignals in der Diffusionsschicht ausgewertet
werden, deren Neuronen eine lokale Modenkopplung
nach Art einer Diffusion im Frequenzraum durchfüh
ren.
11. Verfahren nach den Ansprüchen 1 bis 10, dadurch
gekennzeichnet, daß alle Moden der Filterfunktion
F(f,T) zum Zeitpunkt T mit den entsprechenden Ampli
tuden A(f,T) multipliziert werden.
12. Verfahren nach den Ansprüchen 1 bis 11, dadurch
gekennzeichnet, daß über die Moden der Filterfunkti
on F(f,T) in der Integrations-Schicht integriert
wird, so daß das Integralsignal S(T) resultiert.
13. Verfahren nach den Ansprüchen 1 bis 12, dadurch
gekennzeichnet, daß Sprachsignale mit geringer Ge
räuschbelastung das Filter praktisch unbeeinflußt
passieren, während bei Sprachsignalen mit hohem Ge
räuschpegel ein starker Filtereffekt wirksam wird.
14. Vorrichtung zur Geräuschunterdrückung bei der
Sprachübertragung, insbesondere bei einem Verfahren
nach den Ansprüchen 1 bis 13, dadurch gekennzeich
net, daß eine Minimadetektions-Schicht, eine Reakti
ons-Schicht, eine Diffusions-Schicht und eine Inte
grations-Schicht enthaltendes neuronales Netzwerk
vorgesehen sind.
15. Vorrichtung nach Anspruch 13, dadurch gekennzeich
net, daß die Moden des Spektrums, die sich durch die
Frequenz f unterscheiden, einen einzelnen Neuron pro
Schicht des Netzwerks mit Ausnahme der Integrations
schicht entsprechen.
16. Vorrichtung nach den Ansprüchen 13 bis 15, dadurch
gekennzeichnet, daß ein Neuron der Minima-
Detektions-Schicht die Funktion M(f,T) ermittelt,
wobei M(f,T) in der Mode mit Frequenz f das Minimum
der über m Frames gemittelten Amplitude A(f,T) zum
Zeitpunkt T ist.
17. Vorrichtung nach den Ansprüchen 13 bis 16, gekenn
zeichnet durch ein Neuron der Reaktions-Schicht,
welches mit Hilfe einer Reaktionsfunktion r[S(T-1)]
aus dem Integralsignal S(T-1) und einem frei wählba
ren Parameter K, welcher den Grad der Geräuschunter
drückung bestimmt, aus A(f,T) und M(f,T) das Rela
tivspektrum R(f,T) ermittelt, wobei das Relativspek
trum R(f,T) einen Wertebereich zwischen null und
eins hat.
18. Vorrichtung nach den Ansprüchen 13 bis 17, dadurch
gekennzeichnet, daß den Neuronen ein in der Integra
tions-Schicht berechnetes Integralsignal S(T-1) vom
vorigen Frame (Zeitpunkt T-1) zur Verfügung steht.
19. Vorrichtung nach den Ansprüchen 13 bis 18, dadurch
gekennzeichnet, daß der Wertebereich der Reaktions
funktion auf ein Intervall [r1, r2] eingeschränkt
ist, wobei der Wertebereich des resultierenden Rela
tivspektrums R(f,T) auf das Intervall [0, 1] be
schränkt ist.
20. Vorrichtung nach den Ansprüchen 13 bis 19, dadurch
gekennzeichnet, daß für Modulationsfrequenzen zwi
schen 0.6 Hz und 6 Hz die Dämpfung für alle gezeig
ten Werte des Kontrollparameters K weniger als 3 dB
beträgt.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19948308A DE19948308C2 (de) | 1999-10-06 | 1999-10-06 | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung |
AT00250301T ATE289110T1 (de) | 1999-10-06 | 2000-09-08 | Verfahren und vorrichtung zur geräuschunterdrückung bei der sprachübertragung |
EP00250301A EP1091349B1 (de) | 1999-10-06 | 2000-09-08 | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung |
DE50009461T DE50009461D1 (de) | 1999-10-06 | 2000-09-08 | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung |
CA002319995A CA2319995C (en) | 1999-10-06 | 2000-09-20 | Method and apparatus for suppressing audible noise in speech transmission |
TW089120732A TW482993B (en) | 1999-10-06 | 2000-10-05 | Method and apparatus for suppressing audible noise in speech transmission |
US09/680,981 US6820053B1 (en) | 1999-10-06 | 2000-10-06 | Method and apparatus for suppressing audible noise in speech transmission |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19948308A DE19948308C2 (de) | 1999-10-06 | 1999-10-06 | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19948308A1 DE19948308A1 (de) | 2001-04-19 |
DE19948308C2 true DE19948308C2 (de) | 2002-05-08 |
Family
ID=7924812
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19948308A Expired - Fee Related DE19948308C2 (de) | 1999-10-06 | 1999-10-06 | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung |
DE50009461T Expired - Lifetime DE50009461D1 (de) | 1999-10-06 | 2000-09-08 | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE50009461T Expired - Lifetime DE50009461D1 (de) | 1999-10-06 | 2000-09-08 | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung |
Country Status (6)
Country | Link |
---|---|
US (1) | US6820053B1 (de) |
EP (1) | EP1091349B1 (de) |
AT (1) | ATE289110T1 (de) |
CA (1) | CA2319995C (de) |
DE (2) | DE19948308C2 (de) |
TW (1) | TW482993B (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2590165A1 (de) | 2011-11-07 | 2013-05-08 | Dietmar Ruwisch | Verfahren und Vorrichtung zur Erzeugung eines rauschreduzierten Audiosignals |
EP2752848A1 (de) | 2013-01-07 | 2014-07-09 | Dietmar Ruwisch | Verfahren und Vorrichtung zur Erzeugung eines rauschreduzierten Audiosignals mithilfe einer Mikrofonanordnung |
EP3764358A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und -systeme zur strahlformung mit windblasschutz |
EP3764360A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und -systeme zur strahlformung mit verbessertem signal/rauschen-verhältnis |
EP3764664A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und systeme zur strahlformung mit mikrofontoleranzkompensation |
EP3764660A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und systeme für adaptive strahlenformung |
EP3764359A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und systeme für mehrfokusstrahlformung |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5835061A (en) | 1995-06-06 | 1998-11-10 | Wayport, Inc. | Method and apparatus for geographic-based communications service |
US8606851B2 (en) | 1995-06-06 | 2013-12-10 | Wayport, Inc. | Method and apparatus for geographic-based communications service |
EP1585112A1 (de) | 2004-03-30 | 2005-10-12 | Dialog Semiconductor GmbH | Geräuschunterdrückung ohne Signalverzögerung |
DE102004031638A1 (de) * | 2004-06-30 | 2006-01-26 | Abb Patent Gmbh | Verfahren zum Betrieb einer magnetisch induktiven Durchflussmesseinrichtung |
DE102005039621A1 (de) | 2005-08-19 | 2007-03-01 | Micronas Gmbh | Verfahren und Vorrichtung zur adaptiven Reduktion von Rausch- und Hintergrundsignalen in einem sprachverarbeitenden System |
GB0703275D0 (en) * | 2007-02-20 | 2007-03-28 | Skype Ltd | Method of estimating noise levels in a communication system |
DE102007033484A1 (de) | 2007-07-18 | 2009-01-22 | Ruwisch, Dietmar, Dr. | Hörgerät |
ES2678415T3 (es) * | 2008-08-05 | 2018-08-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato y procedimiento para procesamiento y señal de audio para mejora de habla mediante el uso de una extracción de característica |
US20120245927A1 (en) * | 2011-03-21 | 2012-09-27 | On Semiconductor Trading Ltd. | System and method for monaural audio processing based preserving speech information |
US8239196B1 (en) * | 2011-07-28 | 2012-08-07 | Google Inc. | System and method for multi-channel multi-feature speech/noise classification for noise suppression |
US9258653B2 (en) | 2012-03-21 | 2016-02-09 | Semiconductor Components Industries, Llc | Method and system for parameter based adaptation of clock speeds to listening devices and audio applications |
CN104160443B (zh) | 2012-11-20 | 2016-11-16 | 统一有限责任两合公司 | 用于音频数据处理的方法、设备和系统 |
CA2928005C (en) * | 2013-10-20 | 2023-09-12 | Massachusetts Institute Of Technology | Using correlation structure of speech dynamics to detect neurological changes |
CN104036784B (zh) * | 2014-06-06 | 2017-03-08 | 华为技术有限公司 | 一种回声消除方法及装置 |
US9881631B2 (en) * | 2014-10-21 | 2018-01-30 | Mitsubishi Electric Research Laboratories, Inc. | Method for enhancing audio signal using phase information |
EP3301675B1 (de) | 2016-09-28 | 2019-08-21 | Panasonic Intellectual Property Corporation of America | Parametervorhersagevorrichtung parametervorhersageverfahren zur verarbeitung akustischer signale |
US11190944B2 (en) | 2017-05-05 | 2021-11-30 | Ball Aerospace & Technologies Corp. | Spectral sensing and allocation using deep machine learning |
CN109427340A (zh) * | 2017-08-22 | 2019-03-05 | 杭州海康威视数字技术股份有限公司 | 一种语音增强方法、装置及电子设备 |
US10283140B1 (en) * | 2018-01-12 | 2019-05-07 | Alibaba Group Holding Limited | Enhancing audio signals using sub-band deep neural networks |
US11182672B1 (en) | 2018-10-09 | 2021-11-23 | Ball Aerospace & Technologies Corp. | Optimized focal-plane electronics using vector-enhanced deep learning |
US10879946B1 (en) * | 2018-10-30 | 2020-12-29 | Ball Aerospace & Technologies Corp. | Weak signal processing systems and methods |
US10761182B2 (en) | 2018-12-03 | 2020-09-01 | Ball Aerospace & Technologies Corp. | Star tracker for multiple-mode detection and tracking of dim targets |
US11851217B1 (en) | 2019-01-23 | 2023-12-26 | Ball Aerospace & Technologies Corp. | Star tracker using vector-based deep learning for enhanced performance |
US11412124B1 (en) | 2019-03-01 | 2022-08-09 | Ball Aerospace & Technologies Corp. | Microsequencer for reconfigurable focal plane control |
EP3726529A1 (de) * | 2019-04-16 | 2020-10-21 | Fraunhofer Gesellschaft zur Förderung der Angewand | Verfahren und vorrichtung zur bestimmung eines tiefenfilters |
US11303348B1 (en) | 2019-05-29 | 2022-04-12 | Ball Aerospace & Technologies Corp. | Systems and methods for enhancing communication network performance using vector based deep learning |
US11488024B1 (en) | 2019-05-29 | 2022-11-01 | Ball Aerospace & Technologies Corp. | Methods and systems for implementing deep reinforcement module networks for autonomous systems control |
US11828598B1 (en) | 2019-08-28 | 2023-11-28 | Ball Aerospace & Technologies Corp. | Systems and methods for the efficient detection and tracking of objects from a moving platform |
IT201900024454A1 (it) * | 2019-12-18 | 2021-06-18 | Storti Gianampellio | Apparecchio audio con basso consumo per ambienti rumorosi |
CN114944154B (zh) * | 2022-07-26 | 2022-11-15 | 深圳市长丰影像器材有限公司 | 音频调整方法、装置、设备及存储介质 |
US20240112690A1 (en) * | 2022-09-26 | 2024-04-04 | Cerence Operating Company | Switchable Noise Reduction Profiles |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4309985A1 (de) * | 1993-03-29 | 1994-10-06 | Sel Alcatel Ag | Geräuschreduktion zur Spracherkennung |
DE19728756A1 (de) * | 1996-07-05 | 1998-01-08 | Nat Semiconductor Corp | Verfahren zum Auslegen eines festgewichteten neuronalen Netzwerks zur analogen Signalverarbeitung |
DE69414752T2 (de) * | 1993-05-05 | 1999-05-27 | Cselt Centro Studi Lab Telecom | Sprecherunabhängiges Erkennungssystem für isolierte Wörter unter Verwendung eines neuronalen Netzes |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3610831A (en) * | 1969-05-26 | 1971-10-05 | Listening Inc | Speech recognition apparatus |
US5822742A (en) * | 1989-05-17 | 1998-10-13 | The United States Of America As Represented By The Secretary Of Health & Human Services | Dynamically stable associative learning neural network system |
US5581662A (en) * | 1989-12-29 | 1996-12-03 | Ricoh Company, Ltd. | Signal processing apparatus including plural aggregates |
JPH0566795A (ja) * | 1991-09-06 | 1993-03-19 | Gijutsu Kenkyu Kumiai Iryo Fukushi Kiki Kenkyusho | 雑音抑圧装置とその調整装置 |
US5377302A (en) * | 1992-09-01 | 1994-12-27 | Monowave Corporation L.P. | System for recognizing speech |
US5649065A (en) * | 1993-05-28 | 1997-07-15 | Maryland Technology Corporation | Optimal filtering by neural networks with range extenders and/or reducers |
WO1995002288A1 (en) * | 1993-07-07 | 1995-01-19 | Picturetel Corporation | Reduction of background noise for speech enhancement |
US5878389A (en) * | 1995-06-28 | 1999-03-02 | Oregon Graduate Institute Of Science & Technology | Method and system for generating an estimated clean speech signal from a noisy speech signal |
US5960391A (en) * | 1995-12-13 | 1999-09-28 | Denso Corporation | Signal extraction system, system and method for speech restoration, learning method for neural network model, constructing method of neural network model, and signal processing system |
-
1999
- 1999-10-06 DE DE19948308A patent/DE19948308C2/de not_active Expired - Fee Related
-
2000
- 2000-09-08 AT AT00250301T patent/ATE289110T1/de not_active IP Right Cessation
- 2000-09-08 EP EP00250301A patent/EP1091349B1/de not_active Expired - Lifetime
- 2000-09-08 DE DE50009461T patent/DE50009461D1/de not_active Expired - Lifetime
- 2000-09-20 CA CA002319995A patent/CA2319995C/en not_active Expired - Fee Related
- 2000-10-05 TW TW089120732A patent/TW482993B/zh not_active IP Right Cessation
- 2000-10-06 US US09/680,981 patent/US6820053B1/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4309985A1 (de) * | 1993-03-29 | 1994-10-06 | Sel Alcatel Ag | Geräuschreduktion zur Spracherkennung |
DE69414752T2 (de) * | 1993-05-05 | 1999-05-27 | Cselt Centro Studi Lab Telecom | Sprecherunabhängiges Erkennungssystem für isolierte Wörter unter Verwendung eines neuronalen Netzes |
DE19728756A1 (de) * | 1996-07-05 | 1998-01-08 | Nat Semiconductor Corp | Verfahren zum Auslegen eines festgewichteten neuronalen Netzwerks zur analogen Signalverarbeitung |
Non-Patent Citations (5)
Title |
---|
ARAI, T., HERMANSKY, H., PAVELAND, M., AVENDANO, C.: "Intelligibility of Speech with Filtered Time Trajectories of LPC Cepstrum", The Journal of the Acoustical Society of Maerica, Vol. 100, No. 4, Pt. 2, p. 2756, 1996 * |
HERMANSKY, H. and MORGAN, N.: "RASTA processing of speech", IEEE Transactions on Speech and Audio Processing, Vol. 2, No. 4, p. 587, 1994 * |
HERMANSKY,H., WAN,E., AVENDANO, C.: "Speech Enhan-cement Based on Temporal Processing". Proceedings of the IEEE International Conference on Acoustics and Signal Proceesing (ICASSP'95), Detroit 1995 * |
VASEGHI, S.V.: "Advanced Signal Processing and Digital Noise Reduction", John Wiley and Teubner- Verlag, 1996 * |
WAN, E. and NELSON, A.:"Removal of noise from speech using the Dual Extended Kalman Filter algorithm", Proceedings of the IEEE International Conference on Acoustics and Signal Processing (ICASSP'98), Seattle 1998 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2590165A1 (de) | 2011-11-07 | 2013-05-08 | Dietmar Ruwisch | Verfahren und Vorrichtung zur Erzeugung eines rauschreduzierten Audiosignals |
EP2752848A1 (de) | 2013-01-07 | 2014-07-09 | Dietmar Ruwisch | Verfahren und Vorrichtung zur Erzeugung eines rauschreduzierten Audiosignals mithilfe einer Mikrofonanordnung |
EP3764358A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und -systeme zur strahlformung mit windblasschutz |
EP3764360A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und -systeme zur strahlformung mit verbessertem signal/rauschen-verhältnis |
EP3764664A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und systeme zur strahlformung mit mikrofontoleranzkompensation |
EP3764660A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und systeme für adaptive strahlenformung |
EP3764359A1 (de) | 2019-07-10 | 2021-01-13 | Analog Devices International Unlimited Company | Signalverarbeitungsverfahren und systeme für mehrfokusstrahlformung |
WO2021005219A1 (en) | 2019-07-10 | 2021-01-14 | Ruwisch Patent Gmbh | Signal processing methods and systems for beam forming with improved signal to noise ratio |
WO2021005221A1 (en) | 2019-07-10 | 2021-01-14 | Ruwisch Patent Gmbh | Signal processing methods and systems for beam forming with wind buffeting protection |
WO2021005225A1 (en) | 2019-07-10 | 2021-01-14 | Ruwisch Patent Gmbh | Signal processing methods and systems for beam forming with microphone tolerance compensation |
WO2021005217A1 (en) | 2019-07-10 | 2021-01-14 | Analog Devices International Unlimited Company | Signal processing methods and systems for multi-focus beam-forming |
WO2021005227A1 (en) | 2019-07-10 | 2021-01-14 | Ruwisch Patent Gmbh | Signal processing methods and systems for adaptive beam forming |
Also Published As
Publication number | Publication date |
---|---|
EP1091349A3 (de) | 2002-01-02 |
US6820053B1 (en) | 2004-11-16 |
DE19948308A1 (de) | 2001-04-19 |
TW482993B (en) | 2002-04-11 |
CA2319995C (en) | 2005-04-26 |
EP1091349B1 (de) | 2005-02-09 |
ATE289110T1 (de) | 2005-02-15 |
EP1091349A2 (de) | 2001-04-11 |
DE50009461D1 (de) | 2005-03-17 |
CA2319995A1 (en) | 2001-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19948308C2 (de) | Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung | |
DE602004004242T2 (de) | System und Verfahren zur Verbesserung eines Audiosignals | |
DE112009000805B4 (de) | Rauschreduktion | |
DE60116255T2 (de) | Rauschunterdückungsvorrichtung und -verfahren | |
DE60310725T2 (de) | Verfahren und vorrichtung zur verarbeitung von subbandsignalen mittels adaptiver filter | |
DE60120949T2 (de) | Eine hörprothese mit automatischer hörumgebungsklassifizierung | |
DE60009206T2 (de) | Rauschunterdrückung mittels spektraler Subtraktion | |
DE60104091T2 (de) | Verfahren und Vorrichtung zur Sprachverbesserung in verrauschte Umgebung | |
DE60027438T2 (de) | Verbesserung eines verrauschten akustischen signals | |
EP0668007B1 (de) | Mobilfunkgerät mit freisprecheinrichtung | |
DE69915711T2 (de) | Verfahren und signalprozessor zur verstärkung von sprachsignal-komponenten in einem hörhilfegerät | |
DE69730721T2 (de) | Verfahren und vorrichtungen zur geräuschkonditionierung von signalen welche audioinformationen darstellen in komprimierter und digitalisierter form | |
EP1258865B1 (de) | Schaltungsanordnung zur Verbesserung der Verständlichkeit von Sprache enthaltenden Audiosignalen | |
DE69634841T2 (de) | Verfahren und Vorrichtung zur Echokompensation | |
DE4126902A1 (de) | Sprachintervall - feststelleinheit | |
DE69635141T2 (de) | Verfahren zur Erzeugung von Sprachmerkmalsignalen und Vorrichtung zu seiner Durchführung | |
DE60319796T2 (de) | Rauschreduzierung und audiovisuelle Sprachaktivitätsdetektion | |
DE102013011761A1 (de) | Kraftfahrzeug mit einer Freisprecheinrichtung und Verfahren zur Erzeugung eines Frequenzganges für Freisprecheinrichtungen | |
EP1239455A2 (de) | Verfahren und Anordnung zur Durchführung einer an die Übertragungsfunktion menschilcher Sinnesorgane angepassten Fourier Transformation sowie darauf basierende Vorrichtungen zur Geräuschreduktion und Spracherkennung | |
EP2080197B1 (de) | Vorrichtung zur geräuschunterdrückung bei einem audiosignal | |
DE10137348A1 (de) | Verfahren und Schaltungsanordnung zur Geräuschreduktion bei der Sprachübertragung in Kommunikationssystemen | |
EP0658874A1 (de) | Verfahren und Schaltungsanordnung zur Vergrösserung der Bandbreite von schmalbandigen Sprachsignalen | |
DE10025655B4 (de) | Verfahren zum Entfernen einer unerwünschten Komponente aus einem Signal und System zum Unterscheiden zwischen unerwünschten und erwünschten Signalkomponenten | |
DE60303278T2 (de) | Vorrichtung zur Verbesserung der Spracherkennung | |
DE102004044565B4 (de) | Verfahren zur Begrenzung des Dynamikbereichs von Audiosignalen und Schaltungsanordnung hierzu |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: RUWISCH, DIETMAR, DR., 12557 BERLIN, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20110502 |