DE60304859T2 - Verfahren zur Verarbeitung von Audiosignalen - Google Patents

Verfahren zur Verarbeitung von Audiosignalen Download PDF

Info

Publication number
DE60304859T2
DE60304859T2 DE60304859T DE60304859T DE60304859T2 DE 60304859 T2 DE60304859 T2 DE 60304859T2 DE 60304859 T DE60304859 T DE 60304859T DE 60304859 T DE60304859 T DE 60304859T DE 60304859 T2 DE60304859 T2 DE 60304859T2
Authority
DE
Germany
Prior art keywords
signals
noise
speech
signal
coherence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60304859T
Other languages
English (en)
Other versions
DE60304859D1 (de
Inventor
Rolf Vetter
Stephan Dasen
Philippe Vuadens
Philippe Renevey
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bernafon AG
Original Assignee
Bernafon AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bernafon AG filed Critical Bernafon AG
Application granted granted Critical
Publication of DE60304859D1 publication Critical patent/DE60304859D1/de
Publication of DE60304859T2 publication Critical patent/DE60304859T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L2021/065Aids for the handicapped in understanding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural

Description

  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft das Gebiet der Sprachverstärkung von Audiosignalen, und noch genauer ein Verfahren zur Audiosignalverarbeitung, um etwaige vorhandene Sprachkomponenten des Signals zu verstärken. Solche Verfahren sind insbesondere auf Hörhilfen anwendbar, wobei sie es der gehörbehinderten Person ermöglichen, besser mit anderen Leuten zu kommunizieren.
  • HINTERGRUND DER ERFINDUNG
  • Das Problem der Extrahierung eines interessierenden Signals aus verlärmten Aufnahmen ist unter Akustikingenieuren allgemein bekannt. Besonders Anwender von tragbaren Sprachverarbeitungssystemen sehen sich oft dem Problem gegenüber, dass Störgeräusche die Qualität und Verständlichkeit von Sprache herab setzen. Um diese nachteiligen Störbeiträge zu verringern, wurden mehrere Einkanal-Sprachverstärkungsalgorithmen entwickelt [1–4]. Obgleich Einkanal-Algorithmen die Signalqualität verbessern können, haben neuere Untersuchungen berichtet, dass sie trotzdem immer noch nicht in der Lage sind, die Verständlichkeit von Sprache zu verbessern [5]. Es wurde hingegen wiederholt gezeigt, dass Mehrmikrophon-Störgeräuschunterdrückungsmethoden die Verständlichkeit und Qualität von Sprache verbessern [6, 7].
  • Mehrmikrophon-Sprachverstärkungsalgorithmen lassen sich grob in quasistationäres räumliches Filtern und zeitvariables Umhüllungsfiltern unterteilen [8]. Das quasi-stationäre räumliche Filtern nutzt die räumliche Konfiguration der Tonquellen, um Störgeräusche durch ein Raumfilter zu unterdrücken. Die Filtercharakteristiken ändern sich nicht mit der Dynamik von Sprache, aber mit den langsameren Änderungen der räumlichen Konfiguration der Tonquellen. Sie erzielen eine von Kunstprodukten nahezu freie Sprachverstärkung in einfachen Umgebungen mit geringem Nachhall und in Computersimulationen. Typische Beispiele sind adaptive Störgeräuschkompensation, positives und differentielles Beamforming [30], und Blindquellentrennung [28, 29]. Die vielversprechendsten Algorithmen dieser Klasse, die bisher vorgeschlagen wurden, basieren auf der Blindquellentrennung ("Blind Source Separation"; BSS). Die BSS ist die einzige Methode, die darauf abzielt, ein exaktes Modell der akustischen Umgebung abzuschätzen und es möglicherweise zu invertieren. Sie umfasst das Modell für das Entmischen einer Anzahl von akustischen Quellen aus einer gleichen Anzahl von räumlich diversen Aufnahmen. Ausserdem ist auch die Mehrpfad-Ausbreitung, d.h. Nachhall, in BSS-Modellen beinhaltet. Das grundlegende Problem der BSS liegt in der Rückgewinnung von verborgenen Quellsignalen unter ausschliesslicher Verwendung ihrer linearen Mischungen. Es sei angenommen, dass ds statistisch unabhängige Quellen s(t) = [s1(t), ..., sss(t)]T vorliegen. Diese Quellen werden gefaltet und in einem linearen Medium gemischt, was in dx Sensorsignalen x(t) = [x1(t), ..., xdx(t)]T resultiert, die weitere Störgeräusche enthalten können:
  • Figure 00020001
  • Das Ziel der Quellentrennung ist es, die Mehrkanal-Transfercharakteristiken G(τ) zu identifizieren, sie nach Möglichkeit zu invertieren, und Schätzungen der verborgenen Quellen zu erhalten, die gegeben sind durch:
    Figure 00020002
    wobei W(τ) die geschätzten inversen Mehrkanal-Transfercharakteristiken von G(τ) sind. Es wurden zahlreiche Algorithmen für die Abschätzung des inversen Modells W(τ) vorgeschlagen. Sie basieren hauptsächlich auf der Nutzung der Annahme der statistischen Unabhängigkeit des Signals der verborgenen Quelle. Die statistische Unabhängigkeit kann auf verschiedene Weisen genutzt werden, und zusätzliche Beschränkungen können eingeführt werden, wie z.B. intrinsische Korrelationen oder die nicht-stationäre Beschaffenheit von Quellsignalen und/oder Störgeräusch. Als Ergebnis wurde neuerdings eine große Anzahl von BSS-Algorithmen in verschiedenen Verwirklichungsformen (z.B. Zeitbereich, Frequenzbereich und Zeit-/Frequenzbereich) für die Mehrkanal-Sprachverstärkung vorgeschlagen (s. z.B. [28, 29]).
  • Dogan und Stems [9] verwenden eine auf Kumulanten basierende Quellentrennung zum Verstärken des interessierenden Signals bei binauralen Hörhilfen. Rosca et al. [10] wenden Blindquellentrennung zum Entmischen von verzögerten und gefalteten Quellen aus den Signalen einer Gruppe von Mikrophonen an. Eine Nachverarbeitung wird zum Verbessern der Verstärkung vorgeschlagen. Jourjine et al. [11] verwenden die (unter Verwendung von Histogrammen geschätzte) statistische Verteilung der Signale, um Sprache und Störgeräusch von einander zu trennen. Balan et al. [2] schlagen eine autoregressive (AR) Modellierung zum Trennen von Quellen aus einer degenerierten Mischung vor. Mehrere Lösungsansätze verwenden die von einer Mehrzahl von Mikrophonen gelieferten räumlichen Informationen unter Verwendung von Beamformern. Koroljow und Gibian [12] verwenden Beamformer erster und zweiter Ordnung zum Anpassen der Richtwirkung der Hörhilfen an die Störgeräuschbedingungen.
  • Bhadkamkar und Ngo [3] kombinieren einen negativen Beamformer zum Extrahieren der Sprachquelle und eine Nachverarbeitung zum Eliminieren von Nachhall und Echos. Lindemann [13] verwendet einen Beamformer, um die Energie aus der Sprachquelle zu extrahieren, und ein Kugelmikrophon, um die gesamte Energie von Sprach- und Geräuschquellen zu erhalten. Das Verhältnis zwischen diesen zwei Energien ermöglicht eine Verstärkung des Sprachsignals durch eine spektrale Gewichtung. Feng et al. [14] rekonstruiert das verstärkte Signal unter Verwendung von verzögerten Versionen der Signale eines binauralen Hörhilfensystems.
  • Es ist gezeigt worden, daß BSS-Methoden in einfachen Umgebungen mit geringem Nachhall, in Laborstudien und in Computersimulationen eine von Kunstprodukten nahezu freie Sprachverstärkung erzielen, jedoch bei Aufnahmen in Umgebungen mit Nachhall oder/und mit diffusen Störgeräuschen keine gute Leistung erbringen. Hier bietet sich die Hypothese an, dass die Anzahl der Modellparameter in hallenden Umgebungen zu groß wird, um unter verlärmten, nicht-stationären Bedingungen exakt identifiziert werden zu können.
  • Eine Umhüllungsfilterung (z.B. Wiener-, DCT-Bark-, Kohärenz- und Richtungsfiltern) hingegen führt nicht zu solchen Fehlschlägen, da sie eine einfache statistische Beschreibung der akustischen Umgebung bzw. der binauralen Wechselwirkung im menschlichen Gehörapparat verwendet [8]. Solche Algorithmen verarbeiten das Signal in einem geeigneten dualen Bereich. Die Umhüllende des Nutzsignals, oder auf äquivalente Weise ein Kurzzeit-Gewichtungsindex (Kurzzeitsignal-Geräusch-Abstand (SNR), Kohärenz), wird in mehreren Frequenzbändern geschätzt. Es wird angenommen, dass das Erfassungsziel frontal auftrifft, und das verstärkte Signal wird dadurch erhalten, dass die spektrale Umhüllende des verlärmten Signals mit dem geschätzten Kurzzeit-Gewichtungsindex moduliert wird. Die Adaptierung des Gewichtungsindex besitzt eine zeitliche Auflösung, die in etwa der Silbenrate entspricht. Es wurden Zweikanal-Lösungsansätze präsentiert, die auf der statistischen Beschreibung der Quellen unter Verwendung der Kohärenzfunktion basieren [1, 15–17]. Weitere Verbesserungen wurden durch das Einbringen der räumlichen Kohärenz von verlärmten Geräuschfeldern, Maskierungseigenschaften des menschlichen Gehörapparates, und Unterraum-Lösungsansätze [19] erhalten.
  • Mehrkanal-Sprachverstärkungsalgorithmen auf der Grundlage einer Umhüllungsfilterung sind insbesondere gut für komplexe akustische Umgebungen geeignet, d.h. diffuses Störgeräusch und starker Nachhall. Dennoch sind sie nicht in der Lage, eine verlustfreie oder Kunstprodukt-freie Verstärkung zur Verfügung zu stellen. Alles in Allem reduzieren sie Störbeiträge in den Zeit-Frequenz-Bereichen ohne jegliche Sprachbeiträge. In Zeit-Frequenz-Bereichen mit Sprachbeiträgen kann das Störgeräusch hingegen nicht reduziert werden, und Verzerrungen können eingeführt werden. Dies ist der Hauptgrund, warum eine Umhüllungsfilterung dabei helfen könnte, die Höranstrengung in verlärmten Umgebungen zu mindern, jedoch fehlt allgemein eine Verbesserung der Verständlichkeit [20].
  • Die vorstehenden Erwägungen weisen darauf hin, dass die Leistungsfähigkeit von Mehrkanal Sprachverstärkungsalgorithmen wesentlich von der Komplexität des akustischen Kontextes abhängt. Ein gegebener Algorithmus wird für eine spezifische akustische Umgebung eingesetzt, und um mit veränderlichen Eigenschaften der akustischen Umgebung umgehen zu können, wurden neuerdings zusammengesetzte Algorithmen vorgeschlagen.
  • Der von Melanson und Lindemann in [21] vorgeschlagene Lösungsansatz besteht in einem manuellen Umschalten zwischen verschiedenen Algorithmen zur Sprachverstärkung unter verschiedenen Bedingungen. Ein manuelles Umschalten zwischen mehreren Kombinationen aus Filtern und dynamischem Komprimieren wurde ebenfalls von Lindemann et al. [22] vorgeschlagen.
  • Fortgeschrittenere Methoden, die ein automatisches Umschalten je nach verschiedenen Störgeräuschbedingungen verwenden, wurden von Killion et al. in [23] vorgeschlagen. Der Eingang der Hörhilfe wird automatisch zwischen Allrichtungsmikrophon und gerichtetem Mikrophon umgeschaltet.
  • Ein strategieselektiver Algorithmus wurde von Wittkop [24] beschrieben. Dieser Algorithmus verwendet eine Umhüllungsfilterung auf der Grundlage eines verallgemeinerten Wiener-Lösungsansatzes und eine Umhüllungsfilterung unter Einbeziehung von Unterschieden zwischen gerichteten Zwischenohrpegeln und Phasenverschiebungen. Ein Kohärenzmaß wird verwendet, um die akustischen Situationen zu identifizieren und bei zunehmender Komplexität das Richtungsfiltern allmählich abzuschalten. Es wird angemerkt, dass dieser Algorithmus dabei hilft, die Höranstrengung in verlärmten Umgebungen zu verringern, dass aber eine Verbesserung der Verständlichkeit immer noch fehlt.
  • Es ist daher das Ziel der vorliegenden Erfindung, ein zusammengesetztes Verfahren zur Verfügung zu stellen, das Quellentrennung und auf Kohärenz basierende Umhüllungsfilterung umfasst. Quellentrennung und auf Kohärenz basierende Umhüllungsfilterung werden im Zeit-Bark-Bereich bewerkstelligt, d.h. in spezifischen Frequenzbändern. Die Quellentrennung wird in Bändern durchgeführt, in denen kohärente Geräuschfelder des interessierenden Signals oder einer überwiegenden Geräuschquelle erfasst werden. Die auf Kohärenz basierende Umhüllungsfilterung wirkt in Bändern, in denen die Geräuschfelder diffus sind und/oder in denen die Komplexität der akustischen Umgebung zu groß ist. Quellentrennung und auf Kohärenz basierende Umhüllungsfilterung können parallel wirken und werden durch ein Maß der Kohärenz in den Bark-Bändern übergangslos aktiviert.
  • Es ist ein weiteres Anliegen der vorliegenden Erfindung, eine echte binaurale Verstärkung des beobachteten Geräuschfeldes zur Verfügung zu stellen, indem die durch eine Quellentrennung identifizierten Mehrkanal-Transfercharakteristiken verwendet werden. Tatsächlich erzielen Sprachverstärkungsalgorithmen hauptsächlich eine monaurale Sprachverstärkung, was impliziert, dass Anwender solcher Vorrichtungen die Fähigkeit zum Lokalisieren von Quellen verlieren. Eine viel versprechende Lösung, die eine echte binaurale Sprachverstärkung erzielen könnte, besteht aus einer Vorrichtung mit einem oder zwei Mikrophonen in jedem Ohr und einem RF-Link dazwischen. Der Nutzen für den Anwender wäre enorm. Insbesondere wurde berichtet, dass binaurales Hören die Lautstärke und den Rauschabstand des wahrgenommenen Tones erhöht, die Verständlichkeit und die Qualität von Sprache verbessert, und das Lokalisieren von Quellen gestattet, was in Gefahrensituationen von vordringlicher Wichtigkeit ist. Lindemann und Melanson [25] schlagen ein System mit Funkübertragung zwischen der Hörhilfe und einer am Gürtel des Anwenders getragenen Verarbeitungseinheit vor. Brander [7] schlägt auf ähnliche Weise eine Direktkommunikation zwischen den beiden Ohrvorrichtungen vor. Goldberg et al. [26] kombinieren die Übertragung und die Verstärkung. Schließlich wurde eine optische Übertragung über Gläser von Martin vorgeschlagen [27]. Dennoch wurde in keinem dieser Lösungsansätze eine virtuelle Rekonstruktion des binauralen Geräuschfeldes vorgeschlagen. Der hiermit vorgeschlagene Lösungsansatz, nämlich eine Nutzung der durch eine Quellentrennung identifizierten Mehrkanal-Transfercharakteristiken zum Rekonstruieren des realen Geräuschfeldes und Dämpfen von Störbeiträgen verbessert die Sicherheit und den Komfort der horchenden Person erheblich.
    • [1] J.B. Allen, D.A. Berkley, und J. Blauert. Multimicrophone signal processing technique to remove room reverberation from speech signals. Journal of Acoustical Society of America, 62(4):912–915, 1977.
    • [2] Radu Balan, Alexander Jourjine, und Justinian Rosca. Estimator of independent sources from degenerate mixtures. US-Patent US 6,343,268 B1 , Jan. 2002.
    • [3] Neal Ashok Bhadkamkar und John-Thomas Calderon Ngo. Directional acoustic signal processor and method therefor. US-Patent US 6,002,776 , Dez. 1999.
    • [4] Y. Bar-Ness, J. Carlin, und M. Steinberg. Bootstrapping adaptive cross-pol canceller for satellite communication. In Proc. IEEE Int. Conf. Communication, S. 4F5.1–4F5.5, 1982.
    • [5] S.F. Boll. Suppression of acoustic noise in speech using spectral subtraction. IEEE Trans. on Acoustics, Speech and Signal Processing, 27:113–120, April 1979.
    • [6] D. Bradwood. Cross-coupled cancellation systems for improving cross-polarisation discrimination. In Proc. IEEE Int. Conf. Antennas Propagation, Vol. 1, S. 41–45, 1978.
    • [7] Richard Brander. Bilateral signal processing prothesis. US-Patent US 5,991,419 , Nov. 1999.
    • [9] Mithat Can Dogan und Stephen Deane Steams. Cochannel signal processing system. US-Patent US 6,018,317 , Jan. 2000.
    • [10] Justianian Rosca, Christian Darken, Thomas Petsche, und Inga Holube. Blind source separation for hearing aids. European Patent Office Patent 99,310,611.1, Dez. 1999.
    • [11] Alexander Jourjine, Scott T. Rickard, und Ozgur Yilmaz. Method and apparatus for demixing of degenerate mixtures. US-Patent US 6,430,528 B1 , Aug. 2002.
    • [12] Walter S. Koroljow und Gary L. Gibian. Hybrid adaptive beamformer. US-Patent US 6,154,552 , Nov. 2000.
    • [13] Eric Lindemann. Dynamic intensity beamforming system for noise reduction in a binaural hearing aid. US-Patent US 5,511,128 , Apr. 1996.
    • [14] Albert S. Feng, Charissa R. Lansing, Chen Liu, William O'Brien, und Bruce C. Wheeler. Binaural signal processing system and method. US-Patent US 6,222,927 B1 , April 2001.
    • [15] Y. Kaneda und T. Tohyama. Noise suppression signal processing using 2-point received signals. Electronics and Communications, 67a(12):19–28, 1984.
    • [16] B. Le Bourquin und G. Faucon. Using the coherence function for noise reduction. IEE Proceedings, 139(3):484–487, 1997.
    • [17] G.C. Carter, C.H: Knapp, and A.H. Nuttall. Estimation of the magnitude square coherence function via overlapped fast Fourier transform processing. IEEE Trans. on Audio und Acoustics, 21(4):337–344, 1973.
    • [18] Y. Ephrahim und H.L. Van Trees. A signal subspace approach for speech enhancement. IEEE Trans. on Speech und Audio Proc., 3:251–266, 1995.
    • [19] R.Vetter. Method and system for enhancing speech in a noisy environment. US-Patent US 2003/0014248 A1 Jan. 2003.
    • [20] V. Hohmann, J. Nix, G. Grimm und T. Wittkopp. Binaural noise reduction for hearing aids. In ICASSP 2002, Orlando, USA, 2002.
    • [21] John L. Melanson und Eric Lindemann. Digital signal processing hearing aid. US-Patent US 6,104,822 , Aug. 2000.
    • [22] Eric Lindemann, John Melanson, und Nikolai Bisgaard. Digital hearing aid system. US-Patent US 5,757,932 , Mai 1998.
    • [23] Mead Killion, Fred Waldhauer, Johannes Wittkowski, Richard Goode, und John Allen. Hearing aid having plural microphones and a microphone switching system. US-Patent US 6,327,370 B1 , Dez. 2001.
    • [24] Thomas Wittkop. Two-channel noise reduction algorithms motivated by models of binaural interaction. Dissertation, Fachbereich Physik der Universität Oldenburg, 2000.
    • [25] Eric Lindemann und John L. Melanson. Binaural hearing aid. US-Patent US 5,479,522 , Dec. 1995.
    • [26] Jack Goldberg, Mead C. Killion, und Jame R. Hendershot. System and method for enhancing speech intelligibility utilizing wireless communication. US-Patent US 5,966,639 , Okt. 1999.
    • [27] Raimund Martin. Hearing aid having two hearing apparatuses with optical signal transmission therebetween. US-Patent 6,148,087, Nov. 2000.
    • [28] J. Anemüller. Across-frequency processing in convolutive blind source separation. Dissertation, Fachbereich Physik der Universität Oldenburg, 2000.
    • [29] Lucas Parra und Clay Spence. Convolutive blind separation of non-stationary sources. IEEE Trans. on Speech and Audio Processing, 8(3):320–327, 2000.
    • [30] S. Haykin. Adaptive filter theory. Prentice Hall, New Jersey, 1996.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung umfasst ein Verfahren zur Audiosignalverarbeitung, bei welchem Audiosignale an zwei beabstandeten Orten aufgenommen und einer Transformation im Wahrnehmungsbereich unterzogen werden (Bark- or Mel-Zerlegung), wonach die Verstärkung des Sprachsignals auf der Kombination von parametrischen (auf einem Modell basierenden) und nicht-parametrischen (statistischen) Sprachverstärkungs-Lösungsansätzen basiert:
    • a. ein Quellentrennungsprozess wird durchgeführt, um eine erste Abschätzung der gewünschten Signalteile und der Störungsteile der Mikrophonsignale zu erhalten, und
    • b. eine auf Kohärenz basierende Umhüllungsfilterung wird durchgeführt, um eine zweite Abschätzung der gewünschten Signalteile der Mikrophonsignale zu erhalten, und weiter wird an den mindestens zwei Signalen eine Geräuschfeld-Diffusitätsdetektierung durchgeführt, worin die Geräuschfeld-Diffusitätsdetektierung weiter dazu dient, den Ausgang von dem ersten und dem zweiten Quellentrennungsprozess zu mischen, damit das bestmögliche Signal erhalten wird. Die von den Quellentrennungsalgorithmen geschätzten Transferfunktionen werden dazu verwendet, ein virtuelles stereophonisches Geräuschfeld zu rekonstruieren (räumliche Lokalisierung der verschiedenen Tonquellen).
  • Wenn sich die Sprach- und Geräuschquellen im unmittelbaren Geräuschfeld befinden (der direkte Pfad zwischen Tonquellen und Mikrophonen überwiegt, Nachhall gering), kann die Übertragungs-Transferfunktion von jeder Quelle in jedem Quellen-Ohrsystem abgeschätzt und dazu verwendet werden, Sprach- und Geräuschsignale durch die Verwendung der Quellentrennung zu trennen. Diese Transferfunktionen werden unter Verwendung von Quellentrennungsalgorithmen abgeschätzt. Das Lernen der Koeffizienten der Transferfunktionen kann entweder überwacht (wenn nur die Geräuschquelle aktiv ist) oder blind sein (wenn Sprach- und Geräuschquellen gleichzeitig aktiv sind). Die Lernrate in jedem Frequenzband kann von den Signalcharakteristiken abhängig sein. Das mit diesem Lösungsansatz erhaltene Signal ist die erste Abschätzung des sauberen Sprachsignals.
  • Wenn sich das Störsignal in dem Nachhall-Geräuschfeld befindet (Beiträge von Nachhall sind mit denen des direkten Pfades vergleichbar), schlagen Lösungsansätze mit Quellentrennung auf Grund der Komplexität der zu bewertenden Transferfunktionen fehl. Eine auf Statistik basierende Umhüllungsfilterung kann verwendet werden, um Sprache aus Störgeräusch zu extrahieren. Die im Transformationsbereich (Bark oder Mel) berechnete Kurzzeit-Kohärenzfunktion ermöglicht die Abschätzung einer Wahrscheinlichkeit des Vorhandenseins von Sprache in jedem Bark- or Mel-Frequenzband. Ihre Anwendung auf das verlärmte Sprachsignal ermöglicht es, diejenigen Bänder zu extrahieren, in denen Sprache überwiegt, und diejenigen zu dämpfen, in denen Störgeräusch überwiegt. Das mit diesem Lösungsansatz erhaltene Signal ist die zweite Abschätzung des sauberen Sprachsignals.
  • Diese zwei Abschätzungen des sauberen Sprachsignals werden daraufhin gemischt, um die Leistungsfähigkeit der Verstärkung zu optimieren. Das Mischen wird je nach der Geräuschfeldcharakteristik eines jeden Frequenzbandes unabhängig in jedem Frequenzband durchgeführt. Das jeweilige Gewicht für jeden Lösungsansatz und für jedes Frequenzband wird aus der Kohärenzfunktion berechnet.
  • Während des Kombinierens der aus den beiden Lösungsansätzen errechneten Signale werden die durch die Quellentrennung abgeschätzten Transferfunktionen verwendet, um ein virtuelles stereophonisches Geräuschfeld zu rekonstruieren und die räumlichen Informationen von den verschiedenen Quellen zurück zu gewinnen.
  • Bei einer weiteren Ausführungsform der Erfindung basiert die Geräuschfeld-Diffusitätsdetektierung auf dem Wert einer Kurzzeit-Kohärenzfunktion, wobei die Kohärenzfunktion ausgedrückt ist als:
  • Figure 00110001
  • Diese Funktion variiert je nach dem Betrag des "kohärenten" Signals zwischen Null und Eins. Wenn das Sprachsignal das Frequenzband dominiert, liegt die Kohärenz nahe bei Eins, und wenn keine Sprache im Frequenzband vorliegt, liegt die Kohärenz nahe bei Null. Sobald die Diffusität des Geräuschfeldes einmal bekannt ist, können die Resultate der Quellentrennung und des auf Kohärenz basierenden Lösungsansatzes optimal kombiniert werden, um die Sprachsignale zu verstärken. Bei der Kombination kann es sich um die Verwendung eines der beiden Lösungsansätze handeln, wenn sich die Geräuschquelle vollständig im unmittelbaren Geräuschfeld oder vollständig im diffusen Geräuschfeld befindet, oder um eine Kombination der Resultate, wenn sich einige der Frequenzbänder im unmittelbaren Geräuschfeld und andere im diffusen Geräuschfeld befinden.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Es zeigt:
  • 1 ein Blockdiagramm des vorgeschlagenen Lösungsansatzes.
  • 2 ein Vollmischmodell für Sprach- und Geräuschquellen.
  • 3 eine modifiziertes Mischmodell.
  • 4 ein Entmischungsmodell.
  • BESCHREIBUNG EINER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Der Zweck eines Hörhilfensystems ist, die Verständlichkeit von Sprache für gehörbehinderte Personen zu verbessern. Es ist daher wichtig, die Spezifität des Sprachsignals zu berücksichtigen. Psycho-akustische Studien haben gezeigt, dass die menschliche Frequenzwahrnehmung nicht linear mit der Frequenz verläuft, sondern dass die Empfindlichkeit gegen Frequenzänderungen mit einer zunehmenden Frequenz des Tones abnimmt. Diese Eigenschaft des menschlichen Gehörapparates wurde vielfach in Sprachverstärkungs- und Spracherkennungssystemen angewendet, um die Leistungsfähigkeit solcher Systeme zu verbessern. Die Verwendung von Critical-Band-Modellierung (Bark- oder Mel-Frequenzskala) ermöglicht es, die statistische Abschätzung der Sprach- und Störgeräuschcharakteristiken zu verbessern und somit die Qualität der Sprachverstärkung zu verbessern.
  • Wenn sich die Sprach- und Geräuschquellen im unmittelbaren Geräuschfeld (akustische Umgebung mit geringem Nachhall) befinden, kann die Übertragungs-Transferfunktion einer jeden Quelle in jedem Ohrsystem geschätzt werden und dazu verwendet werden, die Sprach- und Geräuschsignale von einander zu trennen. Das Mischsystem ist in 2 dargestellt.
  • Das Mischmodell von 2 kann so modifiziert werden, dass es dem Modell der 3 gleichwertig ist.
  • Die Invertierung der Transferfunktionen H12 und H21 ermöglicht es, die ursprünglichen Signale bis hin zu der von der Transferfunktion G11 und G22 eingeführten Modifikation zurück zu gewinnen. Das Entmischungsmodell ist in 4 dargestellt.
  • Die Entmischungs-Transferfunktionen W12 und W21 können unter Verwendung von Statistik höherer Ordnung oder einer zeitverzögerten Schätzung der Kreuzkorrelation zwischen den Beiden abgeschätzt werden. Die Abschätzung der Modellparameter kann entweder überwacht (wenn nur eine Quelle aktiv ist) oder blind sein (wenn die Sprach- und Geräuschquellen gleichzeitig aktiv sind). Die Lernrate der Modellparameter kann gemäss der Art der Geräuschfeldbedingungen in jedem Frequenzband eingestellt werden. Die resultierenden Signale sind die Abschätzungen des sauberen Sprachsignals und des Geräuschsignals.
  • Wenn sich die Geräuschquelle nicht in dem unmittelbaren Geräuschfeld (hallende Umgebung) befindet, werden die Misch-Transferfunktionen kompliziert, und es ist nicht möglich, sie in Echtzeit auf einem typischen Prozessor eines Hörhilfensystem zu schätzen. Unter der Annahme, dass die Sprachquelle sich im unmittelbaren Geräuschfeld befindet, übertragen die beiden Kanäle des binauralen Systems jedoch ständig Informationen über die räumliche Position der Sprachquelle, und diese können dazu verwendet werden, das Signal zu verstärken. Ein auf Statistik basierender Gewichtungs-Lösungsansatz kann verwendet werden, um die Sprache aus dem Störgeräusch zu extrahieren. Die Kurzzeit-Kohärenzfunktion ermöglicht die Abschätzung einer Wahrscheinlichkeit des Vorhandenseins von Sprache. Ein solches Maß definiert eine Gewichtungsfunktion im Zeit-Frequenz-Bereich. Deren Anwendung auf die verlärmten Sprachsignale ermöglicht die Bestimmung der Regionen, in denen Sprache überwiegt, und eine Dämpfung von Regionen, in denen Störgeräusch überwiegt.
  • Wie vorgehend erläutert wurde, werden in dem vorgeschlagenen Lösungsansatz zwei Verstärkungs-Lösungsansätze verwendet. Das Ziel der Geräuschfeld-Diffusitätsdetektierung ist es, die akustischen Bedingungen zu erfassen, unter denen das Hörhilfensystem arbeitet. Der Erfassungsblock liefert eine Angabe der Diffusität der Geräuschquelle. Das Ergebnis kann sein, dass die Geräuschquelle sich im unmittelbaren Geräuschfeld, im diffusen Geräuschfeld, oder dazwischen befindet. Die Information wird für jedes Bark- bzw. Mel-Frequenzband geliefert. Die vorausgehend dargestellte Kohärenzfunktion schätzt ein Maß der Diffusität. Wenn die Kohärenz zwischen Sprachpausen gleich (oder nahezu gleich) Eins ist, befindet sich die Geräuschquelle im unmittelbaren Geräuschfeld. Wenn sie nahe bei Null liegt, befindet sich die Geräuschquelle im diffusen Geräuschfeld. Für dazwischen liegende Werte liegt die akustische Umgebung zwischen dem unmittelbaren und dem diffusen Geräuschfeld.
  • Sobald die Diffusität des Geräuschfeldes bekannt ist, können die Resultate des parametrischen Lösungsansatzes (Quellentrennung) und des nicht-parametrischen Lösungsansatzes (Kohärenz) optimal kombiniert werden, um die Sprachsignale zu verstärken. Die Kombination kann allmählich erzielt werden, indem das durch die Quellentrennung gelieferte Signal mit dem Maß der Diffusität und das durch die Kohärenz gelieferte Signal durch den Komplementärwert zu Eins des Maßes der Diffusität gewichtet wird.
  • Da die Entmischungs-Transferfunktionen während der Quellentrennung identifiziert wurden, können sie dazu verwendet werden, die Räumlichkeit der Tonquellen zu rekonstruieren. Die Geräuschquelle kann dem verstärkten Sprachsignal hinzugefügt werden, wobei sie ihre Richtungseigenschaft beibehält, aber mit einer verringerten Lautstärke. Ein solcher Lösungsansatz bietet den Vorteil, dass die Verständlichkeit des Sprachsignals erhöht wird (durch die Verringerung des Geräuschpegels), aber die Information über Geräuschquellen beibehalten wird (dies kann von Nutzen sein, wenn die Geräuschquelle eine Gefahr darstellt). Durch die Beibehaltung der räumlichen Information wird auch der Anwendungskomfort erhöht.

Claims (3)

  1. Verfahren zur Audiosignalverarbeitung, bei welchem Audiosignale an zwei beabstandeten Orten aufgenommen und einer Transformation im Wahrnehmungsbereich unterzogen werden, wonach: a) ein Quellentrennungsprozess durchgeführt wird, um eine erste Abschätzung der gewünschten Signalteile und der Störungsteile der Mikrophonsignale zu erhalten, und b) eine auf Kohärenz basierende Umhüllungsfilterung durchgeführt wird, um eine zweite Abschätzung der gewünschten Signalteile der Mikrophonsignale zu erhalten, und wobei weiter an den mindestens zwei Signalen eine Geräuschfeld-Diffusitätsdetektierung durchgeführt wird, worin weiterhin die Geräuschfeld-Diffusitätsdetektierung dazu dient, den Ausgang von dem Blind-Quellentrennungsprozess und dem auf Kohärenz basierenden Trennungsprozess zu mischen, damit die Wirksamkeit der Verstärkung des gewünschten Signals optimiert wird.
  2. Verfahren nach Anspruch 1, bei welchem eine virtuelle Stereophonie-Rekonstruktion des Signales vor der Lieferung des resultierenden Audiosignals an das rechte und das linke Ohr einer Person durchgeführt wird, wobei die Stereophonie-Rekombination auf der Basis der räumlichen Information über das Geräuschfeld durchgeführt wird.
  3. Verfahren nach Anspruch 1, bei welchem die Geräuschfeld-Diffusitätsdetektierung basierend auf dem Wert einer Kurzzeit-Kohärenzfunktion durchgeführt wird, welche folgendermaßen auszudrücken ist:
    Figure 00170001
    worin k die Zahl des Frequenzbandes in dem Bark- oder Mel-Frequenzraum ist.
DE60304859T 2003-08-21 2003-08-21 Verfahren zur Verarbeitung von Audiosignalen Expired - Lifetime DE60304859T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP03388055A EP1509065B1 (de) 2003-08-21 2003-08-21 Verfahren zur Verarbeitung von Audiosignalen

Publications (2)

Publication Number Publication Date
DE60304859D1 DE60304859D1 (de) 2006-06-01
DE60304859T2 true DE60304859T2 (de) 2006-11-02

Family

ID=34043018

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60304859T Expired - Lifetime DE60304859T2 (de) 2003-08-21 2003-08-21 Verfahren zur Verarbeitung von Audiosignalen

Country Status (7)

Country Link
US (1) US7761291B2 (de)
EP (1) EP1509065B1 (de)
AT (1) ATE324763T1 (de)
AU (1) AU2004302264B2 (de)
DE (1) DE60304859T2 (de)
DK (1) DK1509065T3 (de)
WO (1) WO2005020633A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106017837A (zh) * 2016-06-30 2016-10-12 北京空间飞行器总体设计部 一种等效声模拟源的模拟方法

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6687187B2 (en) * 2000-08-11 2004-02-03 Phonak Ag Method for directional location and locating system
EP1509065B1 (de) 2003-08-21 2006-04-26 Bernafon Ag Verfahren zur Verarbeitung von Audiosignalen
DE102004053790A1 (de) 2004-11-08 2006-05-18 Siemens Audiologische Technik Gmbh Verfahren zur Erzeugung von Stereosignalen für getrennte Quellen und entsprechendes Akustiksystem
WO2006090589A1 (ja) * 2005-02-25 2006-08-31 Pioneer Corporation 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体
US7542580B2 (en) 2005-02-25 2009-06-02 Starkey Laboratories, Inc. Microphone placement in hearing assistance devices to provide controlled directivity
DE102005032274B4 (de) 2005-07-11 2007-05-10 Siemens Audiologische Technik Gmbh Hörvorrichtung und entsprechendes Verfahren zur Eigenstimmendetektion
US20070043608A1 (en) * 2005-08-22 2007-02-22 Recordant, Inc. Recorded customer interactions and training system, method and computer program product
EP1640972A1 (de) * 2005-12-23 2006-03-29 Phonak AG System und Verfahren zum Separieren der Stimme eines Benutzers von dem Umgebungston
EP1994788B1 (de) 2006-03-10 2014-05-07 MH Acoustics, LLC Rauschunterdrückendes direktionales mikrophon-array
EP1912472A1 (de) * 2006-10-10 2008-04-16 Siemens Audiologische Technik GmbH Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
FR2908005B1 (fr) * 2006-10-26 2009-04-03 Parrot Sa Circuit de reduction de l'echo acoustique pour un dispositif "mains libres"utilisable avec un telephone portable
DE102007035173A1 (de) * 2007-07-27 2009-02-05 Siemens Medical Instruments Pte. Ltd. Verfahren zum Einstellen eines Hörsystems mit einem perzeptiven Modell für binaurales Hören und entsprechendes Hörsystem
CN101203061B (zh) * 2007-12-20 2011-07-20 华南理工大学 一种实时采集混合音频盲分离装置的并行处理方法
DE602008002695D1 (de) * 2008-01-17 2010-11-04 Harman Becker Automotive Sys Postfilter für einen Strahlformer in der Sprachverarbeitung
US8483854B2 (en) 2008-01-28 2013-07-09 Qualcomm Incorporated Systems, methods, and apparatus for context processing using multiple microphones
US8831936B2 (en) * 2008-05-29 2014-09-09 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for speech signal processing using spectral contrast enhancement
US8538749B2 (en) * 2008-07-18 2013-09-17 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for enhanced intelligibility
WO2010040370A1 (en) 2008-10-09 2010-04-15 Phonak Ag System for picking-up a user's voice
DK2200341T3 (en) * 2008-12-16 2015-06-01 Siemens Audiologische Technik A method for driving of a hearing aid as well as the hearing aid with a source separation device
US9202456B2 (en) * 2009-04-23 2015-12-01 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for automatic control of active noise cancellation
WO2010004056A2 (en) * 2009-10-27 2010-01-14 Phonak Ag Method and system for speech enhancement in a room
TWI459828B (zh) * 2010-03-08 2014-11-01 Dolby Lab Licensing Corp 在多頻道音訊中決定語音相關頻道的音量降低比例的方法及系統
US9053697B2 (en) 2010-06-01 2015-06-09 Qualcomm Incorporated Systems, methods, devices, apparatus, and computer program products for audio equalization
US8861745B2 (en) * 2010-12-01 2014-10-14 Cambridge Silicon Radio Limited Wind noise mitigation
US9635474B2 (en) * 2011-05-23 2017-04-25 Sonova Ag Method of processing a signal in a hearing instrument, and hearing instrument
EP2600343A1 (de) * 2011-12-02 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Mischen von Raumtoncodierungsstreams auf Geometriebasis
DE102011087984A1 (de) 2011-12-08 2013-06-13 Siemens Medical Instruments Pte. Ltd. Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
CN103165136A (zh) 2011-12-15 2013-06-19 杜比实验室特许公司 音频处理方法及音频处理设备
CN102522093A (zh) * 2012-01-09 2012-06-27 武汉大学 一种基于三维空间音频感知的音源分离方法
US8682678B2 (en) 2012-03-14 2014-03-25 International Business Machines Corporation Automatic realtime speech impairment correction
CN104781880B (zh) * 2012-09-03 2017-11-28 弗劳恩霍夫应用研究促进协会 用于提供通知的多信道语音存在概率估计的装置和方法
US9349384B2 (en) 2012-09-19 2016-05-24 Dolby Laboratories Licensing Corporation Method and system for object-dependent adjustment of levels of audio objects
EP2848007B1 (de) 2012-10-15 2021-03-17 MH Acoustics, LLC Rauschunterdrückendes direktionales mikrophon-array
WO2014062509A1 (en) 2012-10-18 2014-04-24 Dolby Laboratories Licensing Corporation Systems and methods for initiating conferences using external devices
CN105308681B (zh) * 2013-02-26 2019-02-12 皇家飞利浦有限公司 用于生成语音信号的方法和装置
GB2521649B (en) * 2013-12-27 2018-12-12 Nokia Technologies Oy Method, apparatus, computer program code and storage medium for processing audio signals
US20170018282A1 (en) * 2015-07-16 2017-01-19 Chunghwa Picture Tubes, Ltd. Audio processing system and audio processing method thereof
US9401158B1 (en) 2015-09-14 2016-07-26 Knowles Electronics, Llc Microphone signal fusion
US9779716B2 (en) 2015-12-30 2017-10-03 Knowles Electronics, Llc Occlusion reduction and active noise reduction based on seal quality
US9830930B2 (en) 2015-12-30 2017-11-28 Knowles Electronics, Llc Voice-enhanced awareness mode
US9812149B2 (en) 2016-01-28 2017-11-07 Knowles Electronics, Llc Methods and systems for providing consistency in noise reduction during speech and non-speech periods
US10134379B2 (en) 2016-03-01 2018-11-20 Guardian Glass, LLC Acoustic wall assembly having double-wall configuration and passive noise-disruptive properties, and/or method of making and/or using the same
US10354638B2 (en) 2016-03-01 2019-07-16 Guardian Glass, LLC Acoustic wall assembly having active noise-disruptive properties, and/or method of making and/or using the same
US20190070414A1 (en) * 2016-03-11 2019-03-07 Mayo Foundation For Medical Education And Research Cochlear stimulation system with surround sound and noise cancellation
US10187740B2 (en) * 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
US9906859B1 (en) 2016-09-30 2018-02-27 Bose Corporation Noise estimation for dynamic sound adjustment
CN106653048B (zh) * 2016-12-28 2019-10-15 云知声(上海)智能科技有限公司 基于人声模型的单通道声音分离方法
US10104484B1 (en) 2017-03-02 2018-10-16 Steven Kenneth Bradford System and method for geolocating emitted acoustic signals from a source entity
US11133011B2 (en) * 2017-03-13 2021-09-28 Mitsubishi Electric Research Laboratories, Inc. System and method for multichannel end-to-end speech recognition
US10726855B2 (en) 2017-03-15 2020-07-28 Guardian Glass, Llc. Speech privacy system and/or associated method
US10304473B2 (en) 2017-03-15 2019-05-28 Guardian Glass, LLC Speech privacy system and/or associated method
US10373626B2 (en) 2017-03-15 2019-08-06 Guardian Glass, LLC Speech privacy system and/or associated method
CN107342093A (zh) * 2017-06-07 2017-11-10 惠州Tcl移动通信有限公司 一种音频信号的降噪处理方法及系统
CN107293305A (zh) * 2017-06-21 2017-10-24 惠州Tcl移动通信有限公司 一种基于盲源分离算法改善录音质量的方法及其装置
US11335357B2 (en) * 2018-08-14 2022-05-17 Bose Corporation Playback enhancement in audio systems
US11295718B2 (en) 2018-11-02 2022-04-05 Bose Corporation Ambient volume control in open audio device
US10811032B2 (en) * 2018-12-19 2020-10-20 Cirrus Logic, Inc. Data aided method for robust direction of arrival (DOA) estimation in the presence of spatially-coherent noise interferers
US11222652B2 (en) * 2019-07-19 2022-01-11 Apple Inc. Learning-based distance estimation
CN111798866A (zh) * 2020-07-13 2020-10-20 商汤集团有限公司 音频处理网络的训练及立体声重构方法和装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5524056A (en) 1993-04-13 1996-06-04 Etymotic Research, Inc. Hearing aid having plural microphones and a microphone switching system
US5479522A (en) 1993-09-17 1995-12-26 Audiologic, Inc. Binaural hearing aid
US5757932A (en) 1993-09-17 1998-05-26 Audiologic, Inc. Digital hearing aid system
US5511128A (en) 1994-01-21 1996-04-23 Lindemann; Eric Dynamic intensity beamforming system for noise reduction in a binaural hearing aid
US6018317A (en) 1995-06-02 2000-01-25 Trw Inc. Cochannel signal processing system
US6002776A (en) 1995-09-18 1999-12-14 Interval Research Corporation Directional acoustic signal processor and method therefor
WO1997014266A2 (en) 1995-10-10 1997-04-17 Audiologic, Inc. Digital signal processing hearing aid with processing strategy selection
US6130949A (en) * 1996-09-18 2000-10-10 Nippon Telegraph And Telephone Corporation Method and apparatus for separation of source, program recorded medium therefor, method and apparatus for detection of sound source zone, and program recorded medium therefor
DE19704119C1 (de) 1997-02-04 1998-10-01 Siemens Audiologische Technik Schwerhörigen-Hörhilfe
US5966639A (en) 1997-04-04 1999-10-12 Etymotic Research, Inc. System and method for enhancing speech intelligibility utilizing wireless communication
US5991419A (en) 1997-04-29 1999-11-23 Beltone Electronics Corporation Bilateral signal processing prosthesis
US6154552A (en) 1997-05-15 2000-11-28 Planning Systems Inc. Hybrid adaptive beamformer
US6343268B1 (en) 1998-12-01 2002-01-29 Siemens Corporation Research, Inc. Estimator of independent sources from degenerate mixtures
EP1017253B1 (de) 1998-12-30 2012-10-31 Siemens Corporation Blind-Trennung von Signalquellen für Hörhilfegeräte
US6430528B1 (en) * 1999-08-20 2002-08-06 Siemens Corporate Research, Inc. Method and apparatus for demixing of degenerate mixtures
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
DE60104091T2 (de) 2001-04-27 2005-08-25 CSEM Centre Suisse d`Electronique et de Microtechnique S.A. - Recherche et Développement Verfahren und Vorrichtung zur Sprachverbesserung in verrauschte Umgebung
US7383178B2 (en) * 2002-12-11 2008-06-03 Softmax, Inc. System and method for speech processing using independent component analysis under stability constraints
DK1326478T3 (en) * 2003-03-07 2014-12-08 Phonak Ag Method for producing control signals and binaural hearing device system
EP1509065B1 (de) 2003-08-21 2006-04-26 Bernafon Ag Verfahren zur Verarbeitung von Audiosignalen
US7099821B2 (en) * 2003-09-12 2006-08-29 Softmax, Inc. Separation of target acoustic signals in a multi-transducer arrangement
US20080300652A1 (en) * 2004-03-17 2008-12-04 Lim Hubert H Systems and Methods for Inducing Intelligible Hearing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106017837A (zh) * 2016-06-30 2016-10-12 北京空间飞行器总体设计部 一种等效声模拟源的模拟方法

Also Published As

Publication number Publication date
EP1509065B1 (de) 2006-04-26
EP1509065A1 (de) 2005-02-23
AU2004302264A1 (en) 2005-03-03
AU2004302264B2 (en) 2009-09-10
DK1509065T3 (da) 2006-08-07
WO2005020633A1 (en) 2005-03-03
ATE324763T1 (de) 2006-05-15
DE60304859D1 (de) 2006-06-01
US20070100605A1 (en) 2007-05-03
US7761291B2 (en) 2010-07-20

Similar Documents

Publication Publication Date Title
DE60304859T2 (de) Verfahren zur Verarbeitung von Audiosignalen
DE102017102134B4 (de) Global optimierte Nachfilterung mit der Kleinste-Quadrate-Methode für die Sprachverbesserung
DE60116255T2 (de) Rauschunterdückungsvorrichtung und -verfahren
DE60104091T2 (de) Verfahren und Vorrichtung zur Sprachverbesserung in verrauschte Umgebung
DE69926155T2 (de) Integriertes System zur Sprachverbesserung in einem Fahrzeug sowie Freisprech-Mobilfunksystem
EP2537351B1 (de) Verfahren zur binauralen seitenwahrnehmung für hörinstrumente
EP1143416A2 (de) Geräuschunterdrückung im Zeitbereich
EP1771034A2 (de) Mikrofonkalibrierung bei einem RGSC-Beamformer
EP3393143B1 (de) Verfahren zum betrieb eines hörgerätes
WO2011110239A1 (de) Enthallen von signalen einer binauralen hörvorrichtung
DE102010026381A1 (de) Verfahren zum Lokalisieren einer Audioquelle und mehrkanaliges Hörsystem
EP3926982A2 (de) Verfahren zur richtungsabhängigen rauschunterdrückung für ein hörsystem, welches eine hörvorrichtung umfasst
DE102008017550A1 (de) Mehrstufiges Schätzverfahren zur Störgeräuschreduktion und Hörvorrichtung
EP2495724B1 (de) Verfahren und Vorrichtung zum Schätzen eines Störgeräusches
DE102015204010B4 (de) Verfahren zur Unterdrückung eines Störgeräusches in einem akustischen System
DE60032047T2 (de) Verfahren und Vorrichtung zur adaptiven Identifikation und entsprechender adaptiver Echokompensator
EP1154674B1 (de) Schaltung und Verfahren zur adaptiven Geräuschunterdrückung
DE102018117557A1 (de) Adaptives nachfiltern
DE102018117558A1 (de) Adaptives nachfiltern
Kokkinakis et al. Evaluation of a spectral subtraction strategy to suppress reverberant energy in cochlear implant devices
DE102019105458B4 (de) System und Verfahren zur Zeitverzögerungsschätzung
DE102013205790B4 (de) Verfahren zum Schätzen eines Nutzsignals und Hörvorrichtung
DE102019201879B3 (de) Verfahren zum Betrieb eines Hörsystems und Hörsystem
EP3534624B1 (de) Verfahren zum betrieb eines hörgerätes
de Cheveigné The cancellation principle in acoustic scene analysis

Legal Events

Date Code Title Description
8364 No opposition during term of opposition