DE60125553T2 - Verfahren zur interferenzunterdrückung - Google Patents

Verfahren zur interferenzunterdrückung Download PDF

Info

Publication number
DE60125553T2
DE60125553T2 DE60125553T DE60125553T DE60125553T2 DE 60125553 T2 DE60125553 T2 DE 60125553T2 DE 60125553 T DE60125553 T DE 60125553T DE 60125553 T DE60125553 T DE 60125553T DE 60125553 T2 DE60125553 T2 DE 60125553T2
Authority
DE
Germany
Prior art keywords
acoustic
signal
components
processor
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60125553T
Other languages
English (en)
Other versions
DE60125553D1 (de
Inventor
L. Douglas Champaign JONES
E. Michael Champaign LOCKWOOD
C. Robert Champaign BILGER
S. Albert Champaign FENG
R. Charissa Champaign LANSING
D. William Champaign O'BRIEN
C. Bruce Champaign WHEELER
Mark Austin ELLEDGE
Chen Lisle LIU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Illinois
University of Illinois at Urbana Champaign
Original Assignee
University of Illinois
University of Illinois at Urbana Champaign
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Illinois, University of Illinois at Urbana Champaign filed Critical University of Illinois
Publication of DE60125553D1 publication Critical patent/DE60125553D1/de
Application granted granted Critical
Publication of DE60125553T2 publication Critical patent/DE60125553T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Neurosurgery (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Control Of Motors That Do Not Use Commutators (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Amplifiers (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

  • BEZUGNAHMEN AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung bezieht sich auf die US-Patentanmeldung Nr. 09/568,430, angemeldet am 10. Mai 2000 und auf US-Patentanmeldung Nr. 09/193,058, angemeldet am 16. November 1998, die ihrerseits eine Fortführung (continuation-in-part) der US-Patentanmeldung Nr. 08/666,757 ist, angemeldet am 19. Juni 1996 (jetzt US-Patent Nr. 6,222,927 B1); auf US-Patentanmeldung Nr. 09/568,435, angemeldet am 10. Mai 2000; und auf US-Patentanmeldung Nr. 09/805,233, angemeldet am 13. März 2001, die eine Fortführung der Internationalen Patentanmeldung Nr. PCT/US99/26965 ist.
  • RECHTE DER REGIERUNG
  • Die US-Regierung hat eine bezahlte Lizenz an dieser Erfindung und unter beschränkten Bedingungen das Recht, vom Patentinhaber zu verlangen, Anderen eine Lizenz unter vernünftigen Bedingungen zu geben, wie sie festgesetzt sind in DARPA Vertragsnummer ARMY SUNY240-6762A und National Institutes of Health Vertragsnummer R21DC04840.
  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf das Verarbeiten von akustischen Signalen und spezieller, aber nicht ausschließlich bezieht sie sich auf Techniken, um ein akustisches Signal von einer ausgesuchten Quelle zu extrahieren, während die Interferenz unterdrückt wird, die von anderen Quellen stammt, wobei zwei oder mehr Mikrophone verwendet werden.
  • Die Schwierigkeit, ein gewünschtes Signal in der Gegenwart von interferierenden Signalen zu extrahieren, ist ein lange bekanntes Problem für Akustik-Ingenieure. Dieses Problem hat einen Einfluss auf das Design und die Konstruktion von einer Vielzahl von Geräten wie etwa Systemen für die Spracherkennung und zum Abhören. Besonders problematisch ist das Trennen von gewünschten Klängen von ungewünschten Klängen mittels Hörhilfen. Im Allgemeinen erlauben es Hörhilfen nicht, einen gewünschten Klang selektiv zu verstärken, wenn er mit Geräuschen von einer nahen Quelle kontaminiert ist. Dieses Problem ist noch schwerwiegender, wenn der gewünschte Klang ein Sprachsignal ist und das Geräusch in der Nähe ebenfalls ein Sprachsignal ist, das von anderen Sprechenden erzeugt wird. Im Folgenden sollen mit "Geräusch" nicht nur zufällige oder nicht determinierte Signale gemeint sein, sondern auch unerwünschte Signale und Signale, die mit der Wahrnehmung eines gewünschten Signals interferieren.
  • Die US-A-5 651 071 offenbart eine Hörhilfe für beide Ohren, bei der Geräusch reduziert wird, indem das linke und das rechte digitale Audiosignal analysiert werden, um Vektoren im Frequenzraum für das linke und das rechte Signal zu produzieren, und indem digitale Kodierungstechniken für Signale verwendet werden, um einen Geräuschreduzierung-Verstärkungsvektor zu generieren. Dieser Verstärkungsvektor wird multipliziert mit sowohl dem linken als auch dem rechten Signalvektor. Eine Preemphasis des linken und rechten Ohrsignals wird verwendet, um die Signale „vorzuweißen", bevor sie in den Frequenzraum transformiert werden, was zu einer reduzierten Varianz zwischen den Frequenzkoeffizienten führt, so dass es weniger Probleme mit den numerischen Fehlern bei der Fourier-Transformation gibt. Die Effekte des Preemphasis-Filterns werden nach einer inversen Fourier-Transformation über Deemphasisfilter entfernt.
  • Die EP-A-0 802 699 bezieht sich auf das Synthetisieren einer größeren räumlichen Entfernung zwischen zwei Sensoren zum Zwecke der Strahlformung.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Eine Ausführungsform der vorliegenden Erfindung beinhaltet eine einzigartige Technik, um ein Signal unter Zuhilfenahme von zwei oder mehreren Mikrophonen zu verarbeiten. Andere Ausführungsformen beinhalten einzigartige Geräte und Methoden für das Verarbeiten von akustischen Signalen.
  • Weitere Ausführungsformen, Ziele, Merkmale, Aspekte, Vorteile, Formen und positive Punkte der vorliegenden Erfindung sollen offenbar werden aus den ausführlichen Zeichnungen und Beschreibungen, die hier vorgelegt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Diagramm eines Signalverarbeitungssystems.
  • 2 ist ein Diagramm, das bestimmte Aspekte des Systems aus 1 illustriert.
  • 3 ist ein Flussdiagramm einer Routine für den Betrieb des Systems aus 1.
  • 4 und 5 illustrieren weitere Ausführungsformen der vorliegenden Erfindung, die einer Anwendung des Systems aus 1 als Hörhilfe und für Computerspracherkennung entsprechen.
  • 6 ist ein Diagramm eines experimentellen Aufbaus des Systems aus 1.
  • 7 ist ein Graph der Stärke eines Zielsprachsignals und zweier interferierender Sprachsignale über der Zeit.
  • 8 ist ein Graph der Stärke über der Zeit eines Gemischs der Sprachsignale aus 7 vor der Verarbeitung, eines extrahierten Signals, das dem Zielsprachsignal aus 7 entspricht, und eines Doppels des Zielsprachsignals aus 7 zu Vergleichszwecken.
  • 9 ist ein Graph, der Linienplots der Bandbreite über der Frequenz für Werte von 1,001, 1,005, 1,01 und 1,03 des Regularisierungsfaktors (M) darstellt.
  • 10 ist ein Flussdiagramm einer Prozedur, die mit dem System aus 1 entweder mit oder ohne die Routine aus 3 durchgeführt werden kann.
  • 11 und 12 sind Graphen, die die Effizienz der Prozedur aus 10 illustrieren.
  • BESCHREIBUNG AUSGEWÄHLTER AUSFÜHRUNGSFORMEN
  • Während die vorliegende Erfindung unterschiedliche Formen annehmen kann, wird zum Zweck des besseren Verständnis der Prinzipien der Erfindung nun Bezug genommen werden auf die Ausführungsformen, die in den Zeichnungen dargestellt sind, und eine spezifische Sprache wird benutzt werden, um diese zu beschreiben. Es versteht sich nichtsdestotrotz, dass keine Begrenzung des Schutzbereiches der Erfindung dadurch beabsichtigt ist. Jegliche Änderungen und weitere Modifikationen der beschriebenen Ausführungsformen und jegliche weitere Anwendungen der Prinzipien der Erfindung, wie sie hier beschrieben wurde, werden betrachtet, als würden sie einem Fachmann auf dem Gebiet der Erfindung normalerweise einfallen.
  • 1 illustriert ein System 10 zur Verarbeitung akustischer Signale einer Ausführungsform der vorliegenden Erfindung. System 10 ist konfiguriert, um eine gewünschte akustische Anregung von der akustischen Quelle 12 in Gegenwart von Interferenzen oder Geräuschen von anderen Quellen, wie etwa den akustischen Quellen 14 und 16, zu extrahieren. Das System 10 beinhaltet eine Anordnung 20 akustischer Sensoren. In dem dargestellten Beispiel beinhaltet die Sensoranordnung 20 ein Paar akustischer Sensoren 22, 24 innerhalb des Empfangsbereiches der Quellen 12, 14, 16. Die akustischen Sensoren 22, 24 sind angeordnet, um akustische Anregungen von den Quellen 12, 14, 16 zu detektieren.
  • Die Sensoren 22, 24 sind eine Entfernung D voneinander beabstandet, wie dies durch das entsprechend bezeichnete Liniensegment längs der lateralen Achse T illustriert ist. Die laterale Achse T ist senkrecht zur azimutalen Achse AZ. Der Mittelpunkt M bezeichnet den Punkt der halben Strecke längs der Entfernung D vom Sensor 22 zum Sensor 24. Die Achse AZ schneidet den Mittelpunkt M und die akustische Quelle 12. Die Achse AZ wird bezeichnet als Bezugspunkt (null Grad) für die Quellen 12, 14, 16 in der azimutalen Ebene und für die Sensoren 22, 24. In der dargestellten Ausführungsform definieren die Quellen 14, 16 Azimutalwinkel 14a, 16a relativ zur Achse AZ von jeweils etwa +22° und –65°. Entsprechend befindet sich die akustische Quelle 12 bei 0° relativ zur Achse AZ. In einer Ausführungsform des Betriebes des Systems 10 wählt die Anordnung "auf der Achse" der akustischen Quelle 12 mit der Achse AZ diese als gewünschte oder Zielquelle von akustischen Anregungen, die mit Hilfe des Systems 10 überwacht werden soll. Dagegen werden die Quellen 14 und 16, die sich „abseits der Achse" befinden, als Geräusch behandelt und vom System unterdrückt, was im Folgenden detaillierter beschrieben werden wird. Um die Richtung, die über wacht werden soll, anzupassen, können die Sensoren 22, 24 bewegt werden, um die Position der Achse AZ zu verändern. In einer zusätzlichen oder anderen Betriebsart kann die ausgewählte Überwachungsrichtung angepasst werden, indem ein Richtungsindikator verändert wird, der in die Routine aus 3 beinhaltet ist, wie weiter unten vollständiger beschrieben werden wird. Für diese Betriebsarten versteht es sich, dass weder der Sensor 22 noch der Sensor 24 bewegt werden muss, um die ausgewählte Überwachungsrichtung zu ändern, und dass die ausgesuchte Überwachungsrichtung nicht koinzident mit der Achse AZ zu sein braucht.
  • In einer Ausführungsform sind die Sensoren 22, 24 omnidirektionale dynamische Mikrophone. In anderen Ausführungsformen wird ein anderer Mikrophontyp verwendet, wie etwa ein kardioider oder ein hyperkardioider Typ, oder so andere Sensortypen könnten benutzt werden, wie sie dem Fachmann einfallen würden. In anderen Ausführungsformen können außerdem mehr oder weniger akustische Quellen bei unterschiedlichen Azimuten angeordnet sein; wobei die dargestellte Anzahl und Anordnung der Quellen 12, 14, 16 nur als eins von vielen Beispielen dargebracht wird. In einem solchen Beispiel kann ein Raum mit mehreren Gruppen von Personen, die gleichzeitig in Gespräche vertieft sind, eine Anzahl der Quellen zur Verfügung stellen.
  • Die Sensoren 22, 24 sind operativ mit dem verarbeitenden Subsystem 30 gekoppelt, um von dort Verarbeitungssignale zu empfangen. Für eine bequemere Beschreibung werden die Sensoren 22, 24 als zugehörig zu jeweils einem linken Kanal L und einem rechten Kanal R bezeichnet. Außerdem werden die analogen Signale, die von den Sensoren 22, 24 für das Verarbeitungssubsystem 30 zur Verfügung gestellt werden, im Zeitraum als xL(t und xR(t) für die jeweiligen Kanäle L und R bezeichnet. Das verarbeitende Subsystem 30 kann betrieben werden, um ein Ausgangssignal zur Verfügung zu stellen, das Interferenzen von den Quellen 14, 16 zugunsten der akustischen Anregung unterdrückt, die von der ausgewählten akustischen Quelle 12 detektiert wird, die längs der Achse AZ positioniert ist. Dieses Ausgangssignal wird dem Ausgangsgerät 90 zur Verfügung gestellt, um einem Benutzer in der Form eines hörbaren oder visuellen Signals präsentiert zu werden, das weiter verarbeitet werden kann.
  • In Bezug auf zusätzlich 2 wird ein Diagramm zur Verfügung gestellt, das andere Details des Systems 10 darstellt. Das Verarbeitungssubsystem 30 beinhaltet Signalkonditionierer/Filter 32a und 32b, um Eingangssignale xL(t) und xR(t) von den Sensoren 22, 24 zu filtern und konditionieren, wobei t die Zeit darstellt. Nach den Signalkonditionierern/Filter 32a und 32b werden die konditionierten Signale in entsprechende Analog-Digital(A/D)-Wandler 34a, 34b eingegeben, um für jeweils die Kanäle L und R diskrete Signale xL(z) und xR(z) zur Verfügung zu stellen, wobei z die diskreten Abtast-Ereignisse indiziert. Die Abtastrate fS wird ausgewählt, um die gewünschte Klangtreue für einen interessierenden Frequenzbereich zu ermöglichen. Das Verarbeitungssubsystem 30 beinhaltet auch eine digitale Schaltung 40, die einen Prozessor 42 und einen Speicher 50 aufweist. Die diskreten Signale xL(z) und xR(z) werden in dem Abtastpunkt-Zwischenspeicher 52 des Speichers 50 in einer zuerst-drinnen-zuerst-draußen-Art (First-In-First-Out FIFO) gespeichert.
  • Der Prozessor 42 kann ein Gerät sein, das über Software oder Firmware programmierbar ist, eine statische Logikmaschine oder eine Kombination aus sowohl programmierbarer und dedizierter Hardware sein. Außerdem kann der Prozessor 42 aus einer oder mehreren Komponenten bestehen und kann eine oder mehrere zentrale Prozessoreinheiten (CPUs) behalten. In einer Ausführungsform hat der Prozessor 42 die Form eines digital programmierbaren, hochintegrierten Halbleiterchips, der speziell für das Verarbeiten von Signalen geeignet ist. In anderen Ausführungsformen kann der Prozessor von allgemeiner Art sein oder eine andere Anordnung aufweisen, wie sie den Fachleuten einfallen würde.
  • Gleichermaßen kann der Speicher 50 unterschiedlich konfiguriert sein, wie es den Fachleuten einfallen würde. Der Speicher 50 kann eine oder mehrere Arten von elektronischen Festkörperspeichern, magnetischen Speichern oder optischen Speichern entweder der volatilen oder der nichtvolatilen Art beinhalten. Außerdem kann der Speicher mit einer oder mehreren anderen Komponenten des Verarbeitungssubsystems 30 integriert sein und/oder aus einer oder mehreren getrennten Komponenten aufgebaut sein.
  • Das Verarbeitungssubsystem kann jegliche Oszillatoren, Kontrolluhren, Schnittstellen, Signalkonditionierer, zusätzliche Filter, Begrenzer, Konverter, Spannungsversorgungen, Kommunikationsausgänge oder andere Arten von Komponenten beinhalten, wie sie den Fachleuten einfallen würden, um die vorliegende Erfindung umzusetzen. In einer Ausführungsform wird das Subsystem 30 in der Form einer einzigen mikroelektronischen Einrichtung zur Verfügung gestellt.
  • Unter Bezugnahme auch auf das Flussdiagramm aus 3 ist eine Routine 140 dargestellt. Die digitale Schaltung 40 ist konfiguriert, um die Routine 140 auszuführen. Der Prozessor 42 führt logische Schritte aus, um wenigstens einige der Operationen der Routine 140 auszuführen. Als nichtbeschränkendes Beispiel kann diese Logik in der Form von Softwareprogrammierbefehlen, Hardware, Firmware, oder einer Kombination von diesen sein. Die Logik kann teilweise oder vollständig in dem Speicher 50 gespeichert sein und/oder mit einer oder mehreren anderen Komponenten oder Einrichtungen zur Verfügung gestellt werden. Als nichtbeschränkendes Beispiel kann eine solche Logik dem Verarbeitungssubsystem 30 in der Form von Signalen zur Verfügung gestellt werden, die von einem Transmissionsmedium wie etwa einem Computernetzwerk oder verkabelten und/oder drahtlosen Kommunikationsnetzwerken übermittelt werden.
  • Auf der Stufe 142 beginnt die Routine 140 mit dem Anfangen des A/D-Abtastens und dem Speichern der resultierenden diskreten Eingangs-Abtastpunkte xL(z) und xR(z) im Zwischenspeicher 52 wie zuvor beschrieben. Das Abtasten wird parallel zu anderen Stufen der Routine 140 durchge führt, wie in der folgenden Beschreibung deutlich werden wird. Die Routine fährt von der Stufe 142 zur Abfrage 144 fort. Die Abfrage 144 testet, ob die Routine 140 fortfahren soll. Wenn nicht, stoppt die Routine 140. Ansonsten fährt die Routine 140 mit der Stufe 146 fort. Die Abfrage 144 kann einem Operator-Schalter, einem Kontrollsignal oder einer Leistungssteuerung (nicht dargestellt), die dem System 10 assoziiert ist, entsprechen.
  • Auf der Stufe 146 wird ein schneller diskreter Fourier-Transformationsalgorithmus (FFT) auf einer Sequenz von Abtastpunkten xL(t) und xR(t) ausgeführt und für jeden Kanal L und R im Zwischenspeicher 54 gespeichert, um entsprechende Signale XL(k) und XR(k) im Frequenzraum zur Verfügung zu stellen; wobei k ein Index für die diskreten Frequenzen der FFTs ist (hier alternativ bezeichnet als "Frequenzbehälter (frequency bins)"). Der Satz von Abtastpunkten xL(z) und xR(z), auf dem eine FFT durchgeführt wird, kann als eine zeitliche Dauer der Abtast-Daten beschrieben werden. Typischerweise basiert für eine bestimmte Abtastrate fS jede FFT auf mehr als 100 Abtastpunkten. Außerdem beinhalten für die Stufe 146 FFT-Berechnungen die Anwendung einer Fensterungstechnik auf die Abtast-Daten. Eine Ausführungsform benutzt ein Hamming-Fenster. In anderen Ausführungsformen kann die Datenfensterung nicht vorhanden oder von einer anderen Art sein, die FFT kann auf verschiedenen Abtastarten basieren und/oder eine andere Transformation kann eingesetzt werden, wie es den Fachleuten einfallen würde. Nach der Transformation werden die sich ergebenden Spektren XL(k) und XR(k) im FFT-Zwischenspeicher 54 des Speichers 50 gespeichert. Diese Spektren haben in der Regel komplexe Werte.
  • Es hat sich herausgestellt, dass der Empfang von akustischen Anregungen, die aus einer gewünschten Richtung herrühren, verbessert werden kann, indem die anderen Signale in einer Art gewichtet und summiert, dass die Varianz (oder äquivalent die Energie) des resultierenden Ausgangssignals minimiert wird, wobei als Randbedingung gilt, dass die Signale aus der gewünschten Richtung mit einer vorbestimmten Verstärkung ausgegeben werden. Die folgende Gleichung (1) drückt diese lineare Kombination der Eingangssignale im Frequenzraum aus: Y(k) = W* L(k)XL(k) + W* R(k)XR(k) = WH(k)X(k); (1)wobei:
    Figure 00060001
  • Y(k) ist das Ausgangssignal in der Frequenzraumform, WL(k) und WR(k) sind komplexwertige Multiplikatoren (Wichtungen) für jede Frequenz k, die den Kanälen L und R entsprechen, das hochgestellte "*" bezeichnet die komplex-konjugierte Operation und das hochgestellte "H" bezeichnet die hermitesche Form eines Vektors. Für diesen Ansatz ist es wünschenswert, einen „optimalen" Satz von Wichtungen WL(k) und WR(k) zu bestimmen, um die Varianz von Y(k) zu minimieren. Das Minimieren der Varianz führt im Allgemeinen zum Löschen von Quellen, die nicht mit der gewünschten Richtung ausgerichtet sind. Für die Betriebsart, in der die gewünschte Richtung längs der Achse AZ liegt, werden die Frequenzkomponenten, die nicht von unmittelbarer gegenüber der Anordnung herrühren, gedämpft, weil sie über den linken und rechten Kanal L, R nicht in der Phase konsistent sind und deswegen eine größere Varianz als die direkt gegenüberliegende Quelle haben. Das Minimieren der Varianz entspricht in diesem Fall dem Minimieren der Ausgangsleistung für die Quellen, die nicht auf der Achse liegen, wie durch das Optimierungsziel der Gleichung (2) wie folgt gezeigt wird:
    Figure 00070001
    wobei Y(k) das Ausgangssignal beschrieben in Verbindung mit Gleichung (1) ist. In einer Form benötigt die Randbedingung, dass „auf der Achse" liegende akustische Signale von Quellen längs der Achse AZ mit einer Verstärkung 1 weitergegeben werden, wie dargestellt in Gleichung (3) wie folgt: eHW(k) = 1 (3)
  • Hier ist e ein zweielementiger Vektor, der der gewünschten Richtung entspricht. Wenn die Wichtung mit der Achse AZ übereinstimmt, empfangen im Allgemeinen die Sensoren 22 und 24 das Signal zur gleichen Zeit und mit der gleichen Amplitude und deshalb ist für die Quelle 12 des dargestellten Ausführungsbeispiels der Vektor e reellwertig und mit gleichgewichteten Elementen – z.B. eH = [0,5 0,5]. Wenn dagegen die ausgesuchte akustische Quelle nicht auf der Achse AZ liegt, dann können die Sensoren 22 und 24 bewegt werden, um die Achse AZ damit auszurichten.
  • In einer zusätzlichen oder alternativen Ausführungsform können die Elemente des Vektors e ausgewählt werden, um längs einer gewünschten Richtung zu überwachen, die nicht koinzident mit der Achse AZ ist. Für solche Betriebsarten wird der Vektor e komplexwertig, um die entsprechenden Zeit- bzw. Phasenverzögerungen zwischen den Sensoren 22, 24 darzustellen, die einer akustischen Anregung abseits der Achse AZ entsprechen. Also fungiert der Vektor e als Richtungsindikator wie zuvor beschrieben. Entsprechend können alternative Ausführungsformen angeordnet werden, um eine gewünschte akustische Anregungsquelle auszuwählen, indem eine andere geometrische Beziehung relativ zur Achse AZ eingestellt wird. Zum Beispiel kann die Richtung zur Überwachung einer gewünschten Quelle unter einem Azimutwinkel ≠ 0 relativ zur Achse AZ eingestellt werden. In der Tat kann durch Ändern des Vektors e die Überwachungsrichtung von einer Richtung zur anderen umgesteuert werden, ohne die Sensoren 22, 24 zu bewegen. Die Prozedur 520, die weiter unten in Verbindung mit dem Flussdiagramm von 10 beschrieben werden wird, stellt ein Beispiel einer Lokalisierungs-/Nachführroutine zur Verfügung, die in Verbindung mit Routine 140 verwendet werden kann, um den Vektor e zu steuern.
  • Für die Eingaben XL(k) und XR(k), die im Allgemeinen einem stationären zufälligen Prozess entsprechen (der typisch ist für Sprachsignale über kleine Zeiträume), kann aus den Gleichungen (2) und (3) die folgende Gleichung (4) für den Wichtungsvektor W(k) hergeleitet werden:
    Figure 00080001
    in der e der Vektor ist, der mit der gewünschten Empfangsrichtung assoziiert ist, R(k) die Korrelationsmatrix für die k-te Frequenz ist, W(k) der optimale Wichtungsvektor für die k-te Frequenz ist und die hochgestellte "–1" das Inverse der Matrix bezeichnet. Die Herleitung dieser Gleichung wird in Verbindung mit einem allgemeinen Modell der vorliegenden Erfindung erklärt, das auf Ausführungsformen mit mehr als zwei Sensoren 22, 24 in einer Anordnung 20 anwendbar ist.
  • Die Korrelationsmatrix R(k) kann aus Spektraldaten geschätzt werden, die über eine Anzahl "F" von schnellen diskreten Fourier-Transformationen (FFTs) über ein relevantes Zeitintervall berechnet werden. Für die Ausführungsform mit zwei Kanälen L, R wird die Korrelationsmatrix R(k) für die k-te Frequenz durch die folgende Gleichung (5) ausgedrückt:
    Figure 00080002
    in der Xl die FFT im Frequenzzwischenspeicher für den linken Kanal L und Xr die FFT in dem Frequenzzwischenspeicher für den rechten Kanal R ist, wobei sie aus zuvor gespeicherten FFTs erhalten werden, die bei einer früheren Ausführung von Stufe 146 berechnet worden sind; "n" ist der Index für die Anzahl "F" der für die Berechnung benutzten FFTs; und "M" ist ein Regularisierungsparameter. Die Terme Xll(k), Xlr(k), Xrl(k) und Xrr(k) stellen die gewichteten Summen zum Zwecke einer kompakten Ausdrucksweise dar. Es sollte berücksichtigt werden, dass die Elemente der R(k)-Matrix nicht linear sind und dass deshalb Y(k) eine nichtlineare Funktion der Eingangswerte ist.
  • Entsprechend werden in der Stufe 148 die Spektren Xl(k) und Xr(k), die zuvor im Zwischenspeicher 54 gespeichert wurden, aus dem Speicher 50 in einer zuerst-drinnen-zuerst-draußen-Sequenz (FIFO) ausgelesen. Die Routine 140 fährt dann mit Stufe 150 fort. In der Stufe 150 werden die Wichtungsfaktoren WL(k), WR(k) auf Xl(k) und Xr(k) jeweils in Übereinstimmung mit der Gleichung (1) für jede Frequenz k angewendet, um das Ausgangsspektrum Y(k) zur Verfügung zu stel len. Die Routine 140 fährt mit der Stufe 152 fort, die eine inverse Fast-Fourier-Transformation (IFFT) durchführt, um die Y(k)FFT, die in Stufe 150 bestimmt wurden, in eine Form im diskreten Zeitraum umzuwandeln, die mit y(z) bezeichnet wird. Als nächstes wird in der Stufe 154 eine Digital-Analog-Wandlung mit einem Digital-Analog-Wandler 84 (2) durchgeführt, um ein analoges Ausgangssignal y(t) zur Verfügung zu stellen. Es sollte verstanden werden, dass die Beziehung zwischen den Y(k)FFTs und dem Ausgangsabtastpunkt y(z) variieren kann. In einer Ausführungsform gibt es eine Y(k)FFT-Ausgabe für jedes y(z), die eine Eins-zu-Eins-Beziehung zur Verfügung stellt. In einer anderen Ausführungsform kann es eine Y(k)FFT für jeweils 16 gewünscht Ausgangsabtastpunkte y(z) geben, in diesem Fall können die zusätzlichen Abtastpunkte aus vorliegenden Y(k)FFTs erhalten werden. In noch anderen Ausführungsformen kann es eine andere Beziehung geben.
  • Nach der Konversion in die Form im kontinuierlichen Zeitraum wird das Signal y(t) in den Signalkonditionierer bzw. Filter 86 eingegeben. Der Konditionierr/Filter 86 stellt das konditionierte Signal dem Ausgangsgerät 90 zur Verfügung. Wie in 2 dargestellt, kann das Ausgangsgerät 90 einen Verstärker 92 und ein Audioausgangserät 94 aufweisen. Das Gerät 94 kann ein Lautsprecher sein, der Ausgang einer Hörhilfe oder andere Geräte wie sie den Fachleuten einfallen würden. Es sollte gewürdigt werden, dass das System 10 eine Eingabe über zwei Ohren bearbeitet, um eine Ausgabe für ein Ohr zu produzieren. In manchen Ausführungsformen könnte diese Ausgabe weiter verarbeitet werden, um vielfache Ausgaben zur Verfügung zu stellen. In einer beispielhaften Anwendung als Hörhilfe werden zwei Ausgaben zur Verfügung gestellt, die generell den gleichen Klang an jedes Ohr des Benutzers ausgeben. In anderen Hörhilfenanwendung unterscheidet sich der Klang, der für jedes Ohr zur Verfügung gestellt wird, selektiv in Bezug auf die Intensität und/oder das Timing, um die Unterschiede in der Orientierung der Klangquelle in Bezug auf jedem Sensor 22, 24, zu berücksichtigen, wodurch die Klangwahrnehmung verbessert wird.
  • Nach der Stufe 154 fährt die Routine 140 mit der Abfrage 156 fort. In vielen Anwendungen ist es eventuell nicht gewünscht, die Elemente der Wichtungsvektoren W(k) für jedes Y(k) nachzurechnen. Entsprechend testet die Abfrage 156, ob ein gewünschtes Zeitintervall seit der letzten Berechnung des Vektors W(k) verflossen ist. Wenn diese Zeitdauer noch nicht abgelaufen ist, dann fließt die Steuerung weiter zur Stufe 158, um die Zwischenspeicher 52, 54 zu verschieben, damit die nächste Gruppe von Signalen bearbeitet wird. Ausgehend von der Stufe 158 schließt sich die Bearbeitungsschleife 160, um zur Abfrage 144 zurückzukehren. Unter der Bedingung, dass die Abfrage 144 wahr bleibt, wird die Stufe 146 für die nächste Gruppe von Abtastpunkten von xL(z) und xR(z) durchgeführt, um das nächste Paar von XL(k)- und XR(k)-FFTs zur Speicherung in den Zwischenspeicher 54 zu bestimmen. Ebenso werden mit jeder Durchführung der Bearbeitungsschleife 160 die Stufen 148, 150, 152, 154 wiederholt, um die zuvor gespeicherten XL(k)- und XR(k)-FFTs zu bearbeiten, um die nächsten Y(k)-FFT zu bestimmen und entsprechend ein kontinuierliches y(t) zu generieren. Auf diese Weise werden die Zwischenspeicher 52, 54 in der Stufe 158 bei jeder Wiederholung der Schleife 160 periodisch weitergeschoben, bis entweder die Routine 140 aufgrund der Abfrage 144 stoppt oder die Zeitdauer aus der Abfrage 156 abgelaufen ist.
  • Wenn die Abfrage 156 zu einer wahren Aussagen führt, dann schreitet die Routine 140 von der positiven Abzweigung der Abfrage 156 fort, um die Korrelationsmatrix R(k) in Übereinstimmung mit der Gleichung (5) in der Stufe 162 zu berechnen. Aus dieser neuen Korrelationsmatrix R(k) wird ein aktualisierter Vektor W(k) in Übereinstimmung mit der Gleichung (4) in der Stufe 164 bestimmt. Ausgehend von Stufe 164 fährt die Aktualisierungsschleife 170 weiter fort mit der Stufe 158, wie zuvor beschrieben wurde, und die Bearbeitungsschleife 160 beginnt wieder, bis die Routine 140 wegen der Abfrage 144 stoppt oder die Zeit für eine neue Berechnung des Vektors W(k) erreicht ist. Insbesondere kann die Zeitdauer, die in der Abfrage 156 abgefragt wird, in Einheiten von Anzahl der Wiederholungen der Schleife 160, der Anzahl der FFTs oder generierten Abtastpunkten zwischen Aktualisierungen usw. gemessen werden. Alternativ kann die Zeitdauer zwischen Aktualisierungen basierend auf Rückmeldungen von einem Operator oder Überwachungsgerät (nicht dargestellt) dynamisch angepasst werden.
  • Wenn die Routine 140 zum Anfang startet, stehen zuvor gespeicherte Daten in der Regel nicht zur Verfügung. Entsprechend können geeignete Startwerte in den Zwischenspeichern 52, 54 gespeichert werden, um die erste Bearbeitung zu unterstützen. In anderen Ausführungsformen kann eine größere Anzahl von akustischen Sensoren in der Anordnung 20 beinhaltet sein und die Routine 140 kann entsprechend angepasst werden. Für diese allgemeinere Form kann die Ausgabe durch die folgende Gleichung (6) ausgedrückt werden: Y(k) = WH(k)X(k) (6)in der X(k) ein Vektor mit einem Eintrag für jeden von Nummer "C" von Eingangskanälen ist und der Wichtungsvektor W(k) die gleiche Dimension hat. Die Gleichung (6) ist die gleiche wie die Gleichung (1), aber die Dimension von jedem Vektor ist C statt 2. Die Ausgangsleistung kann durch die Gleichung (7) wie folgt ausgedrückt werden: E[Y(k)2] = E[W(k)HX(k)XH(k)W(k)] = W(k)HR(k)W(k) (7)in der die Korrelationsmatrix R(k) quadratisch ist mit "C×C"-Dimensionen. Der Vektor e ist der Steuervektor, der die Wichtungen und Verzögerungen beschreibt, die mit einer bestimmten Überwachungsrichtung verbunden sind, und hat die Form wie sie durch die Gleichungen (8) und (9) wie folgt beschrieben wird:
    Figure 00100001
    ϕ = (2πDfS/(cN)(sin(θ)) für k = 0,1,..., N-1 (9)in der C die Anzahl der Anordnungselemente ist, c die Geschwindigkeit des Schalls in Metern pro Sekunde ist, und Θ die gewünschte „Schaurichtung" ist. Daher kann der Vektor ein Abhängigkeit mit den Frequenzen variiert werden, um die gewünschte Überwachungs- oder Schaurichtung zu ändern und die Anordnung entsprechend zu steuern. Mit den gleichen Randbedingungen in Bezug auf den Vektor e wie in Gleichung (3) beschrieben, kann das Problem über die folgende Gleichung (10) zusammengefasst werden:
    Figure 00110001
  • Dieses Problem kann gelöst werden, indem die Methode der Lagrange-Multiplikatoren verwendet wird, die im Allgemeinen durch die folgende Gleichung (11) charakterisiert werden:
    Figure 00110002
    in der CostFunction die Ausgangsleistung ist und die Randbedingungen sind die gleichen, wie sie weiter oben für den Vektor e aufgelistet wurden. Eine allgemeine Vektorlösung beginnt mit der Lagrange-Multiplikatorenfunktion H(W) der Gleichung (12). H(W)= 12 W(k)HR(k)W(k) + λ(eHW(k) – 1) (12)in der der Faktor ½ angeführt wird, um spätere Berechnungen zu vereinfachen. Indem man den Gradienten von H(W) in Bezug auf W(k) nimmt und dieses Ergebnis gleich Null setzt, ergibt sich die folgende Gleichung (13): WH(W) = R(k)W(k) + eλ = 0 (13)
  • Ebenso folgt Gleichung (14): W(k) = –R(k)–1eλ (14)
  • Benutzt man diese Ergebnisse in den Randbedingungsgleichungen (15) und (16) wie folgt: eH[–R(k)–1eλ] = 1 (15) λ = –[eHR(k)–1e]–1 (16)und benutzt man die Gleichung (14), ergeben sich die optimalen Wichtungen wie in Gleichung (17) genannt: Wopt = R(k)–1e[eHR(k)–1e]–1 (17)
  • Weil der Term in der Klammer ein Skalar ist, befindet sich dieser Term in der Gleichung (4) im Nenner, die daher äquivalent ist.
  • Wenn man nun zum Zwecke größerer Klarheit zum Fall mit zwei Variablen zurückkehrt, kann die Gleichung (5) kompakter ausgedrückt werden, indem die gewichteten Summen in die Terme Xll, Xlr, Xrl, und Xrr aufgenommen werden und sie dann als Komponenten der Korrelationsmatrix R(k) umbenannt werden wie in Gleichung (18):
    Figure 00120001
  • Ihre Inverse kann in Gleichung (19) ausgedrückt werden als:
    Figure 00120002
    wobei det() der Determinantenoperator ist. Falls die gewünschte Überwachungsrichtung senkrecht zur Sensorenanordnung ist, e = [0,5 0,5]T, kann der Zähler der Gleichung (4) dann durch Gleichung (20) ausgedrückt werden:
    Figure 00130001
  • Verwendet man das vorhergehende Ergebnis, kann der Nenner durch die Gleichung (21) als:
    Figure 00130002
    ausgedrückt werden. Indem man die gemeinsamen Faktoren der Determinante aufhebt, ergibt sich eine vereinfachte Gleichung (22).
  • Figure 00130003
  • Dies kann auch ausgedrückt werden als Mittelwerte der Summen der Korrelationen zwischen den beiden Kanälen in Gleichung (23) als:
    Figure 00130004
    in der wl(k) und wr(k) die gewünschten Wichtungen für die k-te Frequenz für jeweils den linken und rechten Kanal sind und die Komponenten der Korrelationsmatrix sind nun ausgedrückt über Gleichung (24) als:
    Figure 00130005
    Figure 00140001
    gerade wie in Gleichung (5). Nach der Berechnung der gemittelten Summen (die als laufende Mittelwerte berücksichtigt werden können) kann daher der Rechenaufwand für diese Zweikanalausführung reduziert werden.
  • In einer weiteren Variation der Routine 140 kann eine modifizierte Herangehensweise verwendet werden in Anwendungen, in denen die Verstärkungsunterschiede zwischen den Sensoren der Anordnung 20 vernachlässigbar sind. Für diese Herangehensweise wird eine zusätzliche Randbedingung verwendet. Für eine Zweisensorenanordnung mit einer festen Steuerrichtung längs der Achse und vernachlässigbaren Verstärkungsunterschieden zwischen den Sensoren erfüllen die gewünschten Wichtungen die folgende Gleichung (25): Re[w1] = Re[w2] = 12 (25)
  • Das Ziel der Minimierung der Varianz und die Randbedingung einer einheitlichen Verstärkung für diese alternative Herangehensweise entsprechen jeweils den folgenden Gleichungen (26) und (27):
    Figure 00140002
  • Bei näherer Prüfung reduziert sich die Gleichung (27) auf die Gleichung (28) wie folgt, wenn eH = [1 1]: Im[w1] = –Im[w2] (28)
  • Löst man dies für gewünschte Wichtungen, die der Randbedingung in Gleichung (27) unterliegen, und benutzt man die Gleichung (28), erhält man die folgende Gleichung (29):
    Figure 00150001
  • Die Wichtungen, die entsprechend Gleichung (29) ermittelt werden, können verwendet werden anstatt derer, die mit den Gleichungen (22), (23) und (24) ermittelt wurden; dabei sind R11, R12, R21, R22 die gleichen wie die, die in Bezug auf Gleichung (18) beschrieben wurden. Unter entsprechenden Bedingungen stellt diese Substitution typischerweise vergleichbare Ergebnisse bei effizienterer Berechnung zur Verfügung. Wenn die Gleichung (29) verwendet wird, ist es in der Regel wünschenswert für das Ziel-, Sprach- oder andere akustische Signal, von einer Richtung auf der Achse herzurühren, und für die Sensoren, auf andere Art und Weise die Unterschiede zwischen ihnen in der Verstärkung zu kompensieren, um an einander angepasst zu werden. Alternativ kann Information über die Lokalisierung der interessierenden Quellen in jedem Frequenzband benutzt werden, um die Sensoranordnung 20 in Verbindung mit der Herangehensweise gemäß Gleichung (29) zu steuern. Diese Information kann in Entsprechung mit der Prozedur 520 zur Verfügung gestellt werden, die später in Verbindung mit dem Flussdiagramm aus 10 genauer beschrieben werden wird.
  • Unter Bezugnahme auf Gleichung (5) ist der Regularisierungsfaktor M typischerweise etwas größer als 1,00, um die Größe der Wichtungen zu begrenzen, für den Fall, dass die Korrelationsmatrix R(k) singulär oder so gut wie singulär ist und daher nicht invertiert werden kann. Dies passiert zum Beispiel, wenn die Eingangssignale aus dem Zeitbereich genau die gleichen sind für F aufeinander folgende FFT-Berechnungen. Es hat sich herausgestellt, dass diese Art der Regularisierung auch die wahrgenommene Klangqualität verbessern kann, indem Verarbeitungsartefakte, die häufig bei Strahlformern im Zeitbereich auftreten, reduziert oder ganz entfernt werden.
  • In einer Ausführungsform ist der Regularisierungsfaktor M konstant. In anderen Ausführungsformen kann der Regularisierungsfaktor M benutzt werden, um die Strahlbreite der Anordnung anzupassen oder auf andere Weise zu kontrollieren, oder der Winkelbereich, aus dem Klänge von einer bestimmten Frequenz auf die Anordnung auftreffen können, kann relativ zur Achse AZ und durch die Routine 140 bearbeitet werden, ohne signifikant gedämpft zu werden. Diese Strahlbreite ist typischerweise breiter bei niedrigeren Frequenzen als bei höheren Frequenzen und kann durch die folgende Gleichung (30) ausgedrückt werden:
    Figure 00160001
    mit r = 1 – M, wobei M der Regularisierungsfaktor ist, wie in Gleichung (5), c die Geschwindigkeit des Schalls in Metern pro Sekunde (m/s) darstellt, f die Frequenz in Hertz (Hz) darstellt, D die Distanz zwischen den Mikrophonen in Metern (m) ist. Für die Gleichung (30) definiert Beamwidth–3dB eine Strahlbreite, die das interessierende Signal um einen relativen Wert von kleiner gleich 3 Dezibel (dB) abdämpft. Es versteht sich, dass eine unterschiedliche Dämpfungsschwelle selektiert werden kann, um Strahlbreiten in anderen Ausführungsformen der vorliegenden Erfindung zu definieren. 9 stellt einen Graphen mit vier Linien mit unterschiedlichen Mustern zur Verfügung, um konstante Werte von jeweils 1,001, 1,005, 1,01 und 1,03 des Regularisierungsfaktors M darzustellen, in Strahlbreite gegen Frequenz.
  • Aus der Gleichung (30) ergibt sich, dass wenn die Frequenz zunimmt, die Strahlbreite abnimmt; und wenn der Regularisierungsfaktor M zunimmt, nimmt auch die Strahlbreite zu. Entsprechend wird in einer alternativen Ausführungsform der Routine 140 der Regularisierungsfaktor als Funktion der Frequenz vergrößert, um eine einheitlichere Strahlbreite über einen gewünschten Frequenzbereich zur Verfügung zu stellen. In einer anderen Ausführungsform der Routine 140 wird M alternativ oder zusätzlich als Funktion der Zeit variiert. Zum Beispiel wenn wenig Interferenz im Eingangssignal in bestimmten Frequenzbändern vorhanden ist, kann der Regularisierungsfaktor M in diesen Bändern erhöht werden. Es hat sich herausgestellt, dass die Strahlbreitezuwächse in Frequenzbändern mit geringer oder gar keiner Interferenz eine subjektive bessere Klangqualität zur Verfügung stellen, indem die Größe der Wichtungen, die in den Gleichungen (22), (23) und/oder (29) verwendet werden, begrenzt wird. In einer weiteren Variante kann diese Verbesserung ergänzt werden, indem der Regularisierungsfaktor verringert für Frequenzbänder verringert wird, die Interferenzen oberhalb einer bestimmten Schwelle enthalten. Es hat sich herausgestellt, dass solche Verringerungen in der Regel ein genaueres Filtern ermöglichen und ein besseres Auslöschen der Interferenzen. In noch anderen Ausführungsformen variiert der Regularisierungsfaktor M in Übereinstimmung mit einer adaptiven Funktion, die auf Frequenzband-spezifischer Interferenz basiert. In noch weiteren Ausführungsformen variiert der Regularisierungsfaktor M in Übereinstimmung mit einer oder mehreren anderen Gleichungen wie sie den Fachleuten einfallen würden.
  • Unter Bezugnahme auf 4 ist eine Anwendung der verschiedenen Ausführungsformen der vorliegenden Erfindung dargestellt als Hörhilfesystem 210; wobei gleiche Bezugszeichen gleiche Merkmale bezeichnen. In einer Ausführungsform beinhaltet das System 210 eine Brille G und akustische Sensoren 22 und 24. Die akustischen Sensoren 22 und 24 sind in dieser Ausführungsform an der Brille G befestigt und voneinander beabstandet und sind operativ verbunden mit dem Prozessor 30. Der Prozessor 30 ist operativ verbunden mit dem Ausgabegerät 190. Das Ausgabegerät hat die Form eines Hörgerätes und ist im Ohr E des Benutzers positioniert, um ein entsprechendes Audiosignal zur Verfügung zu stellen. Für das System 210 ist der Prozessor 30 konfiguriert, um die Routine 140 oder eine ihrer Varianten auszuführen, wobei das Ausgangssignal y(t) an das Ausgabegerät 190 anstatt an das Ausgabegerät 90 aus 2 ausgegeben wird. Wie zuvor diskutiert, kann ein zusätzliches Ausgabegerät 190 an den Prozessor 30 gekoppelt sein, um Klang auch an das andere Ohr (nicht dargestellt) zu liefern. Diese Anordnung definiert die Achse AZ als senkrecht zu der Sichtebene von 4, wie dargestellt durch das mit AZ bezeichnete Kreuz ungefähr in der Mitte zwischen den Sensoren 22 und 24.
  • Während des Betriebes kann der Benutzer, der die Brille G trägt, selektiv ein akustisches Signal empfangen, indem er die entsprechende Quelle mit einer bestimmten Richtung, wie etwa der Achse AZ, ausrichtet. Als Ergebnis werden Quellen von anderen Richtungen gedämpft. Außerdem kann der Benutzer ein unterschiedliches Signal auswählen, indem er die Achse AZ mit anderen gewünschten Klangquellen ausrichtet und entsprechend einen anderen Satz von abseits der Achse liegenden Quellen unterdrückt. Alternativ oder zusätzlich kann das System 210 ausgerüstet sein, um mit einer Empfangsrichtung zu arbeiten, die nicht koinzident mit der Achse AZ ist.
  • Der Prozessor 30 und das Ausgabegerät 190 können getrennte Einheiten (wie dargestellt) sein oder in einer gemeinsamen Einheit, die im Ohr getragen wird, integriert sein. Die Kopplung zwischen dem Prozessor 30 und dem Ausgabegerät 190 kann ein elektrisches Kabel oder eine kabellose Übertragung sein. In einer alternativen Ausführungsform sind die Sensoren 22, 24 und der Prozessor 30 entfernt voneinander angeordnet und konfiguriert, um an ein oder mehrere Ausgabegeräte 190, die sich in dem Ohr E befinden, über Übertragung im Radiofrequenzbereich zu senden.
  • In einer weiteren Ausführungsform einer Hörhilfe sind die Sensoren 22, 24 so dimensioniert und geformt, dass sie in das Ohr eines Hörers passen, und die Prozessoralgorithmen sind angepasst, um das Abschatten zu berücksichtigen, das durch den Kopf, den Oberkörper und die Ohrmuschel verursacht wird. Die Anpassung kann durch das Ableiten von einer kopfbezogenen Transferfunktion (HRTF) zur Verfügung gestellt werden, die für den Hörer oder für eine mittlere Population spezifisch ist, indem Techniken verwendet werden, die dem Fachmann bekannt sind. Diese Funktion wird dann benutzt, um geeignete Wichtungen für die Ausgabesignale zur Verfügung zu stellen, die das Abschatten kompensieren.
  • Eine andere Ausführungsform eines Hörhilfensystems basiert auf einer kochlearen Implantation. Eine kochleare Implantation wird typischerweise im Mittelohr eines Hörers angeordnet und wird konfiguriert, um elektrische Stimulationssignale längs des Mittelohrs in einer standardisierten Form zur Verfügung zu stellen. Das Implantat kann eine oder alle der Verarbeitungssubsystemkomponen ten beinhalten, um entsprechend der Lehre der vorliegenden Erfindung zu funktionieren. Alternativ oder zusätzlich können ein oder mehrere externe Module einen Teil oder alles vom Subsystem 30 beinhalten. Typischerweise wird eine Sensoranordnung, die zu einem Hörhilfensystem gehört, die auf einem kochlearen Implantat basiert, extern getragen, wobei sie derart angeordnet ist, dass sie mit dem Implantat über Drähte, Kabel und/oder ein drahtlose Technik kommuniziert.
  • Abgesehen von verschiedenen Formen von Gehörhilfen kann die vorliegende Erfindung auch in anderen Konfigurationen angewendet werden. Zum Beispiel zeigt 5 ein Sprachverbesserungsgerät für eine Spracherkennungsroutine für einen Computer C dar; wobei gleiche Bezugszeichen gleiche Merkmale bezeichnen. Das Gerät 310 beinhaltet akustische Sensoren 22, 24, die in einer vorbestimmten Beziehung von einander beabstandet sind. Die Sensoren 22, 24 sind operativ verbunden mit dem Prozessor 330 innerhalb des Computers C. Der Prozessor 330 stellt ein Ausgangssignal für die interne Benutzung oder die reagierende Rückäußerung über die Lautsprecher 394a, 394b, und/oder das Display 396 zur Verfügung; und er ist angeordnet, um Spracheingaben von den Sensoren 22, 24 entsprechend Routine 140 oder ihrer Varianten zu bearbeiten. In einem Betriebsmodus wird die Möglichkeit der Quelllokalisierung/Nachführung zur Verfügung gestellt durch die Prozedur 520, wie dargestellt in dem Flussdiagramm 10. In einem Betriebsmodus richtet sich ein Benutzer des Computers C mit einer vorbestimmten Achse aus, um Spracheingaben in das Gerät 310 einzugeben. In einem anderen Betriebsmodus ändert das Gerät 310 seine Überwachungsrichtung basierend auf der Rückmeldung eines Operators und/oder wählt eine Überwachungsrichtung basierend auf der Lokalisierung des intensivsten Klangs über eine gewählte Zeitspanne. Alternativ oder zusätzlich kann die Möglichkeit der Quelllokalisierung/Nachführung, wie durch die im Flussdiagramm aus 10 dargestellte Routine 520 zur Verfügung gestellt, verwendet werden. In noch einer weiteren Spracheingabeanwendung werden die Merkmale zur gerichteten selektiven Sprachverarbeitung der vorliegenden Erfindung verwendet, um die Effizienz von Freisprechtelefonen, Audioüberwachungsgeräten oder anderen Audiosystemen zu erhöhen.
  • Unter bestimmten Umständen ändert sich die Orientierung der Richtung einer Sensoranordnung relativ zur akustischen Zielquelle. Wird diese Änderung nicht berücksichtig, kann eine Dämpfung des Zielsignals resultieren. Diese Situation kann sich zum Beispiel ergeben, wenn der Träger einer binauralen Hörhilfe seinen oder ihren Kopf dreht, so dass er oder sie nicht richtig mit der Zielquelle ausgerichtet ist und die Hörhilfe nicht irgendwie diese schlechte Ausrichtung berücksichtigt. Es hat sich herausgestellt, dass die Dämpfung aufgrund von falscher Ausrichtung reduziert wird, indem eine oder mehrere akustische Quellen von Interesse lokalisiert und/oder nachgeführt werden. Das Flussdiagramm von 10 illustriert die Prozedur 520, um eine gewünschte akustische Quelle relativ zu einer Referenz nachzuführen und/oder zu lokalisieren. Die Prozedur 520 kann für Hörhilfen oder in anderen Anwendungen wie etwa einem Spracheingabegerät, einem Freisprechtelefon, Audioüberwachungsgeräten usw. verwendet werden – entweder in Verbindung mit oder unabhängig von den zuvor beschriebenen Ausführungsformen. Die Prozedur 520 wird im Folgenden in Bezug auf eine Implementierung im System 10 von 1 beschrieben. Für diese Ausführungsform kann das Verarbeitungssystem 30 eine Logik beinhalten, um eine oder mehrere Stufen und/oder Abfragen der Prozedur 520 geeignet auszuführen. In anderen Ausführungsformen kann eine andere Anordnung benutzt werden, um die Prozedur 520 zu implementieren wie es dem Fachmann einfallen würde.
  • Die Prozedur 520 startet mit einer Analog/Digital-Wandlung in der Stufe 520 in einer Art, wie sie für die Stufe 142 der Routine 140 beschrieben wurde. Ausgehend von der Stufe 522 fährt die Prozedur 520 fort mit der Stufe 524, um die digitalen Daten, die in der Stufe 522 erhalten wurden, zu transformieren, so dass eine Anzahl „G" von FFTs zur Verfügung gestellt werden mit jeweils einer Anzahl "N" von FFT-Frequenzbehältern. Die Stufen 522 und 524 können in einer kontinuierlichen Art durchgeführt werden, wobei die Ergebnisse für späteren Zugriff durch andere Operationen der Prozedur 520 in einer parallelen, sequentiellen, sequenz-spezifischen oder anderen Art, wie sie dem Fachmann einfallen würde, periodisch zwischengespeichert werden. Mit den FFTs von der Stufe 524 kann ein Feld von Lokalisationsergebnissen P(γ) durch die Gleichungen (31)–(35) wie folgt beschrieben werden:
    Figure 00190001
    in denen der Operator "INT" den ganzzahligen Teil seiner Operanden zurückgibt, L(g,k) und R(g,k) die Daten im Frequenzraum der Kanäle L und R jeweils für den k-ten FFT-Frequenzbehälter der g-ten FFT sind, Mthr(k) ein Schwellenwert für die Daten im Frequenzraum im FFT-Frequenzbehälter k ist, der Operator „ROUND" die nächste ganze Zahl zu ihrem Operanden zurückgibt, c die Schallgeschwindigkeit in Metern pro Sekunde ist, fS die Abtastrate in Hertz ist und D der Abstand (in Metern) zwischen den zwei Sensoren der Anordnung 20 ist. Für diese Gleichungen ist das Feld P(g) mit 181 Azimutpositionselementen definiert, was den Richtungen von –90° bis +90° in 1°-Schritten entspricht. In anderen Ausführungsformen kann eine andere Auflösung und/oder Positionsanzeigetechnik verwendet werden.
  • Ausgehend von der Stufe 524 fährt die Prozedur 520 fort mit der Stufe 526 zur Initialisierung des Index, in der der Index g zu der Anzahl G von FFTs und der Index k zu den N Frequenzbehältern von jeder FFT jeweils auf Null und Eins gesetzt werden (g = 1, k = 0). Von der Stufe 526 aus fährt die Prozedur 520 fort, indem mit der Schleife 530 zur Bearbeitung der Frequenzbehälter und der FFT-Verarbeitungsschleife 540 begonnen wird. In diesem Beispiel ist die Schleife 530 innerhalb der Schleife 540 verschachtelt. Die Schleifen 530 und 540 beginnen mit der Stufe 532.
  • Für eine akustische Quelle abseits der Achse bewegt sich das entsprechende Signal über unterschiedliche Entfernungen, um jeden der Sensoren 22, 24 der Anordnung 20 zu erreichen. Generell verursachen diese unterschiedlichen Entfernungen bei einer bestimmten Frequenz eine Phasendifferenz zwischen den Kanälen L und R. In der Stufe 532 bestimmt die Routine 520 den Phasenunterschied zwischen den Kanälen L und R für den jeweiligen Frequenzbehälter k der FFT g, konvertiert die Phasendifferenz in eine Entfernungsdifferenz und bestimmt das Verhältnis x(g,k) für diese Entfernungsdifferenz zu einer Sensorenentfernung D entsprechend der Gleichung (35). Das Verhältnis x(g,k) wird verwendet, um den Ankunftswinkel θx des Signals zu finden, gerundet auf den nächsten Winkel in Übereinstimmung mit der Gleichung (34).
  • Als nächstes kommt die Abfrage 534, um zu testen, ob das Energieniveau des Signals in den Kanälen L und R mehr Energie hat als das Schwellniveau Mthr und ob der Wert für x(g,k) einer war, für den ein gültiger Ankunftswinkel berechnet werden konnte. Wenn beide Bedingungen erfüllt sind, dann wird in der Stufe 535 ein Wert von Eins zu dem entsprechenden Element von P(γ) hinzugefügt, wobei γ = θx ist. Die Prozedur 520 schreitet von der Stufe 535 zur Abfrage 536 fort. Wenn keine der Bedingungen der Abfrage 534 erfüllt ist, dann wird P(γ) nicht geändert und die Prozedur überspringt die Stufe 535 und fährt mit der Abfrage 536 fort.
  • Die Abfrage 536 testet, ob alle Frequenzbehälter verarbeitet wurden, d.h. ob der Index k gleich N ist, der Gesamtanzahl von Behältern. Falls nicht (Abfrage 536 ergibt eine negative Antwort), fährt die Prozedur 520 mit der Stufe 537 fort, in der der Index k um Eins heraufgesetzt wird (k = k + 1). Von der Stufe 537 aus schließt sich die Schleife 530, um zur Stufe 532 zurückzukehren, um eine neue Kombination von g und k zu verarbeiten. Wenn die Abfrage 536 eine positive Antwort gibt, wird als nächstes die Abfrage 542 durchgeführt, die testet, ob alle FFTs abgearbeitet wurden, d.h. ob der Index g gleich G, der Nummer von FFTs ist. Falls nicht (die Abfrage 542 ist negativ), fährt die Pro zedur 520 mit der Stufe 544 fort, um g um Eins zu erhöhen (g = g + 1) und um k auf Null zurückzusetzen (k = 0). Von der Stufe 544 aus schließt sich die Schleife 540, um zu Stufe 532 zurückzukehren, um die neue Kombinationen von g und k abzuarbeiten. Falls der Abfragetest 542 positiv ist, d.h. dass alle N Behälter für alle G FFTs abgearbeitet wurden, werden die Schleifen 530 und 540 verlassen.
  • Mit dem Ende des Arbeitens mit Hilfe der Schleifen 530 und 540 stellen die Elemente der Menge P(γ) ein Maß für die Wahrscheinlichkeit zur Verfügung, dass eine akustische Quelle einer bestimmten Richtung entspricht (in diesem Fall dem Azimut). Indem P(γ) untersucht wird, kann eine Schätzung für die räumliche Verteilung der akustischen Quellen zu einem bestimmten Zeitpunkt erhalten werden. Von den Schleifen 530, 540 aus fährt die Prozedur 520 mit der Stufe 550 fort.
  • In der Stufe 550 werden die Elemente der Menge P(γ), die die größten relativen Werte oder "Peaks" haben, in Übereinstimmung mit der Gleichung (36) wie folgt identifiziert: P(l) = PEAKS(P(γ),γlim,Pthr) (36)in der p(l) die Richtung des l-ten Peaks in der Funktion P(γ) für Werte von γ zwischen ±γlim sind (ein typischer Wert für γlim ist 10°, aber das kann signifikant variieren) und für die die Peakwerte oberhalb einem Schwellenwert Pthr liegt. Die PEAKS-Operation der Gleichung (36) kann eine Anzahl von Peak-Such-Algorithmen verwenden, um die Maxima der Daten zu lokalisieren, inklusive eines optionalen Glättens der Daten und anderer Operationen.
  • Von der Stufe 550 aus fährt die Prozedur fort mit der Stufe 552, in der ein oder mehrere Peaks ausgewählt werden. Wenn eine Quelle nachgeführt wird, die ursprünglich mit der Achse ausgerichtet war, entspricht typischerweise der Peak, der am nächsten zur Achsenrichtung liegt, der gewünschten Quelle. Die Auswahl dieses nächsten Peaks kann in Übereinstimmung mit der folgenden Gleichung (37) durchgeführt werden:
    Figure 00210001
    in der θtar der Winkel der Richtung des gewählten Peaks ist. Unabhängig von den Auswahlkriterien fährt die Prozedur 520 mit der Stufe 554 fort, um die selektierten Peaks anzuwenden. Die Prozedur 520 fährt von der Stufe 554 zur Abfrage 560 fort. Die Abfrage 560 testet, ob die Prozedur 520 weitergeführt werden soll oder nicht. Wenn der Test der Abfrage 560 wahr ist, springt die Prozedur 520 zurück auf die Stufe 522. Wenn der Test der Abfrage 560 falsch ist, stoppt die Prozedur 520.
  • In einer Anwendung, die sich auf die Routine 140 bezieht, wird der Peak ausgewählt, der sich am nächsten zur Achse AZ befindet, und er wird verwendet, um die Anordnung 20 zu steuern, indem der Steuervektor e angepasst wird. In dieser Anwendung wird der Vektor e für jeden Frequenzbehälter k modifiziert, so dass er der nächsten Richtung θtar des Peaks entspricht. Für eine Steuerrichtung von θtar kann der Vektor e durch die folgende Gleichung (38) dargestellt werden, die eine vereinfachte Version der Gleichungen (8) und (9) ist:
    Figure 00220001
    in der k die FFT-Frequenzbehälternummer ist, D der Abstand in Metern zwischen den Sensoren 22 und 24, fS die Abtast-Frequenz in Hertz, c die Schallgeschwindigkeit in Metern pro Sekunde, N die Anzahl der FFT-Frequenzbehälter und θtar aus der Gleichung (37) erhalten wird. Für die Routine 140 kann der modifizierte Steuervektor e der Gleichung (38) in die Gleichung (4) der Routine 140 substituiert werden, um ein Signal zu extrahieren, das aus der Richtung θtar stammt. In gleicher Weise kann die Prozedur 520 in die Routine 140 integriert werden, um eine Lokalisierung mit den gleichen FFT-Daten durchzuführen. In anderen Worten kann die Analog-Digital-Wandlung der Stufe 142 benutzt werden, um digitale Daten für weitere Verarbeitungen durch sowohl die Routine 140 als auch die Prozedur 520 bereitzustellen. Alternativ oder zusätzlich können alle oder einige der FFTs, die aus der Routine 140 erhalten wurden, verwendet werden, um die G FFTs für die Prozedur 520 bereitzustellen. Außerdem können Strahlweitenmodifikationen mit der Prozedur 520 in verschiedenen Anwendungen entweder mit oder ohne die Routine 140 kombiniert werden. In noch anderen Ausführungsformen kann die Ausführung der Schleifen 530 und 540 mit Index zumindest teilweise parallel mit zur Routine 140 oder ohne sie durchgeführt werden.
  • In einer weiteren Ausführungsform werden eine oder mehrere Transformationstechniken zusätzlich oder alternativ zu der Fourier-Transformation in einer oder mehreren Formen der Erfindung, wie zuvor beschrieben, verwendet. Ein Beispiel ist die Wellentransformation, die mathematisch die Wellenform im Zeitraum in viele einzelne Wellenformen aufbricht, die sich in ihrer Form sehr stark unterscheiden können. Typische Wellenbasisfunktionen sind gleichgeformte Signale mit logarithmisch beabstandeten Frequenzen. Wenn die Frequenz ansteigt, werden die Basisfunktionen kürzer in ihrer Zeitdauer mit dem Inversen der Frequenz. Wie Fourier-Transformationen stellen Wellentransformationen die verarbeiteten Signale mit mehreren verschiedenen Komponenten dar, die die Amplituden und Phaseninformationen beinhalten. Entsprechend kann die Routine 140 und/oder Routine 520 angepasst werden, um solche alternativen oder zusätzlichen Transformationstechniken zu verwenden. Generell können jegliche Signaltransformationskomponenten zusätzlich oder anstatt von FFTs verwendet werden, die Amplituden und/oder Phaseninformationen über unterschiedliche Teile eines Eingangssignals zur Verfügung stellen und eine entsprechende inverse Transformation haben.
  • Die Routine 140 und ihre zuvor beschriebenen Varianten passen sich generell schneller an Signaländerungen an als konventionelle iterativ-adaptive Schemata im Zeitbereich. In bestimmten Anwendungen, in denen die Eingangssignale sich schnell über einen kurzen Zeitraum ändern, kann es gewünscht sein, besser auf solche Änderungen reagieren zu können. Für diese Anwendungen kann es sein, dass die Anzahl F von FFTs, die mit der Korrelationsmatrix R(k) assoziiert sind, bessere Ergebnisse liefern, wenn diese nicht für alle Signale konstant ist (alternativ bezeichnet als Korrelationslänge F). Generell ist eine kürzere Korrelationslänge F am besten für schnell sich ändernde Eingangssignale, während eine längere Korrelationslänge F am besten ist für langsam sich ändernde Eingangssignale.
  • Eine sich ändernde Korrelationslänge F kann in vielfacher Weise implementiert werden. In einem Beispiel werden Filterwichtungen bestimmt, indem unterschiedliche Teile der Daten im Frequenzraum verwendet werden, die in den Korrelationszwischenspeichern gespeichert sind. Für das Zwischenspeichern in der Reihenfolge, in der sie erhalten wurden (FIFO), beinhaltet die erste Hälfte des Korrelationszwischenspeichers Daten, die von der ersten Hälfte des bestimmten Zeitintervalls gewonnen wurden, und die zweite Hälfte des Zwischenspeichers beinhaltet Daten, die von der zweiten Hälfte dieses Zeitintervalls gewonnen wurden. Entsprechend können die Korrelationsmatrizen R1(k) und R2(k) für jede Zwischenspeicherhälfte entsprechend den Gleichungen (39) und (40) wie folgt bestimmt werden:
    Figure 00230001
  • R(k) kann erhalten werden, indem die Korrelationsmatrizen R1(k) und R2(k) addiert werden.
  • Indem man die Gleichung (4) von Routine 140 benutzt, können Filterkoeffizienten (Wichtungen) erhalten werden, indem sowohl R1(k) und R2(k) verwendet werden. Falls die Wichtungen sich für manche Frequenzbänder k zwischen R1(k) und R2(k) wesentlich voneinander unterscheiden, kann dies eine wesentliche Änderung in der Signalstatistik anzeigen. Diese Änderung kann quantifiziert werden, indem die Änderung einer Wichtung untersucht wird, indem die Größe und Phasenänderung der Wichtung bestimmt wird und indem dann diese Größen in einer Funktion verwendet werden, um die geeignete Korrelationslänge F auszuwählen. Die Größendifferenz wird wie folgt gemäß der Gleichung (41) definiert: ΔM(k) = ||wl,1(k)| – |wl,2(k)|| (41)in der wl,1(k) und wl,2(k) die Wichtungen sind, die für den linken Kanal jeweils unter Benutzung von R1(k) und R2(k) berechnet wurden. Die Winkeldifferenz wird gemäß der folgenden Gleichung (42) definiert:
    Figure 00240001
    in der der Faktor von ±2π eingeführt wird, um die tatsächliche Phasendifferenz für den Fall eines ±2π-Sprungs in der Phase eines der Winkel zu beschreiben.
  • Die Korrelationslänge F für manche Frequenzbehälter k wird nun als F(k) bezeichnet. Eine Beispielfunktion wird gegeben durch die folgende Gleichung (43): F(k) = max(b(k)·ΔA(k) + d(k)·ΔM(k) + cmax(k), cmin(k)) (43)in der cmin(k) das Minimum der Korrelationslänge darstellt, cmax(k) das Maximum der Korrelationslänge darstellt und b(k) und d(k) negative Konstanten sind, alle für das k-te Frequenzband. Wenn also ΔA(k) und ΔM(k) ansteigen, was eine Änderung in den Daten anzeigt, nimmt der Ausgabewert dieser Funktion ab. Mit geeigneter Wahl von b(k) und d(k), wird F(k) zwischen cmin(k) und cmax(k) begrenzt, so dass die Korrelationslänge nur innerhalb eines vorbestimmten Bereiches variieren kann. Es sollte auch verstanden werden, dass F(k) unterschiedliche Formen annehmen kann, wie etwa eine nichtlineare Funktion oder eine Funktion von anderen Maßen der Eingangssignale.
  • Werte der Funktion F(k) werden für jedes Frequenzbehälter (k) erhalten. Es ist möglich, dass eine kleine Anzahl von Korrelationslängen verwendet wird, so dass für jeden Frequenzehälter k die Korrelationslänge, die am nächsten an Fl(k) ist, verwendet wird, um R(k) zu bilden. Dieser nächste Wert wird gefunden, indem man die folgende Gleichung (44) benutzt:
    Figure 00250001
    in der imin der Index für die minimierte Funktion F(k) ist und c(i) der Satz von möglichen Korrelationslängenwerten im Bereich von cmin bis cmax ist.
  • Der adaptive Korrelationslängenprozess, der in Verbindung mit den Gleichungen (39)–(44) beschrieben wurde, kann in die Stufe 162 der Korrelationsmatrix und in die Stufe 164 der Wichtungsbestimmung für die Verwendung in einer Hörhilfe ergänzt werden, wie sie in Verbindung mit 4 beschrieben wurden, oder in anderen Anwendungen wie etwa Überwachungsanlagen, Spracherkennungssysteme und Freisprechtelefone, um nur ein paar zu nennen. Die Logik des verarbeitenden Subsystems 30 kann entsprechend angepasst werden, um diese Ergänzung zu ermöglichen. Optional kann der adaptive Korrelationslängenprozess mit der Herangehensweise gemäß Gleichung (29) zur Wichtungberechnung benutzt werden, mit der dynamischen Strahlbreiten-Regularisierungsfaktorvariation, wie beschrieben in Verbindung mit Gleichung (30) und 9, mit der Lokalisierung/Nachführprozedur 520, alternativen Transformationsausführungsformen und/oder solchen unterschiedlichen Ausführungsformen oder Variationen von Routine 140 wie sie einem Fachmann einfallen würden. Die Anwendung der adaptiven Korrelationslänge kann von einem Operator ausgewählt werden und/oder automatisch auf der Basis von einem oder mehreren gemessenen Parametern angewendet werden, wie es den Fachleuten einfallen würde.
  • Viele andere weitere Ausführungsformen der vorliegenden Erfindung können in Betracht genommen werden. Eine weitere Ausführungsform beinhaltet: das Detektieren von akustischen Anregungen mit einer Anzahl von akustischen Sensoren, die eine Anzahl von Sensorsignalen zur Verfügung stellen; das Erstellen eines Satzes von Frequenzkomponenten für jedes dieser Sensorsignale; und das Bestimmen eines Ausgangssignals, das die akustische Anregung aus einer bestimmten Richtung repräsentiert. Diese Bestimmung beinhaltet das Wichten der Menge von Frequenzkomponenten für jedes der Sensorsignale, um die Varianz des Ausgangssignals zu reduzieren und um eine vorbestimmte Verstärkung der akustischen Anregung aus der bestimmten Richtung zur Verfügung zu stellen.
  • In einer anderen Ausführungsform beinhaltet eine Hörhilfe eine Anzahl von akustischen Sensoren in der Gegenwart einer Vielzahl von akustischen Quellen, die eine entsprechende Anzahl von Sensorsignalen zur Verfügung stellen. Eine ausgewählte der akustischen Quellen wird überwacht. Ein Ausgangssignal, das dem der ausgewählten akustischen Quelle entspricht, wird gene riert. Dieses Ausgangssignal ist eine gewichtete Kombination der Sensorsignale, die berechnet wurde, um die Varianz des Ausgangssignals zu minimieren.
  • Eine weitere Ausführungsform beinhaltet: Betreiben eines Stimmeingabegerätes, das eine Anzahl von akustischen Sensoren beinhaltet, die eine entsprechende Anzahl von Sensorsignalen zur Verfügung stellen; Bestimmen eines Satzes von Frequenzkomponenten für jedes der Sensorsignale; und Generieren eines Ausgangssignals, das repräsentativ für die akustische Anregung aus einer bestimmten Richtung ist. Dieses Ausgangssignal ist eine gewichtete Kombination des Satzes von Frequenzkomponenten für jedes Sensorsignal, die kalkuliert wurde, um die Varianz des Ausgangssignals zu minimieren.
  • Noch eine weitere Ausführungsform beinhaltet eine Anordnung von akustischen Sensoren, die betrieben werden können, um eine akustische Anregung zu detektieren, wobei die Anordnung zwei oder mehr akustische Sensoren beinhaltet, der jeder einzeln betrieben werden kann, um eine entsprechende Anzahl von Sensorsignalen zur Verfügung zu stellen. Außerdem beinhaltet sie einen Prozessor, um einen Satz von Frequenzkomponenten für jedes der Sensorsignale zu bestimmen und ein Ausgangssignal zu generieren, das repräsentativ für die akustische Anregung aus einer bestimmten Richtung ist. Dieses Ausgangssignal wird berechnet aus einer gewichteten Kombination des Satzes an Frequenzkomponenten für jedes der Sensorsignale, um die Varianz des Ausgangssignals zu reduzieren, und zwar unter einer bestimmten Verstärkungsrandbedingung für die akustischen Anregungen aus einer bestimmten Richtung.
  • Eine weitere Ausführungsform beinhaltet: das Detektieren einer akustischen Anregung mit einer Anzahl von akustischen Sensoren, die eine entsprechende Anzahl von Signalen zur Verfügung stellen; das Erststellen einer Anzahl von Signaltransformationskomponenten für jedes dieser Signale; und das Bestimmen eines Ausgangssignals, das repräsentativ ist für die akustische Anregung aus einer bestimmten Richtung. Die Signaltransformationskomponenten können im Frequenzraum sein. Alternativ oder zusätzlich kann die Bestimmung des Ausgangssignals ein Wichten der Komponenten beinhalten, um die Varianz des Ausgangssignals zu reduzieren und eine vorbestimmte Verstärkung der akustischen Anregung aus einer bestimmten Richtung zur Verfügung zu stellen.
  • In noch einer anderen Ausführungsform wird eine Hörhilfe betrieben, die eine Anzahl von akustischen Sensoren beinhaltet. Diese Sensoren stellen eine entsprechende Anzahl von Sensorsignalen zur Verfügung. Eine Richtung wird ausgesucht, um die akustische Anregung mit der Hörhilfe zu überwachen. Ein Satz von Signaltransformationskomponenten für jedes der Sensorsignale wird bestimmt und eine Anzahl von Wichtungswerten wird als Funktion einer Korrelation dieser Komponenten, eines Anpassungsfaktors und der bestimmten Richtung berechnet. Die Signaltransformationskomponenten werden gewichtet mit den Wichtungswerten, um ein Ausgangssignal zur Verfügung zu stellen, das repräsentativ ist für die akustische Anregung, die aus dieser Richtung herrührt. Der Anpassungsfaktor kann eine Korrelationslänge sein oder ein Kontrollparameter für die Strahlbreite, um nur ein paar Beispiele zu nennen.
  • Für eine weitere Ausführungsform wird eine Hörhilfe betrieben, die eine Anzahl von akustischen Sensoren beinhaltet, um eine entsprechende Anzahl von Sensorsignalen zur Verfügung zu stellen. Ein Satz von Signaltransformationskomponenten wird für jedes der Sensorsignale zur Verfügung gestellt und eine Anzahl von Wichtungswerten wird als Funktion einer Korrelation der Transformationskomponenten berechnet für jede einer Anzahl von unterschiedlichen Frequenzen. Diese Berechnung beinhaltet das Anwenden eines ersten Strahlbreitenkontrollwertes für eine erste Frequenz und eines Strahlbreitenkontrollwertes für eine zweite der Frequenzen, der unterschiedlich ist von dem ersten Wert. Die Signaltransformationskomponenten werden mit den Wichtungswerten gewichtet, um ein Ausgangssignal zur Verfügung zu stellen.
  • Für eine weitere Ausführungsform stellen akustische Sensoren einer Hörhilfe entsprechende Signale zur Verfügung, die durch eine Vielzahl von Signaltransformationskomponenten repräsentiert werden. Ein erster Satz von Wichtungswerten wird als Funktion einer ersten Korrelation einer ersten Anzahl dieser Komponenten berechnet, die einer ersten Korrelationslänge entspricht. Ein zweiter Satz von Wichtungswerten wird als Funktion einer zweiten Korrelation einer zweiten Anzahl dieser Komponenten berechnet, die einer zweiten Korrelationslänge entspricht, die anders als die erste Korrelationslänge ist. Ein Ausgangssignal wird als Funktion der ersten und zweiten Wichtungswerte generiert.
  • In einer anderen Ausführungsform wird die akustische Anregung mit einer Anzahl von Sensoren detektiert, die eine entsprechende Anzahl von Sensorsignalen zur Verfügung stellen. Ein Satz von Signaltransformationskomponenten wird für jedes dieser Signale bestimmt. Mindestens eine akustische Quelle wird als Funktion der Transformationskomponenten lokalisiert. In einer Ausbildungsform dieser Ausführungsform können die Position von einer oder mehreren akustischen Quellen relativ zu einer Referenz nachgeführt werden. Alternativ oder zusätzlich kann ein Ausgangssignal als Funktion der Position der akustischen Quelle zur Verfügung gestellt werden, die durch die Lokalisierung und/oder Nachführung und einer Korrelation der Transformationskomponenten bestimmt wurde.
  • Es wird betrachtet, dass unterschiedliche Signalflussoperatoren, Konverter, funktionale Blöcke, Generatoren, Einheiten, Stufen, Prozesse und Techniken verändert werden können, anders angeordnet werden können, substituiert, gelöscht, dupliziert, kombiniert oder hinzugefügt werden können, wie es den Fachleuten einfallen würde, ohne den von den angefügten Ansprüchen definierten Schutzbereich der vorliegenden Erfindung abzuweichen. Es versteht sich, dass die Operation einer jeglichen Routine, Prozedur oder Varianten davon parallel, hintereinander, in einer speziellen Sequenz oder als Kombination durchgeführt werden können, da solche Operationen voneinander unabhängig sind, oder auf andere Weise, wie es den Fachmann einfallen würde. Als nichtbeschränkendes Beispiel können typischerweise Analog/Digital-Wandlung, Digital/Analog-Wandlung, FFT-Generierung und FFT-Inversion typischerweise durchgeführt werden, während andere Operationen ausgeführt werden. Diese anderen Operationen könnten sich auf das Verarbeiten von zuvor gespeicherten Analog/Digital- oder Signaltransformationskomponenten beziehen, wie etwa in den Stufen 150, 162, 164, 532, 535, 550, 552 und 554, um nur ein paar Möglichkeiten zu nennen. In einem anderen nichtbeschränkenden Beispiel kann die Berechnung von Wichtungen basierend auf dem aktuellen Eingangssignal mit der Anwendung von zuvor bestimmten Wichtungen auf ein Signal, das dabei ist ausgegeben zu werden, zumindest überlappen.
  • EXPERIMENTELLER ABSCHNITT
  • Die folgenden experimentellen Ergebnisse liefern nichtbeschränkende Beispiele und sollten nicht ausgelegt werden, um den Schutzbereich der vorliegenden Erfindung zu beschränken.
  • 6 illustriert den experimentellen Aufbau für das Testen der vorliegenden Erfindung. Der Algorithmus wurde mit real aufgenommenen Sprachsignalen getestet, die durch Lautsprecher an unterschiedlichen räumlichen Positionen relativ zu den empfangenden Mikrophonen in einer Kammer ohne Echo abgespielt wurden. Ein Paar Mikrophone 422, 424 (Sennheiser MKE 2-60) mit einem Abstand D zwischen den Mikrophonen von 15 cm war in einem Zuhörraum angeordnet, um als Sensoren 22, 24 zu dienen. Verschiedene Lautsprecher wurden in einem Abstand von ungefähr 3 Fuß von dem Mittelpunkt M der Mikrophone 422, 424 platziert, was unterschiedlichen Azimuten entsprach. Ein Lautsprecher wurde genau gegenüber von den Mikrophonen angeordnet, die eine Achse AZ schneiden, um ein Zielsprachsignal auszusenden (entsprechend Quelle 12 von 2). Verschiedene Lautsprecher wurden benutzt, um Wörter oder Sätze auszusenden, die mit dem Zuhören des Zielsprachsignals aus verschiedenen Azimuten interferierten.
  • Mikrophone 422, 424 wurden jedes operativ verbunden mit einem Mikrophon-zur-Leitung-Vorverstärker 432 (Shure FP-11). Der Ausgang von jedem Vorverstärker 432 wurde einer Steuerung für die Lautstärke mit zwei Kanälen 434 zur Verfügung gestellt, die in der Form eines Audiovorverstärkers (Adcom GTP-5511) zur Verfügung gestellt wurde. Der Ausgang der Lautstärkensteuerung 434 wurde in die Analog/Digital-Wandler einer Digitalsignalprozessors(DSP)-Entwicklungsplatine 440 von Texas Instruments (Modell TI-C6201 DSP Evaluation Module (EVM)) eingegeben. Die Entwicklungsplatine 440 beinhaltet einen Fixpunkt-DSP-Chip (Modell Nr. TMS320C62), der mit einer Arbeitsrate von 133 MHz arbeitet bei einem maximalen Durchsatz von 1.064 MIPS (millions of instructions per second). Dieser DSP hat Software ausgeführt, die konfiguriert war, um die Routine 140 in Echtzeit zu implementieren. Die Abtast-Frequenz für diese Experimente war ungefähr 8 kHz mit einer 16-Bit-Analog/Digital- und -Digital/Analog-Wandlung. Die FFT-Länge war 256 Abtastpunkte bei einer FFT, die alle 16 Abtastpunkte ausgerechnet wurde. Es hat sich herausgestellt, dass die Berechnung, die zu der Charakterisierung und Extraktion des gewünschten Signals führte, eine Verzögerung im Bereich von ungefähr 10–20 Millisekunden zwischen der Eingabe und der Ausgabe einführt.
  • Die 7 und 8 zeigen beide die Spuren von drei akustischen Signalen von ungefähr der gleichen Energie. In 7 ist das Zielsignal zwischen zwei interferierenden Signalspuren gezeigt, die jeweils von Azimutwinkeln 22° und –65° gesendet wurden. Diese Azimute sind in 1 gezeigt. Der Zielklang ist eine voraufgenommene Stimme einer Frau (zweite Spur) und wird ausgegeben von dem Lautsprecher, der sich bei 0° befindet. Ein interferierender Klang wird von einer weiblichen Sprecherin zur Verfügung gestellt (obere Spur in 7) und der andere interferierende Klang wird von einem männlichen Sprecher (untere Spur von 7) bereitgestellt. Der Satz, der von dem jeweiligen Sprecher wiederholt wird, ist oberhalb der entsprechenden Spur dargestellt.
  • Wenn der Zielsprachklang in der Gegenwart von zwei interferierenden Quellen ausgegeben wird, wird seine Wellenform (und das Leistungsspektrum) kontaminiert In Bezug auf 8 wie auch von der oberen Spur gezeigt. Dieser kontaminierte Klang war für die meisten Zuhörer schwer zu verstehen, insbesondere für solche mit Hörbehinderung. Die Routine 140, wie sie auf der Platine 440 verwirklicht ist, hat dieses kontaminierte Signal mit einer hohen Treue bearbeitet und hat das Zielsignal extrahiert, indem lediglich die interferierenden Klänge unterdrückt wurden. Entsprechend war die Verständlichkeit des Zielsignals wieder hergestellt, wie durch die zweite Spur gezeigt. Die Verständlichkeit war wesentlich verbessert und das extrahierte Signal ähnelte dem originalen Zielsignal, das zu Vergleichszwecken als unterste Spur in 8 dargestellt ist.
  • Diese Experimente demonstrieren eine deutliche Unterdrückung von interferierenden Klängen. Die Verwendung des Regularisierungsparameters (mit einem Wert von ungefähr 1,03) hat effektiv die Größe der berechneten Wichtungen begrenzt und resultiert in einer Ausgabe mit einer viel weniger hörbaren Verzerrung, als wenn die Zielquelle leicht außerhalb der Achse liegt, wie es vorkommen würde, wenn der Kopf des Trägers der Hörhilfe nicht ganz mit dem Zielsprecher ausgerichtet ist. Die Miniaturisierung dieser Technologie auf eine Größe, die sich für Hörhilfen und andere Anwendungen eignet, kann durch Techniken gewährleistet werden, die dem Fachmann bekannt sind.
  • 11 und 12 sind computergenerierte Bildgraphen von simulierten Ergebnissen für die Prozedur 520. Diese Graphen zeigen die Lokalisierungsergebnisse von Azimuten in Grad gegen Zeit in Sekunden. Die Lokalisierungsergebnisse sind als Schatten gezeichnet, je stärker der Schatten, desto stärker die Lokalisierung in diesem Winkel und zu dieser Zeit. Solche Simulationen werden von den Fachleuten akzeptiert, um die Effizienz von dieser Art von Prozeduren anzuzeigen.
  • 11 zeigt die Lokalisierungsergebnisse, wenn die akustische Zielquelle generell stationär ist mit einer Richtung von etwa 10° abseits der Achse. Die tatsächliche Richtung des Ziels ist durch eine durchgezogene schwarze Linie dargestellt. Die 12 illustriert das Lokalisierungsergebnis für ein Ziel mit einer Richtung, die sinusartig zwischen +10° und –10° wechselt, wie es der Fall für den Träger einer Hörhilfe sein könnte, der seinen oder ihren Kopf schüttelt. Die aktuelle Position der Quelle ist wiederum durch eine durchgezogene schwarze Linie angezeigt. Die Lokalisierungstechnik von Prozedur 520 zeigt ganz akkurat die Position der Zielquelle in beiden Fällen, weil die stärkeren Schatten sehr gut mit dem tatsächlichen Lokalisierungsniveau übereinstimmt. Weil die Zielquelle nicht immer ein Signal produziert, das frei von überlappenden Interferenzen ist, können die Lokalisierungsresultate nur zu bestimmten Zeiten stark sein. In 12 sind diese stärkeren Intervallen bei ungefähr 0,2, 0,7, 0,9, 1,25, 1,7 und 2,0 Sekunden zu sehen. Es versteht sich, dass die Position des Ziels zwischen diesen Zeiten leicht geschätzt werden kann.
  • Die hier beschriebenen Experimente dienen nur dem Zweck, den Betrieb einer Form des Verarbeitungssystems der vorliegenden Erfindung zu demonstrieren. Die Ausrüstung, das Sprachmaterial, die Sprecherkonfiguration und/oder die Parameter können variiert werden, wie es den Fachleuten einfallen würde.
  • Jegliche Theorie, Operationsmechanismus, Beweis, oder Erkenntnis, die hier festgestellt wurden, sind dazu gemeint, das Verständnis der vorliegenden Erfindung zu verbessern und sind nicht dafür gedacht, die vorliegende Erfindung in irgendeiner Weise von einer solchen Theorie, Betriebsmechanismus, Beweis oder Erkenntnis abhängig zu machen. Während die Erfindung illustriert und in den Zeichnungen und der vorhergehenden Beschreibung im Detail beschrieben wurde, ist dieses als nur illustrativ und nicht von beschränkendem Charakter zu betrachten, es sei dabei verstanden, dass nur ausgewählte Ausführungsformen gezeigt und beschrieben wurden und dass alle Änderungen, Modifikationen und Äquivalente, die in den Schutzbereich der Erfindung wie hier oder durch die folgenden Ansprüchen definiert, geschützt werden sollen.

Claims (16)

  1. Verfahren, das aufweist: Erfassen einer akustischen Anregung mit einer Anzahl von akustischen Sensoren, wobei die akustischen Sensoren eine entsprechende Anzahl von Sensorsignalen bereitstellen, Errichten einer Anzahl von Frequenzraumkomponenten für jedes der Sensorsignale und Bestimmen eines Ausgangssignals, das die akustische Anregung von einer bestimmten Richtung repräsentiert, wobei das Bestimmen das Wichten der Komponenten für jedes der Sensorsignale beinhaltet, um die Varianz des Ausgangssignals zu reduzieren, die von einer Kombination der gewichteten Komponenten erhalten wird, während eine vorbestimmte Verstärkung der akustischen Anregung von der bestimmten Richtung bereitgestellt wird.
  2. Verfahren nach Anspruch 1, bei dem das Bestimmen das Minimieren der Varianz des Ausgangssignals beinhaltet und die vorbestimmte Verstärkung näherungsweise 1 ist.
  3. Verfahren nach Anspruch 1 oder Anspruch 2, das weiterhin aufweist das Verändern der bestimmten Richtung ohne Bewegung irgendeines der akustischen Sensoren und Wiederholen des Errichtens und des Bestimmens nach der Veränderung.
  4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die Komponenten zu Fourier-Transformationen korrespondieren und das Gewichten das Berechnen einer Anzahl von Gewichten beinhaltet, um die Varianz des Ausgangssignals zu minimieren, die der Beschränkung ausgesetzt ist, daß die vorbestimmte Verstärkung im allgemeinen bei 1 gehalten wird, wobei die Gewichte als eine Funktion einer Frequenzraumkorrelationsmatrix und eines Vektors, der der bestimmten Richtung entspricht, bestimmt wird und weiterhin aufweist das Neuberechnen der Gewichte von Zeit zu Zeit und Wiederholen des Errichtens und der Bestimmung auf einer errichteten Basis.
  5. Verfahren nach einem der Ansprüche 1 bis 4, das weiterhin aufweist das Einstellen eines Korrelationsfaktors, um die Strahlbreite als eine Funktion der Frequenz zu steuern.
  6. Verfahren nach einem der Ansprüche 1 bis 4, das weiterhin aufweist das Berechnen einer Anzahl von Korrelationsmatrizen und das adaptive Verändern der Korrelationslänge für ein oder mehrere der Korrelationsmatrizen relativ zu zumindest einer anderen der Korrelationsmatrizen.
  7. Verfahren nach einem der Ansprüche 1 bis 4, das weiterhin aufweist das Verfolgen des Ortes von zumindest einer akustischen Signalquelle als eine Funktion einer Phasendifferenz zwischen den akustischen Sensoren.
  8. Verfahren nach einem der Ansprüche 1 bis 7, das weiterhin aufweist das Bereitstellen einer Hörhilfe mit den akustischen Sensoren, und eines Prozessors, der betreibbar ist, um das Errichten und das Bestimmen durchzuführen.
  9. Verfahren nach einem der Ansprüche 1 bis 7, bei dem eine Spracheingabevorrichtung die akustischen Sensoren und einen Prozessor, der betreibbar ist, um die Errichtung und die Bestimmung durchzuführen, beinhaltet.
  10. Vorrichtung die aufweist: einen ersten akustischen Sensor (22), der betreibbar ist, um ein erstes Sensorsignal bereitzustellen, einen zweiten akustischer Sensor (24), der betreibbar ist, um ein zweites Sensorsignal bereitzustellen, einen Prozessor (30), der betreibbar ist, um ein Ausgangssignal zu erzeugen, das repräsentativ für eine akustische Anregung ist, die mit dem ersten akustischen Sensor und dem zweiten akustischen Sensor von einer bestimmten Richtung erfaßt wurde, wobei der Prozessor beinhaltet: eine Einrichtung für das Transformieren des ersten Sensorsignals in eine erste Anzahl von Frequenzraumtransformationskomponenten und des zweiten Sensorsignals in eine zweite Anzahl von Frequenzraumtransformationskomponenten, eine Einrichtung für das Gewichten der ersten Transformationskomponenten, um eine entsprechende Anzahl von ersten gewichteten Komponenten bereitzustellen, und der zweiten Transformationskomponenten, um eine entsprechende Anzahl von zweiten gewichteten Komponenten bereitzustellen und zwar als eine Funktion der Varianz des Ausgangssignals und einer Verstärkungsbeschränkung für die akustische Anregung von der bestimmten Richtung, eine Einrichtung für das Kombinieren jeder der ersten gewichteten Komponenten mit einer entsprechenden der zweiten gewichteten Komponenten, um eine Frequenzraumform des Ausgangssignals bereitzustellen, und eine Einrichtung für das Bereitstellen einer Zeitraumform des Ausgangssignals aus der Frequenzraumform.
  11. Vorrichtung nach Anspruch 10, bei der der Prozessor eine Einrichtung für das Steuern der bestimmten Richtung beinhaltet.
  12. Vorrichtung nach Anspruch 10 oder 11, bei der die Vorrichtung als eine Hörhilfe mit zumindest einer akustischen Ausgangsvorrichtung (90), die auf das Ausgangssignal reagiert, angeordnet ist.
  13. Vorrichtung nach Anspruch 10 oder 11, bei der die Vorrichtung als eine Spracheingabevorrichtung angeordnet ist.
  14. Vorrichtung nach einem der Ansprüche 10 bis 13, bei der der Prozessor betreibbar ist, um den Ort einer akustischen Anregungsquelle relativ zu einer azimuthalen Ebene zu verfolgen.
  15. Vorrichtung nach einem der Ansprüche 10 bis 13, bei der der Prozessor betreibbar ist, um einen Steuerparameter für die Strahlbreite mit der Frequenz einzustellen.
  16. Vorrichtung nach einem der Ansprüche 10 bis 13, bei der der Prozessor betreibbar ist, um eine Anzahl von unterschiedlichen Korrelationsmatrizen zu berechnen und adaptiv die Korrelationslänge von ein oder mehreren der Matrizen relativ zu zumindest einer anderen Matrize einzustellen.
DE60125553T 2000-05-10 2001-05-10 Verfahren zur interferenzunterdrückung Expired - Lifetime DE60125553T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US56843000A 2000-05-10 2000-05-10
US568430 2000-05-10
PCT/US2001/015047 WO2001087011A2 (en) 2000-05-10 2001-05-10 Interference suppression techniques

Publications (2)

Publication Number Publication Date
DE60125553D1 DE60125553D1 (de) 2007-02-08
DE60125553T2 true DE60125553T2 (de) 2007-10-04

Family

ID=24271254

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60125553T Expired - Lifetime DE60125553T2 (de) 2000-05-10 2001-05-10 Verfahren zur interferenzunterdrückung

Country Status (9)

Country Link
US (2) US7613309B2 (de)
EP (1) EP1312239B1 (de)
JP (1) JP2003533152A (de)
CN (1) CN1440628A (de)
AU (1) AU2001261344A1 (de)
CA (2) CA2685434A1 (de)
DE (1) DE60125553T2 (de)
DK (1) DK1312239T3 (de)
WO (1) WO2001087011A2 (de)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720229B2 (en) * 2002-11-08 2010-05-18 University Of Maryland Method for measurement of head related transfer functions
US7076072B2 (en) * 2003-04-09 2006-07-11 Board Of Trustees For The University Of Illinois Systems and methods for interference-suppression with directional sensing patterns
US7945064B2 (en) 2003-04-09 2011-05-17 Board Of Trustees Of The University Of Illinois Intrabody communication with ultrasound
EP1524879B1 (de) * 2003-06-30 2014-05-07 Nuance Communications, Inc. Freisprechanlage zur Verwendung in einem Fahrzeug
GB0321722D0 (en) * 2003-09-16 2003-10-15 Mitel Networks Corp A method for optimal microphone array design under uniform acoustic coupling constraints
US7283639B2 (en) * 2004-03-10 2007-10-16 Starkey Laboratories, Inc. Hearing instrument with data transmission interference blocking
US8638946B1 (en) 2004-03-16 2014-01-28 Genaudio, Inc. Method and apparatus for creating spatialized sound
US8275147B2 (en) * 2004-05-05 2012-09-25 Deka Products Limited Partnership Selective shaping of communication signals
WO2007028250A2 (en) * 2005-09-09 2007-03-15 Mcmaster University Method and device for binaural signal enhancement
US8345890B2 (en) 2006-01-05 2013-01-01 Audience, Inc. System and method for utilizing inter-microphone level differences for speech enhancement
US8744844B2 (en) 2007-07-06 2014-06-03 Audience, Inc. System and method for adaptive intelligent noise suppression
US8204252B1 (en) 2006-10-10 2012-06-19 Audience, Inc. System and method for providing close microphone adaptive array processing
US8194880B2 (en) * 2006-01-30 2012-06-05 Audience, Inc. System and method for utilizing omni-directional microphones for speech enhancement
US9185487B2 (en) 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
DE102006018634B4 (de) 2006-04-21 2017-12-07 Sivantos Gmbh Hörgerät mit Quellentrennung und entsprechendes Verfahren
US8934641B2 (en) 2006-05-25 2015-01-13 Audience, Inc. Systems and methods for reconstructing decomposed audio signals
US8204253B1 (en) 2008-06-30 2012-06-19 Audience, Inc. Self calibration of audio device
US8150065B2 (en) 2006-05-25 2012-04-03 Audience, Inc. System and method for processing an audio signal
US8849231B1 (en) 2007-08-08 2014-09-30 Audience, Inc. System and method for adaptive power control
US8949120B1 (en) 2006-05-25 2015-02-03 Audience, Inc. Adaptive noise cancelation
DE602006006664D1 (de) * 2006-07-10 2009-06-18 Harman Becker Automotive Sys Reduzierung von Hintergrundrauschen in Freisprechsystemen
JP5070873B2 (ja) * 2006-08-09 2012-11-14 富士通株式会社 音源方向推定装置、音源方向推定方法、及びコンピュータプログラム
DE102006047983A1 (de) 2006-10-10 2008-04-24 Siemens Audiologische Technik Gmbh Verarbeitung eines Eingangssignals in einem Hörgerät
US8325957B2 (en) 2006-10-10 2012-12-04 Siemens Audiologische Technik Gmbh Hearing aid and method for operating a hearing aid
DE102006047982A1 (de) * 2006-10-10 2008-04-24 Siemens Audiologische Technik Gmbh Verfahren zum Betreiben einer Hörfilfe, sowie Hörhilfe
EP1912472A1 (de) * 2006-10-10 2008-04-16 Siemens Audiologische Technik GmbH Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
JP5295115B2 (ja) * 2006-10-10 2013-09-18 シーメンス アウディオローギッシェ テヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング 補聴器の駆動方法および補聴器
JP4854533B2 (ja) * 2007-01-30 2012-01-18 富士通株式会社 音響判定方法、音響判定装置及びコンピュータプログラム
US8259926B1 (en) 2007-02-23 2012-09-04 Audience, Inc. System and method for 2-channel and 3-channel acoustic echo cancellation
CN101960866B (zh) * 2007-03-01 2013-09-25 杰里·马哈布比 音频空间化及环境模拟
US8520873B2 (en) 2008-10-20 2013-08-27 Jerry Mahabub Audio spatialization and environment simulation
US8189766B1 (en) 2007-07-26 2012-05-29 Audience, Inc. System and method for blind subband acoustic echo cancellation postfiltering
EP2116999B1 (de) 2007-09-11 2015-04-08 Panasonic Corporation Tonbestimmungsgerät, Tonbestimmungsverfahren und Programm dafür
US8046219B2 (en) 2007-10-18 2011-10-25 Motorola Mobility, Inc. Robust two microphone noise suppression system
GB0720473D0 (en) * 2007-10-19 2007-11-28 Univ Surrey Accoustic source separation
US8180064B1 (en) 2007-12-21 2012-05-15 Audience, Inc. System and method for providing voice equalization
US8143620B1 (en) 2007-12-21 2012-03-27 Audience, Inc. System and method for adaptive classification of audio sources
US8194882B2 (en) 2008-02-29 2012-06-05 Audience, Inc. System and method for providing single microphone noise suppression fallback
US8355511B2 (en) 2008-03-18 2013-01-15 Audience, Inc. System and method for envelope-based acoustic echo cancellation
WO2009151578A2 (en) 2008-06-09 2009-12-17 The Board Of Trustees Of The University Of Illinois Method and apparatus for blind signal recovery in noisy, reverberant environments
US8774423B1 (en) 2008-06-30 2014-07-08 Audience, Inc. System and method for controlling adaptivity of signal modification using a phantom coefficient
US8521530B1 (en) 2008-06-30 2013-08-27 Audience, Inc. System and method for enhancing a monaural audio signal
TWI475896B (zh) * 2008-09-25 2015-03-01 Dolby Lab Licensing Corp 單音相容性及揚聲器相容性之立體聲濾波器
DK2211579T3 (da) * 2009-01-21 2012-10-08 Oticon As Sendeeffektregulering i et trådløst kommunikationssystem med lav effekt
US9838784B2 (en) * 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US9008329B1 (en) 2010-01-26 2015-04-14 Audience, Inc. Noise reduction using multi-feature cluster tracker
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US8818800B2 (en) * 2011-07-29 2014-08-26 2236008 Ontario Inc. Off-axis audio suppressions in an automobile cabin
US9640194B1 (en) 2012-10-04 2017-05-02 Knowles Electronics, Llc Noise suppression for speech processing based on machine-learning mask estimation
US9078057B2 (en) 2012-11-01 2015-07-07 Csr Technology Inc. Adaptive microphone beamforming
US20140270219A1 (en) * 2013-03-15 2014-09-18 CSR Technology, Inc. Method, apparatus, and manufacture for beamforming with fixed weights and adaptive selection or resynthesis
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
DE102013215131A1 (de) * 2013-08-01 2015-02-05 Siemens Medical Instruments Pte. Ltd. Verfahren zur Verfolgung einer Schallquelle
EP2928210A1 (de) 2014-04-03 2015-10-07 Oticon A/s Binaurales Hörgerätesystem mit binauraler Rauschunterdrückung
DE112015003945T5 (de) 2014-08-28 2017-05-11 Knowles Electronics, Llc Mehrquellen-Rauschunterdrückung
US9875081B2 (en) * 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
DE102017206788B3 (de) * 2017-04-21 2018-08-02 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgerätes
US10482904B1 (en) 2017-08-15 2019-11-19 Amazon Technologies, Inc. Context driven device arbitration
CN110070709B (zh) * 2019-05-29 2023-10-27 杭州聚声科技有限公司 一种行人过街定向语音提示系统及其方法
EP4398604A1 (de) * 2023-01-06 2024-07-10 Oticon A/s Hörgerät und verfahren
CN115751737B (zh) * 2023-01-09 2023-04-25 南通源动太阳能科技有限公司 一种用于太阳能热发电系统的碟式集热加热器及设计方法

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4025721A (en) 1976-05-04 1977-05-24 Biocommunications Research Corporation Method of and means for adaptively filtering near-stationary noise from speech
FR2383657A1 (fr) 1977-03-16 1978-10-13 Bertin & Cie Equipement pour prothese auditive
CA1105565A (en) 1978-09-12 1981-07-21 Kaufman (John G.) Hospital Products Ltd. Electrosurgical electrode
US4334740A (en) 1978-09-12 1982-06-15 Polaroid Corporation Receiving system having pre-selected directional response
DE2924539C2 (de) 1979-06-19 1983-01-13 Fa. Carl Freudenberg, 6940 Weinheim Spinnvlies aus Polyolefin-Filamenten und Verfahren zu seiner Herstellung
US4354064A (en) 1980-02-19 1982-10-12 Scott Instruments Company Vibratory aid for presbycusis
JPS5939198A (ja) 1982-08-27 1984-03-03 Victor Co Of Japan Ltd マイクロホン装置
US4536887A (en) 1982-10-18 1985-08-20 Nippon Telegraph & Telephone Public Corporation Microphone-array apparatus and method for extracting desired signal
US4858612A (en) 1983-12-19 1989-08-22 Stocklin Philip L Hearing device
DE3420244A1 (de) 1984-05-30 1985-12-05 Hortmann GmbH, 7449 Neckartenzlingen Mehrfrequenz-uebertragungssystem fuer implantierte hoerprothesen
AT379929B (de) 1984-07-18 1986-03-10 Viennatone Gmbh Hoergeraet
DE3431584A1 (de) 1984-08-28 1986-03-13 Siemens AG, 1000 Berlin und 8000 München Hoerhilfegeraet
US4742548A (en) 1984-12-20 1988-05-03 American Telephone And Telegraph Company Unidirectional second order gradient microphone
US4653606A (en) * 1985-03-22 1987-03-31 American Telephone And Telegraph Company Electroacoustic device with broad frequency range directional response
JPS6223300A (ja) 1985-07-23 1987-01-31 Victor Co Of Japan Ltd 指向性マイクロホン装置
US4752961A (en) 1985-09-23 1988-06-21 Northern Telecom Limited Microphone arrangement
DE8529458U1 (de) 1985-10-16 1987-05-07 Siemens AG, 1000 Berlin und 8000 München Hörgerät
US4988981B1 (en) 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
EP0298323A1 (de) 1987-07-07 1989-01-11 Siemens Aktiengesellschaft Hörhilfegerät
DE8816422U1 (de) 1988-05-06 1989-08-10 Siemens AG, 1000 Berlin und 8000 München Hörhilfegerät mit drahtloser Fernsteuerung
DE3831809A1 (de) 1988-09-19 1990-03-22 Funke Hermann Zur mindestens teilweisen implantation im lebenden koerper bestimmtes geraet
US4982434A (en) 1989-05-30 1991-01-01 Center For Innovative Technology Supersonic bone conduction hearing aid and method
US5047994A (en) 1989-05-30 1991-09-10 Center For Innovative Technology Supersonic bone conduction hearing aid and method
US5029216A (en) 1989-06-09 1991-07-02 The United States Of America As Represented By The Administrator Of The National Aeronautics & Space Administration Visual aid for the hearing impaired
DE3921307A1 (de) 1989-06-29 1991-01-10 Battelle Institut E V Akustische sensoreinrichtung mit stoerschallunterdrueckung
US4987897A (en) 1989-09-18 1991-01-29 Medtronic, Inc. Body bus medical device communication system
US5495534A (en) 1990-01-19 1996-02-27 Sony Corporation Audio signal reproducing apparatus
US5259032A (en) 1990-11-07 1993-11-02 Resound Corporation contact transducer assembly for hearing devices
GB9027784D0 (en) 1990-12-21 1991-02-13 Northern Light Music Limited Improved hearing aid system
US5383915A (en) 1991-04-10 1995-01-24 Angeion Corporation Wireless programmer/repeater system for an implanted medical device
US5507781A (en) 1991-05-23 1996-04-16 Angeion Corporation Implantable defibrillator system with capacitor switching circuitry
US5289544A (en) 1991-12-31 1994-02-22 Audiological Engineering Corporation Method and apparatus for reducing background noise in communication systems and for enhancing binaural hearing systems for the hearing impaired
US5245589A (en) 1992-03-20 1993-09-14 Abel Jonathan S Method and apparatus for processing signals to extract narrow bandwidth features
IT1256900B (it) 1992-07-27 1995-12-27 Franco Vallana Procedimento e dispositivo per rilevare la funzionalita` cardiaca.
US5245556A (en) * 1992-09-15 1993-09-14 Universal Data Systems, Inc. Adaptive equalizer method and apparatus
US5321332A (en) 1992-11-12 1994-06-14 The Whitaker Corporation Wideband ultrasonic transducer
US5400409A (en) 1992-12-23 1995-03-21 Daimler-Benz Ag Noise-reduction method for noise-affected voice channels
US5706352A (en) 1993-04-07 1998-01-06 K/S Himpp Adaptive gain and filtering circuit for a sound reproduction system
US5524056A (en) 1993-04-13 1996-06-04 Etymotic Research, Inc. Hearing aid having plural microphones and a microphone switching system
US5285499A (en) 1993-04-27 1994-02-08 Signal Science, Inc. Ultrasonic frequency expansion processor
US5325436A (en) 1993-06-30 1994-06-28 House Ear Institute Method of signal processing for maintaining directional hearing with hearing aids
US5737430A (en) 1993-07-22 1998-04-07 Cardinal Sound Labs, Inc. Directional hearing aid
US5417113A (en) 1993-08-18 1995-05-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Leak detection utilizing analog binaural (VLSI) techniques
US5479522A (en) 1993-09-17 1995-12-26 Audiologic, Inc. Binaural hearing aid
US5651071A (en) * 1993-09-17 1997-07-22 Audiologic, Inc. Noise reduction system for binaural hearing aid
US5757932A (en) 1993-09-17 1998-05-26 Audiologic, Inc. Digital hearing aid system
US5463694A (en) 1993-11-01 1995-10-31 Motorola Gradient directional microphone system and method therefor
US5473701A (en) 1993-11-05 1995-12-05 At&T Corp. Adaptive microphone array
US5485515A (en) 1993-12-29 1996-01-16 At&T Corp. Background noise compensation in a telephone network
US5511128A (en) 1994-01-21 1996-04-23 Lindemann; Eric Dynamic intensity beamforming system for noise reduction in a binaural hearing aid
EP0671818B1 (de) 1994-03-07 2005-11-30 Phonak Communications Ag Miniaturempfänger zum Empfangen eines hochfrequenten frequenz- oder phasenmodulierten Signales
US6173062B1 (en) 1994-03-16 2001-01-09 Hearing Innovations Incorporated Frequency transpositional hearing aid with digital and single sideband modulation
US5574824A (en) * 1994-04-11 1996-11-12 The United States Of America As Represented By The Secretary Of The Air Force Analysis/synthesis-based microphone array speech enhancer with variable signal distortion
US5627799A (en) 1994-09-01 1997-05-06 Nec Corporation Beamformer using coefficient restrained adaptive filters for detecting interference signals
US5550923A (en) 1994-09-02 1996-08-27 Minnesota Mining And Manufacturing Company Directional ear device with adaptive bandwidth and gain control
EP0806099B1 (de) 1995-01-25 2000-08-30 Philip Ashley Haynes Kommunikationsverfahren
IL112730A (en) 1995-02-21 2000-02-17 Israel State System and method of noise detection
US5737431A (en) 1995-03-07 1998-04-07 Brown University Research Foundation Methods and apparatus for source location estimation from microphone-array time-delay estimates
US5721783A (en) 1995-06-07 1998-02-24 Anderson; James C. Hearing aid with wireless remote processor
US5663727A (en) 1995-06-23 1997-09-02 Hearing Innovations Incorporated Frequency response analyzer and shaping apparatus and digital hearing enhancement apparatus and method utilizing the same
US5694474A (en) 1995-09-18 1997-12-02 Interval Research Corporation Adaptive filter for signal processing and method therefor
US6002776A (en) 1995-09-18 1999-12-14 Interval Research Corporation Directional acoustic signal processor and method therefor
WO1997014266A2 (en) 1995-10-10 1997-04-17 Audiologic, Inc. Digital signal processing hearing aid with processing strategy selection
DE69738884D1 (de) 1996-02-15 2008-09-18 Armand P Neukermans Verbesserte biokompatible wandler
WO1997032629A1 (en) 1996-03-06 1997-09-12 Advanced Bionics Corporation Magnetless implantable stimulator and external transmitter and implant tools for aligning same
US5833603A (en) 1996-03-13 1998-11-10 Lipomatrix, Inc. Implantable biosensing transponder
US6161046A (en) 1996-04-09 2000-12-12 Maniglia; Anthony J. Totally implantable cochlear implant for improvement of partial and total sensorineural hearing loss
US5768392A (en) 1996-04-16 1998-06-16 Aura Systems Inc. Blind adaptive filtering of unknown signals in unknown noise in quasi-closed loop system
US5793875A (en) 1996-04-22 1998-08-11 Cardinal Sound Labs, Inc. Directional hearing system
US5715319A (en) 1996-05-30 1998-02-03 Picturetel Corporation Method and apparatus for steerable and endfire superdirective microphone arrays with reduced analog-to-digital converter and computational requirements
US6222927B1 (en) 1996-06-19 2001-04-24 The University Of Illinois Binaural signal processing system and method
US5825898A (en) 1996-06-27 1998-10-20 Lamar Signal Processing Ltd. System and method for adaptive interference cancelling
US5889870A (en) 1996-07-17 1999-03-30 American Technology Corporation Acoustic heterodyne device and method
US5755748A (en) 1996-07-24 1998-05-26 Dew Engineering & Development Limited Transcutaneous energy transfer device
US5899847A (en) 1996-08-07 1999-05-04 St. Croix Medical, Inc. Implantable middle-ear hearing assist system using piezoelectric transducer film
US6317703B1 (en) 1996-11-12 2001-11-13 International Business Machines Corporation Separation of a mixture of acoustic sources into its components
US6010532A (en) 1996-11-25 2000-01-04 St. Croix Medical, Inc. Dual path implantable hearing assistance device
US5757933A (en) 1996-12-11 1998-05-26 Micro Ear Technology, Inc. In-the-ear hearing aid with directional microphone system
US6223018B1 (en) 1996-12-12 2001-04-24 Nippon Telegraph And Telephone Corporation Intra-body information transfer device
US5878147A (en) 1996-12-31 1999-03-02 Etymotic Research, Inc. Directional microphone assembly
US6275596B1 (en) 1997-01-10 2001-08-14 Gn Resound Corporation Open ear canal hearing aid system
US6283915B1 (en) 1997-03-12 2001-09-04 Sarnoff Corporation Disposable in-the-ear monitoring instrument and method of manufacture
US6178248B1 (en) 1997-04-14 2001-01-23 Andrea Electronics Corporation Dual-processing interference cancelling system and method
US5991419A (en) 1997-04-29 1999-11-23 Beltone Electronics Corporation Bilateral signal processing prosthesis
US6154552A (en) 1997-05-15 2000-11-28 Planning Systems Inc. Hybrid adaptive beamformer
EP0802699A3 (de) * 1997-07-16 1998-02-25 Phonak Ag Verfahren zum Elektronischerweitern des Abstands zwischen zwei akustischen/elektrischen Wandlern und einem Hörhilfegerät
JPH1169499A (ja) 1997-07-18 1999-03-09 Koninkl Philips Electron Nv 補聴器、リモート制御装置及びシステム
FR2768290B1 (fr) 1997-09-10 1999-10-15 France Telecom Antenne formee d'une pluralite de capteurs acoustiques
JPH1183612A (ja) 1997-09-10 1999-03-26 Mitsubishi Heavy Ind Ltd 移動体の騒音測定装置
US6192134B1 (en) 1997-11-20 2001-02-20 Conexant Systems, Inc. System and method for a monolithic directional microphone array
US6023514A (en) 1997-12-22 2000-02-08 Strandberg; Malcolm W. P. System and method for factoring a merged wave field into independent components
DE19810043A1 (de) * 1998-03-09 1999-09-23 Siemens Audiologische Technik Hörgerät mit einem Richtmikrofon-System
US6198693B1 (en) 1998-04-13 2001-03-06 Andrea Electronics Corporation System and method for finding the direction of a wave source using an array of sensors
DE19822021C2 (de) 1998-05-15 2000-12-14 Siemens Audiologische Technik Hörgerät mit automatischem Mikrofonabgleich sowie Verfahren zum Betrieb eines Hörgerätes mit automatischem Mikrofonabgleich
US6717991B1 (en) * 1998-05-27 2004-04-06 Telefonaktiebolaget Lm Ericsson (Publ) System and method for dual microphone signal noise reduction using spectral subtraction
US6549586B2 (en) * 1999-04-12 2003-04-15 Telefonaktiebolaget L M Ericsson System and method for dual microphone signal noise reduction using spectral subtraction
US6137889A (en) 1998-05-27 2000-10-24 Insonus Medical, Inc. Direct tympanic membrane excitation via vibrationally conductive assembly
US6217508B1 (en) 1998-08-14 2001-04-17 Symphonix Devices, Inc. Ultrasonic hearing system
US6182018B1 (en) 1998-08-25 2001-01-30 Ford Global Technologies, Inc. Method and apparatus for identifying sound in a composite sound signal
US20010051776A1 (en) * 1998-10-14 2001-12-13 Lenhardt Martin L. Tinnitus masker/suppressor
US6342035B1 (en) 1999-02-05 2002-01-29 St. Croix Medical, Inc. Hearing assistance device sensing otovibratory or otoacoustic emissions evoked by middle ear vibrations
DE10084133T1 (de) 1999-02-05 2002-01-31 St Croix Medical Inc Verfahren und Vorrichtung für ein programmierbares implantierbares Hörgerät
DE19918883C1 (de) * 1999-04-26 2000-11-30 Siemens Audiologische Technik Hörhilfegerät mit Richtmikrofoncharakteristik
US6167312A (en) 1999-04-30 2000-12-26 Medtronic, Inc. Telemetry system for implantable medical devices
DK1198974T3 (da) 1999-08-03 2003-06-23 Widex As Høreapparat med adaptiv tilpasning af mikrofonerne
US6397186B1 (en) 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
ATE417483T1 (de) * 2000-02-02 2008-12-15 Bernafon Ag Schaltung und verfahren zur adaptiven geräuschunterdrückung
DE10018360C2 (de) * 2000-04-13 2002-10-10 Cochlear Ltd Mindestens teilimplantierbares System zur Rehabilitation einer Hörstörung
DE10018334C1 (de) * 2000-04-13 2002-02-28 Implex Hear Tech Ag Mindestens teilimplantierbares System zur Rehabilitation einer Hörstörung
DE10018361C2 (de) * 2000-04-13 2002-10-10 Cochlear Ltd Mindestens teilimplantierbares Cochlea-Implantat-System zur Rehabilitation einer Hörstörung
DE10031832C2 (de) * 2000-06-30 2003-04-30 Cochlear Ltd Hörgerät zur Rehabilitation einer Hörstörung
DE10039401C2 (de) * 2000-08-11 2002-06-13 Implex Ag Hearing Technology I Mindestens teilweise implantierbares Hörsystem
WO2002030156A1 (en) * 2000-10-05 2002-04-11 Etymotic Research, Inc. Directional microphone assembly
US20020057817A1 (en) * 2000-10-10 2002-05-16 Resistance Technology, Inc. Hearing aid
US6380896B1 (en) 2000-10-30 2002-04-30 Siemens Information And Communication Mobile, Llc Circular polarization antenna for wireless communication system
US7184559B2 (en) * 2001-02-23 2007-02-27 Hewlett-Packard Development Company, L.P. System and method for audio telepresence
US7254246B2 (en) * 2001-03-13 2007-08-07 Phonak Ag Method for establishing a binaural communication link and binaural hearing devices

Also Published As

Publication number Publication date
CA2407855C (en) 2010-02-02
US7613309B2 (en) 2009-11-03
WO2001087011A3 (en) 2003-03-20
CA2407855A1 (en) 2001-11-15
DE60125553D1 (de) 2007-02-08
AU2001261344A1 (en) 2001-11-20
US20030138116A1 (en) 2003-07-24
CN1440628A (zh) 2003-09-03
EP1312239A2 (de) 2003-05-21
DK1312239T3 (da) 2007-04-30
EP1312239B1 (de) 2006-12-27
WO2001087011A2 (en) 2001-11-15
US20070030982A1 (en) 2007-02-08
CA2685434A1 (en) 2001-11-15
JP2003533152A (ja) 2003-11-05

Similar Documents

Publication Publication Date Title
DE60125553T2 (de) Verfahren zur interferenzunterdrückung
DE69409121T2 (de) Störreduktionssystem für ein binaurales hörgerät
DE69507452T2 (de) Dynamic-intensity-strahlformungssystem zur geräuschverminderung in einem binauralen hörhilfegerät
DE102019129330A1 (de) Konferenzsystem mit einem Mikrofonarray-System und Verfahren zur Spracherfassung in einem Konferenzsystem
DE69434568T2 (de) Mikrofonsystem für telekonferenzsystem
DE60018084T2 (de) Audiosignalverarbeitung
EP2362681B1 (de) Verfahren und Vorrichtung zum phasenabhängigen Verarbeiten von Schallsignalen
EP1977626B1 (de) Verfahren zur aufnahme einer tonquelle mit zeitlich variabler richtcharakteristik und zur wiedergabe
DE102004005998B3 (de) Verfahren und Vorrichtung zur Separierung von Schallsignalen
DE69522971T2 (de) Binaurale Synthese, kopfbezogene Übertragungsfunktion, und ihre Verwendung
DE60022304T2 (de) Verfahren und Anordnung zur Ortung von Sprechern
DE102012204877B3 (de) Hörvorrichtung für eine binaurale Versorgung und Verfahren zum Bereitstellen einer binauralen Versorgung
DE10017646A1 (de) Geräuschunterdrückung im Zeitbereich
EP2226795B1 (de) Hörvorrichtung und Verfahren zum Reduzieren eines Störgeräuschs für eine Hörvorrichtung
DE102008004674A1 (de) Signalaufnahme mit variabler Richtcharakteristik
EP1489882A2 (de) Verfahren zum Betrieb eines Hörhilfegerätes, sowie Hörhilfegerät mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind
EP1471770B1 (de) Verfahren zur Erzeugung einer angenäherten Teilübertragungsfunktion
DE102018117558A1 (de) Adaptives nachfiltern
EP2373063B1 (de) Hörvorrichtung und Verfahren zum Einstellen derselben für einen rückkopplungsfreien Betrieb
EP1154674A2 (de) Schaltung und Verfahren zur adaptiven Geräuschunterdrückung
EP1016314B1 (de) Verfahren zur optimierung des empfangs akustischer signale und elektrisches gerät
EP2373065B2 (de) Hörvorrichtung und Verfahren zum Erzeugen einer omnidirektionalen Richtcharakteristik
EP2212709B1 (de) Vorrichtung und verfahren zur generierung eines stereoaudiosignals
WO2022183231A1 (de) Verfahren zur erzeugung von audiosignalfiltern für audiosignale zur erzeugung virtueller schallquellen
EP2487891B1 (de) Vermeiden eines akustischen Echos bei Vollduplexsystemen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition