DE19540795C2 - Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays - Google Patents

Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays

Info

Publication number
DE19540795C2
DE19540795C2 DE1995140795 DE19540795A DE19540795C2 DE 19540795 C2 DE19540795 C2 DE 19540795C2 DE 1995140795 DE1995140795 DE 1995140795 DE 19540795 A DE19540795 A DE 19540795A DE 19540795 C2 DE19540795 C2 DE 19540795C2
Authority
DE
Germany
Prior art keywords
array
coherence
sector
speaker
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1995140795
Other languages
English (en)
Other versions
DE19540795A1 (de
Inventor
Rainer Zelinski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Telekom AG
Original Assignee
Deutsche Telekom AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Telekom AG filed Critical Deutsche Telekom AG
Priority to DE1995140795 priority Critical patent/DE19540795C2/de
Publication of DE19540795A1 publication Critical patent/DE19540795A1/de
Application granted granted Critical
Publication of DE19540795C2 publication Critical patent/DE19540795C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H11/00Networks using active elements
    • H03H11/02Multiple-port networks
    • H03H11/36Networks for connecting several sources or loads, working on the same frequency band, to a common load or source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers

Landscapes

  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

Die Erfindung bezieht sich auf ein Verfahren zur Sprecher­ lokalisierung mit Hilfe eines Mikrofonarrays der im Ober­ begriff des Patentanspruch 1 näher definierten Art. Ein derartiges Verfahren ist z. B. von W. Kellermann: "A self­ steering digital microphone array", Int. Conf. Acoust., Speech and Signal Proc. ICASSP'91, Toronto, 1991, S. 3581-­ 3584 beschrieben.
Beim Freisprechen in geräuschbelasteter Umgebung bietet der Einsatz eines Mikrofonarrays eine wirkungsvolle Möglichkeit zur Reduktion des aufgenommenen Geräuschsignales, das dem gewünschten Sprachsignal überlagert ist. Voraussetzung für eine optimale Funktion des Mikrofonarrays ist jedoch, daß die Hauptkeule im Richtdiagramm des Arrays möglichst genau auf die Position des Sprechers ausgerichtet ist.
Zur Sprecherlokalisierung für den Einsatz von Mikrofonar­ rays sind eine Reihe von Verfahren in der Literatur be­ schrieben und zum Teil auch realisiert worden. Die meisten dieser Verfahren beruhen auf einer Kreuzkorrelationsanalyse von jeweils einem Paar von Mikrofonsignalen. Aus der zeitlichen Lage des Maximums der Kreuzkorrelation kann auf den Zeitversatz des Sprachsignals im Signalpaar geschlossen werden. Eine Fortführung der Kreuzkorrelationsanalyse für andere Signalpaare mit anschließender Auswertung ermöglicht dann einen Rückschluß auf die mutmaßliche Sprecherposition. Der erforderliche Rechenaufwand ist nicht sehr hoch, nachteilig ist jedoch die erhöhte Fehleranfälligkeit bei ungün­ stigen SNR-Werten.
Eine wesentlich robustere Schätzung der Sprecherposition ist möglich, wenn nicht einzelne Signalpaare, sondern die Kombination aller Mikrofonsignale aus dem Mikrofonarray gleichzeitig ausgewertet wird. Dazu gibt es einen Vorschlag in der Dissertation "Geräuschreduktion bei Sprach­ übertragung mit Hilfe von Mikrofonarraysystemen"/S. Gierl, Universität Karlsruhe, 1990, der dort als "Fehlerfunk­ tionsmethode" beschrieben wird. Von großem Nachteil ist jedoch der dazu erforderliche, extrem hohe Rechenaufwand, der eine Echtzeitrealisierung mit heute verfügbarer Tech­ nologie nicht gestattet.
Ein anderes Konzept zur Schätzung der Sprecherposition, das ebenfalls auf einer gleichzeitigen Auswertung aller Mikro­ fonkanäle beruht, ist bereits mit heutiger Technologie in Echtzeit realisierbar. Hierbei wird der dreidimensionale Raum, der die zulässigen Sprecherpositionen beschreibt, in endlich viele Sektoren unterteilt. Für jeden Sektor ist ein Satz von Parameterwerten zur Richtungssteuerung des Mikro­ fonarrays abgespeichert, der dem räumlichen Zentrum des jeweiligen Sektors zugeordnet ist. Zur Durchführung der Sprecherlokalisierung werden alle Sektoren abgeprüft, und das jeweilige Array-Ausgangssignal wird analysiert. Entschieden wird für denjenigen Sektor, für den sich die größte Plausibilität aufgrund eines ausgewählten Kriteriums ergibt. Hierzu gibt es verschiedene Vorschläge, z. B. die Suche nach der maximalen Signalamplitude unter Einhaltung weiterer Randbedingungen (J. L. Flanagan et al.: "Computer­ steered microphone arrays for sound transduction in large rooms". J. Acoust. Soc. Am., Vol. 78, Nov. 1985, S. 1508-­ 1518) oder gar der Einsatz von Verfahren der Mustererken­ nung (W. Kellermann: "A selfsteering digital microphone array". Int. Conf. Acoust., Speech and Signal Proc. ICASSPT'91, Toronto, 1991, S. 3581-3584). Diese Auswerte­ verfahren sind jedoch primär für Fernfeldbedingungen optimiert, also bei größerem Abstand zwischen Sprecher und Mikrofonarray. Weiterhin sind gewisse Kenntnisse über die Statistik von Sprach- und Störsignal erforderlich, um zu vermeiden, daß eine Störquelle als vermeintliches Sprach­ signal detektiert wird.
Aufgabe der Erfindung ist es, ein Verfahren zu schaffen, das eine Sprecherlokalisierung im Nahfeld, auch bei starken Störschallquellen in der Umgebung des Sprechers, mit gerin­ gem Zeit- und Rechenaufwand ermöglicht.
Die Erfindung löst diese Aufgabe mit dem im Patentanspruch 1 aufgeführten Verfahren.
Mit den in den Unteransprüchen 2 bis 5 angeführten, vorteilhaften Weiterbildungen des Verfahrens wird die Sicherheit gegenüber Fehleinstellungen und Stör­ beeinflussungen weiter erhöht.
Die Erfindung wird nachfolgend anhand von Ausführungsbei­ spielen näher erläutert. In den zugehörigen Zeichnungen zeigen die:
Fig. 1 ein vereinfachtes Gesamtblockbild,
Fig. 2 das Blockbild zur Kohärenzmaß-Bestimmung,
Fig. 3 die Details zur Grobsuche,
Fig. 4 die Details zur Feinsuche und
Fig. 5 die Details zur Nah-/Fern-Prüfung.
Im Gegensatz zu den oben beschriebenen Verfahren unter An­ nahme von Fernfeldbedingungen ist das in dieser Erfindung beschriebene Verfahren zur Sprecherlokalisierung für das Freisprechen im Nahfeld optimiert, also für Abstände zwischen Sprecher und Mikrofonarray etwa im Bereich von 0,3 . . . 0,8 m. Basis ist zunächst wieder die Unterteilung des Sprecherraumes in endlich viele Sektoren. Die Auswertung der Array-Ausgangssignale erfolgt jedoch nach einem neuen, bisher noch nicht vorgeschlagenen Verfahren.
Beim Freisprechen im Nahfeld kann ausgenutzt werden, daß der Direktschall des Sprachsignals vom gewünschten Sprecher dominiert gegenüber Sprach-Schallanteilen (und auch Stör­ schallanteilen) infolge von Reflexionen an den Raumbegren­ zungsflächen. Wird also bei der Sprecherlokalisierung ge­ rade der "richtige" Raumsektor abgeprüft, so weisen die laufzeit- bzw. phasenkorrigierten Mikrofonsignale unmit­ telbar vor Bildung des Array-Summensignals bezüglich des Sprachsignals alle die gleiche Phasenlage auf ("kohärenter Schalleinfall"). Bei der Auswertung der Arraysignale wird nun ein Kohärenzmaß bestimmt, das um so größer ist, je ge­ ringer die Phasenunterschiede der korrigierten Mikrofonsi­ gnale sind. Bei der Sprecherlokalisierung wird dann für denjenigen Sektor entschieden, bei dem sich das größte Ko­ härenzmaß einstellt.
Der wesentliche Vorteil des hier beschriebenen Verfahrens besteht darin, daß eine Kenntnis über die Statistik von Sprach- und Störsignal nicht erforderlich ist. Das Verfah­ ren arbeitet wirkungsvoll für beliebige Sprecher und auch für beliebige, störende Geräuschquellen in der Umgebung des Sprechers. Die Geräuschquellen dürfen dabei auch aus Sprachsignalen bestehen. Das gewünschte Sprachsignal bzw. die dazugehörige Sprecherposition wird allein auf Grund der Kohärenzeigenschaften im Nahfeld bestimmt.
Bei dem in der Erfindung beschriebenen Verfahren erfolgt die Analyse der Signale des Mikrofonarrays im Frequenzbe­ reich. Durch eine automatische Steuerung wird gewährlei­ stet, daß nur solche Frequenzbänder zur Bestimmung des Ko­ härenzmaßes berücksichtigt werden, die am wenigsten gestört sind, also die größten Kohärenzbeiträge beisteuern. Der Vorteil dieser Vorgehensweise besteht darin, daß eine si­ chere Sprecherlokalisierung auch noch bei sehr starken Umgebungsgeräuschen möglich ist.
Zu der vorliegenden Erfindung wird eine Schaltungsanordnung beschrieben, die eine ausreichend genaue Lokalisierung des Sprechers auch bei sehr ungünstigen Signal-zu-Rausch-Ab­ ständen (SNR) ermöglicht, ohne Kenntnisse über die Stati­ stik von Sprach- bzw. Geräuschsignal vorauszusetzen.
Im vereinfachten Gesamtblockbild (Fig. 1) der Schaltungsan­ ordnung besteht das Mikrofonarray aus K Mikrofonen 1 1 . . . 1 K. Jedes der Mikrofonsignale 2 1 . . . 2 K wird einer eigenen Ana­ lyse-Filterbank zugeführt. Die Analyse-Filterbänke 3 1 . . . 3 K führen jeweils eine Transformation des Zeitsignals in den Frequenzbereich durch und liefern K Frequenzbereichsignale 4 1 . . . 4 K. Die Analyse-Filterbank realisiert eine Frequenz­ bandzerlegung des Gesamtbandes in L Teilbänder. Dann be­ steht jedes der Signale 4 1 . . . 4 K aus L Komponenten, die den komplexen Fourier-Koeffizienten F1 . . . FL bei einer Spektral­ analyse entsprechen. Die Berechnung der Signale 4 1 . . . 4 K wird zeitperiodisch wiederholt, und die Signalwerte über N Zeitperioden werden im Datenpuffer 5 zwischengespeichert. Der Datenpuffer 5 enthält also die komplexen Frequenzbe­ reichs-Signalwerte geordnet über N Zeitpunkte, L Frequenz­ bänder und K Mikrofonkanäle.
Zur Reduktion des Gesamt-Rechenaufwandes wird die Suche nach dem zu bestimmenden Sektor, in dem der Sprecher sich am wahrscheinlichsten aufhält, zweistufig durchgeführt: Zu­ nächst wird nur die ungefähre Position ermittelt, wobei ein grobes Sektorraster mit relativ wenigen Sektoren (Anzahl SG) zugrunde gelegt wird ("Grobsuche"). Anschließend wird ein wesentlich feiner abgestuftes Sektorraster um die in der ersten Stufe ermittelte Position herumgelegt mit SF Feinsektoren ("Feinsuche").
Die Grobsuche erfolgt mittels der Schaltungsanordnung 16, in welche die komplexen Fourier-Koeffizienten 6 eingespeist werden. Im Parameterspeicher 13 befinden sich die komplexen Array-Koeffizienten AGrob, die den möglichen Sprecherposi­ tionen im Grob-Sektorraster zugeordnet sind. Für jeden der SG Grobsektoren und jedes der L Teilbänder ist ein eigener Satz von komplexen Array-Koeffizienten A1 . . . AK festgelegt, der jeweils über die Leitung 7 in die Stufe 16 eingespeist wird. Die Phasenwinkel der Array-Koeffizienten sind so be­ rechnet, daß nach Durchführung des Laufzeitausgleichs in der Stufe 16 die Signalphasen in den Kanälen 1 . . . K pro Teilband untereinander gleich sind, wenn der Sprecher sich tatsächlich in der zugrunde gelegten Sektor-Position auf­ halten würde.
Die getroffene Vorentscheidung über einen Sektor im Grob­ raster wird über den Eingang 10 der Schaltungsanordnung 17 (Feinsuche) zugeführt. Im Parameterspeicher 14 befinden sich die komplexen Array-Koeffizienten AFein, die den mög­ lichen Sprecherpositionen im Fein-Sektorraster zugeordnet sind. Jedem der SG Grobsektoren ist ein Satz von SF Fein­ sektoren zugeordnet (die Feinsektoren bilden eine Unter­ teilung des betreffenden Grobsektors), wobei zu jedem Fein­ sektor die komplexen Array-Koeffizienten für K Kanäle und L Teilbänder gespeichert sind. Aus den Array-Koeffizienten 8, die nach dem gleichen Kriterium wie bei der Grobsuche be­ rechnet wurden, und den Fourier-Koeffizienten 6 wird in der Stufe 17 der optimale Sektor im Feinraster - also die mut­ maßliche Sprecherposition - ermittelt. Die getroffene Ent­ scheidung 11 wird der Schaltungsanordnung 18 (Nah-/Fern- Prüfung) zugeführt.
In der Stufe "Nah-/Fern-Prüfung" wird überprüft, ob die geortete Schallquelle sich tatsächlich im Nahfeldbereich befindet. Dadurch kann verhindert werden, daß das Mikrofonarray auf eine energiereiche Störquelle (z. B. ein lauter Sprecher im Hintergrund) ausgerichtet wird, die jedoch - aufgrund ihres größeren Abstandes zum Mikrofon­ array - von vornherein als zulässige Sprachquelle ausge­ schlossen werden kann. Die Array-Koeffizienten AFein_Fern im Datenspeicher 15 sind für Fernfeldbedingungen berechnet. Jedem Sektor im Feinraster ist hierbei ein Sektor mit den gleichen Einfallswinkeln zum Mikrofonarray zugeordnet, je­ doch mit dem Abstand zwischen Schallquelle und Mikrofonar­ ray gegen Unendlich. Die Fourier-Koeffizienten 6 und die Array-Koeffizienten 9 werden der Stufe 18 zugeführt. Hier wird überprüft, ob für den aus der Stufe 17 bestimmten Feinraster-Sektor eine Nahfeld- oder Fernfeld-Situation vorliegt. Ist eine Fernfeld-Situation wahrscheinlicher, so wird die aus der Feinsuche getroffene Entscheidung 11 nicht akzeptiert. Ist jedoch die Nahfeld-Situation wahrscheinli­ cher, so wird als Ergebnis 12 der Sprecherortung der Index des entschiedenen Sektors im Feinrastermaß ausgegeben.
Die Sektorentscheidung in den Stufen 16, 17 und 18 beruht jeweils auf der Bestimmung eines Kohärenzmaßes. Entschieden wird für denjenigen Sektor, für den das Kohärenzmaß am größten ist.
Die in Fig. 2 dargestellte Schaltungsanordnung zur Kohärenz­ maß-Bestimmung (Stufe KOMB) führt eine Auswertung pro Teil­ band und pro Sektor durch und kommt in den Stufen 16, 17 und 18 zur Anwendung.
Die komplexen Fourier-Koeffizienten 26 (F1 . . . FK) gelangen über einen Datenpuffer 21 und einen Schalter 23 zur Be­ tragsbildung in die Stufe 29 mit anschließender Summation über K Kanäle 31 und darauffolgender Quadrierung 33. Das Ergebnis 34 wird in einem Datenspeicher 35 zwischen­ gespeichert und kann bei Bedarf als Signalwert 36 ausge­ geben und über den Schalter 37 weiterverarbeitet werden.
Diese Vorgehensweise erspart Rechenaufwand, da die Fourier- Koeffizienten 26 zwar vom Teilband, nicht aber vom Sektor abhängen, also nur einmal mit Gültigkeit für alle Sektoren ausgewertet werden.
Die komplexen Array-Koeffizienten 27 (A1 . . . AK) gelangen über einen Datenpuffer 22 und einen Schalter 24 als Signal 40 in die Multiplizierstufe 41, in der pro Kanal eine Mul­ tiplikation mit den entsprechenden Fourier-Koeffizienten 28 erfolgt. Das Ergebnis 42 wird in der Stufe 43 über alle Ka­ näle summiert und von dem Ausgangssignal 44 wird in 45 das Betragsquadrat gebildet. Das Ergebnis 46 wird zusammen mit dem Signal 38 aus der Verarbeitung der Fourier-Koeffizien­ ten der Divisionsstufe 39 zugeführt. Das Ergebnis 47 ist der Kohärenzwert:
der einen Wert zwischen 0 und 1 annimmt, sofern die Array- Koeffizienten A1 . . . AK auf den Betrag Eins normiert sind. Je geringer der Abstand zwischen dem geprüften Sektor und der tatsächlichen Sprecherposition ist, um so größer wird der Kohärenzwert KOW. In der Stufe 48 erfolgt eine zeitli­ che Mitteilung von KOW durch Summation über N aufeinander­ folgende Zeitpunkte. Der gemittelte Wert 49 wird anschlie­ ßend mit dem vom Teilband abhängigen Gewichtsfaktor 50 ge­ wichtet. Diese Gewichtung ermöglicht es, weniger zuverläs­ sige Kohärenzwerte abzuschwächen, z. B. solche für tiefe Frequenzen, bei denen der Abstand zwischen zwei Mikrofonen erheblich kleiner als die Wellenlänge ist. Als Ergebnis wird das Signal 51 ausgegeben, das als Kohärenzmaß KOM be­ zeichnet wird und das pro Teilband und pro Sektor ermittelt wird.
Fig. 3 zeigt die Details zur Grobsuche in der Stufe 16. Aus den Fourier-Koeffizienten 6 und den Array-Koeffizienten 7 wird in der Stufe 60 (KOMB nach Fig. 2) das Kohärenzmaß KOM berechnet und als Signal 62 ausgegeben. Das Maß KOM wird für alle L Teilbänder jeweils pro zu prüfenden Sektor aus­ gegeben; die Reihenfolge zur Bearbeitung der Koeffizienten wird in der Stufe 61 über die Leitungen 63 1 und 63 2 und die Schalter 64 und 71 gesteuert. In der Stufe 66 werden die M größten Werte von KOM aus den Kohärenzmaßen 65 1 . . . 65 L für den zu prüfenden Sektor bestimmt. Die Indices 67 der dazu­ gehörigen M Teilbänder werden im Datenspeicher 670 zwi­ schengespeichert.
In der Stufe 69 werden die ermittelten M größten Werte von KOM, 68 1 . . .68 M summiert, und der Summenwert 70 wird über den Schalter 71 der Stufe 73 zugeführt. Die so beschriebene Signalauswertung wird entsprechend für alle SG Grobsektoren ausgeführt, so daß an der Stufe 73 die Eingangssignale 72 1 . . . 72 SG anliegen. In 73 wird der größte aus den SG Wer­ ten bestimmt und als Signal 77 der Vergleichsschaltung 79 zugeführt. Der dazugehörige Index des Grobsektors 74 ge­ langt zum Schalter 75 und zum Datenspeicher 670. Ist das Kohärenzmaß KOMG auf Leitung 77 größer als ein vorzuge­ bender Schwellwert 78, so wird das Ergebnis der Sektorsuche im Grobraster akzeptiert und mit dem Schalter 75 als Signal 76 (Index des entschiedenen Grobsektors) ausgegeben. Gleichzeitig werden aus dem Datenspeicher 670 diejenigen Indices der M Teilbänder ausgelesen und als Signal 671 ausgegeben, die dem entschiedenen Grobsektor 76 über die Verbindung 67 zugeordnet wurden.
Fig. 4 zeigt die Details zur Feinsuche in der Stufe 17. Aus den Fourier-Koeffizienten 6 und den Array-Koeffizienten 8 wird in der Stufe 80 (KOMB nach Fig. 2) das Kohärenzmaß KOM berechnet und als Signal 82 ausgegeben. Das Maß KOM wird nur für die durch 671 festgelegten M Teilbänder berechnet.
Diese Berechnung erfolgt für alle zu prüfenden Feinsekto­ ren.
Durch Einspeisen von 671 und 76 in die Stufe 81 wird die Auswahl der dazugehörigen Teilmenge der Daten gesteuert. Die Reihenfolge zur Bearbeitung der Koeffizienten wird über die Ausgangssignale 83 1 und 83 2 und die Schalter 84 und 88 gesteuert. Die Summation der M Kohärenzmaße 85 1 . . . 85 M in der Stufe 86 führt auf den Summenwert 87, der über den Schalter 88 der Stufe 90 zugeführt wird. Diese Signalaus­ wertung wird entsprechend für alle SF Feinsektoren ausge­ führt, so daß an der Stufe 90 die Eingangssignale 89 1 . . . 89 SF anliegen. In 90 wird der größte aus den SF Werten bestimmt und als Kohärenzmaß 92 (KOMF) ausgegeben. Der dazugehö­ rige Index dieses Feinsektors erscheint als Signal 91 am Ausgang der Stufe zur Feinsuche.
Fig. 5 zeigt die Details zur Nah-/Fern-Prüfung in der Stufe 18. Aus den Fourier-Koeffizienten 6 und den Array-Koeffi­ zienten 9 wird in der Stufe 100 (KOMB nach Fig. 2) das Ko­ härenzmaß KOM berechnet und als Signal 102 ausgegeben. Das Maß KOM wird nur für die durch 671 festgelegten M Teilbän­ der berechnet; diese Berechnung erfolgt nur für den Sektor, der durch den Index 91 festgelegt ist. Durch Einspeisen von 671 und 91 in die Stufe 101 wird die Auswahl der dazugehörigen Teilmenge der Daten gesteuert und der über 103 kontrollierte Schalter 104 betätigt. Die Summation der M Kohärenzmaße 105 1 . . . 105 M und der Stufe 106 führt auf den Summenwert 107, der das Kohärenzmaß KOMFF für das Feinra­ ster-Fernfeld repräsentiert. Die Signale 107 und 92 (letz­ terer repräsentiert das Kohärenzmaß KOMF für das Feinra­ ster-Nahfeld) werden in die Vergleichsschaltung 108 einge­ speist. Ist KOMF größer als KOMFF, so wird die Feinsek­ tor-Entscheidung akzeptiert und über den Schalter 110 als Ergebnis 12 (Index des entschiedenen Feinsektors) ange­ geben.

Claims (5)

1. Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays, bei dem alle Mikrofonsignale des Arrays gleichzeitig ausgewertet werden und der Sprecherraum in endlich viele Sektoren aufgeteilt und der zutreffende Sektor nach Kriterien der Plausibilität ausgewählt wird, dadurch gekennzeichnet, daß die laufzeit- bzw. phasenkorrigierten, einzelnen Mikrofonsignale vor der Bildung des Array-Summensignals miteinander auf Kohärenz der Phasenlage geprüft werden und danach der Sektor mit maximaler Kohärenz ausgewählt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß während der Prüfung auf Kohärenz der Phasenlage vari­ ierende Frequenzbandbeschneidungen vorgenommen werden, wobei die Frequenzbandbeschneidung ebenfalls nach dem Kriterium der maximalen Kohärenz durchgeführt wird.
3. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, daß die Prüfung auf Kohärenz der Phasenlage in eine Grobsuche mit geringer Unterteilung in wenige Sektoren und eine anschließende Feinsuche mit stärkerer Unter­ teilung der bei der Grobsuche ermittelten Sektoren mit zulässigen Sprecherpositionen im Nahbereich des Arrays aufgeteilt wird.
4. Verfahren nach Anspruch 1 bis 3, dadurch gekennzeichnet, daß für die Prüfung der Zulässigkeit des Sektors der Sprecherposition ein zusätzlicher Kohärenzvergleich mit einer Schallquellenposition durchgeführt wird, die den gleichen Raumwinkel zum Mikrofonarray gemäß dem Ergeb­ nis der Grob- und Feinsuche aufweist, jedoch dem Fern­ bereich des Arrays zugehört.
5. Verfahren nach Anspruch 1 bis 4, dadurch gekennzeichnet, daß während der Prüfung auf Kohärenz der Phasenlage eine Vielzahl von Daten komplexer Frequenzbereichs-Si­ gnalwerte gebildet, gespeichert und mit ebenfalls ge­ speicherten, komplexen Koeffizienten zur Phasenkorrektur bewertet werden, die der jeweiligen zu prüfenden Spre­ cherposition zugeordnet sind.
DE1995140795 1995-11-02 1995-11-02 Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays Expired - Lifetime DE19540795C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1995140795 DE19540795C2 (de) 1995-11-02 1995-11-02 Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1995140795 DE19540795C2 (de) 1995-11-02 1995-11-02 Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays

Publications (2)

Publication Number Publication Date
DE19540795A1 DE19540795A1 (de) 1997-05-07
DE19540795C2 true DE19540795C2 (de) 2003-11-20

Family

ID=7776416

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1995140795 Expired - Lifetime DE19540795C2 (de) 1995-11-02 1995-11-02 Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays

Country Status (1)

Country Link
DE (1) DE19540795C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10320274A1 (de) * 2003-05-07 2004-12-09 Sennheiser Electronic Gmbh & Co. Kg System zur ortssensitiven Wiedergabe von Audiosignalen

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19741596A1 (de) 1997-09-20 1999-03-25 Bosch Gmbh Robert Verfahren zur Optimierung des Empfangs akustischer Signale und elektrisches Gerät
US6192134B1 (en) * 1997-11-20 2001-02-20 Conexant Systems, Inc. System and method for a monolithic directional microphone array
DE19818611C1 (de) * 1998-04-20 1999-09-16 Deutsche Telekom Ag Verfahren und Vorrichtung zur Frequenzbereichsentzerrung für Mikrofon-Arrays
US7274794B1 (en) 2001-08-10 2007-09-25 Sonic Innovations, Inc. Sound processing system including forward filter that exhibits arbitrary directivity and gradient response in single wave sound environment
EP1415506A2 (de) * 2001-08-10 2004-05-06 Rasmussen Digital APS Klangprozessorsystem welche eine willkürliche gradient respons aufweist
EP1878013B1 (de) * 2005-05-05 2010-12-15 Sony Computer Entertainment Inc. Videospielsteuerung mittels Joystick

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2097121A (en) * 1981-04-21 1982-10-27 Ferranti Ltd Directional acoustic receiving array
GB2115150A (en) * 1982-02-11 1983-09-01 Plessey Co Plc Sound source location system
JPH01264487A (ja) * 1988-04-15 1989-10-20 Mitsubishi Electric Corp テレビ会議用カメラ回転台制御装置
JPH06261388A (ja) * 1993-03-05 1994-09-16 Matsushita Electric Ind Co Ltd マイクロフォン装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2097121A (en) * 1981-04-21 1982-10-27 Ferranti Ltd Directional acoustic receiving array
GB2115150A (en) * 1982-02-11 1983-09-01 Plessey Co Plc Sound source location system
JPH01264487A (ja) * 1988-04-15 1989-10-20 Mitsubishi Electric Corp テレビ会議用カメラ回転台制御装置
JPH06261388A (ja) * 1993-03-05 1994-09-16 Matsushita Electric Ind Co Ltd マイクロフォン装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Flanagam, I.L. et al.:"Computer-steered microphone arrays for sound transduction in large rooms". In: J. Aconst. Soc. Ann. Vol.78, Nov. 1985, S.1508-1518 *
Kellermann,W."A Self-Steering Digital Microphone Array" In: Int. Comf. Aconst., Speed and Signal Proc. ICASSP '91, Toronto, 1991, S.3581-3584 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10320274A1 (de) * 2003-05-07 2004-12-09 Sennheiser Electronic Gmbh & Co. Kg System zur ortssensitiven Wiedergabe von Audiosignalen

Also Published As

Publication number Publication date
DE19540795A1 (de) 1997-05-07

Similar Documents

Publication Publication Date Title
DE69409121T2 (de) Störreduktionssystem für ein binaurales hörgerät
DE60027438T2 (de) Verbesserung eines verrauschten akustischen signals
DE2719973C2 (de)
DE102004005998B3 (de) Verfahren und Vorrichtung zur Separierung von Schallsignalen
DE69827911T2 (de) Verfahren und einrichtung zur mehrkanaligen kompensation eines akustischen echos
EP1143416B1 (de) Geräuschunterdrückung im Zeitbereich
DE69735396T2 (de) Akustischer Teilband-Echokompensator
DE69606978T2 (de) Verfahren zur rauschunterdrückung mittels spektraler subtraktion
EP1251493B1 (de) Verfahren zur Geräuschreduktion mit selbststeuernder Störfrequenz
DE69131739T2 (de) Einrichtung zur Sprachsignalverarbeitung für die Bestimmung eines Sprachsignals in einem verrauschten Sprachsignal
DE69932626T2 (de) Signalverarbeitungsvorrichtung und verfahren
DE112017007800T5 (de) Störgeräuscheliminierungseinrichtung und Störgeräuscheliminierungsverfahren
EP2158588B1 (de) Spektralglättungsverfahren von verrauschten signalen
EP2362681B1 (de) Verfahren und Vorrichtung zum phasenabhängigen Verarbeiten von Schallsignalen
EP0747880B1 (de) Spracherkennungssystem
DE112009000805T5 (de) Rauschreduktion
DE19814971A1 (de) Verfahren zur Störbefreiung eines Mikrophonsignals
DE102014002899A1 (de) Verfahren, Vorrichtung und Herstellung zur Zwei-Mikrofon-Array-Sprachverbesserung für eine Kraftfahrzeugumgebung
DE112011105267T5 (de) Zielton-Verstärkungsvorrichtung und Fahrzeug-Navigationssystem
EP3197181B1 (de) Verfahren zur reduktion der latenzzeit einer filterbank zur filterung eines audiosignals sowie verfahren zum latenzarmen betrieb eines hörsystems
DE10392425T5 (de) Audiorückkoppelungsverarbeitungssystem
DE68926930T2 (de) Geräuschunterdrückungsverfahren
DE19540795C2 (de) Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays
WO2003037032A1 (de) Verfahren und vorrichtung zur störbefreiung eines redundanten akustischen signals
DE3230391C2 (de)

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G01S 5/20

8304 Grant after examination procedure
8364 No opposition during term of opposition
R071 Expiry of right