DE19540795C2 - Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays - Google Patents
Verfahren zur Sprecherlokalisierung mit Hilfe eines MikrofonarraysInfo
- Publication number
- DE19540795C2 DE19540795C2 DE1995140795 DE19540795A DE19540795C2 DE 19540795 C2 DE19540795 C2 DE 19540795C2 DE 1995140795 DE1995140795 DE 1995140795 DE 19540795 A DE19540795 A DE 19540795A DE 19540795 C2 DE19540795 C2 DE 19540795C2
- Authority
- DE
- Germany
- Prior art keywords
- array
- coherence
- sector
- speaker
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03H—IMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
- H03H11/00—Networks using active elements
- H03H11/02—Multiple-port networks
- H03H11/36—Networks for connecting several sources or loads, working on the same frequency band, to a common load or source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/403—Linear arrays of transducers
Landscapes
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
Die Erfindung bezieht sich auf ein Verfahren zur Sprecher
lokalisierung mit Hilfe eines Mikrofonarrays der im Ober
begriff des Patentanspruch 1 näher definierten Art. Ein
derartiges Verfahren ist z. B. von W. Kellermann: "A self
steering digital microphone array", Int. Conf. Acoust.,
Speech and Signal Proc. ICASSP'91, Toronto, 1991, S. 3581-
3584 beschrieben.
Beim Freisprechen in geräuschbelasteter Umgebung bietet der
Einsatz eines Mikrofonarrays eine wirkungsvolle Möglichkeit
zur Reduktion des aufgenommenen Geräuschsignales, das dem
gewünschten Sprachsignal überlagert ist. Voraussetzung für
eine optimale Funktion des Mikrofonarrays ist jedoch, daß
die Hauptkeule im Richtdiagramm des Arrays möglichst genau
auf die Position des Sprechers ausgerichtet ist.
Zur Sprecherlokalisierung für den Einsatz von Mikrofonar
rays sind eine Reihe von Verfahren in der Literatur be
schrieben und zum Teil auch realisiert worden. Die meisten
dieser Verfahren beruhen auf einer Kreuzkorrelationsanalyse
von jeweils einem Paar von Mikrofonsignalen. Aus der
zeitlichen Lage des Maximums der Kreuzkorrelation kann auf
den Zeitversatz des Sprachsignals im Signalpaar geschlossen
werden. Eine Fortführung der Kreuzkorrelationsanalyse für
andere Signalpaare mit anschließender Auswertung ermöglicht
dann einen Rückschluß auf die mutmaßliche Sprecherposition.
Der erforderliche Rechenaufwand ist nicht sehr hoch, nachteilig
ist jedoch die erhöhte Fehleranfälligkeit bei ungün
stigen SNR-Werten.
Eine wesentlich robustere Schätzung der Sprecherposition
ist möglich, wenn nicht einzelne Signalpaare, sondern die
Kombination aller Mikrofonsignale aus dem Mikrofonarray
gleichzeitig ausgewertet wird. Dazu gibt es einen Vorschlag
in der Dissertation "Geräuschreduktion bei Sprach
übertragung mit Hilfe von Mikrofonarraysystemen"/S. Gierl,
Universität Karlsruhe, 1990, der dort als "Fehlerfunk
tionsmethode" beschrieben wird. Von großem Nachteil ist
jedoch der dazu erforderliche, extrem hohe Rechenaufwand,
der eine Echtzeitrealisierung mit heute verfügbarer Tech
nologie nicht gestattet.
Ein anderes Konzept zur Schätzung der Sprecherposition, das
ebenfalls auf einer gleichzeitigen Auswertung aller Mikro
fonkanäle beruht, ist bereits mit heutiger Technologie in
Echtzeit realisierbar. Hierbei wird der dreidimensionale
Raum, der die zulässigen Sprecherpositionen beschreibt, in
endlich viele Sektoren unterteilt. Für jeden Sektor ist ein
Satz von Parameterwerten zur Richtungssteuerung des Mikro
fonarrays abgespeichert, der dem räumlichen Zentrum des
jeweiligen Sektors zugeordnet ist. Zur Durchführung der
Sprecherlokalisierung werden alle Sektoren abgeprüft, und
das jeweilige Array-Ausgangssignal wird analysiert.
Entschieden wird für denjenigen Sektor, für den sich die
größte Plausibilität aufgrund eines ausgewählten Kriteriums
ergibt. Hierzu gibt es verschiedene Vorschläge, z. B. die
Suche nach der maximalen Signalamplitude unter Einhaltung
weiterer Randbedingungen (J. L. Flanagan et al.: "Computer
steered microphone arrays for sound transduction in large
rooms". J. Acoust. Soc. Am., Vol. 78, Nov. 1985, S. 1508-
1518) oder gar der Einsatz von Verfahren der Mustererken
nung (W. Kellermann: "A selfsteering digital microphone
array". Int. Conf. Acoust., Speech and Signal Proc.
ICASSPT'91, Toronto, 1991, S. 3581-3584). Diese Auswerte
verfahren sind jedoch primär für Fernfeldbedingungen
optimiert, also bei größerem Abstand zwischen Sprecher und
Mikrofonarray. Weiterhin sind gewisse Kenntnisse über die
Statistik von Sprach- und Störsignal erforderlich, um zu
vermeiden, daß eine Störquelle als vermeintliches Sprach
signal detektiert wird.
Aufgabe der Erfindung ist es, ein Verfahren zu schaffen,
das eine Sprecherlokalisierung im Nahfeld, auch bei starken
Störschallquellen in der Umgebung des Sprechers, mit gerin
gem Zeit- und Rechenaufwand ermöglicht.
Die Erfindung löst diese Aufgabe mit dem im
Patentanspruch 1 aufgeführten Verfahren.
Mit den in den Unteransprüchen 2 bis 5
angeführten, vorteilhaften Weiterbildungen des Verfahrens
wird die Sicherheit gegenüber Fehleinstellungen und Stör
beeinflussungen weiter erhöht.
Die Erfindung wird nachfolgend anhand von Ausführungsbei
spielen näher erläutert. In den zugehörigen Zeichnungen
zeigen die:
Fig. 1 ein vereinfachtes Gesamtblockbild,
Fig. 2 das Blockbild zur Kohärenzmaß-Bestimmung,
Fig. 3 die Details zur Grobsuche,
Fig. 4 die Details zur Feinsuche und
Fig. 5 die Details zur Nah-/Fern-Prüfung.
Im Gegensatz zu den oben beschriebenen Verfahren unter An
nahme von Fernfeldbedingungen ist das in dieser Erfindung
beschriebene Verfahren zur Sprecherlokalisierung für das
Freisprechen im Nahfeld optimiert, also für Abstände
zwischen Sprecher und Mikrofonarray etwa im Bereich von
0,3 . . . 0,8 m. Basis ist zunächst wieder die Unterteilung des
Sprecherraumes in endlich viele Sektoren. Die Auswertung
der Array-Ausgangssignale erfolgt jedoch nach einem neuen,
bisher noch nicht vorgeschlagenen Verfahren.
Beim Freisprechen im Nahfeld kann ausgenutzt werden, daß
der Direktschall des Sprachsignals vom gewünschten Sprecher
dominiert gegenüber Sprach-Schallanteilen (und auch Stör
schallanteilen) infolge von Reflexionen an den Raumbegren
zungsflächen. Wird also bei der Sprecherlokalisierung ge
rade der "richtige" Raumsektor abgeprüft, so weisen die
laufzeit- bzw. phasenkorrigierten Mikrofonsignale unmit
telbar vor Bildung des Array-Summensignals bezüglich des
Sprachsignals alle die gleiche Phasenlage auf ("kohärenter
Schalleinfall"). Bei der Auswertung der Arraysignale wird
nun ein Kohärenzmaß bestimmt, das um so größer ist, je ge
ringer die Phasenunterschiede der korrigierten Mikrofonsi
gnale sind. Bei der Sprecherlokalisierung wird dann für
denjenigen Sektor entschieden, bei dem sich das größte Ko
härenzmaß einstellt.
Der wesentliche Vorteil des hier beschriebenen Verfahrens
besteht darin, daß eine Kenntnis über die Statistik von
Sprach- und Störsignal nicht erforderlich ist. Das Verfah
ren arbeitet wirkungsvoll für beliebige Sprecher und auch
für beliebige, störende Geräuschquellen in der Umgebung des
Sprechers. Die Geräuschquellen dürfen dabei auch aus
Sprachsignalen bestehen. Das gewünschte Sprachsignal bzw.
die dazugehörige Sprecherposition wird allein auf Grund der
Kohärenzeigenschaften im Nahfeld bestimmt.
Bei dem in der Erfindung beschriebenen Verfahren erfolgt
die Analyse der Signale des Mikrofonarrays im Frequenzbe
reich. Durch eine automatische Steuerung wird gewährlei
stet, daß nur solche Frequenzbänder zur Bestimmung des Ko
härenzmaßes berücksichtigt werden, die am wenigsten gestört
sind, also die größten Kohärenzbeiträge beisteuern. Der
Vorteil dieser Vorgehensweise besteht darin, daß eine si
chere Sprecherlokalisierung auch noch bei sehr starken
Umgebungsgeräuschen möglich ist.
Zu der vorliegenden Erfindung wird eine Schaltungsanordnung
beschrieben, die eine ausreichend genaue Lokalisierung des
Sprechers auch bei sehr ungünstigen Signal-zu-Rausch-Ab
ständen (SNR) ermöglicht, ohne Kenntnisse über die Stati
stik von Sprach- bzw. Geräuschsignal vorauszusetzen.
Im vereinfachten Gesamtblockbild (Fig. 1) der Schaltungsan
ordnung besteht das Mikrofonarray aus K Mikrofonen 1 1 . . . 1 K.
Jedes der Mikrofonsignale 2 1 . . . 2 K wird einer eigenen Ana
lyse-Filterbank zugeführt. Die Analyse-Filterbänke 3 1 . . . 3 K
führen jeweils eine Transformation des Zeitsignals in den
Frequenzbereich durch und liefern K Frequenzbereichsignale
4 1 . . . 4 K. Die Analyse-Filterbank realisiert eine Frequenz
bandzerlegung des Gesamtbandes in L Teilbänder. Dann be
steht jedes der Signale 4 1 . . . 4 K aus L Komponenten, die den
komplexen Fourier-Koeffizienten F1 . . . FL bei einer Spektral
analyse entsprechen. Die Berechnung der Signale 4 1 . . . 4 K
wird zeitperiodisch wiederholt, und die Signalwerte über N
Zeitperioden werden im Datenpuffer 5 zwischengespeichert.
Der Datenpuffer 5 enthält also die komplexen Frequenzbe
reichs-Signalwerte geordnet über N Zeitpunkte, L Frequenz
bänder und K Mikrofonkanäle.
Zur Reduktion des Gesamt-Rechenaufwandes wird die Suche
nach dem zu bestimmenden Sektor, in dem der Sprecher sich
am wahrscheinlichsten aufhält, zweistufig durchgeführt: Zu
nächst wird nur die ungefähre Position ermittelt, wobei ein
grobes Sektorraster mit relativ wenigen Sektoren (Anzahl
SG) zugrunde gelegt wird ("Grobsuche"). Anschließend wird
ein wesentlich feiner abgestuftes Sektorraster um die in
der ersten Stufe ermittelte Position herumgelegt mit SF
Feinsektoren ("Feinsuche").
Die Grobsuche erfolgt mittels der Schaltungsanordnung 16,
in welche die komplexen Fourier-Koeffizienten 6 eingespeist
werden. Im Parameterspeicher 13 befinden sich die komplexen
Array-Koeffizienten AGrob, die den möglichen Sprecherposi
tionen im Grob-Sektorraster zugeordnet sind. Für jeden der
SG Grobsektoren und jedes der L Teilbänder ist ein eigener
Satz von komplexen Array-Koeffizienten A1 . . . AK festgelegt,
der jeweils über die Leitung 7 in die Stufe 16 eingespeist
wird. Die Phasenwinkel der Array-Koeffizienten sind so be
rechnet, daß nach Durchführung des Laufzeitausgleichs in
der Stufe 16 die Signalphasen in den Kanälen 1 . . . K pro
Teilband untereinander gleich sind, wenn der Sprecher sich
tatsächlich in der zugrunde gelegten Sektor-Position auf
halten würde.
Die getroffene Vorentscheidung über einen Sektor im Grob
raster wird über den Eingang 10 der Schaltungsanordnung 17
(Feinsuche) zugeführt. Im Parameterspeicher 14 befinden
sich die komplexen Array-Koeffizienten AFein, die den mög
lichen Sprecherpositionen im Fein-Sektorraster zugeordnet
sind. Jedem der SG Grobsektoren ist ein Satz von SF Fein
sektoren zugeordnet (die Feinsektoren bilden eine Unter
teilung des betreffenden Grobsektors), wobei zu jedem Fein
sektor die komplexen Array-Koeffizienten für K Kanäle und L
Teilbänder gespeichert sind. Aus den Array-Koeffizienten 8,
die nach dem gleichen Kriterium wie bei der Grobsuche be
rechnet wurden, und den Fourier-Koeffizienten 6 wird in der
Stufe 17 der optimale Sektor im Feinraster - also die mut
maßliche Sprecherposition - ermittelt. Die getroffene Ent
scheidung 11 wird der Schaltungsanordnung 18 (Nah-/Fern-
Prüfung) zugeführt.
In der Stufe "Nah-/Fern-Prüfung" wird überprüft, ob die
geortete Schallquelle sich tatsächlich im Nahfeldbereich
befindet. Dadurch kann verhindert werden, daß das Mikrofonarray
auf eine energiereiche Störquelle (z. B. ein
lauter Sprecher im Hintergrund) ausgerichtet wird, die
jedoch - aufgrund ihres größeren Abstandes zum Mikrofon
array - von vornherein als zulässige Sprachquelle ausge
schlossen werden kann. Die Array-Koeffizienten AFein_Fern
im Datenspeicher 15 sind für Fernfeldbedingungen berechnet.
Jedem Sektor im Feinraster ist hierbei ein Sektor mit den
gleichen Einfallswinkeln zum Mikrofonarray zugeordnet, je
doch mit dem Abstand zwischen Schallquelle und Mikrofonar
ray gegen Unendlich. Die Fourier-Koeffizienten 6 und die
Array-Koeffizienten 9 werden der Stufe 18 zugeführt. Hier
wird überprüft, ob für den aus der Stufe 17 bestimmten
Feinraster-Sektor eine Nahfeld- oder Fernfeld-Situation
vorliegt. Ist eine Fernfeld-Situation wahrscheinlicher, so
wird die aus der Feinsuche getroffene Entscheidung 11 nicht
akzeptiert. Ist jedoch die Nahfeld-Situation wahrscheinli
cher, so wird als Ergebnis 12 der Sprecherortung der Index
des entschiedenen Sektors im Feinrastermaß ausgegeben.
Die Sektorentscheidung in den Stufen 16, 17 und 18 beruht
jeweils auf der Bestimmung eines Kohärenzmaßes. Entschieden
wird für denjenigen Sektor, für den das Kohärenzmaß am
größten ist.
Die in Fig. 2 dargestellte Schaltungsanordnung zur Kohärenz
maß-Bestimmung (Stufe KOMB) führt eine Auswertung pro Teil
band und pro Sektor durch und kommt in den Stufen 16, 17
und 18 zur Anwendung.
Die komplexen Fourier-Koeffizienten 26 (F1 . . . FK) gelangen
über einen Datenpuffer 21 und einen Schalter 23 zur Be
tragsbildung in die Stufe 29 mit anschließender Summation
über K Kanäle 31 und darauffolgender Quadrierung 33.
Das Ergebnis 34 wird in einem Datenspeicher 35 zwischen
gespeichert und kann bei Bedarf als Signalwert 36 ausge
geben und über den Schalter 37 weiterverarbeitet werden.
Diese Vorgehensweise erspart Rechenaufwand, da die Fourier-
Koeffizienten 26 zwar vom Teilband, nicht aber vom Sektor
abhängen, also nur einmal mit Gültigkeit für alle Sektoren
ausgewertet werden.
Die komplexen Array-Koeffizienten 27 (A1 . . . AK) gelangen
über einen Datenpuffer 22 und einen Schalter 24 als Signal
40 in die Multiplizierstufe 41, in der pro Kanal eine Mul
tiplikation mit den entsprechenden Fourier-Koeffizienten 28
erfolgt. Das Ergebnis 42 wird in der Stufe 43 über alle Ka
näle summiert und von dem Ausgangssignal 44 wird in 45 das
Betragsquadrat gebildet. Das Ergebnis 46 wird zusammen mit
dem Signal 38 aus der Verarbeitung der Fourier-Koeffizien
ten der Divisionsstufe 39 zugeführt. Das Ergebnis 47 ist
der Kohärenzwert:
der einen Wert zwischen 0 und 1 annimmt, sofern die Array-
Koeffizienten A1 . . . AK auf den Betrag Eins normiert sind.
Je geringer der Abstand zwischen dem geprüften Sektor und
der tatsächlichen Sprecherposition ist, um so größer wird
der Kohärenzwert KOW. In der Stufe 48 erfolgt eine zeitli
che Mitteilung von KOW durch Summation über N aufeinander
folgende Zeitpunkte. Der gemittelte Wert 49 wird anschlie
ßend mit dem vom Teilband abhängigen Gewichtsfaktor 50 ge
wichtet. Diese Gewichtung ermöglicht es, weniger zuverläs
sige Kohärenzwerte abzuschwächen, z. B. solche für tiefe
Frequenzen, bei denen der Abstand zwischen zwei Mikrofonen
erheblich kleiner als die Wellenlänge ist. Als Ergebnis
wird das Signal 51 ausgegeben, das als Kohärenzmaß KOM be
zeichnet wird und das pro Teilband und pro Sektor ermittelt
wird.
Fig. 3 zeigt die Details zur Grobsuche in der Stufe 16. Aus
den Fourier-Koeffizienten 6 und den Array-Koeffizienten 7
wird in der Stufe 60 (KOMB nach Fig. 2) das Kohärenzmaß KOM
berechnet und als Signal 62 ausgegeben. Das Maß KOM wird
für alle L Teilbänder jeweils pro zu prüfenden Sektor aus
gegeben; die Reihenfolge zur Bearbeitung der Koeffizienten
wird in der Stufe 61 über die Leitungen 63 1 und 63 2 und die
Schalter 64 und 71 gesteuert. In der Stufe 66 werden die M
größten Werte von KOM aus den Kohärenzmaßen 65 1 . . . 65 L für
den zu prüfenden Sektor bestimmt. Die Indices 67 der dazu
gehörigen M Teilbänder werden im Datenspeicher 670 zwi
schengespeichert.
In der Stufe 69 werden die ermittelten M größten Werte von
KOM, 68 1 . . .68 M summiert, und der Summenwert 70 wird über
den Schalter 71 der Stufe 73 zugeführt. Die so beschriebene
Signalauswertung wird entsprechend für alle SG Grobsektoren
ausgeführt, so daß an der Stufe 73 die Eingangssignale
72 1 . . . 72 SG anliegen. In 73 wird der größte aus den SG Wer
ten bestimmt und als Signal 77 der Vergleichsschaltung 79
zugeführt. Der dazugehörige Index des Grobsektors 74 ge
langt zum Schalter 75 und zum Datenspeicher 670. Ist das
Kohärenzmaß KOMG auf Leitung 77 größer als ein vorzuge
bender Schwellwert 78, so wird das Ergebnis der Sektorsuche
im Grobraster akzeptiert und mit dem Schalter 75 als Signal
76 (Index des entschiedenen Grobsektors) ausgegeben.
Gleichzeitig werden aus dem Datenspeicher 670 diejenigen
Indices der M Teilbänder ausgelesen und als Signal 671
ausgegeben, die dem entschiedenen Grobsektor 76 über die
Verbindung 67 zugeordnet wurden.
Fig. 4 zeigt die Details zur Feinsuche in der Stufe 17. Aus
den Fourier-Koeffizienten 6 und den Array-Koeffizienten 8
wird in der Stufe 80 (KOMB nach Fig. 2) das Kohärenzmaß KOM
berechnet und als Signal 82 ausgegeben. Das Maß KOM wird
nur für die durch 671 festgelegten M Teilbänder berechnet.
Diese Berechnung erfolgt für alle zu prüfenden Feinsekto
ren.
Durch Einspeisen von 671 und 76 in die Stufe 81 wird die
Auswahl der dazugehörigen Teilmenge der Daten gesteuert.
Die Reihenfolge zur Bearbeitung der Koeffizienten wird über
die Ausgangssignale 83 1 und 83 2 und die Schalter 84 und 88
gesteuert. Die Summation der M Kohärenzmaße 85 1 . . . 85 M in
der Stufe 86 führt auf den Summenwert 87, der über den
Schalter 88 der Stufe 90 zugeführt wird. Diese Signalaus
wertung wird entsprechend für alle SF Feinsektoren ausge
führt, so daß an der Stufe 90 die Eingangssignale 89 1 . . . 89 SF
anliegen. In 90 wird der größte aus den SF Werten bestimmt
und als Kohärenzmaß 92 (KOMF) ausgegeben. Der dazugehö
rige Index dieses Feinsektors erscheint als Signal 91 am
Ausgang der Stufe zur Feinsuche.
Fig. 5 zeigt die Details zur Nah-/Fern-Prüfung in der Stufe
18. Aus den Fourier-Koeffizienten 6 und den Array-Koeffi
zienten 9 wird in der Stufe 100 (KOMB nach Fig. 2) das Ko
härenzmaß KOM berechnet und als Signal 102 ausgegeben. Das
Maß KOM wird nur für die durch 671 festgelegten M Teilbän
der berechnet; diese Berechnung erfolgt nur für den Sektor,
der durch den Index 91 festgelegt ist. Durch Einspeisen von
671 und 91 in die Stufe 101 wird die Auswahl der
dazugehörigen Teilmenge der Daten gesteuert und der über
103 kontrollierte Schalter 104 betätigt. Die Summation der
M Kohärenzmaße 105 1 . . . 105 M und der Stufe 106 führt auf den
Summenwert 107, der das Kohärenzmaß KOMFF für das Feinra
ster-Fernfeld repräsentiert. Die Signale 107 und 92 (letz
terer repräsentiert das Kohärenzmaß KOMF für das Feinra
ster-Nahfeld) werden in die Vergleichsschaltung 108 einge
speist. Ist KOMF größer als KOMFF, so wird die Feinsek
tor-Entscheidung akzeptiert und über den Schalter 110 als
Ergebnis 12 (Index des entschiedenen Feinsektors) ange
geben.
Claims (5)
1. Verfahren zur Sprecherlokalisierung mit Hilfe eines
Mikrofonarrays, bei dem alle Mikrofonsignale des Arrays
gleichzeitig ausgewertet werden und der Sprecherraum in
endlich viele Sektoren aufgeteilt und der zutreffende
Sektor nach Kriterien der Plausibilität ausgewählt
wird, dadurch gekennzeichnet,
daß die laufzeit- bzw. phasenkorrigierten, einzelnen
Mikrofonsignale vor der Bildung des Array-Summensignals
miteinander auf Kohärenz der Phasenlage geprüft werden
und danach der Sektor mit maximaler Kohärenz ausgewählt
wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
während der Prüfung auf Kohärenz der Phasenlage vari
ierende Frequenzbandbeschneidungen vorgenommen werden,
wobei die Frequenzbandbeschneidung ebenfalls nach dem
Kriterium der maximalen Kohärenz durchgeführt wird.
3. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet,
daß die Prüfung auf Kohärenz der Phasenlage in eine
Grobsuche mit geringer Unterteilung in wenige Sektoren
und eine anschließende Feinsuche mit stärkerer Unter
teilung der bei der Grobsuche ermittelten Sektoren mit
zulässigen Sprecherpositionen im Nahbereich des Arrays
aufgeteilt wird.
4. Verfahren nach Anspruch 1 bis 3, dadurch gekennzeichnet,
daß für die Prüfung der Zulässigkeit des Sektors der
Sprecherposition ein zusätzlicher Kohärenzvergleich mit
einer Schallquellenposition durchgeführt wird, die den
gleichen Raumwinkel zum Mikrofonarray gemäß dem Ergeb
nis der Grob- und Feinsuche aufweist, jedoch dem Fern
bereich des Arrays zugehört.
5. Verfahren nach Anspruch 1 bis 4, dadurch gekennzeichnet,
daß während der Prüfung auf Kohärenz der Phasenlage
eine Vielzahl von Daten komplexer Frequenzbereichs-Si
gnalwerte gebildet, gespeichert und mit ebenfalls ge
speicherten, komplexen Koeffizienten zur Phasenkorrektur
bewertet werden, die der jeweiligen zu prüfenden Spre
cherposition zugeordnet sind.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1995140795 DE19540795C2 (de) | 1995-11-02 | 1995-11-02 | Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1995140795 DE19540795C2 (de) | 1995-11-02 | 1995-11-02 | Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19540795A1 DE19540795A1 (de) | 1997-05-07 |
DE19540795C2 true DE19540795C2 (de) | 2003-11-20 |
Family
ID=7776416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1995140795 Expired - Lifetime DE19540795C2 (de) | 1995-11-02 | 1995-11-02 | Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19540795C2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10320274A1 (de) * | 2003-05-07 | 2004-12-09 | Sennheiser Electronic Gmbh & Co. Kg | System zur ortssensitiven Wiedergabe von Audiosignalen |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19741596A1 (de) | 1997-09-20 | 1999-03-25 | Bosch Gmbh Robert | Verfahren zur Optimierung des Empfangs akustischer Signale und elektrisches Gerät |
US6192134B1 (en) * | 1997-11-20 | 2001-02-20 | Conexant Systems, Inc. | System and method for a monolithic directional microphone array |
DE19818611C1 (de) * | 1998-04-20 | 1999-09-16 | Deutsche Telekom Ag | Verfahren und Vorrichtung zur Frequenzbereichsentzerrung für Mikrofon-Arrays |
US7274794B1 (en) | 2001-08-10 | 2007-09-25 | Sonic Innovations, Inc. | Sound processing system including forward filter that exhibits arbitrary directivity and gradient response in single wave sound environment |
EP1415506A2 (de) * | 2001-08-10 | 2004-05-06 | Rasmussen Digital APS | Klangprozessorsystem welche eine willkürliche gradient respons aufweist |
EP1878013B1 (de) * | 2005-05-05 | 2010-12-15 | Sony Computer Entertainment Inc. | Videospielsteuerung mittels Joystick |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2097121A (en) * | 1981-04-21 | 1982-10-27 | Ferranti Ltd | Directional acoustic receiving array |
GB2115150A (en) * | 1982-02-11 | 1983-09-01 | Plessey Co Plc | Sound source location system |
JPH01264487A (ja) * | 1988-04-15 | 1989-10-20 | Mitsubishi Electric Corp | テレビ会議用カメラ回転台制御装置 |
JPH06261388A (ja) * | 1993-03-05 | 1994-09-16 | Matsushita Electric Ind Co Ltd | マイクロフォン装置 |
-
1995
- 1995-11-02 DE DE1995140795 patent/DE19540795C2/de not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2097121A (en) * | 1981-04-21 | 1982-10-27 | Ferranti Ltd | Directional acoustic receiving array |
GB2115150A (en) * | 1982-02-11 | 1983-09-01 | Plessey Co Plc | Sound source location system |
JPH01264487A (ja) * | 1988-04-15 | 1989-10-20 | Mitsubishi Electric Corp | テレビ会議用カメラ回転台制御装置 |
JPH06261388A (ja) * | 1993-03-05 | 1994-09-16 | Matsushita Electric Ind Co Ltd | マイクロフォン装置 |
Non-Patent Citations (2)
Title |
---|
Flanagam, I.L. et al.:"Computer-steered microphone arrays for sound transduction in large rooms". In: J. Aconst. Soc. Ann. Vol.78, Nov. 1985, S.1508-1518 * |
Kellermann,W."A Self-Steering Digital Microphone Array" In: Int. Comf. Aconst., Speed and Signal Proc. ICASSP '91, Toronto, 1991, S.3581-3584 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10320274A1 (de) * | 2003-05-07 | 2004-12-09 | Sennheiser Electronic Gmbh & Co. Kg | System zur ortssensitiven Wiedergabe von Audiosignalen |
Also Published As
Publication number | Publication date |
---|---|
DE19540795A1 (de) | 1997-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69409121T2 (de) | Störreduktionssystem für ein binaurales hörgerät | |
DE60027438T2 (de) | Verbesserung eines verrauschten akustischen signals | |
DE2719973C2 (de) | ||
DE102004005998B3 (de) | Verfahren und Vorrichtung zur Separierung von Schallsignalen | |
DE69827911T2 (de) | Verfahren und einrichtung zur mehrkanaligen kompensation eines akustischen echos | |
EP1143416B1 (de) | Geräuschunterdrückung im Zeitbereich | |
DE69735396T2 (de) | Akustischer Teilband-Echokompensator | |
DE69606978T2 (de) | Verfahren zur rauschunterdrückung mittels spektraler subtraktion | |
EP1251493B1 (de) | Verfahren zur Geräuschreduktion mit selbststeuernder Störfrequenz | |
DE69131739T2 (de) | Einrichtung zur Sprachsignalverarbeitung für die Bestimmung eines Sprachsignals in einem verrauschten Sprachsignal | |
DE69932626T2 (de) | Signalverarbeitungsvorrichtung und verfahren | |
DE112017007800T5 (de) | Störgeräuscheliminierungseinrichtung und Störgeräuscheliminierungsverfahren | |
EP2158588B1 (de) | Spektralglättungsverfahren von verrauschten signalen | |
EP2362681B1 (de) | Verfahren und Vorrichtung zum phasenabhängigen Verarbeiten von Schallsignalen | |
EP0747880B1 (de) | Spracherkennungssystem | |
DE112009000805T5 (de) | Rauschreduktion | |
DE19814971A1 (de) | Verfahren zur Störbefreiung eines Mikrophonsignals | |
DE102014002899A1 (de) | Verfahren, Vorrichtung und Herstellung zur Zwei-Mikrofon-Array-Sprachverbesserung für eine Kraftfahrzeugumgebung | |
DE112011105267T5 (de) | Zielton-Verstärkungsvorrichtung und Fahrzeug-Navigationssystem | |
EP3197181B1 (de) | Verfahren zur reduktion der latenzzeit einer filterbank zur filterung eines audiosignals sowie verfahren zum latenzarmen betrieb eines hörsystems | |
DE10392425T5 (de) | Audiorückkoppelungsverarbeitungssystem | |
DE68926930T2 (de) | Geräuschunterdrückungsverfahren | |
DE19540795C2 (de) | Verfahren zur Sprecherlokalisierung mit Hilfe eines Mikrofonarrays | |
WO2003037032A1 (de) | Verfahren und vorrichtung zur störbefreiung eines redundanten akustischen signals | |
DE3230391C2 (de) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G01S 5/20 |
|
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
R071 | Expiry of right |