DE102018109247A1 - Verfahren zur genauen Berechnung der Ankunftsrichtung von Schall an einer Mikrofon-Anordnung - Google Patents

Verfahren zur genauen Berechnung der Ankunftsrichtung von Schall an einer Mikrofon-Anordnung Download PDF

Info

Publication number
DE102018109247A1
DE102018109247A1 DE102018109247.4A DE102018109247A DE102018109247A1 DE 102018109247 A1 DE102018109247 A1 DE 102018109247A1 DE 102018109247 A DE102018109247 A DE 102018109247A DE 102018109247 A1 DE102018109247 A1 DE 102018109247A1
Authority
DE
Germany
Prior art keywords
arrival
difference
sound
time
microphones
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102018109247.4A
Other languages
English (en)
Inventor
Ryo Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Unified Comunications Inc
Original Assignee
Revolabs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Revolabs Inc filed Critical Revolabs Inc
Publication of DE102018109247A1 publication Critical patent/DE102018109247A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Eine Signalverarbeitungseinheit berechnet eine erste Ankunftszeitdifferenz von Schall von einer Schallquelle zu einem ersten und einem zweiten Mikrofon mit einer Mikrofon-Anordnung, und berechnet eine zweite Ankunftszeitdifferenz, die die Differenz zwischen der ersten Ankunftszeitdifferenz und einer tatsächlichen Ankunftszeit darstellt, und bestimmt die Position der Schallquelle, basierend auf der Summe der ersten Ankunftszeitdifferenz und der zweiten Ankunftszeitdifferenz.

Description

  • Gebiet
  • Eine Ausführungsform der vorliegenden Erfindung bezieht sich auf eine Schallsammelvorrichtung zum Erfassen des Schalls einer Schallquelle unter Verwendung eines Mikrofons und auf ein Schallsammelverfahren.
  • Beschreibung der einschlägigen Technik
  • Schallsammelvorrichtungen können die Ankunftsrichtung einer Schallquelle schätzen, um die Empfindlichkeit einer Mikrofon-Anordnung in Richtung der Schallquelle zu verbessern. Um die Ankunftsrichtung der Schallquelle zu finden, findet die Schallsammelvorrichtung die Korrelation zwischen den gesammelten Schallsignalen einer Vielzahl an Mikrofonen. Die Schallsammelvorrichtung schätzt die Ankunftsrichtung durch Berechnen der Ankunftszeit des Schalls von der Schallquelle zu der Vielzahl von Mikrofonen. Die Ankunftszeitdifferenz wird z.B. über eine Kreuzkorrelationsfunktion ermittelt. Die Schallsammelvorrichtung findet die Kreuzkorrelationsfunktion der gesammelten Schallsignale der Vielzahl an Mikrofonen und findet eine Probennummer, wenn die Kreuzkorrelationsfunktion eine Spitze anzeigt. Diese Probennummer entspricht der Ankunftszeit des Schalls von der Schallquelle zu den mehreren Mikrofonen. Die Ankunftszeitdifferenz wird durch Multiplizieren mit der Schallgeschwindigkeit in eine Entfernung umgewandelt. Daher kann die Schallsammelvorrichtung die Ankunftsrichtung mit Hilfe einer trigonometrischen Funktion schätzen, die auf dem Abstand zwischen der Vielzahl von Mikrofonen und einer gefundenen Entfernung basiert, indem sie die Schallgeschwindigkeit mit der Ankunftszeitdifferenz multipliziert wird.
  • Wenn jedoch die Ankunftszeitdifferenz unter Verwendung einer Kreuzkorrelationsfunktion im Zeitbereich gefunden wird, kann keine Zeitdifferenz von einer Probe oder weniger gefunden werden. Daher hängt die Schätzgenauigkeit der Ankunftsrichtung von der Abtastfrequenz und dem Abstand zwischen den mehreren Mikrofonen ab.
  • ZUSAMMENFASSUNG
  • Die Schallsammelvorrichtung ist mit einer Vielzahl von Mikrofonen (d. h. Mikrofon-Array) und einer Signalverarbeitungseinheit versehen. Die Signalverarbeitungseinheit berechnet eine Gesamt- oder tatsächliche Zeitdifferenz des Eintreffens von Schall zwischen Mikrofonen in einem Array, indem sie eine berechnete erste Ankunftszeitdifferenz zu einer berechneten zweiten Ankunftszeit addiert. Die erste Ankunftszeitdifferenz basiert auf der Ankunftszeitdifferenz des Schalls von einer Schallquelle zu der Vielzahl von Mikrofonen mit einer Genauigkeit zu einer Zwischenabtastzeit, und berechnet eine zweite Ankunftszeitdifferenz, die die Differenz ist zwischen der ersten Ankunftszeitdifferenz und der tatsächlichen Ankunftszeitdifferenz. Er schätzt die Position der Schallquelle auf der dritten oder tatsächlichen Ankunftszeit ab.
  • Figurenliste
  • Die vorliegende Erfindung kann am besten durch Lesen der Beschreibung unter Bezugnahme auf die folgenden Figuren verstanden werden:
    • 1 ist eine externe perspektivische Ansicht, die eine Konfiguration einer Schallabgabe-/-sammelvorrichtung 10 zeigt.
    • 2 ist ein Blockdiagramm, das die Schallabgabe-/-sammelvorrichtung 10 illustriert.
    • 3 ist ein Funktionsblockschaltbild, das eine Konfiguration einer Signalverarbeitungseinheit 15 zeigt.
    • 4 ist ein Funktionsblockdiagramm, das eine Konfiguration einer Stimmaktivitätserfassungseinheit (VAD) 50 darstellt.
    • 5 ist ein Funktionsblockschaltbild, das die Konfiguration einer Ankunftsrichtungseinheit (DOA) 60 veranschaulicht.
    • 6 ist ein Flussdiagramm, das die Funktionsweise der Ankunftsrichtungseinheit (DOA) 60 zeigt.
    • 7 ist ein Diagramm, das die Phase eines Weißungskreuzspektrums R (ω) darstellt.
    • 8 ist ein Diagramm, das die Phase eines Weißungskreuzspektrums darstellt R'(ω).
    • 9 ist ein Diagramm, das eine Beziehung zwischen der Ankunftsrichtung und der Verschiebung von Schall aufgrund des Mikrofons darstellt.
    • 10 ist ein Blockschaltbild zur Veranschaulichung des Aufbaus einer Strahlformungseinheit (BF) 20.
    • 11 ist ein Flussdiagramm, das den Betrieb der Schallabgabe-/-sammelvorrichtung 10 darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • 1 ist eine perspektivische Ansicht, die schematisch die Schallabgabe-/-sammelvorrichtung 10 darstellt. 1 zeigt die Hauptkonfiguration von ausgesendetem Schall und gesammeltem Schall und veranschaulicht keine anderen Konfigurationen.
  • Die Schallabgabe-/-sammelvorrichtung 10 ist mit einem rechteckigen Parallel-Rohrgehäuse 1, einer Mikrofon-Anordnung mit einem Mikrofon 11, einem Mikrofon 12 und einem Mikrofon 13, einem Lautsprecher 70L und einem Lautsprecher 70R versehen. Die Vielzahl von Mikrofonen ist als eine Anordnung angeordnet; das Mikrofon 11, das Mikrofon 12 und das Mikrofon 13 sind in einer Linie auf einer Seitenfläche des Gehäuses 1 angeordnet. Der Lautsprecher 70L und der Lautsprecher 70R sind als ein Paar an den Außenseiten des Mikrofons 11, des Mikrofons 12 und des Mikrofons 13 angeordnet, wobei dazwischen das Mikrofon 11, das Mikrofon 12 und das Mikrofon 13 angeordnet sind.
  • In diesem Beispiel gibt es drei Mikrofone, aber die Schallabgabe-/-sammelvorrichtung 10 kann so lange arbeiten, wie zumindest zwei oder mehr Mikrofone installiert sind. Außerdem ist die Anzahl der Lautsprecher nicht auf zwei begrenzt, und die Schallabgabe-/-sammelvorrichtung 10 kann so lange betrieben werden, wie zumindest ein oder mehrere Lautsprecher installiert sind. Weiterhin kann der Lautsprecher 70L oder der Lautsprecher 70R als separate Konfiguration vom Gehäuse 1 geliefert werden.
  • 2 ist ein Blockdiagramm der Schallabgabe- / Sammelvorrichtung 10, die in Bezug auf 1 gezeigt wird. Wie in 2 dargestellt, ist die Schallabgabe-/-sammelvorrichtung 10 mit dem Mikrofon 11, dem Mikrofon 12, dem Mikrofon 13, dem Lautsprecher 70L, dem Lautsprecher 70R, der Signalverarbeitungseinheit 15, einem Speicher 150 und einer Schnittstelle (I/F) 19 ausgestattet. Ein gesammelter Schall, der eine durch das Mikrofon 11, das Mikrofon 12 und das Mikrofon 13 erfasste Stimme ist, wird in der Signalverarbeitungseinheit 15 signalverarbeitet und in die I/F 19 eingegeben. Die I/F 19 ist beispielsweise eine Kommunikations-I/F und überträgt das gesammelte Schallsignal an eine externe Vorrichtung (ferne Stelle). Alternativ empfängt die I/F 19 ein von einem externen Gerät ausgegebenes Schallsignal. Der Speicher 150 speichert das gesammelte Schallsignal des Mikrofons 11, des Mikrofons 12 und des Mikrofons 13 als aufgezeichnete Schalldaten. Die Signalverarbeitungseinheit 15 arbeitet mit dem Schall, der durch das Mikrofon 11, das Mikrofon 12 und das Mikrofon 13 erfasst wird, wie nachstehend ausführlich beschrieben wird. Weiterhin verarbeitet die Signalverarbeitungseinheit 15 das vom I/F 19 ausgegebene Schallsignal. Der Lautsprecher 70L oder der Lautsprecher 70R geben das Signal ab, das in der Signalverarbeitungseinheit 15 verarbeitet wurde.
  • Es sei angemerkt, dass die Funktionen der Signalverarbeitungseinheit 15 auch in einer allgemeinen Informationsverarbeitungsvorrichtung wie etwa einem Personal Computer realisiert werden können. In diesem Fall realisiert die Informationsverarbeitungsvorrichtung die Funktionen der Signalverarbeitungseinheit 15 durch Auslesen und Ausführen eines im Speicher 150 gespeicherten Programms 151 oder eines auf einem Aufzeichnungsträger wie einem Flash-Speicher gespeicherten Programms.
  • 3 ist ein Funktionsblockschaltbild der Signalverarbeitungseinheit 15. Wie in 3 dargestellt, ist die Schallabgabe-/-sammelvorrichtung 10 mit dem Mikrofon 11, dem Mikrofon 12, dem Mikrofon 13, dem Lautsprecher 70L, dem Lautsprecher 70R, der Signalverarbeitungseinheit 15 und der Schnittstelle (I/F) 19 versehen. Die Signalverarbeitungseinheit 15 ist mit ersten Echokompensatoren 31, 32 und 33, einer Strahlformungseinheit (BF) 20, einem zweiten Echokompensator 40, einer Stimmaktivitätserfassungseinheit (VAD) 50 und einer Ankunftsrichtungseinheit (DOA) 60 ausgestattet.
  • Der erste Echokompensator 31 ist auf der Rückseite des Mikrofons 11 installiert, der erste Echokompensator 32 ist auf der Rückseite des Mikrofons 12 installiert, und der erste Echokompensator 33 ist auf der Rückseite des Mikrofons 13 installiert. Der erste Echokompensator 31, der erste Echokompensator 32 und der erste Echokompensator 33 führen die Echounterdrückung an den gesammelten Schallsignalen der vorderen Mikrofone durch. Dadurch entfernen der erste Echokompensator 31, der erste Echokompensator 32 und der erste Echokompensator 33 Echos, die durch den Lautsprecher 70L und den Lautsprecher 70R an jedem Mikrofon verursacht werden.
  • Die Echokompensation durch den ersten Echokompensator 31, den ersten Echokompensator 32 und den ersten Echokompensator 33 besteht aus einem FIR-Filterverfahren und einem Subtraktionsverfahren. Die Echokompensation gibt ein von dem Lautsprecher 70L und dem Lautsprecher 70R (emittiertes Schallsignal) emittiertes Signal ein, das von der Schnittstelle (I/F) 19 in die Signalverarbeitungseinheit 15 eingegeben wurde, schätzt die Echokomponente unter Verwendung des FIR-Filters und subtrahiert jede geschätzte Echokomponente von dem gesammelten Schallsignaleingang an den ersten Echokompensator 31, den ersten Echokompensator 32 und den ersten Echokompensator 33.
  • Die Stimmaktivitätserfassungseinheit (VAD) 50 ist auf der Rückseite des ersten Echokompensators 32 installiert. Mit anderen Worten, die Stimmaktivitätserfassungseinheit (VAD) 50 bestimmt, ob das gesammelte Schallsignal, das in dem in der Mitte befindlichen Mikrofon 12 gesammelt wird, eine Stimme ist. Wenn in der Stimmaktivitätserfassungseinheit (VAD) 50 bestimmt wird, dass der Schall eine menschliche Stimme ist, wird eine Stimm-Markierung in die Richtung der Ankunftsrichtungseinheit (DOA) 60 eingegeben. Die Stimmaktivitätserfassungseinheit (VAD) 50 wird im Folgenden detailliert beschrieben. Beachten Sie, dass die VAD 50 nicht nur auf der Rückseite des ersten Echokompensators 32, sondern auch auf der Rückseite des ersten Echokompensators 32 oder des ersten Echokompensators 33 installiert werden kann.
  • Die Ankunftsrichtungseinheit (DOA) 60 ist auf der Rückseite des ersten Echokompensators 31 und des ersten Echokompensators 33 installiert. Die Ankunftsrichtungseinheit (DOA) 60 detektiert die Ankunftsrichtung einer Stimme. Die Ankunftsrichtungseinheit (DOA) 60 erfasst die Ankunftsrichtung (θ) des gesammelten Schallsignals, das in dem Mikrofon 11 und dem Mikrofon 13 gesammelt ist, nachdem die Stimm-Markierung eingegeben wurde. Die Ankunftsrichtung (θ) wird später detailliert beschrieben. Um die Erkennung nur dann durchzuführen, wenn die Stimm-Markierung in Richtung der Ankunftsrichtungseinheit (DOA) 60 eingegeben wurde, ändert sich der Wert der Ankunftsrichtung (θ) auch dann nicht, wenn ein anderes Rauschen als das einer menschlichen Stimme auftritt. Die in der Richtung der Ankunftsrichtungseinheit (DOA) 60 erfasste Ankunftsrichtung (θ) wird in die Strahlformungseinheit (BF) 20 eingegeben. Die Richtung der Ankunftsrichtungseinheit (DOA) 60 wird im Folgenden detailliert beschrieben.
  • Die Strahlformungseinheit BF 20 führt einen Strahlformungsprozess durch, der auf der Einfallsrichtung des Schalls (θ) basiert. Dieser Strahlformungsprozess ermöglicht es, den Schall in Ankunftsrichtung (θ) zu fokussieren. Da Rauschen, das von anderen Richtungen als der Ankunftsrichtung (θ) ankommt, minimiert werden kann, ist es daher möglich, selektiv eine Stimme in der Ankunftsrichtung (θ) zu sammeln. Die Strahlformungseinheit (BF) 20 wird im Folgenden detailliert beschrieben.
  • Der zweite Echokompensator 40 führt eine Frequenzspektrum-Amplitudenmultiplikation des Signals durch, das den Strahlformungsprozess im BF 20 durchlaufen hat. Daher kann der zweite Echokompensator 40 die restliche Echo-Komponente entfernen, die durch die Subtraktion Verfahren allein nicht entfernt werden konnte. Das Frequenzspektrum-Amplitudenmultiplikationsverfahren kann ein beliebiger Prozess sein, verwendet aber z.B. mindestens eine oder alle spektralen Verstärkungen, eine spektrale Subtraktion und einen Echokompensator in einem Frequenzbereich. Da die verbleibende Echokomponente Hintergrundrauschen darstellt, beispielsweise in einem Raum, handelt es sich hier um eine Fehlerkomponente, die durch einen Schätzfehler der Echokomponente verursacht wird, der in dem ersten Echokompensator auftritt, wobei Oszillationsgeräusche des Gehäuses auftreten, wenn der Schallabgabepegel der Lautsprecher 70 ein bestimmtes Niveau oder dergleichen, erreicht. Der zweite Echokompensator 40 schätzt das Spektrum der verbleibenden Echokomponente, basierend auf dem Spektrum der im Subtraktionsprozess im ersten Echokompensator geschätzten Echokomponente und dem Spektrum des Eingangssignals, und entfernt das geschätzte Spektrum der verbleibenden Echokomponente aus dem Eingangssignal.
  • Auf diese Weise entfernt die Signalverarbeitungseinheit 15 der vorliegenden Ausführung auch eine verbleibende Echokomponente, die durch den Subtraktionsprozess nicht entfernt werden konnte. Selbst wenn der Frequenzspektrum-Amplitudenmultiplikationsvorgang an der Vorderseite ausgeführt wird, geht jedoch die Information des gesammelten Schallsignalpegels verloren, wodurch ein Strahlformungsprozess durch den BF 20 erschwert wird. Selbst wenn der Frequenzspektrum-Amplitudenmultiplikationsvorgang auf der Vorderseite ausgeführt wird, gehen ferner die Information des harmonischen Leistungsspektrums, die Leistungsspektrum-Änderungsrate, die Leistungsspektrum-Flachheit, die Formant-Intensität, die Intensität der Harmonischen, die Leistung, die Leistungsdifferenz erster Ordnung, die Leistungsdifferenz zweiter Ordnung , der Cepstrum-Koeffizient, die Differenz erster Ordnung des Cepstrum-Koeffizienten und die Differenz zweiter Ordnung des unten beschriebenen Cepstrum-Koeffizienten verloren, wodurch die Berechnung einer Kreuzkorrelationsfunktion oder dergleichen in der Stimmaktivitätserfassungseinheit (VAD) 50 erschwert wird. Dann entfernt die Signalverarbeitungseinheit 15 der vorliegenden Ausführungsform zuerst die Echokomponente unter Verwendung des Subtraktionsprozesses, führt den Strahlformungsprozess durch den BF20, die Stimmbestimmung durch die Stimmaktivitätserfassungseinheit (VAD) 50 und den Erfassungsprozess von der Ankunftsrichtung in der Richtung der Ankunftsrichtungseinheit (DOA) 60 und führt den Frequenzspektrum-Amplitudenmultiplikationsvorgang an dem Signal aus, das der Strahlbildung unterzogen wurde.
  • Als nächstes werden die Funktionen der Stimmaktivitätserfassungseinheit (VAD) 50 im Detail unter Verwendung von 4 beschrieben. Die VAD 50 führt eine Analyse verschiedener Stimmmerkmale in dem Stimmsignal unter Verwendung eines neuronalen Netzes 57 durch. Die Stimmaktivitätserfassungseinheit (VAD) 50 gibt eine Stimm-Markierung aus, wenn als ein Ergebnis der Analyse bestimmt wird, dass ein gesammeltes Schallsignal eine menschliche Stimme ist.
  • Im Folgenden werden als Beispiele für verschiedene Stimmmerkmale angegeben: Nulldurchgangsrate 41, harmonisches Leistungsspektrum 42, Leistungsspektrum-Ratenänderung 43, Leistungsspektrum-Planheit 44, Formant Intensität 45, Intensität der Harmonischen 46, Leistung 47, Differenz der Leistung erster Ordnung 48, Differenz der Leistung zweiter Ordnung 49, Cepstrum-Koeffizienten 51, Differenz erster Ordnung des Cepstrum-Koeffizienten 52 und Differenz zweiter Ordnung des Cepstrum-Koeffizienten 53.
  • Die Nulldurchgangsrate 41 berechnet die Auftrittshäufigkeit eines Punktes, der für ein Stimmsignal in der Zeitdomäne Null kreuzt. Der Nulldurchgang entspricht der Schallhöhe, die die Grundfrequenz der Stimme ist. Das harmonische Leistungsspektrum 42 zeigt an, welchen Grad an Leistung die Frequenzkomponente jeder Harmonischen aufweist, die in dem Stimmsignal enthalten ist. Die Leistungsspektrum-Änderungsrate 43 zeigt die Änderungsrate der Leistung zu der Frequenzkomponente des Audiosignals an. Die Leistungsspektrums-Flachheit 44 zeigt den Grad des Anschwellens der Frequenzkomponente des Audiosignals an. Die Formant-Intensität 45 gibt die Intensität der im Audiosignal enthaltenen Formant-Komponente an. Die Intensität der Harmonischen 46 gibt die Intensität der Frequenzkomponente jeder im Audiosignal enthaltenen Oberwelle an. Die Leistung 47 ist die Leistung des Audiosignals. Die Differenz der Leistung erster Ordnung 48 ist die Differenz zur vorherigen Leistung 47. Die Differenz der Leistung zweiter Ordnung 49 ist die Differenz zur vorherigen Differenz der Leistung 48 erster Ordnung. Der Cepstrum-Koeffizient 51 ist der Logarithmus der diskreten Cosinus-transformierten Amplitude des Audiosignals. Eine Differenz erster Ordnung des Cepstrum-Koeffizienten 52 ist die Differenz von dem vorherigen Cepstrum-Koeffizienten 51. Eine Differenz zweiter Ordnung des Cepstrum-Koeffizienten 53ist die Differenz zur vorherigen Differenz erster Ordnung 52 des Cepstrum-Koeffizienten.
  • Man beachte, dass ein Stimmsignal, das eine hohe Frequenz betont, verwendet werden kann, wenn der Cepstrum-Koeffizient 51 unter Verwendung eines Vorverzerrungsfilters gefunden wird, und eine diskrete kosinus-transformierte Amplitude des durch eine Mel-Filterbank komprimierten Stimmsignals verwendet werden kann.
  • Weiterhin ist zu beachten, dass die Stimmfunktionen nicht auf die oben beschriebenen Parameter beschränkt sind. und dass jeder Parameter, der eine menschliche Stimme von anderen Geräuschen unterscheiden kann, verwendet werden kann.
  • Das neuronale Netz 57 ist eine Methode zur Ableitung von Ergebnissen aus einem Beurteilungsbeispiel einer Person. Jeder Neuronen-Koeffizient wird auf einen Eingabewert gesetzt, um sich dem von einer Person abgeleiteten Beurteilungsergebnis zu nähern.
  • Das neuronale Netz 57 gibt basierend auf einem Eingabewert einen vorbestimmten Wert durch Eingabe des Wertes verschiedener Stimmmerkmale aus (Nulldurchgangsrate 41, harmonisches Leistungsspektrum 42, Leistungsspektrums-Änderungsrate 43, Leistungsspektrums-Flachheit 44, Formanten-Intensität 45, Intensität der Harmonischen 46, Leistung 47, Leistungsdifferenz erster Ordnung 48, Leistungsdifferenz zweiter Ordnung 49, Cepstrum-Koeffizient 51, Differenz erster Ordnung des Cepstrum-Koeffizienten 52 oder Differenz zweiter Ordnung des Cepstrum-Koeffizienten 53) in jedem Neuron. Das neuronale Netz 57 gibt jeweils einen ersten Parameterwert aus, der eine menschliche Stimme ist, und einen zweiten Parameterwert, der in den letzten beiden Neuronen keine menschliche Stimme ist. Schließlich bestimmt das neuronale Netz 57, dass es sich um eine menschliche Stimme handelt, wenn, die Differenz zwischen dem ersten Parameterwert und dem zweiten Parameterwert einen vorbestimmten Schwellenwert überschreitet. Damit kann das neuronale Netz 57 anhand des Beurteilungsbeispiels einer Person feststellen, ob es sich bei dem Stimmsignal um eine menschliche Stimme handelt.
  • 5 ist ein Funktionsblockdiagramm, das die Konfiguration der Ankunftsrichtungseinheit (DOA-Einheit) 60 darstellt, und 6 ist ein Flussdiagramm, das den Betrieb der Erfassungseinheit 60 für die Ankunftsrichtung (DOA) veranschaulicht. Wendet man sich zuerst der DOA-Einheit 60 in 5 zu, so ist diese Einheit mit diskreten Fourier-Transformationen DFT 61A und DFT 61B, einer Kreuzkorrelationsfunktions-Berechnungseinheit 62, einer Phasenrotationseinheit 63, einer inversen diskreten Fourier-Transformation (IDFT) 64, Probennummer-Berechnungseinheit 65, Zeitverschiebungs-Berechnungseinheit 66, einen Addierer 67 und eine Ankunftswinkelberechnungseinheit 68 versehen.
  • Die DFT 61A und DFT 61B empfangen jeweils das gesammelte Schallsignal des Mikrofons 11 X1 (t) und das gesammelte Schallsignal des Mikrofons 13 X2 (t). Es sei angemerkt, dass AEC31 und AEC33 in 4 weggelassen wurde, aber das gesammelte Schallsignal des Mikrofons 11X1 (t) und 13X2 (t) stellt gesammelte Schallsignale dar, nachdem eine Echokompensation ausgeführt wurde. Man beachte, dass in diesem Beispiel die DOA 60 die gesammelten Schallsignale des Mikrofons 11 und 13 verwendet, aber die gesammelten Schallsignale anderer Mikrofone können ebenfalls verwendet werden. Da die Ankunftsrichtung der Schallquelle jedoch anhand der Entfernung zwischen den Mikrofonen geschätzt wird, ist die Genauigkeit umso höher, je größer der Abstand zwischen den Mikrofonen ist. Aus diesem Grund ist es wünschenswert, dass die gesammelten Schallsignale des Mikrofons 11 und 13 verwendet werden, da sie am weitesten voneinander entfernt sind. Die DFT61A und die DFT61B führen die Fourier-Transformation an dem gesammelten Schallsignal X1 (t) und X2 (t) durch und transformieren sie in das Signal X1 (ω) und X2 (ω) der Frequenzdomäne, wie in 5 und bei S21 in 6 veranschaulicht.
  • Die Kreuzkorrelationsfunktions-Berechnungseinheit 62 in 5 berechnet das Weißungskreuzspektrum R (ω) der gesammelten und transformierten Schallsignale X1 (t) und X2 (t) gemäß der nachstehenden Formel 1 (S22). Eine vorbestimmte Zeitkonstante wird an das Weißungskreuzspektrum R (ω) angelegt. R ( ω ) = a R ( ω ) + ( 1 a ) c o n j ( X 1 ( ω ) ) X 2 ( ω ) | c o n j ( X 1 ( ω ) ) X 2 ( ω ) |
    Figure DE102018109247A1_0001
  • Das berechnete Weißungskreuzspektrum R (ω) wird in die Phasenrotationseinheit 63 und den IDFT 64 eingegeben. Die IDFT 64 führt eine inverse Transformation auf dem Weißungskreuzspektrum R (ω) durch, was zu einer Weißungs-Kreuzkorrelationsfunktion r (t) führt (6, S23).
  • Die Probennummer-Berechnungseinheit 65 findet den Peak-Position-Index der Weißungs-Kreuzkorrelationsfunktion r (t) (6, S24). Die Probennummer, die der Position der Spitze entspricht, repräsentiert die Ankunftszeitdifferenz zwischen dem Mikrofon 11 und dem Mikrofon 13. Die Probennummer-Berechnungseinheit 65 findet die Ankunftszeitdifferenz (erste Ankunftszeitdifferenz, τi ) des Schalls von der Schallquelle zum Mikrofon 11 und 13 durch Dividieren des Spitzenpositionsindex durch die Abtastfrequenz, wie in der nachstehenden Formel 2 (6, S25) verdeutlicht. Diese erste Ankunftszeitdifferenz wird als ein ganzzahliger Wert von einem oder mehreren Abtastzeiten ausgedrückt. Wenn beispielsweise eine Abtastrate 48 kHz beträgt, beträgt die Zeit von einem Abtastwert zum nächsten (Zwischenabtastzeit) ungefähr 20,8 Mikrosekunden, und wenn die Abtastwertberechnungseinheit bestimmt, dass der Schall an einem zweiten Mikrophon ankommt, nachdem er an einem ersten Mikrofon angekommen ist, beträgt diese Verzögerung mindestens 20,8 Mikrosekunden. τ i = P E A K _ I N D E X ( r ( t ) ) f s
    Figure DE102018109247A1_0002
  • Es ist anzumerken, dass die Probennummer-Berechnungseinheit 65 die Kreuzkorrelationsfunktion des gesammelten Schallsignals des Mikrofons 11 X1 (t) und 13 X2 (t) im Zeitbereich finden kann, oder die Weißungs-Kreuzkorrelationsfunktion, und die erste Ankunftszeitdifferenz berechnet wird. Ferner kann die Probennummer-Berechnungseinheit 65 den Zeitpunkt finden, zu dem sowohl das gesammelte Schallsignal X1 (t) als auch X2 (t) ihren Spitzenpegel haben (wenn der größte Wert der Amplitude gegeben ist), und die erste Ankunftszeitdifferenz aus der Differenz in dieser Spitzenpegelzeit berechnen, aber diese Zeit ist nicht genauer als eine Abtastzeit.
  • Da diese erste Ankunftszeitdifferenz, τi , einer Stichprobe eine Zeitdifferenz ist, die der Zeit entspricht, in die Kreuzkorrelationsfunktion oder die Aufhellungskreuzkorrelationsfunktion eine Spitze zeigt, kann keine Genauigkeit erzielt werden, die gleich oder größer als die Abtastfrequenz ist (d.h. 20,8 Mikrosekunden). Daher berechnet die DOA 60 der vorliegenden Ausführung eine zweite, gebrochene Ankunftszeitdifferenz, die eine Ankunftszeitdifferenz einer Probe ist, indem sie das Weißungskreuzspektrum R (ω) basierend auf der ersten Ankunftszeitdifferenz korrigiert und das korrigierte Weißungskreuzspektrum R' (ω) analysiert. Diese zweite Ankunftszeitdifferenz ist ein gebrochener Wert, der kleiner als eine Abtastzeit ist.
  • Mit anderen Worten, die Phasenrotationseinheit 63 dreht zuerst die Phase des Weißungskreuzspektrums R (ω) unter Verwendung der ersten Ankunftszeitdifferenz τl wie in der nachstehenden Formel 3 dargestellt (S26). R ' ( ω ) = e i ω ( τ i ) R ( ω )
    Figure DE102018109247A1_0003
  • Das Weißungskreuzspektrum R (ω) ist eine Winkelfrequenzfunktion, und 7 zeigt die graphische Darstellung von R(ω) gegen die Winkelfrequenz für eine Audiosignalprobe. Die DOA 118 berechnet die Steigung dieser Phasenwerte, die der Ankunftszeitdifferenz des Audiosignals entspricht. Dieser Zeitdifferenz wird als eine ganze Zahl von Audio-Samples ausgedrückt. Da jedoch die Phasenwerte im Winkelfrequenzbereich nicht glatt sind (wie in 7 dargestellt), ist eine genaue Berechnung der Steigung daraus eine Herausforderung. Um dies zu lösen, wird das Weißungskreuzspektrum R (ω) in den Zeitbereich transformiert. Durch die Berechnung der Probennummer, die dem Peak des transformierten Weißungskreuzspektrums entspricht, erhält man die erste Ankunftszeitdifferenz τi (Offset). Die Phasenrotationseinheit 463 dreht die Phase des ursprünglichen Weißungskreuzspektrums R (ω) unter Verwendung dieses neu erhaltenen Zeitversatzes τi. Anschließend erhält die Zeitverschiebungs-Berechnungseinheit 66 aus der Steigung dieses gedrehten Weißungskreuzspektrums R'(ω) unter Verwendung einer Anpassung der kleinsten Quadrate (wie unten in den Formeln 4 und 5 gezeigt) eine Teilprobenverzögerung τf, und diese Teilprobenverzögerung τf wird hier als zweite Ankunftszeitdifferenz bezeichnet. α ( ω ) = tan 1 i m g ( R ' ( ω ) ) r e a l ( R ' ( ω ) )
    Figure DE102018109247A1_0004
    τ f = α ( ω ) ω ω 2
    Figure DE102018109247A1_0005
  • Da die Genauigkeit in der Hochfrequenzdomäne abnimmt, wenn der Schall eine Stimme ist, ist es ferner wünschenswert, mindestens einen Teil der Hochfrequenzkomponente aus der Probe des akustischen Signals entfernen (d. h. Frequenzen über 2 kHz können entfernt werden).
  • Nach dem Berechnen der ersten und zweiten Zeitdifferenz der Ankunftszeiten berechnet der Addierer 67 eine tatsächliche oder dritte Ankunftszeitdifferenz τ (Gesamtzeitdifferenz der Ankunft) durch Addieren der ersten Ankunftszeitdifferenz τf und der zweiten Zeitdifferenz der Ankunftszeit τf, wie in (S28) 6 gezeigt.
  • Schließlich findet die Ankunftswinkelberechnungseinheit 68 die Ankunftsrichtung der Stimme (θ) anhand der dritten Ankunftszeitdifferenz τ (S29).
  • Wie in 9 dargestellt, ist die Ankunftsrichtung der Stimme θ als Winkelverschiebung gegenüber der vorderen Richtung des Gehäuses (Richtung senkrecht zur Oberfläche, auf der das Mikrofon 11 und das Mikrofon 13 ausgerichtet sind) dargestellt. Wenn die Entfernung zwischen Mikrofon 11 und das Mikrofon 13 L1 und die Geschwindigkeit des Schalls C ist, wird die Ankunftsrichtung der Stimme θ in der untenstehenden Formel 6 ausgedrückt durch: Abstand L2 entspricht der dritten Ankunftszeitdifferenz τ zwischen Mikrofonen = C•τ. θ = sin 1 C τ L 1
    Figure DE102018109247A1_0006
  • Beachten Sie, dass die Ankunftswinkelberechnungseinheit 68 und die Kreuzkorrelationsfunktions-Berechnungseinheit 62 jeweils die Ankunftsrichtung der Stimme θ und das Weißungskreuzspektrum R(ω) erneuert, wenn die Stimm-Markierung von der Stimmaktivitätserfassungseinheit (VAD) 50 eingegeben wird. Die Ankunftswinkelberechnungseinheit 68 und die Kreuzkorrelationsfunktions-Berechnungseinheit 62 halten die vorhergehende Ankunftsrichtung (θ) und das Weißungskreuzspektrum R (ω) aufrecht, ohne die Ankunftsrichtung der Stimme θ und des Weißungskreuzspektrums R zu erneuern (ω) wenn die Stimm-Markierung nicht von der Stimmaktivitätserfassungseinheit (VAD) 50 eingegeben wird. Zusätzlich werden die Prozesse der Kreuzkorrelationsfunktions-Berechnungseinheit 62, der Phasenrotationseinheit 63, der IDFT 64, der Probennummer-Berechnungseinheit 65, der Zeitverschiebungs-Berechnungseinheit 66, des Addierers 67 und der Ankunftswinkelberechnungseinheit 68 weggelassen, wenn die Stimm-Markierung nicht eingegeben wird. Dadurch können unnötige Prozesse vermieden werden, und es wird keine Sensibilität für andere Schallquellen als eine menschliche Stimme gegeben.
  • Die Ankunftswinkelberechnungseinheit 68 gibt die berechnete Ankunftsrichtung θ an die Strahlformungseinheit (BF) 20 aus.
  • 10 ist ein Blockschaltbild zur Veranschaulichung des Aufbaus einer Strahlformungseinheit (BF) 20. Die BF 20 hat eine Vielzahl von adaptiven Filtern, die darin installiert sind, und führt einen Strahlformungsprozess durch, indem eingegebene Stimmsignale gefiltert werden. Beispielsweise werden die adaptiven Filter durch einen FIR-Filter konfiguriert. Drei FIR-Filter, nämlich ein FIR-Filter 21, ein FIR-Filter 22 und ein FIR-Filter 23, sind für jedes Mikrofon in 10 abgebildet.
  • Bei Eingabe der Ankunftsrichtung der Stimme (θ) aus der Ankunftswinkelberechnungseinheit 68 erneuert eine Strahlkoeffizienten-Erneuerungseinheit 25 den Koeffizienten der FIR-Filter. Zum Beispiel erneuert die Strahlkoeffizienten-Erneuerungseinheit 25 den Koeffizienten der FIR-Filter unter Verwendung eines geeigneten Algorithmus, basierend auf dem eingegebenen Stimmsignal, so dass ein Ausgangssignal unter einschränkenden Bedingungen minimal ist, weswegen die Verstärkung bei dem Fokuswinkel, basierend auf der erneuerten Ankunftsrichtung (θ) 1,0, ist. Da Rauschen, das von anderen Richtungen als der Ankunftsrichtung (θ) ankommt, minimiert werden kann, ist es daher möglich, Stimmen selektiv in der Ankunftsrichtung (θ) zu sammeln.
  • Der BF 20 wiederholt Prozesse, wie oben beschrieben, und gibt ein der Ankunftsrichtung entsprechendes Stimmsignal aus (θ). Dadurch kann die Signalverarbeitungseinheit 15 immer Schall mit der Richtung, die eine menschliche Stimme aufweist, als die Ankunftsrichtung (θ) mit hoher Empfindlichkeit sammeln. Da eine menschliche Stimme nachverfolgt werden kann, kann die Signalverarbeitungseinheit 15 auf diese Weise die Verschlechterung der Klangqualität einer menschlichen Stimme durch Rauschen unterdrücken.
  • 11 ist ein Flussdiagramm, das den Betrieb der Schallabgabe-/-sammelvorrichtung 10 darstellt. Zuerst sammelt die Schallabgabe-/-sammelvorrichtung 10 Schall im Mikrofon 11, Mikrofon 12 und Mikrofon 13 (S11). Die im Mikrofon 11, im Mikrofon 12 und im Mikrofon 13 gesammelte Stimme wird als Stimmsignal an die Signalverarbeitungseinheit 15 gesendet.
  • Als nächstes führen der erste Echokompensator 31, der erste Echokompensator 32 und der erste Echokompensator 33 einen ersten Echokompensationsprozess aus (s12). Der erste Echokompensationsprozess stellt, wie oben beschrieben, einen Subtraktionsprozess dar. Es ist ein Prozess, bei dem die Echokomponente aus dem gesammelten Schallsignal entfernt wird, das in den ersten Echokompensator 31, den ersten Echokompensator 32 und den ersten Echokompensator 33 eingegeben wird.
  • Nach dem ersten Echokompensationsprozess führt die Stimmaktivitätserfassungseinheit (VAD) 50 eine Analyse verschiedener Stimmmerkmale in dem Stimmsignal unter Verwendung eines neuronalen Netzes 57 durch (s13). Wenn die Stimmaktivitätserfassungseinheit (VAD) 50 als Ergebnis der Analyse bestimmt, dass das gesammelte Schallsignal eine Stimme ist (s13: Ja), gibt die Stimmaktivitätserfassungseinheit (VAD) 50 eine Stimm-Markierung an die Ankunftsrichtungseinheit (DOA) 60 aus. Wenn die Stimmaktivitätserfassungseinheit (VAD) 50 bestimmt, dass es keine menschliche Stimme gibt (s13: Nein), gibt die Stimmaktivitätserfassungseinheit (VAD) 50 keine Stimm-Markierung an die Richtung der Ankunftsrichtungseinheit (DOA) 60 aus. Daher wird die Ankunftsrichtung (θ) bei der vorhergehenden Ankunftsrichtung (θ) (S104) beibehalten. Da die Erfassung der Ankunftsrichtung (θ) in der Richtung der Ankunftsrichtungseinheit (DOA) 60 weggelassen wird, wenn keine Stimm-Markierungs-Eingabe vorliegt, ist es möglich, unnötige Prozesse wegzulassen, und Klangquellen wird keine Empfindlichkeit gegeben anders als eine menschliche Stimme, und anderen Schallquellen als einer menschlichen Stimme wird keine Empfindlichkeit verliehen.
  • Als nächstes, wenn die Stimm-Markierung an die Richtung der Ankunftsrichtungseinheit (DOA) 60 ausgegeben wird, detektiert die Richtung der Ankunftsrichtungseinheit (DOA) 60 die Ankunftsrichtung (θ) (s14). Die ermittelte Ankunftsrichtung (θ) wird in den BF 20 eingegeben.
  • Die Strahlformungseinheit (BF) 20 bildet eine Richtwirkung (s15). Die Strahlformungseinheit (BF) 20 stellt den Filterkoeffizienten des eingegebenen Stimmsignals basierend auf der Ankunftsrichtung (θ) ein. Der BF 20 führt einen Prozess mit dem eingestellten Filter zur Strahlformung aus. Demgemäß kann der BF 20 selektiv Stimmen in der Ankunftsrichtung (θ) durch Ausgeben eines Stimmsignals entsprechend der Ankunftsrichtung (θ) sammeln.
  • Anschließend führt der zweite Echokompensator 40 einen zweiten nichtlinearen Echokompensationsvorgang durch (S16). Der zweite Echokompensator 40 führt eine Frequenzspektrum-Amplitudenmultiplikation des Signals durch, das den Strahlformungsprozess im BF 20 durchlaufen hat. Daher kann der zweite Echokompensator 40 eine verbleibende Echokomponente entfernen, die in dem ersten Echo-Kompensationsprozess nicht entfernt werden konnte. Das Stimmsignal mit der entfernten Echokomponente wird von dem zweiten Echokompensator 40 über die Schnittstelle (I/F) 19 an eine externe Vorrichtung ausgegeben.
  • Der Lautsprecher 70 emittiert Schall basierend auf dem Stimmsignal, das von der externen Vorrichtung über die Schnittstelle (I/F) 19 und die Signalverarbeitungseinheit 15 eingegeben wird (s17).
  • Es sei angemerkt, dass in der vorliegenden Ausführungsform ein Beispiel der Schallabgabe-/-sammelvorrichtung 10 als eine Schallabgabe-/-sammelvorrichtung 10 mit den Funktionen sowohl des Aussendens von Schall als auch des Sammelns von Schall gegeben wurde, aber die vorliegende Erfindung ist nicht auf dieses Beispiel beschränkt. Es kann z.B. eine Schallsammelvorrichtung mit der Funktion des Schallsammelns sein.
  • Gegenstand der vorliegenden Erfindung ist es, die Richtung, aus der ein Schall mit hoher Genauigkeit eintrifft, mit einer Vielzahl von Mikrofonen zu erfassen. Die Vorrichtung der vorliegenden Ausführungsform ist nicht notwendigerweise auf ein Beispiel beschränkt, das für eine Telekonferenz verwendet wird, bei der Stimmen gesammelt werden, und ein Signal der gesammelten Stimmen an eine andere Vorrichtung ausgegeben wird.
  • Schließlich sollte berücksichtigt werden, dass die Beschreibung der vorliegenden Ausführungsvariante in jeder Hinsicht beispielhaft ist und die vorliegende Erfindung nicht einschränkt. Der Umfang der vorliegenden Erfindung wird nicht durch die oben beschriebene Ausführungsvariante gezeigt, sondern durch den Umfang der Ansprüche. Darüber hinaus umfasst der Anwendungsbereich der vorliegenden Erfindung Bereiche, die dem Anwendungsbereich der Ansprüche entsprechen.

Claims (20)

  1. Schallsammelvorrichtung, umfassend: eine Vielzahl von Mikrofonen, und eine Signalverarbeitungseinheit, die eine erste Ankunftszeitdifferenz basierend auf einer Ankunftszeitdifferenz eines Schalls von einer Schallquelle zu der Vielzahl von Mikrofonen berechnet, die eine zweite Ankunftszeitdifferenz basierend auf einer Differenz zwischen der ersten Ankunftszeitdifferenz und der Ankunftszeitdifferenz berechnet, und die Position der Schallquelle, basierend auf der ersten Ankunftszeitdifferenz und der zweiten Ankunftszeitdifferenz schätzt.
  2. Schallsammelvorrichtung nach Anspruch 1, wobei die erste Ankunftszeitdifferenz auf der Grundlage der Kreuzkorrelation eines von den mehreren Mikrofonen gesammelten Schallsignals berechnet wird.
  3. Schallsammelvorrichtung nach Anspruch 1 oder 2, wobei die zweite Ankunftszeitdifferenz kleiner ist als die erste Ankunftszeitdifferenz.
  4. Schallsammelvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Signalverarbeitungseinheit eine dritte Ankunftszeitdifferenz, basierend auf der ersten Ankunftszeitdifferenz und der zweiten Ankunftszeitdifferenz findet und die Position der Schallquelle basierend auf der dritten Ankunftszeitdifferenz schätzt.
  5. Schallsammelvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Signalverarbeitungseinheit ein Kreuzspektrum des gesammelten Schallsignals der Vielzahl von Mikrofonen berechnet, ein korrigiertes Kreuzspektrum berechnet, in dem eine Phase des Kreuzspektrums gedreht wird, basierend auf der ersten Ankunftszeitdifferenz, und die zweite Ankunftszeitdifferenz basierend auf dem phasengedrehten Kreuzspektrum berechnet.
  6. Schallsammelvorrichtung nach Anspruch 5, wobei die Signalverarbeitungseinheit die erste Ankunftszeitdifferenz aus einer Zeitdifferenz berechnet, wenn die Kreuzkorrelation maximal ist.
  7. Schallsammelvorrichtung nach Anspruch 5 oder 6, wobei die Signalverarbeitungseinheit einen Grad der Änderung einer Phase zu einem Betrag einer Frequenzänderung basierend auf dem korrigierten Kreuzspektrum berechnet und die zweite Ankunftszeitdifferenz berechnet. Dies stellt eine Ankunftszeitdifferenz in einer Probe der Schallquelle, basierend auf dem Grad der Veränderung, dar.
  8. Schallsammelvorrichtung nach einem der vorhergehenden Ansprüche, ferner mit einer Strahlformungseinheit, die auf der Grundlage der Position der Schallquelle Richtwirkung bildet.
  9. Schallsammelvorrichtung nach Anspruch 7 oder 8, wobei die Signalverarbeitungseinheit den Änderungsgrad einer Spitze unter Verwendung einer kollinearen Näherung berechnet.
  10. Die Schallsammelvorrichtung nach einem der Ansprüche 7 bis 9, wobei die Signalverarbeitungseinheit die Hochfrequenz-Komponente entfernt und den Veränderungsgrad berechnet.
  11. Verfahren zum Sammeln von Schall, umfassend: Berechnen einer ersten Ankunftszeitdifferenz, basierend auf einer Ankunftszeitdifferenz eines Schalls von einer Schallquelle zu einer Vielzahl von Mikrofonen; einer zweiten Ankunftszeitdifferenz, basierend auf der Differenz zwischen der ersten Ankunftszeitdifferenz und der Ankunftszeitdifferenz, und Schätzen einer Position der Schallquelle basierend auf der ersten Ankunftszeitdifferenz und der zweiten Ankunftszeitdifferenz.
  12. Schallsammelvorrichtung nach Anspruch 11, wobei die erste Ankunftszeitdifferenz auf der Grundlage der Kreuzkorrelation eines von den mehreren Mikrofonen gesammelten Schallsignals berechnet wird.
  13. Schallsammelvorrichtung nach Anspruch 11 oder 12, wobei die zweite Ankunftszeitdifferenz kleiner ist als die erste Ankunftszeitdifferenz.
  14. Schallsammelverfahren nach Anspruch 11 nach einem der vorhergehenden Ansprüche, wobei die Signalverarbeitungseinheit eine dritte Ankunftszeitdifferenz basierend auf der ersten Ankunftszeitdifferenz und der zweiten Ankunftszeitdifferenz findet und die Position von der Schallquelle basierend auf der dritten Ankunftszeitdifferenz schätzt.
  15. Schallsammelvorrichtung nach einem der vorhergehenden Ansprüche, ferner mit einer Strahlformungseinheit, die auf der Grundlage der Position der Schallquelle Richtwirkung bildet.
  16. Eine Methode zur Berechnung der Schallankunftsrichtung auf Mikrofone in einer Mikrofon-Anordnung, die Folgendes umfasst: Berechnen eines ersten Ankunftszeitdifferenzwerts von Schall von einer Schallquelle zu einem ersten und einem zweiten einer Vielzahl von Mikrofonen, die die Mikrofon-Anordnung umfassen, wobei die erste Ankunftszeitdifferenz ein ganzzahliges Vielfaches eines Schallsignals ist, und Berechnen eines zweiten Ankunftszeitdifferenzwerts des Schalls von der Schallquelle zu einem ersten und einem zweiten von einer Vielzahl von Mikrofonen, wobei die zweite Ankunftszeitdifferenz ein Bruchwert ist, der eine Differenz zwischen der ersten Ankunftszeitdifferenz und einer tatsächlichen Ankunftszeitdifferenz des Schalls darstellt; der ersten und der zweiten Ankunftszeitdifferenz, um einen Wert der tatsächlichen Ankunftszeit des Schalls zu bestimmen und Bestimmen der Ankunftsrichtung des Schalls in Bezug auf das erste und das zweite Mikrophon in der Mikrofon-Anordnung, basierend auf dem Wert der tatsächlichen Ankunftszeitdifferenz des Schalls zwischen dem ersten und dem zweiten der Vielzahl von Mikrofonen.
  17. Verfahren nach Anspruch 16, wobei der erste Ankunftszeitdifferenz basierend auf der Kreuzkorrelation eines gesammelten Schallsignals der Vielzahl von Mikrofonen berechnet wird.
  18. Verfahren nach Anspruch 16 oder 17, wobei die zweite Ankunftszeitdifferenz kleiner ist als die erste Ankunftszeitdifferenz.
  19. Verfahren nach einem der Ansprüche 16 bis 18, wobei die Signalverarbeitungseinheit eine dritte Ankunftszeitdifferenz basierend auf der ersten Ankunftszeitdifferenz und der zweiten Ankunftszeitdifferenz ermittelt und die Position der Schallquelle schätzt, basierend auf dem dritten Ankunftszeitdifferenz.
  20. Verfahren nach einem der Ansprüche 16 bis 19, wobei die Richtwirkung basierend auf der Position der Schallquelle gebildet wird.
DE102018109247.4A 2017-06-12 2018-04-18 Verfahren zur genauen Berechnung der Ankunftsrichtung von Schall an einer Mikrofon-Anordnung Ceased DE102018109247A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762518294P 2017-06-12 2017-06-12
US62/518,294 2017-06-12

Publications (1)

Publication Number Publication Date
DE102018109247A1 true DE102018109247A1 (de) 2018-12-13

Family

ID=64333170

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018109247.4A Ceased DE102018109247A1 (de) 2017-06-12 2018-04-18 Verfahren zur genauen Berechnung der Ankunftsrichtung von Schall an einer Mikrofon-Anordnung

Country Status (4)

Country Link
US (2) US10334360B2 (de)
JP (1) JP7214379B2 (de)
CN (1) CN109068235A (de)
DE (1) DE102018109247A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11415658B2 (en) * 2020-01-21 2022-08-16 XSail Technology Co., Ltd Detection device and method for audio direction orientation and audio processing system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10334360B2 (en) * 2017-06-12 2019-06-25 Revolabs, Inc Method for accurately calculating the direction of arrival of sound at a microphone array
WO2019063547A1 (en) * 2017-09-26 2019-04-04 Sony Europe Limited METHOD AND ELECTRONIC DEVICE FOR ATTENUATION / AMPLIFICATION OF FORMER
CN110007276B (zh) * 2019-04-18 2021-01-12 太原理工大学 一种声源定位方法及系统
US20220342026A1 (en) * 2019-09-02 2022-10-27 Nec Corporation Wave source direction estimation device, wave source direction estimation method, and program recording medium
NL2024416B1 (en) * 2019-12-10 2021-08-31 Foccaert Y Bvba Location determination system, method for determining a location and device for determining its location

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130949A (en) * 1996-09-18 2000-10-10 Nippon Telegraph And Telephone Corporation Method and apparatus for separation of source, program recorded medium therefor, method and apparatus for detection of sound source zone, and program recorded medium therefor
US6198693B1 (en) * 1998-04-13 2001-03-06 Andrea Electronics Corporation System and method for finding the direction of a wave source using an array of sensors
US6469732B1 (en) * 1998-11-06 2002-10-22 Vtel Corporation Acoustic source location using a microphone array
US6690618B2 (en) * 2001-04-03 2004-02-10 Canesta, Inc. Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device
AUPR647501A0 (en) * 2001-07-19 2001-08-09 Vast Audio Pty Ltd Recording a three dimensional auditory scene and reproducing it for the individual listener
US6912178B2 (en) * 2002-04-15 2005-06-28 Polycom, Inc. System and method for computing a location of an acoustic source
US7783061B2 (en) * 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US8073157B2 (en) * 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US7039199B2 (en) * 2002-08-26 2006-05-02 Microsoft Corporation System and process for locating a speaker using 360 degree sound source localization
TWI235844B (en) * 2003-05-07 2005-07-11 Sunplus Technology Co Ltd Device and method to identify the direction of sound
US20070111767A1 (en) * 2003-06-20 2007-05-17 Inpractis Corporation, Inc. Method and apparatus for activity analysis
US20060088174A1 (en) * 2004-10-26 2006-04-27 Deleeuw William C System and method for optimizing media center audio through microphones embedded in a remote control
US20060245601A1 (en) * 2005-04-27 2006-11-02 Francois Michaud Robust localization and tracking of simultaneously moving sound sources using beamforming and particle filtering
JP4896449B2 (ja) * 2005-06-29 2012-03-14 株式会社東芝 音響信号処理方法、装置及びプログラム
US7558156B2 (en) * 2006-01-06 2009-07-07 Agilent Technologies, Inc. Acoustic location and enhancement
US7843486B1 (en) * 2006-04-10 2010-11-30 Avaya Inc. Selective muting for conference call participants
US20100027806A1 (en) * 2006-12-14 2010-02-04 Cambridge Sound Management, Llc Distributed emitter voice lift system
TWI327230B (en) * 2007-04-03 2010-07-11 Ind Tech Res Inst Sound source localization system and sound soure localization method
US8111583B2 (en) * 2007-08-21 2012-02-07 Schwartz Adam L Method and apparatus for determining and indicating direction and type of sound
EP2202531A4 (de) * 2007-10-01 2012-12-26 Panasonic Corp Detektor für tonquellenausrichtung
KR101456866B1 (ko) * 2007-10-12 2014-11-03 삼성전자주식회사 혼합 사운드로부터 목표 음원 신호를 추출하는 방법 및장치
US8238569B2 (en) * 2007-10-12 2012-08-07 Samsung Electronics Co., Ltd. Method, medium, and apparatus for extracting target sound from mixed sound
KR101483269B1 (ko) * 2008-05-06 2015-01-21 삼성전자주식회사 로봇의 음원 위치 탐색 방법 및 그 장치
EP2197219B1 (de) * 2008-12-12 2012-10-24 Nuance Communications, Inc. Verfahren zur Bestimmung einer Verzögerung zur Verzögerungskompensation
EP2222091B1 (de) * 2009-02-23 2013-04-24 Nuance Communications, Inc. Verfahren zum Bestimmen eines Satzes von Filterkoeffizienten für ein Mittel zur Kompensierung von akustischem Echo
JP2010212818A (ja) * 2009-03-08 2010-09-24 Univ Of Tokyo 複数のマイクロフォンにより受信された多チャンネル信号の処理方法
WO2010130084A1 (zh) * 2009-05-12 2010-11-18 华为终端有限公司 远程呈现系统、方法及视频采集设备
US9271096B2 (en) * 2009-09-03 2016-02-23 Robert Bosch Gmbh Delay unit for a conference audio system, method for delaying audio input signals, computer program and conference audio system
US8565446B1 (en) * 2010-01-12 2013-10-22 Acoustic Technologies, Inc. Estimating direction of arrival from plural microphones
US9132331B2 (en) * 2010-03-19 2015-09-15 Nike, Inc. Microphone array and method of use
EP2375779A3 (de) * 2010-03-31 2012-01-18 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Vorrichtung und Verfahren zum Messen einer Vielzahl von Lautsprechern und Mikrofonanordnung
US20110275434A1 (en) * 2010-05-04 2011-11-10 Mediatek Inc. Methods for controlling a process of a game and electronic devices utilizing the same
KR101782050B1 (ko) * 2010-09-17 2017-09-28 삼성전자주식회사 비등간격으로 배치된 마이크로폰을 이용한 음질 향상 장치 및 방법
US8861756B2 (en) * 2010-09-24 2014-10-14 LI Creative Technologies, Inc. Microphone array system
KR20120059827A (ko) * 2010-12-01 2012-06-11 삼성전자주식회사 다중 음원 위치추적장치 및 그 위치추적방법
EP2647005B1 (de) * 2010-12-03 2017-08-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur geometrie-basierten räumlichen audio-kodierung
CN102033223B (zh) * 2010-12-29 2012-10-03 北京信息科技大学 使用麦克风阵列对声源定位的方法
US9084036B2 (en) * 2011-05-17 2015-07-14 Alcatel Lucent Signal source localization using compressive measurements
KR20130048075A (ko) * 2011-11-01 2013-05-09 삼성전자주식회사 다중 음원 위치추적장치 및 그 위치추적방법
EP2784532A4 (de) * 2011-11-24 2015-10-28 Toyota Motor Co Ltd Vorrichtung zur erkennung von klangquellen
US8983089B1 (en) * 2011-11-28 2015-03-17 Rawles Llc Sound source localization using multiple microphone arrays
KR101282673B1 (ko) * 2011-12-09 2013-07-05 현대자동차주식회사 음원 위치 추정 방법
RU2611563C2 (ru) * 2012-01-17 2017-02-28 Конинклейке Филипс Н.В. Оценка положения источника звука
US20130275873A1 (en) * 2012-04-13 2013-10-17 Qualcomm Incorporated Systems and methods for displaying a user interface
US10497381B2 (en) * 2012-05-04 2019-12-03 Xmos Inc. Methods and systems for improved measurement, entity and parameter estimation, and path propagation effect measurement and mitigation in source signal separation
US9746916B2 (en) * 2012-05-11 2017-08-29 Qualcomm Incorporated Audio user interaction recognition and application interface
US8766765B2 (en) * 2012-09-14 2014-07-01 Hassan Wael HAMADALLAH Device, method and computer program product to assist visually impaired people in sensing voice direction
US9767818B1 (en) * 2012-09-18 2017-09-19 Marvell International Ltd. Steerable beamformer
US9549253B2 (en) * 2012-09-26 2017-01-17 Foundation for Research and Technology—Hellas (FORTH) Institute of Computer Science (ICS) Sound source localization and isolation apparatuses, methods and systems
EP2738762A1 (de) * 2012-11-30 2014-06-04 Aalto-Korkeakoulusäätiö Verfahren zur Raumfilterung von mindestens einem ersten Tonsignal, computerlesbares Speichermedium und Raumfilterungssystem basierend auf Kreuzmuster-Kohärenz
US9706298B2 (en) * 2013-01-08 2017-07-11 Stmicroelectronics S.R.L. Method and apparatus for localization of an acoustic source and acoustic beamforming
US10939201B2 (en) * 2013-02-22 2021-03-02 Texas Instruments Incorporated Robust estimation of sound source localization
US9185199B2 (en) * 2013-03-12 2015-11-10 Google Technology Holdings LLC Method and apparatus for acoustically characterizing an environment in which an electronic device resides
US9338551B2 (en) * 2013-03-15 2016-05-10 Broadcom Corporation Multi-microphone source tracking and noise suppression
WO2015009748A1 (en) * 2013-07-15 2015-01-22 Dts, Inc. Spatial calibration of surround sound systems including listener position estimation
CN104422922A (zh) * 2013-08-19 2015-03-18 中兴通讯股份有限公司 一种移动终端实现声源定位的方法及装置
US9443401B2 (en) * 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US9763004B2 (en) * 2013-09-17 2017-09-12 Alcatel Lucent Systems and methods for audio conferencing
WO2015041549A1 (en) * 2013-09-17 2015-03-26 Intel Corporation Adaptive phase difference based noise reduction for automatic speech recognition (asr)
DK2897382T3 (da) * 2014-01-16 2020-08-10 Oticon As Forbedring af binaural kilde
US9753119B1 (en) * 2014-01-29 2017-09-05 Amazon Technologies, Inc. Audio and depth based sound source localization
US9363598B1 (en) * 2014-02-10 2016-06-07 Amazon Technologies, Inc. Adaptive microphone array compensation
JP6311197B2 (ja) * 2014-02-13 2018-04-18 本田技研工業株式会社 音響処理装置、及び音響処理方法
US9226062B2 (en) * 2014-03-18 2015-12-29 Cisco Technology, Inc. Techniques to mitigate the effect of blocked sound at microphone arrays in a telepresence device
CN103901400B (zh) * 2014-04-10 2016-08-17 北京大学深圳研究生院 一种基于时延补偿和双耳一致性的双耳声音源定位方法
US9338544B2 (en) * 2014-06-03 2016-05-10 Cisco Technology, Inc. Determination, display, and adjustment of best sound source placement region relative to microphone
US9430931B1 (en) * 2014-06-18 2016-08-30 Amazon Technologies, Inc. Determining user location with remote controller
JP6210458B2 (ja) * 2014-07-30 2017-10-11 パナソニックIpマネジメント株式会社 故障検知システム及び故障検知方法
CN105451151B (zh) * 2014-08-29 2018-09-21 华为技术有限公司 一种处理声音信号的方法及装置
US10057699B2 (en) * 2014-10-01 2018-08-21 Sartorius Stedim Biotech Gmbh Audio identification device, audio identification method and audio identification system
CN204272043U (zh) * 2014-12-03 2015-04-15 吉林大学 一种用于声源定位装置的信号预处理模块
US9762195B1 (en) * 2014-12-19 2017-09-12 Amazon Technologies, Inc. System for emitting directed audio signals
WO2016118398A1 (en) * 2015-01-20 2016-07-28 3M Innovative Properties Company Mountable sound capture and reproduction device for determining acoustic signal origin
KR102351366B1 (ko) * 2015-01-26 2022-01-14 삼성전자주식회사 음성 인식 방법 및 장치
CN107996028A (zh) * 2015-03-10 2018-05-04 Ossic公司 校准听音装置
WO2016178231A1 (en) * 2015-05-06 2016-11-10 Bakish Idan Method and system for acoustic source enhancement using acoustic sensor array
US9788109B2 (en) * 2015-09-09 2017-10-10 Microsoft Technology Licensing, Llc Microphone placement for sound source direction estimation
US9875081B2 (en) * 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
US9838646B2 (en) * 2015-09-24 2017-12-05 Cisco Technology, Inc. Attenuation of loudspeaker in microphone array
US9961437B2 (en) * 2015-10-08 2018-05-01 Signal Essence, LLC Dome shaped microphone array with circularly distributed microphones
ES2883874T3 (es) * 2015-10-26 2021-12-09 Fraunhofer Ges Forschung Aparato y método para generar una señal de audio filtrada realizando renderización de elevación
JP6584930B2 (ja) * 2015-11-17 2019-10-02 株式会社東芝 情報処理装置、情報処理方法およびプログラム
US9894434B2 (en) * 2015-12-04 2018-02-13 Sennheiser Electronic Gmbh & Co. Kg Conference system with a microphone array system and a method of speech acquisition in a conference system
US9641935B1 (en) * 2015-12-09 2017-05-02 Motorola Mobility Llc Methods and apparatuses for performing adaptive equalization of microphone arrays
EP3182733A1 (de) * 2015-12-18 2017-06-21 Thomson Licensing Verfahren zur verwendung einer mobilen vorrichtung mit mindestens zwei mikrofonen zur bestimmung der richtung von lautsprechern bei der einrichtung eines raumklangsystems
EP3387648B1 (de) * 2015-12-22 2020-02-12 Huawei Technologies Duesseldorf GmbH Lokalisierungsalgorithmus für schallquellen mit bekannter statistik
US10586205B2 (en) * 2015-12-30 2020-03-10 Walmart Apollo, Llc Apparatus and method for monitoring stock information in a shopping space
US10072935B2 (en) * 2016-02-03 2018-09-11 Walmart Apollo, Llc Apparatus and method for tracking carts in a shopping space
US20170277257A1 (en) * 2016-03-23 2017-09-28 Jeffrey Ota Gaze-based sound selection
CN107437420A (zh) * 2016-05-27 2017-12-05 富泰华工业(深圳)有限公司 语音信息的接收方法、系统及装置
US10063987B2 (en) * 2016-05-31 2018-08-28 Nureva Inc. Method, apparatus, and computer-readable media for focussing sound signals in a shared 3D space
CN107465986A (zh) * 2016-06-03 2017-12-12 法拉第未来公司 使用多个麦克风检测和隔离车辆中的音频的方法和装置
US20190250240A1 (en) * 2016-06-29 2019-08-15 Nec Corporation Correlation function generation device, correlation function generation method, correlation function generation program, and wave source direction estimation device
US10375473B2 (en) * 2016-09-20 2019-08-06 Vocollect, Inc. Distributed environmental microphones to minimize noise during speech recognition
US9794720B1 (en) * 2016-09-22 2017-10-17 Sonos, Inc. Acoustic position measurement
EP3519846B1 (de) * 2016-09-29 2023-03-22 Dolby Laboratories Licensing Corporation Automatische entdeckung und lokalisierung von lautsprecherstandorten in raumklangsystemen
CN107026934B (zh) * 2016-10-27 2019-09-27 华为技术有限公司 一种声源定位方法和装置
US10375498B2 (en) * 2016-11-16 2019-08-06 Dts, Inc. Graphical user interface for calibrating a surround sound system
WO2018095545A1 (en) * 2016-11-28 2018-05-31 Huawei Technologies Duesseldorf Gmbh Apparatus and method for unwrapping phase differences
US10595123B2 (en) * 2016-12-02 2020-03-17 Walmart Apollo, Llc Systems and methods for tracking a cleaning device in a shopping space
JP6769495B2 (ja) * 2017-01-11 2020-10-14 日本電気株式会社 相関関数生成装置、相関関数生成方法、相関関数生成プログラムおよび波源方向推定装置
US10297267B2 (en) * 2017-05-15 2019-05-21 Cirrus Logic, Inc. Dual microphone voice processing for headsets with variable microphone array orientation
US10334360B2 (en) * 2017-06-12 2019-06-25 Revolabs, Inc Method for accurately calculating the direction of arrival of sound at a microphone array
US20190082255A1 (en) * 2017-09-08 2019-03-14 Olympus Corporation Information acquiring apparatus, information acquiring method, and computer readable recording medium
EP3467819B1 (de) * 2017-10-05 2024-06-12 Harman Becker Automotive Systems GmbH Vorrichtung und verfahren mit verwendung mehrerer sprachsteuerungsvorrichtungen
GB201803570D0 (en) * 2017-10-13 2018-04-18 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
US10609504B2 (en) * 2017-12-21 2020-03-31 Gaudi Audio Lab, Inc. Audio signal processing method and apparatus for binaural rendering using phase response characteristics
KR102088222B1 (ko) * 2018-01-25 2020-03-16 서강대학교 산학협력단 분산도 마스크를 이용한 음원 국지화 방법 및 음원 국지화 장치
US10885907B2 (en) * 2018-02-14 2021-01-05 Cirrus Logic, Inc. Noise reduction system and method for audio device with multiple microphones

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11415658B2 (en) * 2020-01-21 2022-08-16 XSail Technology Co., Ltd Detection device and method for audio direction orientation and audio processing system

Also Published As

Publication number Publication date
US20180359563A1 (en) 2018-12-13
US10334360B2 (en) 2019-06-25
US10524049B2 (en) 2019-12-31
US20190268695A1 (en) 2019-08-29
JP2019004465A (ja) 2019-01-10
CN109068235A (zh) 2018-12-21
JP7214379B2 (ja) 2023-01-30

Similar Documents

Publication Publication Date Title
DE102018109247A1 (de) Verfahren zur genauen Berechnung der Ankunftsrichtung von Schall an einer Mikrofon-Anordnung
DE102018109246A1 (de) System zum Sammeln und Verarbeiten von Audio-Signalen
DE60212528T2 (de) Verfahren zur Verbesserung der nahen Sprachaktivitätsdetektion in einem System zur Sprecherlokalisierung mit Hilfe von Strahlbildung
DE112009000805B4 (de) Rauschreduktion
DE112014003443B4 (de) Mikrophonkalibrierung
DE60108752T2 (de) Verfahren zur rauschunterdrückung in einem adaptiven strahlformer
DE112016006218T5 (de) Schallsignalverbesserung
DE102015221764A1 (de) Verfahren zum Angleichen von Mikrofonempfindlichkeiten
DE60123589T2 (de) Verfahren zur schätzung einer korrelationsmatrix von durch ein sensornetz empfangenen, interferierenden signalen
DE10313331A1 (de) Verfahren zur Bestimmung einer Einfallsrichtung eines Signals einer akustischen Signalquelle und Vorrichtung zur Durchführung des Verfahrens
AT510359B1 (de) Verfahren zur akustischen signalverfolgung
DE102018117558A1 (de) Adaptives nachfiltern
EP3610289B1 (de) Verarbeitungseinheit für eine sonaranlage zum verarbeiten von hydrophonsignalen sowie sonaranlage und verfahren
DE112017007051B4 (de) Signalverarbeitungsvorrichtung
DE112018002744T5 (de) Schallerfassung
DE102019105458B4 (de) System und Verfahren zur Zeitverzögerungsschätzung
EP1756983A1 (de) Verfahren zum detektieren von zielen
DE102011117591A1 (de) Verfahren und Vorrichtung zum Korrigieren systematischer Peilfehler
EP2480907B1 (de) Verfahren und vorrichtung zum peilen von schallabstrahlenden zielen
DE112019007387T5 (de) Verfahren und System zur Raumkalibrierung in einem Lautsprechersystem
EP2015083B1 (de) Verfahren und Vorrichtung zur Optimierung der Messzeit für Rauschanalysatoren oder Spektrumanalysatoren mit Kreuzkorrelationsverfahren
EP0787416B1 (de) Verfahren zur messung der erhaltung stereophoner audiosignale und verfahren zur erkennung gemeinsam codierter stereophoner audiosignale
EP1107016B1 (de) Verfahren zur Detektion und Ortung von Zielen
EP2839310B1 (de) Verfahren und vorrichtung zum räumlichen filtern von schallwellen
DE102009047941B3 (de) Verfahren zur akustischen Vermessung eines Gewässergrundes sowie Fächerloteinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: HGF EUROPE LLP, DE

Representative=s name: HGF EUROPE LP, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final