DE112017002299T5 - Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen - Google Patents

Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen Download PDF

Info

Publication number
DE112017002299T5
DE112017002299T5 DE112017002299.1T DE112017002299T DE112017002299T5 DE 112017002299 T5 DE112017002299 T5 DE 112017002299T5 DE 112017002299 T DE112017002299 T DE 112017002299T DE 112017002299 T5 DE112017002299 T5 DE 112017002299T5
Authority
DE
Germany
Prior art keywords
microphone
signal
audio
audio signal
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112017002299.1T
Other languages
English (en)
Inventor
Jonathon Roy
John Woodruff
Shailesh Sakri
Tony Verma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Knowles Electronics LLC
Original Assignee
Knowles Electronics LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Knowles Electronics LLC filed Critical Knowles Electronics LLC
Publication of DE112017002299T5 publication Critical patent/DE112017002299T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

Systeme und Verfahren zur Stereotrennung und Richtungsunterdrückung werden bereitgestellt. Ein beispielhaftes Verfahren umfasst das Empfangen eines ersten Audiosignals, das einen Ton darstellt, der von einem einer ersten Position zugeordneten ersten Mikrofon aufgenommen wird, und eines zweiten Audiosignals, das einen Ton darstellt, der von einem einer zweiten Position zugeordneten zweiten Mikrofon aufgenommen wird. Die Mikrofone umfassen Omni-Richtmikrofone. Der Abstand zwischen dem ersten und zweiten Mikrofon ist durch die Größe einer Mobilvorrichtung begrenzt. Ein erstes Kanalsignal eines Stereosignals wird erzeugt, indem basierend auf den ersten und zweiten Audiosignalen ein erster Strahl an der ersten Stelle gebildet wird. Ein zweites Kanalsignal des Stereosignals wird erzeugt, indem basierend auf den ersten und zweiten Audiosignalen ein zweiter Strahl an der zweiten Stelle gebildet wird. Erste und zweite Richtungen, die jeweils dem ersten und dem zweiten Strahl zugeordnet sind, sind relativ zu einer Linie zwischen dem ersten und dem zweiten Ort festgelegt.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Vorteil und die Priorität von U.S. Patentanmeldung Nr. 15/144,631 , eingereicht am 2. Mai 2016, deren gesamter Inhalt hierin durch Bezugnahme eingeschlossen ist.
  • GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf die Audioverarbeitung und insbesondere auf Systeme und Verfahren zur Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen.
  • HINTERGRUND
  • Aufzeichnen von Stereo-Audio mit einer Mobilvorrichtung, wie beispielsweise Smartphones und Tablet-Computern, kann nützlich sein, um ein Video von Konzerten, Aufführungen und anderen Ereignissen zu machen. Typische Stereo-Aufnahmevorrichtungen sind entweder mit einer großen Trennung zwischen Mikrofonen oder mit genau abgewinkelten Richtmikrofonen konstruiert, um die akustischen Eigenschaften der Richtmikrofone zur Aufnahme von Stereoeffekten zu nutzen. Mobilvorrichtungen sind jedoch in der Größe begrenzt, und daher ist der Abstand zwischen Mikrofonen wesentlich kleiner als ein minimaler Abstand, der für eine optimale omnidirektionale Mikrofon-Stereo-Trennung erforderlich ist. Verwendung von Richtmikrofonen ist aufgrund der Größenbeschränkungen der Mobilvorrichtungen nicht praktikabel und kann zu einer Erhöhung der Gesamtkosten führen, die mit den Mobilvorrichtungen verbunden sind. Aufgrund des begrenzten Platzes zum Platzieren von Richtmikrofonen kann ein Benutzer der Mobilvorrichtung zusätzlich eine dominante Quelle für die Richtmikrofone sein, die oft mit Zielschallquellen interferieren.
  • Ein anderer Aspekt des Aufzeichnens von Stereo-Audio unter Verwendung einer Mobilvorrichtung ist ein Problem des Erfassens von akustisch repräsentativen Signalen, die bei der nachfolgenden Verarbeitung verwendet werden sollen. Herkömmliche Mikrofone, die für Mobilvorrichtungen verwendet werden, sind möglicherweise nicht in der Lage, mit Hochdruckbedingungen fertig zu werden, bei denen Stereoaufnahmen durchgeführt werden, z.B. bei einer Aufführung, einem Konzert oder einer windigen Umgebung. Dadurch können von den Mikrofonen erzeugte Signale durch Erreichen ihres akustischen Überlastpunktes („acoustic overload point“, AOP) verzerrt werden.
  • ZUSAMMENFASSUNG
  • Diese Zusammenfassung wird bereitgestellt, um eine Auswahl von Konzepten in einer vereinfachten Form einzuführen, die weiter unten in der detaillierten Beschreibung beschrieben werden. Diese Zusammenfassung dient nicht dazu, Schlüsselmerkmale oder wesentliche Merkmale des beanspruchten Gegenstands zu identifizieren, noch soll sie dazu dienen, den Umfang des beanspruchten Gegenstands zu bestimmen.
  • Es werden Systeme und Verfahren zur Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen bereitgestellt. Ein beispielhaftes Verfahren umfasst das Empfangen von wenigstens einem ersten Audiosignal und einem zweiten Audiosignal. Das erste Audiosignal kann einen Ton repräsentieren, der von einem ersten Mikrofon erfasst wird, das mit einer ersten Position assoziiert ist. Das zweite Audiosignal kann einen Ton repräsentieren, der von einem zweiten Mikrofon aufgenommen wird, das einer zweiten Position zugeordnet ist. Das erste Mikrofon und das zweite Mikrofon können Omni-Richtmikrofone umfassen. Das Verfahren kann das Erzeugen eines ersten Kanalsignals eines Stereoaudiosignals durch Bilden eines ersten Strahls an dem ersten Ort auf der Grundlage des wenigstens ersten Audiosignals und des zweiten Audiosignals umfassen. Das Verfahren kann auch das Erzeugen eines zweiten Kanalsignals des Stereoaudiosignals durch Bilden eines zweiten Strahls an der zweiten Stelle auf der Grundlage des wenigstens ersten Audiosignals und des zweiten Audiosignals umfassen.
  • In einigen Ausführungsformen ist ein Abstand zwischen dem ersten Mikrofon und dem zweiten Mikrofon durch eine Größe einer Mobilvorrichtung begrenzt. In bestimmten Ausführungsformen befindet sich das erste Mikrofon an der Oberseite der Mobilvorrichtung und das zweite Mikrofon befindet sich an der Unterseite der Mobilvorrichtung. In anderen Ausführungsformen können das erste und das zweite Mikrofon (und gegebenenfalls zusätzliche Mikrofone) unterschiedlich angeordnet sein, einschließlich, ohne darauf beschränkt zu sein, der Mikrofone entlang einer Seite der Vorrichtung, z.B. getrennt entlang der Seite eines Tabletts mit Mikrofonen auf der Seite.
  • In einigen Ausführungsformen sind die Richtungen des ersten Strahls und des zweiten Strahls relativ zu einer Linie zwischen dem ersten Ort und dem zweiten Ort festgelegt. In einigen Ausführungsformen umfasst das Verfahren ferner das Empfangen von wenigstens einem anderen akustischen Signal. Das andere akustische Signal kann von einem anderen Mikrofon aufgenommen werden, das einer anderen Stelle zugeordnet ist. Das andere Mikrofon enthält ein Omni-Richtmikrofon. In einigen Ausführungsformen basiert das Bilden des ersten Strahls und des zweiten Strahls ferner auf dem anderen akustischen Signal. In einigen Ausführungsformen befindet sich das andere Mikrofon außerhalb der Leitung zwischen dem ersten Mikrofon und dem zweiten Mikrofon.
  • In einigen Ausführungsformen umfasst das Ausbilden des ersten Strahls das Reduzieren der Signalenergie von akustischen Signalkomponenten, die Quellen außerhalb des ersten Strahls zugeordnet sind. Das Bilden des zweiten Strahls kann das Reduzieren der Signalenergie von akustischen Signalkomponenten umfassen, die mit weiteren Quellen außerhalb des zweiten Strahls assoziiert sind. In bestimmten Ausführungsformen wird die Reduzierung der Signalenergie durch eine subtraktive Unterdrückung durchgeführt. In einigen Ausführungsformen umfassen das erste Mikrofon und das zweite Mikrofon Mikrofone mit einem akustischen Überlastpunkt (AOP), der größer als ein vorbestimmter Schalldruckpegel ist. In bestimmten Ausführungsformen beträgt der vorbestimmte Schalldruckpegel 120 Dezibel.
  • Gemäß einer weiteren beispielhaften Ausführungsform der vorliegenden Offenbarung werden die Schritte des Verfahrens zur Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen auf einem maschinenlesbaren Medium gespeichert, das Anweisungen umfasst, die, wenn sie durch einen oder mehrere Prozessoren ausgeführt werden, die vorgetragene Schritte ausführen.
  • Weitere beispielhafte Ausführungsformen der Offenbarung und Aspekte werden aus der folgenden Beschreibung in Verbindung mit den folgenden Zeichnungen ersichtlich.
  • Figurenliste
  • Ausführungsformen sind beispielhaft und nicht einschränkend in den Figuren der beigefügten Zeichnungen dargestellt, in denen gleiche Bezugszeichen ähnliche Elemente bezeichnen.
    • 1 ist ein Blockdiagramm einer beispielhaften Umgebung, in der die vorliegende Technologie verwendet werden kann.
    • 2 ist ein Blockdiagramm eines beispielhaften Audiogeräts.
    • 3 ist ein Blockdiagramm eines beispielhaften Audioverarbeitungssystems.
    • 4 ist ein Blockdiagramm eines beispielhaften Audioverarbeitungssystems, das für eine gerichtete Audioaufnahme geeignet ist.
    • 5A ist ein Blockdiagramm, das eine beispielhafte Umgebung zur gerichteten Audiosignalerfassung unter Verwendung von zwei Omni-Richtmikrofonen zeigt.
    • 5B ist ein Diagramm, das gerichtete Audiosignale zeigt, die mit zwei Omni-Richtmikrofonen aufgenommen werden.
    • 6 ist ein Blockdiagramm, das ein Modul für Null-Verarbeitungsrauschsubtraktion zeigt.
    • 7A ist ein Blockdiagramm, das Koordinaten zeigt, die bei der Audio-Zoom-Audioverarbeitung verwendet werden.
    • 7B ist ein Blockdiagramm, das Koordinaten zeigt, die bei der Audio-Zoom-Audioverarbeitung verwendet werden.
    • 8 ist ein Blockdiagramm, das ein beispielhaftes Modul für eine Nullverarbeitungs-Rauschsubtraktion zeigt.
    • 9 ist ein Blockdiagramm, das eine weitere beispielhafte Umgebung zeigt, in der Ausführungsformen der vorliegenden Technologie praktiziert werden können.
    • 10 zeigt Diagramme unverarbeiteter und verarbeiteter Beispiel-Audiosignale.
    • 11 ist ein Flussdiagramm eines beispielhaften Verfahrens zur Stereotrennung und Richtungsunterdrückung von Audio unter Verwendung von Omni-Richtmikrofonen.
    • 12 ist ein Computersystem, das verwendet werden kann, um eine beispielhafte Ausführungsform der vorliegenden Technologie zu implementieren.
  • DETAILLIERTE BESCHREIBUNG
  • Die hier offenbarte Technologie bezieht sich auf Systeme und Verfahren zur Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen. Ausführungsformen der vorliegenden Technologie können mit Audiogeräten praktiziert werden, die betreibbar sind, um wenigstens akustische Signale zu erfassen und zu verarbeiten. In einigen Ausführungsformen können die Audiogeräte tragbare Geräte sein, wie z.B. drahtgebundene und/oder drahtlose Fernbedienungen, Notebook-Computer, Tablet-Computer, Phablets, Smartphones, persönliche digitale Assistenten, Mediaplayer, Mobiltelefone und dergleichen. Die Audiogeräte können Radiofrequenz (RF) -Empfänger, -Sender und -Transceiver haben; kabelgebundene und/oder drahtlose Telekommunikations- und/oder Netzwerkgeräte; Verstärker; Audio- und/oder Videoabspielgeräte; Codierer; Decodierer; Lautsprecher; Eingänge; Ausgänge; Speichergeräte; und Benutzereingabevorrichtungen. Audiogeräte können Eingabevorrichtungen wie Knöpfe, Schalter, Tasten, Tastaturen, Trackballs, Schieberegler, Touchscreens, ein oder mehrere Mikrofone, Gyroskope, Beschleunigungsmesser, GPS-Empfänger und dergleichen aufweisen. Die Audiogeräte können Ausgänge aufweisen, beispielsweise LED-Anzeigen, Videoanzeigen, Touchscreens, Lautsprecher und dergleichen.
  • In verschiedenen Ausführungsformen arbeiten die Audiogeräte in stationären und tragbaren Umgebungen. Die stationären Umgebungen können Wohn- und Geschäftsgebäude oder -strukturen und dergleichen umfassen. Zum Beispiel können die stationären Ausführungsformen Konzerthallen, Wohnzimmer, Schlafzimmer, Heimkinos, Konferenzräume, Auditorien, Geschäftsräume und dergleichen umfassen. Tragbare Umgebungen können sich bewegende Fahrzeuge, sich bewegende Personen oder andere Transportmittel und dergleichen umfassen.
  • Gemäß einer beispielhaften Ausführungsform umfasst ein Verfahren zur Stereotrennung und Richtungsunterdrückung das Empfangen von wenigstens einem ersten Audiosignal und einem zweiten Audiosignal. Das erste Audiosignal kann einen Ton repräsentieren, der von einem ersten Mikrofon erfasst wird, das mit einer ersten Position assoziiert ist. Das zweite Audiosignal kann einen Ton repräsentieren, der von einem zweiten Mikrofon aufgenommen wird, das einer zweiten Position zugeordnet ist. Das erste Mikrofon und das zweite Mikrofon können Omni-Richtmikrofone umfassen. Das beispielhafte Verfahren umfasst das Erzeugen eines ersten Stereosignals durch Bilden eines ersten Strahls an dem ersten Ort basierend auf dem wenigstens ersten Audiosignal und dem zweiten Audiosignal. Das Verfahren kann ferner Erzeugen eines zweiten Stereosignals durch Bilden eines zweiten Strahls an dem zweiten Ort basierend auf dem wenigstens ersten Audiosignal und dem zweiten Audiosignal umfassen.
  • 1 ist ein Blockdiagramm einer beispielhaften Umgebung 100, in der die Ausführungsformen der vorliegenden Technologie praktiziert werden können. Die Umgebung 100 von 1 kann Audiogerät 104 und Audioquellen 112, 114 und 116 umfassen. Das Audiogerät kann wenigstens ein primäres Mikrofon 106a und ein sekundäres Mikrofon 106b umfassen.
  • Das primäre Mikrofon 106a und das sekundäre Mikrofon 106b des Audiogeräts 104 können Omni-Richtmikrofone umfassen. In einigen Ausführungsformen ist das primäre Mikrofon 106a an der Unterseite des Audiogeräts 104 angeordnet und kann dementsprechend als das untere Mikrofon bezeichnet werden. In ähnlicher Weise befindet sich das sekundäre Mikrofon 106b in einigen Ausführungsformen an der Oberseite des Audiogeräts 104 und kann dementsprechend als oberes Mikrofon bezeichnet werden. In anderen Ausführungsformen können das erste und das zweite Mikrofon (und gegebenenfalls zusätzliche Mikrofone) unterschiedlich angeordnet sein, einschließlich, ohne darauf beschränkt zu sein, der Mikrofone entlang einer Seite der Vorrichtung, z.B. getrennt entlang der Seite eines Tabletts mit Mikrofonen auf der Seite.
  • Einige Ausführungsformen, wenn die vorliegende Offenbarung Niveaudifferenzen (z.B. Energiedifferenzen), Phasendifferenzen und Differenzen in Ankunftszeiten zwischen den von den zwei Mikrofonen 106a und 106b empfangenen akustischen Signalen verwendet. Da das primäre Mikrofon 106a näher an der Audioquelle 112 ist als das sekundäre Mikrofon 106b, ist das Intensitätsniveau für das Audiosignal von der Audioquelle 112 (grafisch dargestellt durch 122, das neben den gewünschten Sounds auch Rauschen enthalten kann) für das primäre Mikrofon 106a höher, was zu einem größeren Energieniveau führt, das von dem primären Mikrofon 106a empfangen wird. Da das sekundäre Mikrofon 106b näher an der Audioquelle 116 ist als das primäre Mikrofon 106a, ist in ähnlicher Weise das Intensitätsniveau für das Audiosignal von der Audioquelle 116 (grafisch dargestellt durch 126, das neben den gewünschten Sounds auch Rauschen enthalten kann) für das sekundäre Mikrofon 106 höher, was zu einem größeren Energieniveau führt, das von dem sekundären Mikrofon 106b empfangen wird. Andererseits könnte das Intensitätsniveau für das Audiosignal von der Audioquelle 114 (graphisch dargestellt durch 124, das neben den gewünschten Sounds auch Rauschen enthalten kann) für eines der zwei Mikrofone 106a und 106b höher sein, abhängig beispielsweise von seiner Lage innerhalb der Kegel 108a und 108b.
  • Die Niveaudifferenzen können verwendet werden, um zwischen Sprache und Rauschen im Zeit-Frequenz-Bereich zu unterscheiden. Einige Ausführungsformen können eine Kombination von Energieniveaudifferenzen und Differenzen der Ankunftszeiten verwenden, um zwischen akustischen Signalen zu unterscheiden, die aus verschiedenen Richtungen kommen. In einigen Ausführungsformen wird eine Kombination von Energieniveaudifferenzen und Phasendifferenzen für die gerichtete Audioerfassung verwendet.
  • Verschiedene beispielhafte Ausführungsformen der vorliegenden Technologie verwenden Niveaudifferenzen (z.B. Energiedifferenzen), Phasendifferenzen und Unterschiede in Ankunftszeiten für eine Stereotrennung und eine Richtungsunterdrückung von akustischen Signalen, die durch Mikrofone 106a und 106b erfasst werden. Wie in 1 gezeigt, kann ein multidirektionales akustisches Signal, das von den Audioquellen 112, 114 und 116 bereitgestellt wird, in ein linkes Kanalsignal eines Stereoaudiosignals und ein rechtes Kanalsignal des Stereoaudiosignals getrennt werden (hier auch als linkes und rechtes Stereosignal oder linker und rechter Kanal des Stereosignals bezeichnet). Der linke Kanal des Stereosignals kann erhalten werden, indem auf akustische Signale innerhalb des Kegels 118a fokussiert wird und akustische Signale außerhalb des Kegels 118a unterdrückt werden. Der Kegel 118a kann die Audioquellen 112 und 114 abdecken. In ähnlicher Weise kann ein rechter Kanal des Stereosignals erhalten werden, indem auf akustische Signale innerhalb des Kegels 118b fokussiert wird und akustische Signale außerhalb des Kegels 118b unterdrückt werden. Der Kegel 118b kann die Audioquellen 114 und 116 abdecken. In einigen Ausführungsformen der vorliegenden Offenbarung werden Audiosignale, die von einer dem Benutzer 510 (auch als Erzähler / Benutzer 510 bezeichnet) zugeordneten Stelle kommen, sowohl im linken Kanal des Stereosignals als auch im rechten Kanal des Stereosignals unterdrückt. Verschiedene Ausführungsformen der vorliegenden Technologie können zum Aufnehmen von Stereo-Audio beim Aufnehmen von Video zu Hause, während Konzerten, Schulspielen und so weiter verwendet werden.
  • 2 ist ein Blockdiagramm eines beispielhaften Audiogeräts. In einigen Ausführungsformen kann das beispielhafte Audiogerät von 2 zusätzliche Details für das Audiogerät 104 von 1 liefern. In der dargestellten Ausführungsform umfasst das Audiogerät 104 einen Empfänger 210, einen Prozessor 220, das primäre Mikrofon 106a, ein sekundäres Mikrofon 106b, ein Audioverarbeitungssystem 230 und eine Ausgabevorrichtung 240. In einigen Ausführungsformen umfasst das Audiogerät 104 ein anderes, optionales tertiäres Mikrofon 106c. Das Audiogerät 104 kann zusätzliche oder unterschiedliche Komponenten enthalten, um die Audiogeräte 104 - Operationen zu ermöglichen. In ähnlicher Weise kann das Audiogerät 104 weniger Komponenten enthalten, die ähnliche oder äquivalente Funktionen wie die in 2 gezeigten ausführen.
  • Der Prozessor 220 kann Anweisungen und Module ausführen, die in einem Speicher (in 2 nicht dargestellt) des Audiogeräts 104 gespeichert sind, um die hierin beschriebene Funktionalität durchzuführen, einschließlich einer Rauschreduzierung für ein akustisches Signal. Der Prozessor 220 kann Hardware und Software umfassen, die als eine Verarbeitungseinheit implementiert sind, die Gleitkomma- und/oder Festkommaoperationen und andere Operationen für den Prozessor 220 verarbeiten kann.
  • Der beispielhafte Empfänger 210 kann ein Sensor sein, der konfiguriert ist, um ein Signal von einem Kommunikationsnetzwerk zu empfangen. In einigen Ausführungsformen kann der Empfänger 210 eine Antennenvorrichtung umfassen. Das Signal kann dann zu dem Audioverarbeitungssystem 230 zur Rauschreduzierung und anderen Verarbeitung unter Verwendung der hierin beschriebenen Techniken weitergeleitet werden. Das Audioverarbeitungssystem 230 kann ein verarbeitetes Signal an die Ausgabevorrichtung 240 bereitstellen, um dem Benutzer eine Audioausgabe (Audioausgaben) bereitzustellen. Die vorliegende Technologie kann in einem oder beiden der Sende- und Empfangspfade des Audiogeräts 104 verwendet werden.
  • Das Audioverarbeitungssystem 230 kann dazu konfiguriert sein, akustische Signale zu empfangen, die Ton von einer oder mehreren akustischen Quellen über das primäre Mikrofon 106a und das sekundäre Mikrofon 106b darstellen, und die akustischen Signale zu verarbeiten. Die Verarbeitung kann das Durchführen einer Rauschreduzierung für ein akustisches Signal umfassen. Das beispielhafte Audioverarbeitungssystem 230 wird nachstehend ausführlicher beschrieben. Die primären und sekundären Mikrofone 106a, 106b können einen Abstand voneinander haben, um eine Energieniveaudifferenz, eine Zeitankunftsdifferenz oder eine Phasendifferenz zwischen ihnen erfassen zu können. Die akustischen Signale, die von dem primären Mikrofon 106a und dem sekundären Mikrofon 106b empfangen werden, können in elektrische Signale umgewandelt werden (z.B. ein primäres elektrisches Signal und ein sekundäres elektrisches Signal). Die elektrischen Signale können wiederum durch einen Analog-Digital-Wandler (nicht gezeigt) in digitale Signale umgewandelt werden, die den erfassten Ton darstellen, um gemäß einigen Ausführungsformen verarbeitet zu werden.
  • Die Ausgabevorrichtung 240 kann eine Vorrichtung enthalten, die dem Benutzer eine Audioausgabe bereitstellt. Zum Beispiel kann das Ausgabegerät 240 einen Lautsprecher, ein Ohrstück eines Headsets oder Handsets oder einen Speicher enthalten, in dem das Ausgangssignal für eine Video-/Audioextraktion zu einem späteren Zeitpunkt gespeichert wird, z.B. zur Übertragung auf einen Computer, eine Videodisk oder andere Medien zur Benutzung.
  • In verschiedenen Ausführungsformen, wo die primären und sekundären Mikrofone Omni-Richtmikrofone enthalten, die eng beabstandet sind (z.B. 1-2 cm voneinander entfernt), kann eine Strahlformungstechnik verwendet werden, um nach vorne weisende und nach hinten weisende Richtmikrofone zu simulieren. Die Energieniveaudifferenz kann verwendet werden, um zwischen Sprache und Rauschen in dem Zeit-Frequenz-Bereich zu unterscheiden, der bei der Rauschreduzierung verwendet wird.
  • 3 ist ein Blockdiagramm eines beispielhaften Audioverarbeitungssystems. Das Blockdiagramm von 3 liefert zusätzliche Details für das Audioverarbeitungssystem 230 des beispielhaften Blockdiagramms von 2. Das Audioverarbeitungssystem 230 in diesem Beispiel umfasst verschiedene Module, einschließlich der Schnell-Cochlea-Transformation („fast cochlea transform“, FCT) 302 und 304, Strahlformer 310, multiplikativer Verstärkungserweiterung 320, Nachhall 330, Mischer 340 und der Zoomsteuerung 350.
  • Die FCT 302 und 304 können akustische Signale von Audiogerätemikrophonen empfangen und die akustischen Signale in Frequenzbereichs-Subbandsignale umwandeln. In einigen Ausführungsformen sind die FCT 302 und 304 als ein oder mehrere Module implementiert, die betreibbar sind, um ein oder mehrere Subbandsignale für jedes empfangene Mikrofonsignal zu erzeugen. Die FCT 302 und 304 können ein akustisches Signal empfangen, das den Ton von jedem in dem Audiogerät 104 enthaltenen Mikrofon darstellt. Diese akustischen Signale sind als Signale X1-Xi dargestellt, wobei X1 ein primäres Mikrofonsignal und Xi den Rest (z.B. N-1) der Mikrofonsignale darstellen. In einigen Ausführungsformen führt das Audioverarbeitungssystem 230 von 3 Audio-Zoom auf einer Einzelbild- und einer Subband-Basis durch.
  • In einigen Ausführungsformen empfängt der Strahlformer 310 Frequenz-Subbandsignale sowie ein Zoom-Anzeigesignal. Das Zoom-Anzeigesignal kann von der Zoomsteuerung 350 empfangen werden. Das Zoom-Anzeigesignal kann als Reaktion auf eine Benutzereingabe, eine Analyse eines primären Mikrofonsignals oder anderer akustischer Signale, die von dem Audiogerät 104 empfangen werden, eine Video-Zoom-Merkmalsauswahl oder einige andere Daten erzeugt werden. Im Betrieb empfängt der Strahlformer 310 Subbandsignale, verarbeitet die Subbandsignale, um zu identifizieren, welche Signale sich innerhalb eines bestimmten zu verbessernden (oder „zoom“) Bereichs befinden und stellt Daten für die ausgewählten Signale als Ausgabe an das multiplikative Verstärkungserweiterungsmodul 320 bereit. Die Ausgabe kann Subbandsignale für die Audioquelle innerhalb des zu verbessernden Bereichs enthalten. Strahlformer 310 kann auch einen Verstärkungsfaktor für die multiplikative Verstärkungserweiterung 320 bereitstellen. Der Verstärkungsfaktor kann anzeigen, ob die multiplikative Verstärkungserweiterung 320 eine zusätzliche Verstärkung oder Reduktion für die von dem Strahlformer 310 empfangenen Signale durchführen sollte. In einigen Ausführungsformen wird der Verstärkungsfaktor als ein Energieverhältnis basierend auf den empfangenen Mikrofonsignalen und Komponenten erzeugt. Die Verstärkungsanzeige, die von dem Strahlformer 310 ausgegeben wird, kann ein Verhältnis von Energie in der Energiekomponente des primären Mikrofons sein, reduziert durch den Strahlformer 310, um Energie von dem Strahlformer 310 auszugeben. Dementsprechend kann die Verstärkung einen Erhöhungs- oder Aufhebungverstärkungsfaktor enthalten. Ein beispielhafter Verstärkungsfaktor wird unten ausführlicher diskutiert.
  • Der Strahlformer 310 kann als ein Nullverarbeitungs-Rauschunterdrückungsmodul (NPNS-Modul), ein multiplikatives Modul oder eine Kombination dieser Module implementiert sein. Wenn ein NPNS-Modul in Mikrofonen verwendet wird, um einen Strahl zu erzeugen und eine Strahlformung zu erreichen, wird der Strahl fokussiert, indem die Beschränkungen von Alpha (?) und Gamma (?) verschmälert werden. Dementsprechend kann ein Strahl manipuliert werden, indem ein Schutzbereich für die bevorzugte Richtung bereitgestellt wird. Beispielhafte Strahlformermodule 310 sind ferner in der US-Patentanmeldung mit der Seriennummer 14/957,447 mit dem Titel „Directional Audio Capture“ und der US-Patentanmeldung mit der Seriennummer 12/896,725 mit dem Titel „Audio Zoom“ (am 8. Dezember 2015 erteilt als US-Patent Nr. 9,210,503 ) beschrieben, deren Offenbarungen hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen sind. Zusätzliche Techniken zum Reduzieren unerwünschter Audiokomponenten eines Signals sind in der US-Patentanmeldung mit der Seriennummer 12/693,998 mit dem Titel „Adaptive Noise Reduction Using Level Cues“ (veröffentlicht als US-Patent Nr. 8,718,290 am 6. Mai 2014) beschrieben und wird hierin durch Bezugnahme in seiner Gesamtheit aufgenommen.
  • Das multiplikative Verstärkungserweiterungsmodul 320 kann Subbandsignale empfangen, die Audioquellen innerhalb des ausgewählten Strahls, dem Verstärkungsfaktor von dem Strahlformer 310 und dem Zoomanzeigesignal zugeordnet sind. Das multiplikative Verstärkungserweiterungsmodul 320 kann eine multiplikative Verstärkung basierend auf dem empfangenen Verstärkungsfaktor anwenden. Tatsächlich kann das multiplikative Verstärkungserweiterungsmodul 320 das vom Strahlformer 310 bereitgestellte Strahlformersignal filtern.
  • Der Verstärkungsfaktor kann als eines von mehreren unterschiedlichen Energieverhältnissen implementiert werden. Zum Beispiel kann das Energieverhältnis ein Verhältnis eines rauschreduzierten Signals zu einem von einem primären Mikrofon empfangenen primären akustischen Signal, das Verhältnis eines rauschreduzierten Signals und einer detektierten Rauschkomponente innerhalb des primären Mikrofonsignals, das Verhältnis eines reduzierten Rauschsignals und eines sekundären akustischen Signals oder das Verhältnis eines rauschreduzierten Signals zu einer Intra-Pegeldifferenz zwischen einem primären Signal und einem weiteren Signal umfassen. Die Verstärkungsfaktoren können eine Anzeige der Signalstärke in einer Zielrichtung gegenüber allen anderen Richtungen sein. Mit anderen Worten, der Verstärkungsfaktor kann indikativ für multiplikative Expansionen sein und ob diese zusätzlichen Expansionen durch die multiplikative Verstärkungsexpansion 320 durchgeführt werden sollen. Die multiplikative Verstärkungserweiterung 320 kann das modifizierte Signal ausgeben und dem Nachhall 330 (hier auch als Nachhall (Ent-Nachhall) 330 bezeichnet) ein Signal bereitstellen.
  • Nachhall 330 kann die von der multiplikativen Verstärkungserweiterung 320 ausgegebenen Subbandsignale sowie die ebenfalls vom Strahlformer 310 empfangenen Mikrofonsignale empfangen und den Nachhall (oder „Dereverberation“) des durch die multiplikative Verstärkungserweiterung 320 ausgegebenen Subbandsignals durchführen. Nachhall 330 kann ein Verhältnis von direkter Energie zu verbleibender Energie innerhalb eines Signals auf der Grundlage des durch die Zoomsteuerung 350 bereitgestellten Zoomsteuerindikators einstellen. Nach dem Einstellen des Nachklangs des empfangenen Signals kann der Nachhall 330 das modifizierte Signal an eine Mischkomponente, z.B. den Mischer 340, liefern.
  • Der Mischer 340 kann das Nachklang-eingestellte Signal empfangen und das Signal mit dem Signal von dem primären Mikrofon mischen. In einigen Ausführungsformen erhöht der Mischer 340 die Energie des Signals in geeigneter Weise, wenn Audio in dem Frame vorhanden ist, und verringert die Energie, wenn in dem Frame wenig Audioenergie vorhanden ist.
  • 4 ist ein Blockdiagramm, das ein Audioverarbeitungssystem 400 gemäß einer anderen beispielhaften Ausführungsform darstellt. Das Audioverarbeitungssystem 400 kann Audio-Zoom-Audio (AZA) enthalten, ein Subsystem, das mit einem Quellenschätzsubsystem 430 erweitert ist. Das beispielhafte AZA-Subsystem umfasst Begrenzer 402a, 402b und 402c zusammen mit verschiedenen anderen Modulen einschließlich FCT 404a, 404b und 404c, Analyse 406, Zoomsteuerung 410, Signalmodifizierer 412, plus variablem Verstärker 418 und einem Begrenzer 420. Das Quellenschätzsubsystem 430 kann einen Quellenrichtungsschätzer („source direction estimator“, SDE) 408 (der auch als SDE-Modul 408 oder als ein Zielschätzer bezeichnet wird), eine Verstärkung (Modul) 416 und eine automatische Verstärkungssteuerung (AGC) (Modul) 414 umfassen. In verschiedenen Ausführungsformen verarbeitet das Audioverarbeitungssystem 400 ein akustisches Audiosignal von Mikrofonen 106a, 106b und optional einem dritten Mikrofon 106c.
  • In verschiedenen Ausführungsformen kann das SDE-Modul 408 eine Schallquelle lokalisieren. Das SDE-Modul 408 ist betreibbar, um Hinweise basierend auf einer Korrelation von Phasendiagrammen zwischen verschiedenen Mikrofoneingaben zu erzeugen. Basierend auf der Korrelation der Phasendiagramme ist das SDE-Modul 408 betreibbar, um einen Vektor von Salienzabschätzungen („salience estimates“) bei verschiedenen Winkeln zu berechnen. Basierend auf den Salienzabschätzungen kann das SDE-Modul 408 eine Richtung der Quelle bestimmen. Mit anderen Worten, eine Spitze in dem Vektor von Salienzabschätzungen ist eine Angabe der Richtung einer Quelle in einer bestimmten Richtung. Gleichzeitig werden Quellen diffuser Natur, d.h. nicht gerichtet, durch schlechte Salienzabschätzungen in allen Winkeln dargestellt. Das SDE-Modul 408 kann sich auf die Hinweise (Abschätzungen der Salienz) verlassen, um die Leistung einer gerichteten Audiolösung zu verbessern, die durch das Analysemodul 406, den Signalmodifizierer 412 und die Zoomsteuerung 410 ausgeführt wird. In einigen Ausführungsformen umfasst der Signalmodifizierer 412 Module, die dem Strahlformer 310, dem multiplikativen Verstärkungserweiterungsmodul 320, dem Nachhallmodul 330 und dem Mischermodul 340 analog oder ähnlich sind, wie für das Audiosystem 230 gezeigt in 3.
  • In einigen Ausführungsformen werden Schätzungen der Salienz verwendet, um den Winkel der Quelle in dem Bereich von 0 bis 360 Grad in einer Ebene parallel zu dem Boden zu lokalisieren, wenn beispielsweise das Audiogerät 104 auf einer Tischplatte angeordnet ist. Die Salienzschätzungen können verwendet werden, um die Signale in verschiedenen Winkeln zu dämpfen/zu verstärken, wie vom Kunden gefordert. Die Charakterisierung dieser Modi kann durch einen SDE-Salienzparameter gesteuert werden. Beispielhafte AZA- und SDE-Subsysteme sind weiter in der US-Patentanmeldung mit der Seriennummer 14/957,447 mit dem Titel „Directional Audio Capture“ beschrieben, deren Offenbarung hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen ist.
  • 5A veranschaulicht eine beispielhafte Umgebung 500 zur gerichteten Audiosignalaufnahme unter Verwendung von zwei Omni-Richtmikrofonen. Die beispielhafte Umgebung 500 kann ein Audiogerät 104, ein primäres Mikrofon 106a, ein sekundäres Mikrofon 106b, einen Benutzer 510 (auch als Erzähler 510 bezeichnet) und eine zweite Schallquelle 520 (auch als Szene 520 bezeichnet) umfassen. Sprecher 510 kann sich in der Nähe des primären Mikrofons 106a befinden. Szene 520 kann in der Nähe des sekundären Mikrofons 106b angeordnet sein. Das Audioverarbeitungssystem 400 kann eine Doppelausgabe bereitstellen, die ein erstes Signal und ein zweites Signal enthält. Das erste Signal kann erhalten werden, indem auf eine dem Erzähler 510 zugeordnete Richtung fokussiert wird. Das zweite Signal kann erhalten werden, indem auf eine der Szene 520 zugeordneten Richtung fokussiert wird. SDE-Modul 408 (von dem ein Beispiel in 4 gezeigt ist) kann einen Vektor von Salienzabschätzungen bereitstellen, um eine Richtung zu lokalisieren, die Zielquellen zugeordnet ist, zum Beispiel Erzähler 510 und Szene 520. 5B zeigt ein gerichtetes Audiosignal, das unter Verwendung von zwei Omni-Richtmikrofonen aufgenommen wurde. Wenn Zielquellen oder Audiogeräte die Positionen ändern, kann das SDE-Modul 408 (z.B. in dem System in 4) einen aktualisierten Vektor von Salienzabschätzungen bereitstellen, um es dem Audioverarbeitungssystem 400 zu ermöglichen, sich weiterhin auf die Zielquellen zu fokussieren.
  • 6 zeigt ein Blockdiagramm eines beispielhaften NPNS-Moduls 600. Das NPNS-Modul 600 kann als ein Strahlformermodule in den Audioverarbeitungssystemen 230 oder 400 verwendet werden. Das NPNS-Modul 600 kann Analysemodule 602 und 606 (z.B. zum Anwenden von Koeffizienten ?1 bzw. ?2), Anpassungsmodule 604 und 608 (z.B. zum Anpassen des Strahls basierend auf Koeffizienten ?1 und ?2) und Summierungsmodule 610, 612 und 614 umfassen. Das NPNS-Modul 600 kann Verstärkungsfaktoren basierend auf Eingaben von einem primären Mikrofon, einem sekundären Mikrofon und optional einem tertiären Mikrofon bereitstellen. Beispielhafte NPNS-Module werden in der US-Patentanmeldung mit der Seriennummer 12/215,980 mit dem Titel „System and Method for Providing Noise Suppression Utilizing Null Processing Noise Subtraction“ (veröffentlicht als US-Patent Nr. 9 185 487 am 10. November 2015) beschrieben, und wird hierin durch Bezugnahme in seiner Gesamtheit aufgenommen.
  • In dem Beispiel in 6 ist das NPNS-Modul 600 konfiguriert, um sich an eine Zielquelle anzupassen. Dämpfungskoeffizienten ?1 und ?2 können basierend auf einer momentanen Richtung einer Zielquelle eingestellt werden, wenn sich entweder die Zielquelle oder das Audiogerät bewegt.
  • 7A zeigt ein beispielhaftes Koordinatensystem 710, das zum Bestimmen der Quellenrichtung in dem AZA-Subsystem verwendet wird. Unter der Annahme, dass die größte Seite des Audiogeräts 104 parallel zum Boden ist, wenn beispielsweise das Audiogerät 104 auf einer Tischplatte angeordnet ist, ist die X-Achse des Koordinatensystems 710 von unten nach oben auf das Audiogerät 104 gerichtet. Die Y-Achse des Koordinatensystems 710 ist so ausgerichtet, dass die XY-Ebene parallel zum Boden ist.
  • In verschiedenen Ausführungsformen der vorliegenden Offenbarung wird das Koordinatensystem 710, das in AZA verwendet wird, gedreht, um sich anzupassen, um eine Stereotrennung und Richtungsunterdrückung von empfangenen akustischen Signalen bereitzustellen. 7B zeigt ein gedrehtes Koordinatensystem 720 in Bezug auf das Audiogerät 104. Das Audiogerät 104 ist derart ausgerichtet, dass die größte Seite des Audiogeräts orthogonal (z.B. senkrecht) zu der Erde ist und die längste Kante des Audiogerätes parallel zu dem Boden ist, wenn beispielsweise das Audiogerät 104 gehalten wird, wenn ein Video aufgenommen wird. Die X-Achse des Koordinatensystems 720 ist von oben nach unten auf das Audiogerät 104 gerichtet. Die Y-Achse des Koordinatensystems 720 ist so ausgerichtet, dass die XY-Ebene parallel zum Boden ist.
  • Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung werden wenigstens zwei Kanäle eines Stereosignals (hierin auch als linkes und rechtes Kanal-Stereo (Audio) -Signal und ein linkes Stereo-Signal und ein rechtes Stereo-Signal bezeichnet) basierend auf akustischen Signalen erzeugt, die durch zwei oder mehr Omni-Richtmikrofone aufgenommen werden. In einigen Ausführungsformen umfassen die Omni-Richtmikrofone das primäre Mikrofon 106a und das sekundäre Mikrofon 106b. Wie in 1 gezeigt, kann das linke (Kanal-) Stereosignal bereitgestellt werden, indem ein erster Zielstrahl auf der linken Seite erzeugt wird. Das rechte (Kanal-) Stereosignal kann durch Erzeugen eines zweiten Zielstrahls auf der rechten Seite erzeugt werden. Gemäß verschiedenen Ausführungsformen sind die Richtungen für die Strahlen festgelegt und werden beibehalten, wenn eine Zielquelle oder ein Audiogerät die Position ändert. Festlegen der Richtungen für die Strahlen ermöglicht Erhalten eines natürlichen Stereoeffekts (mit linken und rechten Stereokanälen), der von einem Benutzer gehört werden kann. Durch Festlegen der Richtung kann der natürliche Stereoeffekt wahrgenommen werden, wenn sich ein Objekt über das Sichtfeld von einer Seite zur anderen bewegt, z.B. ein Auto, das sich über eine Kinoleinwand bewegt. In einigen Ausführungsformen sind die Richtungen für die Strahlen einstellbar, bleiben jedoch während der Strahlformung fest.
  • Gemäß einigen Ausführungsformen der vorliegenden Offenbarung ist das NPNS-Modul 600 (in dem Beispiel in 6) modifiziert, so dass es sich nicht an eine Zielquelle anpasst. Ein modifiziertes NPNS-Modul 800 ist in 8 gezeigt. Komponenten des NPNS-Moduls 800 sind analog zu Elementen des NPNS-Moduls 600, mit der Ausnahme, dass die Module 602 und 606 in 6 durch die Module 802 und 806 ersetzt werden. Anders als in dem Beispiel in 6 sind Werte für die Koeffizienten ?1 und ?2 in der beispielhaften Ausführungsform in 8 während der Bildung der Strahlen zur Erzeugung von Stereosignalen festgelegt. Indem die Anpassung an die Zielquelle verhindert wird, bleibt die Richtung für die Strahlen fest, wodurch sichergestellt wird, dass sich das linke Stereosignal und das rechte Stereosignal nicht überlappen, wenn die Schallquelle(n) oder die Audiogeräte ihre Position ändern. In einigen Ausführungsformen werden die Dämpfungskoeffizienten ?1 und ?2 durch Kalibrierung und Abstimmung bestimmt.
  • 9 ist eine beispielhafte Umgebung 900, in der beispielhafte Verfahren zur Stereotrennung und Richtungsunterdrückung implementiert werden können. Die Umgebung 900 umfasst ein Audiogerät 104 und Audioquellen 910, 920 und 930. In einigen Ausführungsformen umfasst das Audiogerät 104 zwei Omni-Richtmikrofone 106a und 106b. Das primäre Mikrofon 106a befindet sich an der Unterseite des Audiogeräts 104 und das sekundäre Mikrofon 106b befindet sich in diesem Beispiel an der Oberseite des Audiogeräts 104. Wenn das Audiogerät 104 zum Aufzeichnen von Video beispielsweise in der Richtung der Audioquelle 910 ausgerichtet ist, kann das Audioverarbeitungssystem des Audiogeräts dafür konfiguriert sein, in einem Stereo-Aufzeichnungsmodus zu arbeiten. Ein Links-Kanal-Stereosignal und ein Rechts-Kanal-Stereosignal können basierend auf Eingaben von zwei oder mehr Omni-Richtmikrofonen erzeugt werden, indem ein erster Zielstrahl für Audio auf der linken Seite und ein zweiter Zielstrahl für Audio auf der rechten Seite erzeugt wird. Die Richtungen für die Strahlen sind gemäß verschiedenen Ausführungsformen festgelegt.
  • In bestimmten Ausführungsformen werden nur zwei Omni-Richtmikrofone 106a und 106b für die Stereotrennung verwendet. Unter Verwendung von zwei Omni-Richtmikrofonen 106a und 106b, eines an jedem Ende des Audiogeräts, kann eine klare Trennung zwischen der linken Seite und der rechten Seite erreicht werden. Zum Beispiel ist das sekundäre Mikrofon 106b näher an der Audioquelle 920 (in dem Beispiel in 9 rechts) und empfängt die Welle von der Audioquelle 920 kurz vor dem primären Mikrofon 106a. Die Audioquelle kann dann basierend auf dem Abstand zwischen den Mikrofonen 106a und 106b und der Differenz der Ankunftszeiten an den Mikrofonen 106a und 106b trianguliert werden. Dieses beispielhafte Zwei-Mikrofon-System muss jedoch nicht zwischen akustischen Signalen unterscheiden, die von einer Szenen-Seite kommen (wo der Benutzer die Kamera der Audio-Vorrichtung richtet) und akustischen Signalen, die von der Benutzerseite kommen (z.B. gegenüber der Szenen-Seite). In dem Beispiel in 9 sind die Audioquellen 910 und 930 äquidistant von den Mikrofonen 106a und 106b. In der Draufsicht auf ein Audiogerät 104 befindet sich die Audioquelle 910 auf der Szenenseite vor dem Audiogerät 104 und die Audioquelle 930 befindet sich hinter dem Audiogerät auf der Benutzerseite. Die Mikrofone 106a und 106b empfangen das gleiche akustische Signal von der Audioquelle 910 und das gleiche akustische Signal von der Audioquelle 930, da es in diesem Beispiel keine Verzögerung in der Ankunftszeit zwischen den Mikrofonen gibt. Dies bedeutet, dass, wenn nur die zwei Mikrofone 106a und 106b verwendet werden, die Positionen der Audioquellen 910 und 930 in diesem Beispiel nicht unterschieden werden können. Somit kann für dieses Beispiel nicht bestimmt werden, welche der Audioquellen 910 und 930 sich vorne befindet und welche der Audioquellen 910 und 930 sich hinter dem Audiogerät befindet.
  • In einigen Ausführungsformen kann ein entsprechend platziertes drittes Mikrofon verwendet werden, um die Differenzierung der Szenenrichtung (Audiogerätekameraansicht) von der Richtung hinter dem Audiogerät zu verbessern. Die Verwendung eines dritten Mikrofons (zum Beispiel des tertiären Mikrofons 106c, das in 9 gezeigt ist) kann helfen, einen robusteren Stereoklang bereitzustellen. Die Eingabe von dem dritten Mikrofon kann auch eine bessere Dämpfung von unerwünschtem Inhalt ermöglichen, wie etwa Sprache des Benutzers, der das Audiogerät hält, und Personen hinter dem Benutzer. In verschiedenen Ausführungsformen sind die drei Mikrofone 106a, 106b und 106c nicht alle in einer geraden Linie angeordnet, so dass verschiedene Ausführungsformen ein vollständiges 360-Grad-Bild von Geräuschen relativ zu einer Ebene bereitstellen können, auf der sich die drei Mikrofone befinden.
  • In einigen Ausführungsformen umfassen die Mikrofone 106a, 106b und 106c Hoch-AOP-Mikrofone. Die AOP-Mikrofone können robuste Eingaben für die Strahlformung in lauten Umgebungen, beispielsweise Konzerten, bereitstellen. Schallpegel bei einigen Konzerten sind in der Lage, 120 dB zu überschreiten, wobei Spitzenpegel 120 dB deutlich übersteigen. Herkömmliche Omni-Richtmikrofone können bei diesen Lautstärken sättigen, wodurch es unmöglich wird, jedes vom Mikrofon erfasste Signal wiederherzustellen. Hoch-AOP-Mikrofone sind im Vergleich zu herkömmlichen Mikrofonen für einen höheren Überlastpunkt ausgelegt und können daher im Vergleich zu herkömmlichen Mikrofonen ein präzises Signal in deutlich lauteren Umgebungen erfassen. Die Kombination der Technologie von Hoch-AOP-Mikrofonen mit den Verfahren zur Stereotrennung und Richtungsunterdrückung unter Verwendung von Omni-Richtmikrofonen (z.B. unter Verwendung von Hoch-AOP-Omni-Richtmikrofonen für die Kombination) gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung kann es Benutzern ermöglichen, ein Video aufzunehmen, das eine viel realistischere Darstellung ihrer Erfahrung bereitstellt, zum Beispiel ein Konzert.
  • 10 zeigt eine Darstellung 1000 von beispielhaften Plots beispielhafter Richtungs-Audiosignale. Plot 1010 stellt ein unverarbeitetes Richtungs-Audiosignal dar, das von einem sekundären Mikrofon 106b aufgenommen wird. Plot 1020 stellt ein unverarbeitetes Richtungs-Audiosignal dar, das von einem primären Mikrofon 106a aufgenommen wird. Plot 1030 repräsentiert ein Stereo-Audiosignal für den rechten Kanal, das durch Bilden eines Zielstrahls auf der rechten Seite erhalten wird. Plot 1040 stellt ein linkes Stereo-Audiosignal dar, das durch Bilden eines Zielstrahls auf der linken Seite erhalten wird. Plots 1030 und 1040 in diesem Beispiel zeigen eine klare Stereotrennung des unverarbeiteten Audiosignals, das in den Plots 1010 und 1020 dargestellt ist.
  • 11 ist ein Flussdiagramm, das Schritte eines Verfahrens zur Stereotrennung und Richtungsunterdrückung gemäß einer beispielhaften Ausführungsform zeigt. Verfahren 1100 kann in Block 1110 mit dem Empfangen von wenigstens einem ersten Audiosignal und einem zweiten Audiosignal beginnen. Das erste Audiosignal kann einen Ton repräsentieren, der von einem ersten Mikrofon erfasst wird, das mit einer ersten Position assoziiert ist. Das zweite Audiosignal kann einen Ton repräsentieren, der von einem zweiten Mikrofon aufgenommen wird, das einer zweiten Position zugeordnet ist. Das erste Mikrofon und das zweite Mikrofon können Omni-Richtmikrofone umfassen. In einigen Ausführungsformen umfassen das erste Mikrofon und das zweite Mikrofon Mikrofone mit hohem AOP. In einigen Ausführungsformen ist der Abstand zwischen dem ersten und dem zweiten Mikrofon durch die Größe einer Mobilvorrichtung begrenzt.
  • In Block 1120 kann ein erstes Stereosignal (z.B. ein erstes Kanalsignal eines Stereoaudiosignals) durch Bilden eines ersten Strahls an der ersten Stelle basierend auf dem ersten Audiosignal und dem zweiten Audiosignal erzeugt werden. In Block 1130 kann ein zweites Stereosignal (z.B. ein zweites Kanalsignal des Stereoaudiosignals) durch Bilden eines zweiten Strahls an dem zweiten Ort basierend auf dem ersten Audiosignal und dem zweiten Audiosignal erzeugt werden.
  • 12 veranschaulicht ein beispielhaftes Computersystem 1200, das zum Implementieren einiger Ausführungsformen der vorliegenden Erfindung verwendet werden kann. Das Computersystem 1200 von 12 kann im Kontext von Computersystemen, Netzwerken, Servern oder Kombinationen davon implementiert werden. Das Computersystem 1200 von 12 enthält eine oder mehrere Prozessoreinheiten 1210 und einen Hauptspeicher 1220. Der Hauptspeicher 1220 speichert teilweise Anweisungen und Daten zur Ausführung durch die Prozessoreinheit(en) 1210. Der Hauptspeicher 1220 speichert den ausführbaren Code, wenn er in diesem Beispiel in Betrieb ist. Das Computersystem 1200 von 12 umfasst ferner einen Massendatenspeicher 1230, eine tragbare Speichervorrichtung 1240, Ausgabevorrichtungen 1250, Benutzereingabevorrichtungen 1260, ein Graphikanzeigesystem 1270 und Peripherievorrichtungen 1280.
  • Die in 12 gezeigten Komponenten sind so dargestellt, dass sie über einen einzigen Bus 1290 verbunden sind. Die Komponenten können durch ein oder mehrere Datentransportmittel verbunden sein. Die Prozessoreinheit(en) 1210 und der Hauptspeicher 1220 sind über einen lokalen Mikroprozessorbus verbunden, und der Massendatenspeicher 1230, die Peripheriegeräte 1280, die tragbare Speichervorrichtung 1240 und das Graphikanzeigesystem 1270 sind über einen oder mehrere Ein-/Ausgänge- (I/O) Busse verbunden.
  • Der Massendatenspeicher 1230, der mit einem Magnetplattenlaufwerk, einem Festkörperlaufwerk oder einem optischen Plattenlaufwerk implementiert werden kann, ist eine nichtflüchtige Speichervorrichtung zum Speichern von Daten und Anweisungen zur Verwendung durch die Prozessoreinheit(en) 1210. Der Massendatenspeicher 1230 speichert die Systemsoftware zum Implementieren von Ausführungsformen der vorliegenden Offenbarung zum Zwecke des Ladens dieser Software in den Hauptspeicher 1220.
  • Die tragbare Speichervorrichtung 1240 arbeitet in Verbindung mit einem tragbaren nichtflüchtigen Speichermedium, wie z.B. einem Flash-Laufwerk, einer Diskette, einer Compact Disk, einer digitalen Videodisk oder einer USB-Speichervorrichtung (Universal Serial Bus), um Daten und Code zu und von dem Computersystem 1200 von 12 einzugeben und auszugeben. Die Systemsoftware zum Implementieren von Ausführungsformen der vorliegenden Offenbarung wird auf einem derartigen tragbaren Medium gespeichert und über die tragbare Speichervorrichtung 1240 in das Computersystem 1200 eingegeben.
  • Die Benutzereingabevorrichtungen 1260 können einen Teil einer Benutzerschnittstelle bereitstellen. Die Benutzereingabevorrichtungen 1260 können ein oder mehrere Mikrofone, eine alphanumerische Tastatur, wie zum Beispiel eine Tastatur, zum Eingeben von alphanumerischen und anderen Informationen oder eine Zeigevorrichtung wie eine Maus, einen Trackball, einen Stift oder Cursor-Richtungstasten umfassen. Benutzereingabevorrichtungen 1260 können auch einen Touchscreen umfassen. Zusätzlich dazu kann das Computersystem 1200, wie es in 12 gezeigt ist, Ausgabevorrichtungen 1250 umfassen. Geeignete Ausgabegeräte 1250 umfassen Lautsprecher, Drucker, Netzwerkschnittstellen und Monitore.
  • Das Graphikanzeigesystem 1270 umfasst eine Flüssigkristallanzeige (LCD) oder eine andere geeignete Anzeigevorrichtung. Das Graphikanzeigesystem 1270 ist konfigurierbar, um Text- und Graphikinformationen zu empfangen, und verarbeitet die Informationen zur Ausgabe an die Anzeigevorrichtung.
  • Die peripheren Vorrichtungen 1280 können irgendeine Art von Computerunterstützungsvorrichtung enthalten, um dem Computersystem zusätzliche Funktionalität hinzuzufügen.
  • Die Komponenten, die in dem Computersystem 1200 von 12 bereitgestellt werden, sind diejenigen, die typischerweise in Computersystemen gefunden werden, die zur Verwendung mit Ausführungsformen der vorliegenden Offenbarung geeignet sein können, und sollen eine breite Kategorie solcher Computerkomponenten darstellen, die in der Technik gut bekannt sind. Somit kann das Computersystem 1200 von 12 ein Personalcomputer (PC), ein Handcomputersystem, ein Telefon, ein Mobilcomputersystem, eine Workstation, ein Tablet, ein Palet, ein Mobiltelefon, ein Server, ein Minicomputer, ein Großrechner, ein tragbares oder irgendein anderes Computersystem sein. Der Computer kann auch verschiedene Buskonfigurationen, Netzwerkplattformen, Multiprozessorplattformen und dergleichen umfassen. Verschiedene Betriebssysteme können verwendet werden, einschließlich UNIX, LINUX, WINDOWS, MAC OS, PALMOS, QNX ANDROID, IOS, CHROME, TIZEN und andere geeignete Betriebssysteme.
  • Die Verarbeitung für verschiedene Ausführungsformen kann in einer Cloudbasierten Software implementiert werden. In einigen Ausführungsformen ist das Computersystem 1200 als eine Cloud-basierte Computerumgebung implementiert, wie etwa eine virtuelle Maschine, die in einer Computer-Cloud arbeitet. In anderen Ausführungsformen kann das Computersystem 1200 selbst eine Cloud-basierte Computerumgebung umfassen, wobei die Funktionalitäten des Computersystems 1200 in einer verteilten Art und Weise ausgeführt werden. Somit kann das Computersystem 1200, wenn es als eine Computercloud konfiguriert ist, mehrere Computervorrichtungen in verschiedenen Formen umfassen, wie nachstehend ausführlicher beschrieben wird.
  • Im Allgemeinen ist eine Cloud-basierte Computerumgebung eine Ressource, die typischerweise die Rechenleistung einer großen Gruppe von Prozessoren (wie etwa innerhalb von Webservern) kombiniert und/oder die Speicherkapazität einer großen Gruppe von Computerspeichern kombiniert. Systeme, die Cloud-basierte Ressourcen bereitstellen, können ausschließlich von ihren Besitzern genutzt werden, oder solche Systeme können für externe Benutzer zugänglich sein, die Anwendungen innerhalb der Computerinfrastruktur bereitstellen, um den Vorteil großer Rechen- oder Speicherressourcen zu erhalten.
  • Die Cloud kann beispielsweise durch ein Netzwerk von Web-Servern gebildet werden, die eine Vielzahl von Computergeräten umfassen, wie zum Beispiel das Computersystem 1200, wobei jeder Server (oder wenigstens eine Vielzahl davon) Prozessor- und/oder Speicher-Ressourcen bereitstellt. Diese Server können Workloads verwalten, die von mehreren Benutzern (z.B. Cloud-Ressourcen-Kunden oder anderen Benutzern) bereitgestellt werden. In der Regel stellt jeder Benutzer Arbeitslastanforderungen an die Cloud, die in Echtzeit manchmal dramatisch variieren. Die Art und das Ausmaß dieser Variationen hängt typischerweise von der Art des Geschäfts ab, das mit dem Benutzer verbunden ist.
  • Die vorliegende Technologie wird oben unter Bezugnahme auf beispielhafte Ausführungsformen beschrieben. Daher sollen andere Variationen der beispielhaften Ausführungsformen von der vorliegenden Offenbarung abgedeckt sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 15144631 B [0001]
    • US 14/957447 [0030]
    • US 12/896725 [0030]
    • US 9210503 B [0030]
    • US 12/693998 [0030]
    • US 8718290 B [0030]
    • US 9185487 B [0039]

Claims (24)

  1. Verfahren zum Bereitstellen von Stereotrennung und Richtungsunterdrückung, wobei das Verfahren umfasst: Konfigurieren eines Prozessors zum Empfangen von wenigstens einem ersten Audiosignal und einem zweiten Audiosignal, wobei das erste Audiosignal einen Ton darstellt, der von einem ersten Mikrofon erfasst wird, das einem ersten Ort zugeordnet ist, und das zweite Audiosignal einen Ton darstellt, der von einem zweiten Mikrofon erfasst wird, das einem zweiten Ort zugeordnet ist, wobei das erste Mikrofon und das zweite Mikrofon Omni-Richtmikrofone einer Mobilvorrichtung umfassen, wobei der Abstand zwischen dem ersten Mikrofon und dem zweiten Mikrofon durch die Größe der Mobilvorrichtung begrenzt ist; Konfigurieren des Prozessors zum Erzeugen eines ersten Kanalsignals eines Stereoaudiosignals durch Bilden eines ersten Strahls an dem ersten Ort basierend auf dem ersten Audiosignal und dem zweiten Audiosignal; und Konfigurieren des Prozessors zum Erzeugen eines zweiten Kanalsignals des Stereoaudiosignals durch Bilden eines zweiten Strahls an dem zweiten Ort basierend auf dem ersten Audiosignal und dem zweiten Audiosignal.
  2. Verfahren nach Anspruch 1, wobei das erste Mikrofon an der Oberseite der Mobilvorrichtung und das zweite Mikrofon an der Unterseite der Mobilvorrichtung angeordnet ist.
  3. Verfahren nach Anspruch 1, wobei eine erste Richtung, die dem ersten Strahl zugeordnet ist, und eine zweite Richtung, die dem zweiten Strahl zugeordnet ist, jeweils relativ zu einer Linie zwischen dem ersten Ort und dem zweiten Ort festgelegt sind.
  4. Verfahren nach Anspruch 3, wobei die erste Richtung fest bleibt, selbst wenn sich eine Audioquelle an dem ersten Ort von dem ersten Ort zu dem zweiten Ort bewegt.
  5. Verfahren nach Anspruch 4, wobei die zweite Richtung fest bleibt, selbst wenn sich eine andere Audioquelle an dem zweiten Ort von dem zweiten Ort zu dem ersten Ort bewegt.
  6. Verfahren nach Anspruch 1, wobei: Bilden des ersten Strahls Reduzieren von Signalenergie von akustischen Signalkomponenten umfasst, die Quellen von dem ersten Strahl zugeordnet sind; und Bilden des zweiten Strahls Reduzieren der Signalenergie von akustischen Signalkomponenten umfasst, die mit weiteren Quellen von dem zweiten Strahl assoziiert sind.
  7. Verfahren nach Anspruch 6, wobei das Reduzieren von Energiekomponenten durch eine subtraktive Unterdrückung durchgeführt wird.
  8. Verfahren nach Anspruch 1, wobei eine erste Audioquelle an dem ersten Ort dem ersten Mikrofon zugeordnet ist, indem die erste Audioquelle näher an dem ersten Mikrofon angeordnet ist.
  9. Verfahren nach Anspruch 8, wobei eine zweite Audioquelle an dem zweiten Ort dem zweiten Mikrofon zugeordnet ist, indem die zweite Audioquelle näher an dem zweiten Mikrofon angeordnet ist.
  10. Verfahren nach Anspruch 1, wobei das erste Mikrofon und das zweite Mikrofon Mikrofone mit einem akustischen Überlastpunkt (AOP) enthalten, der höher ist als ein vorbestimmter Schalldruckpegel.
  11. Verfahren nach Anspruch 10, wobei der vorbestimmte Schalldruckpegel 120 Dezibel beträgt.
  12. Verfahren nach Anspruch 6, ferner umfassend: Konfigurieren des Prozessors zum Empfangen von wenigstens einem anderen akustischen Signal, das durch ein anderes mit einem anderen Ort verbundenes Mikrofon erfasst wird, wobei das andere Mikrofon ein Omni-Richtmikrofon umfasst, und das Bilden des ersten Strahls und das Bilden des zweiten Strahls jeweils weiterhin auf dem wenigstens einem anderen akustischen Signal basieren.
  13. Verfahren nach Anspruch 12, wobei sich das andere Mikrofon an einer Position auf der Mobilvorrichtung befindet, die sich nicht auf einer Linie zwischen dem ersten Mikrofon und dem zweiten Mikrofon befindet.
  14. System zur Stereotrennung und Richtungsunterdrückung, wobei das System umfasst: wenigstens einen Prozessor; und einen Speicher, der kommunikativ mit dem wenigstens einen Prozessor gekoppelt ist, wobei der Speicher Anweisungen speichert, die, wenn sie von dem wenigstens einen Prozessor ausgeführt werden, ein Verfahren ausführen, das Folgendes umfasst: Empfangen von wenigstens einem ersten Audiosignal und einem zweiten Audiosignal, wobei das erste Audiosignal einen Ton darstellt, der von einem ersten Mikrofon erfasst wird, das einem ersten Ort zugeordnet ist, und das zweite Audiosignal einen Ton darstellt, der von einem zweiten Mikrofon erfasst wird, das einem zweiten Ort zugeordnet ist, wobei das erste Mikrofon und das zweite Mikrofon Omni-Richtmikrofone einer Mobilvorrichtung umfassen, wobei der Abstand zwischen dem ersten Mikrofon und dem zweiten Mikrofon durch die Größe der Mobilvorrichtung begrenzt ist; Erzeugen eines ersten Kanalsignals eines Stereoaudiosignals durch Bilden eines ersten Strahls an dem ersten Ort basierend auf dem ersten Audiosignal und dem zweiten Audiosignal; und Erzeugen eines zweiten Kanalsignals des Stereo-Audiosignals durch Bilden eines zweiten Strahls an dem zweiten Ort basierend auf dem ersten Audiosignal und dem zweiten Audiosignal.
  15. System nach Anspruch 14, wobei das erste Mikrofon an der Oberseite der Mobilvorrichtung und das zweite Mikrofon an der Unterseite der Mobilvorrichtung angeordnet ist.
  16. System nach Anspruch 14, wobei eine erste Richtung, die dem ersten Strahl zugeordnet ist, und eine zweite Richtung, die dem zweiten Strahl zugeordnet ist, relativ zu einer Linie zwischen dem ersten Ort und dem zweiten Ort festgelegt sind.
  17. System nach Anspruch 14, wobei: Bilden des ersten Strahls Reduzieren von Signalenergie von akustischen Signalkomponenten umfasst, die Quellen von dem ersten Strahl zugeordnet sind; und Bilden des zweiten Strahls Reduzieren der Signalenergie von akustischen Signalkomponenten umfasst, die mit weiteren Quellen von dem zweiten Strahl assoziiert sind.
  18. System nach Anspruch 17, wobei Reduzieren von Energiekomponenten durch eine subtraktive Unterdrückung durchgeführt wird.
  19. System nach Anspruch 17, wobei das Verfahren ferner umfasst: Empfangen von wenigstens einem anderen akustischen Signal, das durch ein anderes mit einem anderen Ort verbundenes Mikrofon erfasst wird, wobei das andere Mikrofon ein Omni-Richtmikrofon umfasst, und das Bilden des ersten Strahls und das Bilden des zweiten Strahls jeweils weiterhin auf dem wenigstens einem anderen akustischen Signal basieren.
  20. System nach Anspruch 19, wobei sich das andere Mikrofon an einer Position auf der Mobilvorrichtung befindet, die sich nicht auf einer Leitung zwischen dem ersten Mikrofon und dem zweiten Mikrofon befindet.
  21. System nach Anspruch 14, wobei die erste Audioquelle an dem ersten Ort dem ersten Mikrofon zugeordnet ist, indem die erste Audioquelle näher an dem ersten Mikrofon angeordnet ist, und wobei die zweite Audioquelle an dem zweiten Ort dem zweiten Mikrofon zugeordnet ist, indem die zweite Audioquelle näher an dem zweiten Mikrofon angeordnet ist.
  22. System nach Anspruch 14, wobei das erste Mikrofon und das zweite Mikrofon Mikrofone mit einem akustischen Überlastpunkt (AOP) enthalten, der größer als ein vorbestimmter Schalldruckpegel ist.
  23. System nach Anspruch 22, wobei der vorbestimmte Schalldruckpegel 120 Dezibel beträgt.
  24. Nichtflüchtiges computerlesbares Speichermedium mit darauf gespeicherten Instruktionen, die bei Ausführung durch wenigstens einen Prozessor Schritte eines Verfahrens zur Stereotrennung und Richtungsunterdrückung ausführen, wobei das Verfahren umfasst: Empfangen von wenigstens einem ersten Audiosignal und einem zweiten Audiosignal, wobei das erste Audiosignal einen Ton darstellt, der von einem ersten Mikrofon erfasst wird, das einem ersten Ort zugeordnet ist, und das zweite Audiosignal einen Ton darstellt, der von einem zweiten Mikrofon erfasst wird, das einem zweiten Ort zugeordnet ist, wobei das erste Mikrofon und das zweite Mikrofon Omni-Richtmikrofone einer Mobilvorrichtung umfassen, wobei der Abstand zwischen dem ersten Mikrofon und dem zweiten Mikrofon durch die Größe der Mobilvorrichtung begrenzt ist; Erzeugen eines ersten Kanalsignals eines Stereoaudiosignals durch Bilden eines ersten Strahls an dem ersten Ort basierend auf dem ersten Audiosignal und dem zweiten Audiosignal; und Erzeugen eines zweiten Kanalsignals des Stereo-Audiosignals durch Bilden eines zweiten Strahls an dem zweiten Ort basierend auf dem ersten Audiosignal und dem zweiten Audiosignal.
DE112017002299.1T 2016-05-02 2017-04-28 Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen Ceased DE112017002299T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/144,631 US9820042B1 (en) 2016-05-02 2016-05-02 Stereo separation and directional suppression with omni-directional microphones
US15/144,631 2016-05-02
PCT/US2017/030220 WO2017192398A1 (en) 2016-05-02 2017-04-28 Stereo separation and directional suppression with omni-directional microphones

Publications (1)

Publication Number Publication Date
DE112017002299T5 true DE112017002299T5 (de) 2019-02-14

Family

ID=59227863

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017002299.1T Ceased DE112017002299T5 (de) 2016-05-02 2017-04-28 Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen

Country Status (4)

Country Link
US (2) US9820042B1 (de)
CN (1) CN109155884B (de)
DE (1) DE112017002299T5 (de)
WO (1) WO2017192398A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262673B2 (en) 2017-02-13 2019-04-16 Knowles Electronics, Llc Soft-talk audio capture for mobile devices
US10390131B2 (en) * 2017-09-29 2019-08-20 Apple Inc. Recording musical instruments using a microphone array in a device
KR20190037844A (ko) * 2017-09-29 2019-04-08 엘지전자 주식회사 이동 단말기
CN109686378B (zh) * 2017-10-13 2021-06-08 华为技术有限公司 语音处理方法和终端
GB201800918D0 (en) * 2018-01-19 2018-03-07 Nokia Technologies Oy Associated spatial audio playback
WO2019155603A1 (ja) * 2018-02-09 2019-08-15 三菱電機株式会社 音響信号処理装置及び音響信号処理方法
US11284212B2 (en) 2019-07-24 2022-03-22 Google Llc Dual panel audio actuators and mobile devices including the same
US11238853B2 (en) 2019-10-30 2022-02-01 Comcast Cable Communications, Llc Keyword-based audio source localization
GB2589082A (en) * 2019-11-11 2021-05-26 Nokia Technologies Oy Audio processing
CN111935593B (zh) * 2020-08-09 2022-04-29 天津讯飞极智科技有限公司 录音笔及录音控制方法
CN116165607B (zh) * 2023-02-15 2023-12-19 深圳市拔超科技股份有限公司 采用多个麦克风阵列实现声源精确定位系统及定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues
US9185487B2 (en) 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
US9210503B2 (en) 2009-12-02 2015-12-08 Audience, Inc. Audio zoom

Family Cites Families (222)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4137510A (en) 1976-01-22 1979-01-30 Victor Company Of Japan, Ltd. Frequency band dividing filter
US4969203A (en) 1988-01-25 1990-11-06 North American Philips Corporation Multiplicative sieve signal processing
US5204906A (en) 1990-02-13 1993-04-20 Matsushita Electric Industrial Co., Ltd. Voice signal processing device
JPH0454100A (ja) 1990-06-22 1992-02-21 Clarion Co Ltd 音声信号補償回路
WO1992005538A1 (en) 1990-09-14 1992-04-02 Chris Todter Noise cancelling systems
GB9107011D0 (en) 1991-04-04 1991-05-22 Gerzon Michael A Illusory sound distance control method
US5224170A (en) 1991-04-15 1993-06-29 Hewlett-Packard Company Time domain compensation for transducer mismatch
US5440751A (en) 1991-06-21 1995-08-08 Compaq Computer Corp. Burst data transfer to single cycle data transfer conversion and strobe signal conversion
CA2080608A1 (en) 1992-01-02 1993-07-03 Nader Amini Bus control logic for computer system having dual bus architecture
JPH05300419A (ja) 1992-04-16 1993-11-12 Sanyo Electric Co Ltd ビデオカメラ
US5400409A (en) 1992-12-23 1995-03-21 Daimler-Benz Ag Noise-reduction method for noise-affected voice channels
DE4316297C1 (de) 1993-05-14 1994-04-07 Fraunhofer Ges Forschung Frequenzanalyseverfahren
JPH07336793A (ja) 1994-06-09 1995-12-22 Matsushita Electric Ind Co Ltd ビデオカメラ用マイクロホン
US5978567A (en) 1994-07-27 1999-11-02 Instant Video Technologies Inc. System for distribution of interactive multimedia and linear programs by enabling program webs which include control scripts to define presentation by client transceiver
US5598505A (en) 1994-09-30 1997-01-28 Apple Computer, Inc. Cepstral correction vector quantizer for speech recognition
US5682463A (en) 1995-02-06 1997-10-28 Lucent Technologies Inc. Perceptual audio compression based on loudness uncertainty
JP3307138B2 (ja) 1995-02-27 2002-07-24 ソニー株式会社 信号符号化方法及び装置、並びに信号復号化方法及び装置
US6263307B1 (en) 1995-04-19 2001-07-17 Texas Instruments Incorporated Adaptive weiner filtering using line spectral frequencies
US5956674A (en) 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
JP3325770B2 (ja) 1996-04-26 2002-09-17 三菱電機株式会社 ノイズ低減回路及びノイズ低減装置及びノイズ低減方法
US5806025A (en) 1996-08-07 1998-09-08 U S West, Inc. Method and system for adaptive filtering of speech signals using signal-to-noise ratio to choose subband filter bank
JP2930101B2 (ja) 1997-01-29 1999-08-03 日本電気株式会社 雑音消去装置
US6104993A (en) 1997-02-26 2000-08-15 Motorola, Inc. Apparatus and method for rate determination in a communication system
FI114247B (fi) 1997-04-11 2004-09-15 Nokia Corp Menetelmä ja laite puheen tunnistamiseksi
US6236731B1 (en) 1997-04-16 2001-05-22 Dspfactory Ltd. Filterbank structure and method for filtering and separating an information signal into different bands, particularly for audio signal in hearing aids
FR2768547B1 (fr) 1997-09-18 1999-11-19 Matra Communication Procede de debruitage d'un signal de parole numerique
US6202047B1 (en) 1998-03-30 2001-03-13 At&T Corp. Method and apparatus for speech recognition using second order statistics and linear estimation of cepstral coefficients
US6684199B1 (en) 1998-05-20 2004-01-27 Recording Industry Association Of America Method for minimizing pirating and/or unauthorized copying and/or unauthorized access of/to data on/from data media including compact discs and digital versatile discs, and system and data media for same
US6421388B1 (en) 1998-05-27 2002-07-16 3Com Corporation Method and apparatus for determining PCM code translations
US20040066940A1 (en) 2002-10-03 2004-04-08 Silentium Ltd. Method and system for inhibiting noise produced by one or more sources of undesired sound from pickup by a speech recognition unit
US6240386B1 (en) 1998-08-24 2001-05-29 Conexant Systems, Inc. Speech codec employing noise classification for noise compensation
US6188769B1 (en) 1998-11-13 2001-02-13 Creative Technology Ltd. Environmental reverberation processor
US6496795B1 (en) 1999-05-05 2002-12-17 Microsoft Corporation Modulated complex lapped transform for integrated signal enhancement and coding
US6490556B2 (en) 1999-05-28 2002-12-03 Intel Corporation Audio classifier for half duplex communication
US6226616B1 (en) 1999-06-21 2001-05-01 Digital Theater Systems, Inc. Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility
EP1081685A3 (de) 1999-09-01 2002-04-24 TRW Inc. Rauschverminderungsverfahren in einem Sprachsignal mit einem einzigen Mikrophon
US7054809B1 (en) 1999-09-22 2006-05-30 Mindspeed Technologies, Inc. Rate selection method for selectable mode vocoder
US6636829B1 (en) 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
FI116643B (fi) 1999-11-15 2006-01-13 Nokia Corp Kohinan vaimennus
US6584438B1 (en) 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
JP2001318694A (ja) 2000-05-10 2001-11-16 Toshiba Corp 信号処理装置、信号処理方法および記録媒体
US6377637B1 (en) 2000-07-12 2002-04-23 Andrea Electronics Corporation Sub-band exponential smoothing noise canceling system
US8019091B2 (en) 2000-07-19 2011-09-13 Aliphcom, Inc. Voice activity detector (VAD) -based multiple-microphone acoustic noise suppression
US6862567B1 (en) 2000-08-30 2005-03-01 Mindspeed Technologies, Inc. Noise suppression in the frequency domain by adjusting gain according to voicing parameters
JP2002149200A (ja) 2000-08-31 2002-05-24 Matsushita Electric Ind Co Ltd 音声処理装置及び音声処理方法
US6907045B1 (en) 2000-11-17 2005-06-14 Nortel Networks Limited Method and apparatus for data-path conversion comprising PCM bit robbing signalling
US7472059B2 (en) 2000-12-08 2008-12-30 Qualcomm Incorporated Method and apparatus for robust speech classification
US20020097884A1 (en) 2001-01-25 2002-07-25 Cairns Douglas A. Variable noise reduction algorithm based on vehicle conditions
US7617099B2 (en) 2001-02-12 2009-11-10 FortMedia Inc. Noise suppression by two-channel tandem spectrum modification for speech signal in an automobile
SE0101175D0 (sv) 2001-04-02 2001-04-02 Coding Technologies Sweden Ab Aliasing reduction using complex-exponential-modulated filterbanks
US8452023B2 (en) 2007-05-25 2013-05-28 Aliphcom Wind suppression/replacement component for use with electronic systems
US6493668B1 (en) 2001-06-15 2002-12-10 Yigal Brandman Speech feature extraction system
AUPR647501A0 (en) 2001-07-19 2001-08-09 Vast Audio Pty Ltd Recording a three dimensional auditory scene and reproducing it for the individual listener
DE60118631T2 (de) 2001-11-30 2007-02-15 Telefonaktiebolaget Lm Ericsson (Publ) Verfahren zum ersetzen verfälschter audiodaten
US8098844B2 (en) 2002-02-05 2012-01-17 Mh Acoustics, Llc Dual-microphone spatial noise suppression
US20050228518A1 (en) 2002-02-13 2005-10-13 Applied Neurosystems Corporation Filter set for frequency analysis
US7590250B2 (en) 2002-03-22 2009-09-15 Georgia Tech Research Corporation Analog audio signal enhancement system using a noise suppression algorithm
US20030228019A1 (en) 2002-06-11 2003-12-11 Elbit Systems Ltd. Method and system for reducing noise
JP2004023481A (ja) 2002-06-17 2004-01-22 Alpine Electronics Inc 音響信号処理装置及び方法並びにオーディオ装置
CN100370517C (zh) 2002-07-16 2008-02-20 皇家飞利浦电子股份有限公司 一种对编码信号进行解码的方法
JP4227772B2 (ja) 2002-07-19 2009-02-18 日本電気株式会社 オーディオ復号装置と復号方法およびプログラム
EP1439524B1 (de) 2002-07-19 2009-04-08 NEC Corporation Audiodekodierungseinrichtung, dekodierungsverfahren und programm
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US8019121B2 (en) 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7283956B2 (en) 2002-09-18 2007-10-16 Motorola, Inc. Noise suppression
US7657427B2 (en) 2002-10-11 2010-02-02 Nokia Corporation Methods and devices for source controlled variable bit-rate wideband speech coding
US20040083110A1 (en) 2002-10-23 2004-04-29 Nokia Corporation Packet loss recovery based on music signal classification and mixing
US7970606B2 (en) 2002-11-13 2011-06-28 Digital Voice Systems, Inc. Interoperable vocoder
CN1735927B (zh) 2003-01-09 2011-08-31 爱移通全球有限公司 用于高质量语音编码转换的方法和装置
DE10305820B4 (de) 2003-02-12 2006-06-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen einer Wiedergabeposition
US7725315B2 (en) 2003-02-21 2010-05-25 Qnx Software Systems (Wavemakers), Inc. Minimization of transient noises in a voice signal
US7885420B2 (en) 2003-02-21 2011-02-08 Qnx Software Systems Co. Wind noise suppression system
FR2851879A1 (fr) 2003-02-27 2004-09-03 France Telecom Procede de traitement de donnees sonores compressees, pour spatialisation.
US8412526B2 (en) 2003-04-01 2013-04-02 Nuance Communications, Inc. Restoration of high-order Mel frequency cepstral coefficients
NO318096B1 (no) 2003-05-08 2005-01-31 Tandberg Telecom As Arrangement og fremgangsmate for lokalisering av lydkilde
US7353169B1 (en) 2003-06-24 2008-04-01 Creative Technology Ltd. Transient detection and modification in audio signals
US7376553B2 (en) 2003-07-08 2008-05-20 Robert Patel Quinn Fractal harmonic overtone mapping of speech and musical sounds
US20070067166A1 (en) 2003-09-17 2007-03-22 Xingde Pan Method and device of multi-resolution vector quantilization for audio encoding and decoding
DE602004021716D1 (de) 2003-11-12 2009-08-06 Honda Motor Co Ltd Spracherkennungssystem
JP4396233B2 (ja) 2003-11-13 2010-01-13 パナソニック株式会社 複素指数変調フィルタバンクの信号分析方法、信号合成方法、そのプログラム及びその記録媒体
CA2454296A1 (en) 2003-12-29 2005-06-29 Nokia Corporation Method and device for speech enhancement in the presence of background noise
WO2005086138A1 (ja) 2004-03-05 2005-09-15 Matsushita Electric Industrial Co., Ltd. エラー隠蔽装置およびエラー隠蔽方法
JP4437052B2 (ja) 2004-04-21 2010-03-24 パナソニック株式会社 音声復号化装置および音声復号化方法
US20050249292A1 (en) 2004-05-07 2005-11-10 Ping Zhu System and method for enhancing the performance of variable length coding
GB2414369B (en) 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
EP1600947A3 (de) 2004-05-26 2005-12-21 Honda Research Institute Europe GmbH Subtraktive Reduktion von harmonischen Störgeräuschen
US7254665B2 (en) 2004-06-16 2007-08-07 Microsoft Corporation Method and system for reducing latency in transferring captured image data by utilizing burst transfer after threshold is reached
KR20060024498A (ko) 2004-09-14 2006-03-17 엘지전자 주식회사 오디오신호 에러 복원방법
US7383179B2 (en) 2004-09-28 2008-06-03 Clarity Technologies, Inc. Method of cascading noise reduction algorithms to avoid speech distortion
JP2008519991A (ja) 2004-11-09 2008-06-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声の符号化及び復号化
JP4283212B2 (ja) 2004-12-10 2009-06-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 雑音除去装置、雑音除去プログラム、及び雑音除去方法
ES2327566T3 (es) 2005-04-28 2009-10-30 Siemens Aktiengesellschaft Procedimiento y dispositivo para la supresion de ruidos.
EP2352149B1 (de) 2005-05-05 2013-09-04 Sony Computer Entertainment Inc. Selektives Hören von Tonquellen in Verbindung mit computerinteraktiver Verarbeitung
US8160732B2 (en) 2005-05-17 2012-04-17 Yamaha Corporation Noise suppressing method and noise suppressing apparatus
US7647077B2 (en) 2005-05-31 2010-01-12 Bitwave Pte Ltd Method for echo control of a wireless headset
JP2006339991A (ja) 2005-06-01 2006-12-14 Matsushita Electric Ind Co Ltd マルチチャンネル収音装置、マルチチャンネル音声再生装置、およびマルチチャンネル収音再生装置
US8566086B2 (en) 2005-06-28 2013-10-22 Qnx Software Systems Limited System for adaptive enhancement of speech signals
US7617436B2 (en) 2005-08-02 2009-11-10 Nokia Corporation Method, device, and system for forward channel error recovery in video sequence transmission over packet-based network
KR101116363B1 (ko) 2005-08-11 2012-03-09 삼성전자주식회사 음성신호 분류방법 및 장치, 및 이를 이용한 음성신호부호화방법 및 장치
US8326614B2 (en) 2005-09-02 2012-12-04 Qnx Software Systems Limited Speech enhancement system
JP4356670B2 (ja) 2005-09-12 2009-11-04 ソニー株式会社 雑音低減装置及び雑音低減方法並びに雑音低減プログラムとその電子機器用収音装置
US7917561B2 (en) 2005-09-16 2011-03-29 Coding Technologies Ab Partially complex modulated filter bank
EP1946606B1 (de) 2005-09-30 2010-11-03 Squarehead Technology AS Gerichtete audio-erfassung
US7813923B2 (en) 2005-10-14 2010-10-12 Microsoft Corporation Calibration based beamforming, non-linear adaptive filtering, and multi-sensor headset
US7366658B2 (en) 2005-12-09 2008-04-29 Texas Instruments Incorporated Noise pre-processor for enhanced variable rate speech codec
EP1796080B1 (de) 2005-12-12 2009-11-18 Gregory John Gadbois Mehrstimmige Spracherkennung
US7565288B2 (en) 2005-12-22 2009-07-21 Microsoft Corporation Spatial noise suppression for a microphone array
JP4876574B2 (ja) 2005-12-26 2012-02-15 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
US8345890B2 (en) 2006-01-05 2013-01-01 Audience, Inc. System and method for utilizing inter-microphone level differences for speech enhancement
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
US8346544B2 (en) 2006-01-20 2013-01-01 Qualcomm Incorporated Selection of encoding modes and/or encoding rates for speech compression with closed loop re-decision
JP4940671B2 (ja) 2006-01-26 2012-05-30 ソニー株式会社 オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
US8194880B2 (en) 2006-01-30 2012-06-05 Audience, Inc. System and method for utilizing omni-directional microphones for speech enhancement
US8744844B2 (en) 2007-07-06 2014-06-03 Audience, Inc. System and method for adaptive intelligent noise suppression
US7676374B2 (en) 2006-03-28 2010-03-09 Nokia Corporation Low complexity subband-domain filtering in the case of cascaded filter banks
US7555075B2 (en) 2006-04-07 2009-06-30 Freescale Semiconductor, Inc. Adjustable noise suppression system
US8180067B2 (en) 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US7548791B1 (en) 2006-05-18 2009-06-16 Adobe Systems Incorporated Graphically displaying audio pan or phase information
US8044291B2 (en) 2006-05-18 2011-10-25 Adobe Systems Incorporated Selection of visually displayed audio data for editing
US8204253B1 (en) 2008-06-30 2012-06-19 Audience, Inc. Self calibration of audio device
US8934641B2 (en) 2006-05-25 2015-01-13 Audience, Inc. Systems and methods for reconstructing decomposed audio signals
US8150065B2 (en) 2006-05-25 2012-04-03 Audience, Inc. System and method for processing an audio signal
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
US8005239B2 (en) 2006-10-30 2011-08-23 Hewlett-Packard Development Company, L.P. Audio noise reduction
ATE425532T1 (de) 2006-10-31 2009-03-15 Harman Becker Automotive Sys Modellbasierte verbesserung von sprachsignalen
US7492312B2 (en) 2006-11-14 2009-02-17 Fam Adly T Multiplicative mismatched filters for optimum range sidelobe suppression in barker code reception
US8019089B2 (en) 2006-11-20 2011-09-13 Microsoft Corporation Removal of noise, corresponding to user input devices from an audio signal
US7626942B2 (en) 2006-11-22 2009-12-01 Spectra Link Corp. Method of conducting an audio communications session using incorrect timestamps
US8060363B2 (en) 2007-02-13 2011-11-15 Nokia Corporation Audio signal encoding
EP2118885B1 (de) 2007-02-26 2012-07-11 Dolby Laboratories Licensing Corporation Sprachverstärkung in unterhaltungsaudioinhalten
US20080208575A1 (en) 2007-02-27 2008-08-28 Nokia Corporation Split-band encoding and decoding of an audio signal
CN101681619B (zh) 2007-05-22 2012-07-04 Lm爱立信电话有限公司 改进的话音活动性检测器
TWI421858B (zh) 2007-05-24 2014-01-01 Audience Inc 用於處理音頻訊號的系統及方法
JP4455614B2 (ja) 2007-06-13 2010-04-21 株式会社東芝 音響信号処理方法及び装置
US8428275B2 (en) 2007-06-22 2013-04-23 Sanyo Electric Co., Ltd. Wind noise reduction device
US7873513B2 (en) 2007-07-06 2011-01-18 Mindspeed Technologies, Inc. Speech transcoding in GSM networks
JP5009082B2 (ja) 2007-08-02 2012-08-22 シャープ株式会社 表示装置
JP5045751B2 (ja) 2007-08-07 2012-10-10 日本電気株式会社 音声ミキシング装置およびその雑音抑圧方法、ならびにプログラム
US20090043577A1 (en) 2007-08-10 2009-02-12 Ditech Networks, Inc. Signal presence detection using bi-directional communication data
JP4469882B2 (ja) 2007-08-16 2010-06-02 株式会社東芝 音響信号処理方法及び装置
KR101409169B1 (ko) 2007-09-05 2014-06-19 삼성전자주식회사 억제 폭 조절을 통한 사운드 줌 방법 및 장치
ATE477572T1 (de) 2007-10-01 2010-08-15 Harman Becker Automotive Sys Effiziente audiosignalverarbeitung im subbandbereich, verfahren, vorrichtung und dazugehöriges computerprogramm
US8046219B2 (en) 2007-10-18 2011-10-25 Motorola Mobility, Inc. Robust two microphone noise suppression system
US8606566B2 (en) 2007-10-24 2013-12-10 Qnx Software Systems Limited Speech enhancement through partial speech reconstruction
US8326617B2 (en) 2007-10-24 2012-12-04 Qnx Software Systems Limited Speech enhancement with minimum gating
ATE456130T1 (de) 2007-10-29 2010-02-15 Harman Becker Automotive Sys Partielle sprachrekonstruktion
TW200922272A (en) 2007-11-06 2009-05-16 High Tech Comp Corp Automobile noise suppression system and method thereof
DE602007014382D1 (de) 2007-11-12 2011-06-16 Harman Becker Automotive Sys Unterscheidung zwischen Vordergrundsprache und Hintergrundgeräuschen
JP5159279B2 (ja) 2007-12-03 2013-03-06 株式会社東芝 音声処理装置及びそれを用いた音声合成装置。
JP5140162B2 (ja) 2007-12-20 2013-02-06 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 雑音抑圧方法及び装置
DE102008031150B3 (de) 2008-07-01 2009-11-19 Siemens Medical Instruments Pte. Ltd. Verfahren zur Störgeräuschunterdrückung und zugehöriges Hörgerät
US8554551B2 (en) 2008-01-28 2013-10-08 Qualcomm Incorporated Systems, methods, and apparatus for context replacement by audio level
US8200479B2 (en) 2008-02-08 2012-06-12 Texas Instruments Incorporated Method and system for asymmetric independent audio rendering
US8194882B2 (en) 2008-02-29 2012-06-05 Audience, Inc. System and method for providing single microphone noise suppression fallback
EP2250641B1 (de) 2008-03-04 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum mischen mehrerer eingabedatenströme
US8611554B2 (en) 2008-04-22 2013-12-17 Bose Corporation Hearing assistance apparatus
US8774423B1 (en) 2008-06-30 2014-07-08 Audience, Inc. System and method for controlling adaptivity of signal modification using a phantom coefficient
CN101304391A (zh) 2008-06-30 2008-11-12 腾讯科技(深圳)有限公司 一种基于即时通讯系统的语音通话方法及系统
KR20100003530A (ko) 2008-07-01 2010-01-11 삼성전자주식회사 전자기기에서 음성 신호의 잡음 제거 장치 및 방법
ES2678415T3 (es) 2008-08-05 2018-08-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y procedimiento para procesamiento y señal de audio para mejora de habla mediante el uso de una extracción de característica
US8184180B2 (en) 2009-03-25 2012-05-22 Broadcom Corporation Spatially synchronized audio and video capture
US9202456B2 (en) 2009-04-23 2015-12-01 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for automatic control of active noise cancellation
US8908882B2 (en) 2009-06-29 2014-12-09 Audience, Inc. Reparation of corrupted audio signals
EP2285112A1 (de) 2009-08-07 2011-02-16 Canon Kabushiki Kaisha Verfahren zum Senden von komprimierten Daten, die ein digitales Bild darstellen, und entsprechende Vorrichtung
US8644517B2 (en) 2009-08-17 2014-02-04 Broadcom Corporation System and method for automatic disabling and enabling of an acoustic beamformer
US8233352B2 (en) 2009-08-17 2012-07-31 Broadcom Corporation Audio source localization system and method
US20110058676A1 (en) * 2009-09-07 2011-03-10 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dereverberation of multichannel signal
JP5397131B2 (ja) 2009-09-29 2014-01-22 沖電気工業株式会社 音源方向推定装置及びプログラム
KR20140010468A (ko) 2009-10-05 2014-01-24 하만인터내셔날인더스트리스인코포레이티드 오디오 신호의 공간 추출 시스템
CN102044243B (zh) 2009-10-15 2012-08-29 华为技术有限公司 语音激活检测方法与装置、编码器
JP5793500B2 (ja) 2009-10-19 2015-10-14 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 音声区間検出器及び方法
US20110107367A1 (en) 2009-10-30 2011-05-05 Sony Corporation System and method for broadcasting personal content to client devices in an electronic network
US8989401B2 (en) 2009-11-30 2015-03-24 Nokia Corporation Audio zooming process within an audio scene
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
WO2011080855A1 (ja) 2009-12-28 2011-07-07 三菱電機株式会社 音声信号復元装置および音声信号復元方法
US8626498B2 (en) 2010-02-24 2014-01-07 Qualcomm Incorporated Voice activity detection based on plural voice activity detectors
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US8699674B2 (en) 2010-04-21 2014-04-15 Angel.Com Incorporated Dynamic speech resource allocation
US8880396B1 (en) 2010-04-28 2014-11-04 Audience, Inc. Spectrum reconstruction for automatic speech recognition
US9094496B2 (en) 2010-06-18 2015-07-28 Avaya Inc. System and method for stereophonic acoustic echo cancellation
US8638951B2 (en) * 2010-07-15 2014-01-28 Motorola Mobility Llc Electronic apparatus for generating modified wideband audio signals based on two or more wideband microphone signals
US8433076B2 (en) 2010-07-26 2013-04-30 Motorola Mobility Llc Electronic apparatus for generating beamformed audio signals with steerable nulls
US8861756B2 (en) * 2010-09-24 2014-10-14 LI Creative Technologies, Inc. Microphone array system
US8311817B2 (en) 2010-11-04 2012-11-13 Audience, Inc. Systems and methods for enhancing voice quality in mobile device
US8831937B2 (en) 2010-11-12 2014-09-09 Audience, Inc. Post-noise suppression processing to improve voice quality
GB2501633A (en) 2011-01-05 2013-10-30 Health Fidelity Inc A voice based system and method for data input
US8989411B2 (en) 2011-04-08 2015-03-24 Board Of Regents, The University Of Texas System Differential microphone with sealed backside cavities and diaphragms coupled to a rocking structure thereby providing resistance to deflection under atmospheric pressure and providing a directional response to sound pressure
JP5325928B2 (ja) 2011-05-02 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ チャネル状態情報通知方法、無線基地局装置、ユーザ端末及び無線通信システム
US8972263B2 (en) 2011-11-18 2015-03-03 Soundhound, Inc. System and method for performing dual mode speech recognition
US9197974B1 (en) 2012-01-06 2015-11-24 Audience, Inc. Directional audio capture adaptation based on alternative sensory input
US8615394B1 (en) 2012-01-27 2013-12-24 Audience, Inc. Restoration of noise-reduced speech
US8694522B1 (en) 2012-03-28 2014-04-08 Amazon Technologies, Inc. Context dependent recognition
US9093076B2 (en) 2012-04-30 2015-07-28 2236008 Ontario Inc. Multipass ASR controlling multiple applications
US9431012B2 (en) 2012-04-30 2016-08-30 2236008 Ontario Inc. Post processing of natural language automatic speech recognition
US9479275B2 (en) 2012-06-01 2016-10-25 Blackberry Limited Multiformat digital audio interface
US20130332156A1 (en) 2012-06-11 2013-12-12 Apple Inc. Sensor Fusion to Improve Speech/Audio Processing in a Mobile Device
US20130343549A1 (en) * 2012-06-22 2013-12-26 Verisilicon Holdings Co., Ltd. Microphone arrays for generating stereo and surround channels, method of operation thereof and module incorporating the same
EP2680615B1 (de) 2012-06-25 2018-08-08 LG Electronics Inc. Mobiles Endgerät und Audiozoomverfahren dafür
US9119012B2 (en) 2012-06-28 2015-08-25 Broadcom Corporation Loudspeaker beamforming for personal audio focal points
WO2014012583A1 (en) 2012-07-18 2014-01-23 Huawei Technologies Co., Ltd. Portable electronic device with directional microphones for stereo recording
EP2875624B1 (de) 2012-07-18 2018-09-12 Huawei Technologies Co., Ltd. Tragbare elektronische vorrichtung mit gerichteten mikrophonen für stereoaufzeichnungen
US9271076B2 (en) * 2012-11-08 2016-02-23 Dsp Group Ltd. Enhanced stereophonic audio recordings in handheld devices
US10606546B2 (en) * 2012-12-05 2020-03-31 Nokia Technologies Oy Orientation based microphone selection apparatus
US9258647B2 (en) * 2013-02-27 2016-02-09 Hewlett-Packard Development Company, L.P. Obtaining a spatial audio signal based on microphone distances and time delays
US9984675B2 (en) 2013-05-24 2018-05-29 Google Technology Holdings LLC Voice controlled audio recording system with adjustable beamforming
US20140379338A1 (en) 2013-06-20 2014-12-25 Qnx Software Systems Limited Conditional multipass automatic speech recognition
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
US9229680B2 (en) 2013-09-20 2016-01-05 Oracle International Corporation Enhanced voice command of computing devices
US9633671B2 (en) 2013-10-18 2017-04-25 Apple Inc. Voice quality enhancement techniques, speech recognition techniques, and related systems
CN105874818A (zh) * 2013-11-20 2016-08-17 楼氏电子(北京)有限公司 具有用作第二麦克风的扬声器的装置
US9601108B2 (en) 2014-01-17 2017-03-21 Microsoft Technology Licensing, Llc Incorporating an exogenous large-vocabulary model into rule-based speech recognition
CN106105259A (zh) 2014-01-21 2016-11-09 美商楼氏电子有限公司 提供极高声学过载点的麦克风设备和方法
US20150237470A1 (en) 2014-02-14 2015-08-20 Apple Inc. Personal Geofence
US9500739B2 (en) 2014-03-28 2016-11-22 Knowles Electronics, Llc Estimating and tracking multiple attributes of multiple objects from multi-sensor data
US9530407B2 (en) 2014-06-11 2016-12-27 Honeywell International Inc. Spatial audio database based noise discrimination
US20160037245A1 (en) 2014-07-29 2016-02-04 Knowles Electronics, Llc Discrete MEMS Including Sensor Device
DE112015004185T5 (de) 2014-09-12 2017-06-01 Knowles Electronics, Llc Systeme und Verfahren zur Wiederherstellung von Sprachkomponenten
US20160093307A1 (en) 2014-09-25 2016-03-31 Audience, Inc. Latency Reduction
US20160162469A1 (en) 2014-10-23 2016-06-09 Audience, Inc. Dynamic Local ASR Vocabulary
US9886966B2 (en) 2014-11-07 2018-02-06 Apple Inc. System and method for improving noise suppression using logistic function and a suppression target value for automatic speech recognition
WO2016094418A1 (en) 2014-12-09 2016-06-16 Knowles Electronics, Llc Dynamic local asr vocabulary
WO2016109103A1 (en) 2014-12-30 2016-07-07 Knowles Electronics, Llc Directional audio capture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185487B2 (en) 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
US9210503B2 (en) 2009-12-02 2015-12-08 Audience, Inc. Audio zoom
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues

Also Published As

Publication number Publication date
CN109155884B (zh) 2021-01-12
US9820042B1 (en) 2017-11-14
US20170318387A1 (en) 2017-11-02
US20180070174A1 (en) 2018-03-08
CN109155884A (zh) 2019-01-04
WO2017192398A1 (en) 2017-11-09
US10257611B2 (en) 2019-04-09

Similar Documents

Publication Publication Date Title
DE112017002299T5 (de) Stereotrennung und Richtungsunterdrückung mit Omni-Richtmikrofonen
DE112013002838B4 (de) Abstimmen der Audio-Beamforming-Einstellungen auf der Grundlage des Systemzustands
DE112015003945T5 (de) Mehrquellen-Rauschunterdrückung
DE112016000545B4 (de) Kontextabhängiges schalten von mikrofonen
DE112016000287T5 (de) Verwendung von digitalen Mikrofonen zur Niedrigleistung-Schlüsselworterkennung und Rauschunterdrückung
US9641929B2 (en) Audio signal processing method and apparatus and differential beamforming method and apparatus
EP3189521B1 (de) Verfahren und vorrichtung zur erweiterung von schallquellen
US9838784B2 (en) Directional audio capture
DE112015004185T5 (de) Systeme und Verfahren zur Wiederherstellung von Sprachkomponenten
US8583428B2 (en) Sound source separation using spatial filtering and regularization phases
DE60303338T2 (de) Orthogonales und kreisförmiges Gruppensystem von Mikrofonen und Verfahren zur Erkennung der dreidimensionalen Richtung einer Schallquelle mit diesem System
US9918174B2 (en) Wireless exchange of data between devices in live events
DE60125553T2 (de) Verfahren zur interferenzunterdrückung
CN106960670B (zh) 一种录音方法和电子设备
DE112016006133T5 (de) Stimmenerweiterter wahrnehmungsmodus
DE112019003211T9 (de) System aus Strahlformer und akustischem Echokompensator (AEC)
EP3005737A2 (de) Mischpult, tonsignalerzeuger, verfahren und computerprogramm zum bereitstellen eines tonsignals
DE112018002871T5 (de) System und verfahren zur audiomustererkennung
CN102447993A (zh) 声音场景操纵
DE112017000378T5 (de) Akustisches echoauslöschungs-referenzsignal
DE102017219234A1 (de) Verfahren zum Erfassen einer Spracheingabe eines Benutzers in einem Außenbereich eines Kraftfahrzeugs sowie Kraftfahrzeug
CN107333093A (zh) 一种声音处理方法、装置、终端及计算机可读存储介质
DE102008004674A1 (de) Signalaufnahme mit variabler Richtcharakteristik
DE112015005862T5 (de) Gerichtete Audioerfassung
DE202019107201U1 (de) Binaurales Hörgerät für eine verbesserte räumliche Hörwahrnehmung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final