ES2382986T3 - Aparato para fusionar corrientes de audio espacial - Google Patents

Aparato para fusionar corrientes de audio espacial Download PDF

Info

Publication number
ES2382986T3
ES2382986T3 ES09806392T ES09806392T ES2382986T3 ES 2382986 T3 ES2382986 T3 ES 2382986T3 ES 09806392 T ES09806392 T ES 09806392T ES 09806392 T ES09806392 T ES 09806392T ES 2382986 T3 ES2382986 T3 ES 2382986T3
Authority
ES
Spain
Prior art keywords
wave
representation
audio
fused
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09806392T
Other languages
English (en)
Inventor
Giovanni Del Galdo
Fabian Kuech
Markus Kallinger
Ville Pulkki
Mikko-Ville Laitinen
Richard Schultz-Amling
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2382986T3 publication Critical patent/ES2382986T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Aparato (100) para fusionar una primera corriente de audio espacial con una segunda corriente de audio espacial para obtener una corriente de audio fusionada, que comprende: un estimador (120) para estimar una primera representación de onda que comprende una primera medida de dirección de onda que es una cantidad direccional de una primera onda y una primera medida de campo de onda que está relacionada con una magnitud de la primera onda para la primera corriente de audio espacial, teniendo la primera corriente de audio espacial una primera representación de audio que comprende una medida de una presión o una magnitud de una primera señal de audio (P(1)) y una primera dirección de llegada y para estimar una segunda representación de onda que comprende una segunda medida de dirección de onda que es una cantidad direccional de una segunda onda y una segunda medida de campo de onda que está relacionada con una magnitud de la segunda onda para la segunda corriente de audio espacial, teniendo la segunda corriente de audio espacial una segunda representación de audio que comprende una medida de una presión o una magnitud de una segunda señal de audio (P(2)) y una segunda dirección de llegada y un procesador (130) para procesar la primera representación de onda y la segunda representación de onda para obtener una representación de onda fusionada que comprende una medida de campo de onda fusionada **Fórmula**, una medida de dirección de llegada fusionada **Fórmula** y un parámetro de difusividad fusionado **Fórmula**en el que el parámetro de difusividad fusionado está basado en la medida de campo de onda fusionada **Fórmula** , la primera representación de audio (P(1)) y la segunda representación de audio (P(2)), y en el que la medida de campo de onda fusionada **Fórmula**está basada en la primera medida de campo de onda, la segunda medida de campo de onda, la primera medida de dirección de onda y la segunda medida de dirección de onda y en el que el procesador (130) está configurado para procesar la primera representación de audio (P(1)) y la segunda representación de audio (P(2)) para obtener una representación de audio fusionada (P), y para proporcionar la corriente de audio fusionada que comprende la representación de audio fusionada (P), la medida de dirección de llegada fusionada **Fórmula** y el parámetro de difusividad fusionado **Fórmula** .

Description

Aparato para fusionar corrientes de audio espacial
La presente invención se refiere al campo de procesamiento de audio, especialmente procesamiento de audio espacial, y a la fusión de múltiples corrientes de audio espacial.
DirAC (DirAC = Directional Audio Coding, codificación de audio direccional), cf. V. Pulkki y C. Faller, Directional audio coding in spatial sound reproduction and stereo upmixing, en la 28a Conferencia Internacional de la AES, Pitea, Suecia, junio de 2006 y V. Pulkki, A method for reproducing natural or modified spatial impression in Multichannel listening, patente WO 2004/077884 A1, septiembre de 2004, es un enfoque eficaz para el análisis y reproducción de sonido espacial. DirAC utiliza una representación paramétrica de campos de sonido basada en las características que son relevantes para la percepción de sonido espacial, es decir la dirección de llegada (DOA = Direction Of Arrival) y la difusividad del campo de sonido en subbandas de frecuencia. En efecto, DirAC asume que las diferencias de tiempo interaural (ITD = Interaural Time Differences) y las diferencias de nivel interaural (ILD = Interaural Level Differences) son percibidas correctamente cuando la DOA de un campo de sonido se reproduce correctamente, mientras que la coherencia interaural (IC = Interaural Coherence) es percibida correctamente, si la difusividad se reproduce de manera precisa.
Estos parámetros, es decir DOA y difusividad, representan información secundaria que acompaña a una señal mono en lo que se denomina como una corriente de DirAC mono. Los parámetros de DirAC se obtienen a partir de una representación de tiempo-frecuencia de las señales de micrófono. Por consiguiente, los parámetros son dependientes del tiempo y de la frecuencia. En el lado de la reproducción, esta información permite una presentación espacial precisa. Para recrear el sonido espacial en una posición de escucha deseada se requiere un montaje de múltiples altavoces. Sin embargo, su geometría es arbitraria. En efecto, las señales para los altavoces se determinan en función de los parámetros de DirAC.
Hay diferencias substanciales entre DirAC y codificación de audio multicanal paramétrica tal como MPEG Surround aunque comparten estructuras de procesamiento muy similares, cf. Lars Villemoes, Juergen Herre, Jeroen Breebaart, Gerard Hotho, Sascha Disch, Heiko Purnhagen, y Kristofer Kjrlingm, MPEG Surround: The forthcoming ISO Standard for spatial audio coding, en la 28ª Conferencia Internacional de la AES, Pitea, Suecia, junio de 2006. Mientras que MPEG Surround está basado en un análisis de tiempo-frecuencia de los diferentes canales de altavoz, DirAC toma como entrada los canales de micrófonos coincidentes, que describen eficazmente el campo de sonido en un punto. Así, DirAC también representa una técnica de grabación eficaz para audio espacial.
Otro sistema convencional que trata de audio espacial es SAOC (SAOC = Spatial Audio Object Coding, codificación de objeto de audio espacial), cf. Jonas Engdegard, Barbara Resch, Cornelio Falch, Oliver Hellmuth, Johannes Hilpert, Andreas Hoelzer, Leonid Ternetiev, Jeroen Breebaart, Jeroen Koppens, Erik Schuijer y Werner Oomen, Spatial audio object coding (SAOC) the upcoming MPEG Standard on parametric object based audio coding, en la 124ª Convenciónde la AES, 17-20 de mayo de 2008, Ámsterdam, Países Bajos, 2008, actualmente en proceso de normalización en ISO/MPEG.
Se integra en el motor de presentación de MPEG Surround y trata diferentes fuentes de sonido como objetos. Esta codificación de audio ofrece una eficacia muy alta en términos de tasa de transmisión de bits y da una libertad de interacción sin precedentes en el lado de reproducción. Este enfoque promete nuevas características convincentes y funcionalidad en sistemas heredados, así como varias otras nuevas aplicaciones.
Es el objeto de la presente invención proporcionar un concepto aprobado para la fusión de señales de audio espacial.
El objeto se consigue mediante un aparato para fusionar según la reivindicación 1 y un método para fusionar según la reivindicación 13.
Obsérvese que la fusión sería trivial en el caso de una corriente de DirAC multicanal, es decir si los 4 canales de audio de formato B estuvieran disponibles. En efecto, las señales de diferentes fuentes pueden sumarse directamente para obtener las señales de formato B de la corriente fusionada. Sin embargo, si estos canales no están disponibles, la fusión directa es problemática.
La presente invención está basada en el descubrimiento de que las señales de audio espacial pueden representarse por la suma de una representación de onda, por ejemplo una representación de onda plana, y una representación de campo difuso. A la primera se le puede asignar una dirección. Cuando se fusionan varias corrientes de audio, algunas realizaciones pueden permitir obtener la información secundaria de la corriente fusionada, por ejemplo en términos de una difusividad y una dirección. Algunas realizaciones pueden obtener esta información a partir de las representaciones de onda así como de las corrientes de audio de entrada. Cuando se fusionan varias corrientes de audio, que pueden todas estar modeladas por una parte o representación de onda y una parte o representación difusa, las partes o componentes de onda y las partes o componentes difusas pueden fusionarse por separado. La fusión de la parte de onda produce una parte de onda fusionada, para la cual se puede obtener una dirección fusionada basándose en las direcciones de las representaciones de la parte de onda. Además, las partes difusas pueden también fusionarse por separado, a partir de la parte difusa fusionada puede derivarse un parámetro de difusividad global.
Algunas realizaciones pueden proporcionar un método para fusionar dos o más señales de audio espacial codificadas como corrientes de DirAC mono. La señal fusionada resultante puede representarse como una corriente de DirAC mono también. En realizaciones, la codificación de DirAC mono puede ser una manera compacta de describir audio espacial, ya que solamente tiene que transmitirse un canal de audio junto con información secundaria.
En realizaciones, un escenario posible puede ser una aplicación de teleconferencia con más de dos partes. Por ejemplo, sea el usuario A que se comunica con los usuarios B y C, que generan dos corrientes de DirAC mono separadas. En la ubicación de A, la realización puede permitir que las corrientes del usuario B y C se fusionen en una sola corriente de DirAC mono, que puede reproducirse con la técnica de síntesis de DirAC convencional. En una realización que utiliza una topología de red que observa la presencia de una unidad de control multipunto (MCU = multipoint control unit), la operación de fusión se realizaría por la propia MCU, de tal manera que el usuario A recibiría una única corriente de DirAC mono que ya contiene el habla tanto de B como de C. Claramente, las corrientes de DirAC que van a fusionarse pueden también generarse sintéticamente, lo que significa que puede añadirse información secundaria apropiada a una señal de audio mono. En el ejemplo recién mencionado, el usuario A podría recibir dos corrientes de audio de B y C sin ninguna información secundaria. Es posible entonces asignar a cada corriente una determinada dirección y difusividad, añadiendo así la información secundaria necesaria para construir las corrientes de DirAC, que pueden después fusionarse mediante una realización.
Otro escenario posible en realizaciones se puede encontrar en juegos en línea de múltiples jugadores y aplicaciones de realidad virtual. En estos casos, se generan varias corrientes ya sea de jugadores u objetos virtuales. Cada corriente está caracterizada por una determinada dirección de llegada en relación con el oyente y puede por consiguiente expresarse por una corriente de DirAC. La realización puede usarse para fusionar las diferentes corrientes en una única corriente de DirAC, que se reproduce luego en la posición del oyente.
Realizaciones de la presente invención se detallarán utilizando las figuras adjuntas, en las que:
la figura 1a muestra una realización de un aparato para fusionar;
la figura 1b muestra la presión y componentes de un vector de velocidad de partícula en un plano gaussiano para una onda plana;
la figura 2 muestra una realización de un codificador de DirAC;
la figura 3 ilustra una fusión ideal de corrientes de audio;
la figura 4 muestra las entradas y salidas de una realización de un bloque de procesamiento de fusión de DirAC general;
la figura 5 muestra un diagrama de bloques de una realización; y
la figura 6 muestra un diagrama de flujo de una realización de un método para fusionar.
La figura 1a ilustra una realización de un aparato 100 para fusionar una primera corriente de audio espacial con una segunda corriente de audio espacial para obtener una corriente de audio fusionada. La realización ilustrada en la figura 1a ilustra la fusión de dos corrientes de audio, sin embargo no debe limitarse a dos corrientes de audio, de manera similar, múltiples corrientes de audio espacial pueden fusionarse. La primera corriente de audio espacial y la segunda corriente de audio espacial pueden por ejemplo corresponder a corrientes de DirAC mono y la corriente de audio fusionada puede también corresponder a una única corriente de audio de DirAC mono. Como se detallará posteriormente, una corriente de DirAC mono puede comprender una señal de presión, por ejemplo capturada por un micrófono omnidireccional, e información secundaria. Esta última puede comprender medidas dependientes del tiempofrecuencia de difusividad y dirección de llegada del sonido.
La figura 1a muestra una realización de un aparato 100 para fusionar una primera corriente de audio espacial con una segunda corriente de audio espacial para obtener una corriente de audio fusionada, que comprende un estimador 120 para estimar una primera representación de onda que comprende una primera medida de dirección de onda y una primera medida de campo de onda para la primera corriente de audio espacial, teniendo la primera corriente de audio espacial una primera representación de audio y una primera dirección de llegada, y para estimar una segunda representación de onda que comprende una segunda medida de dirección de onda y una segunda medida de campo de onda para la segunda corriente de audio espacial, teniendo la segunda corriente de audio espacial una segunda representación de audio y una segunda dirección de llegada. En realizaciones, la primera y/o segunda representación de onda puede corresponder a una representación de onda plana.
En la realización mostrada en la figura 1a, el aparato 100 comprende además un procesador 130 para procesar la primera representación de onda y la segunda representación de onda para obtener una representación de onda fusionada que comprende una medida de campo fusionada y una medida de dirección de llegada fusionada y para procesar la primera representación de audio y la segunda representación de audio para obtener una representación de audio fusionada, el procesador 130 está adaptado además para proporcionar la corriente de audio fusionada que comprende la representación de audio fusionada y la medida de dirección de llegada fusionada.
El estimador 120 puede estar adaptado para estimar la primera medida de campo de onda en términos de una primera amplitud de campo de onda, para estimar la segunda medida de campo de onda en términos de una segunda amplitud de campo de onda y para estimar una diferencia de fase entre la primera medida de campo de onda y la segunda medida de campo de onda. En realizaciones, el estimador puede estar adaptado para estimar una primera fase de campo de onda y una segunda fase de campo de onda. En realizaciones, el estimador 120 puede estimar solamente un desplazamiento o diferencia de fase entre las representaciones de onda primera y segunda, las medidas de campo de onda primera y segunda, respectivamente. El procesador 130 puede estar adaptado entonces, por consiguiente, para procesar la primera representación de onda y la segunda representación de onda para obtener una representación de onda fusionada que comprende una medida de campo de onda fusionada, que puede comprender una amplitud de campo de onda fusionada, una fase de campo de onda fusionada y una medida de dirección de llegada fusionada, y para procesar la primera representación de audio y la segunda representación de audio para obtener una representación de audio fusionada.
En realizaciones, el procesador 130 puede estar adaptado adicionalmente para procesar la primera representación de onda y la segunda representación de onda para obtener la representación de onda fusionada que comprende la medida de campo de onda fusionada, la medida de dirección de llegada fusionada y un parámetro de difusividad fusionado, y para proporcionar la corriente de audio fusionada que comprende la representación de audio fusionada, la medida de dirección de llegada fusionada y el parámetro de difusividad fusionado.
En otras palabras, en realizaciones, un parámetro de difusividad puede determinarse basándose en las representaciones de onda para la corriente de audio fusionada. El parámetro de difusividad puede establecer una medida de una difusividad espacial de una corriente de audio, es decir una medida de una distribución espacial como por ejemplo una distribución angular alrededor de una cierta dirección. En una realización, un escenario posible podría ser la fusión de dos señales sintéticas mono con sólo información direccional.
El procesador 130 puede estar adaptado para procesar la primera representación de onda y la segunda representación de onda para obtener la representación de onda fusionada, en el que el parámetro de difusividad fusionado está basado en la primera medida de dirección de onda y en la segunda medida de dirección de onda. En realizaciones, las representaciones de onda primera y segunda pueden tener direcciones de llegada diferentes y la dirección de llegada fusionada puede situarse entre las mismas. En esta realización, aunque las corrientes de audio espacial primera y segunda pueden no proporcionar ningún parámetro de difusividad, el parámetro de difusividad fusionado puede determinarse a partir de las representaciones de onda primera y segunda, es decir basándose en la primera medida de dirección de onda y en la segunda medida de dirección de onda. Por ejemplo, si dos ondas planas chocan desde diferentes direcciones, es decir la primera medida de dirección de onda difiere de la segunda medida de dirección de onda, la representación de audio fusionada puede comprender una dirección de llegada fusionada combinada con un parámetro de difusividad fusionado que no se desvanece, con el fin de tener en cuenta la primera medida de dirección de onda y la segunda medida de dirección de onda. En otras palabras, mientras que dos corrientes de audio espacial enfocadas pueden no tener o proporcionar ninguna difusividad, la corriente de audio fusionada puede tener una difusividad que no se desvanece, ya que está basada en la distribución angular establecida por las corrientes de audio primera y segunda.
Algunas realizaciones pueden estimar un parámetro de difusividad
Wj por ejemploj para una corriente de DirAC fusionada. En general, algunas realizaciones pueden establecer o asumir entonces los parámetros de difusividad de las corrientes individuales a un valor fijo, por ejemplo 0 ó 0,1, o a un valor variable derivado de un análisis de las representaciones de audio y/o representaciones de dirección.
En otras realizaciones, el aparato 100 para fusionar la primera corriente de audio espacial con la segunda corriente de audio espacial para obtener una corriente de audio fusionada puede comprender el estimador 120 para estimar la primera representación de onda que comprende una primera medida de dirección de onda y una primera medida de campo de onda para la primera corriente de audio espacial, teniendo la primera corriente de audio espacial la primera representación de audio, la primera dirección de llegada y un primer parámetro de difusividad. En otras palabras, la primera representación de audio puede corresponder a una señal de audio con un determinado ancho espacial o ser difusa en cierta medida. En una realización, esto puede corresponder a un escenario en un juego de ordenador. Un primer jugador puede estar en un escenario, en el que la primera representación de audio representa una fuente de audio como por ejemplo un tren que pasa, creando un campo de sonido difuso en cierta medida. En tal realización, los sonidos evocados por el propio tren pueden ser difusos, un sonido producido por la bocina del tren, es decir las componentes de frecuencia correspondientes, pueden no ser difusos.
El estimador 120 puede además estar adaptado para estimar la segunda representación de onda que comprende la segunda medida de dirección de onda y la segunda medida de campo de onda para la segunda corriente de audio espacial, teniendo la segunda corriente de audio espacial la segunda representación de audio, la segunda dirección de llegada y un segundo parámetro de difusividad. En otras palabras, la segunda representación de audio puede corresponder a una señal de audio con un determinado ancho espacial o ser difusa en cierta medida. Una vez más, esto puede corresponder al escenario en el juego de ordenador, en el que una segunda fuente de sonido puede representarse por la segunda corriente de audio, por ejemplo ruido de fondo de otro tren que pasa por otra vía. Para el primer jugador en el juego de ordenador, ambas fuentes de sonido pueden ser difusas ya que se encuentra en la estación de tren.
En realizaciones, el procesador 130 puede estar adaptado para procesar la primera representación de onda y la segunda representación de onda para obtener la representación de onda fusionada que comprende la medida de campo de onda fusionada y la medida de dirección de llegada fusionada, y para procesar la primera representación de audio y la segunda representación de audio para obtener la representación de audio fusionada, y para proporcionar la corriente de audio fusionada que comprende la representación de audio fusionada y la medida de dirección de llegada fusionada. En otras palabras, el procesador 130 puede no determinar un parámetro de difusividad fusionado. Esto puede corresponder al campo de sonido experimentado por un segundo jugador en el juego de ordenador descrito anteriormente. El segundo jugador puede encontrarse más alejado de la estación de tren, de tal manera que las dos fuentes de sonido pueden no experimentarse como difusas por el segundo jugador, sino más bien representar fuentes de sonido enfocadas, debido a la mayor distancia.
En realizaciones, el aparato 100 puede comprender además medios 110 para determinar, para la primera corriente de audio espacial, la primera representación de audio y la primera dirección de llegada y para determinar, para la segunda corriente de audio espacial, la segunda representación de audio y la segunda dirección de llegada. En realizaciones, puede proporcionarse a los medios 110 para determinar una corriente de audio directa, es decir la determinación puede solamente referirse a la lectura de la representación de audio en términos de por ejemplo una señal de presión y una DOA y opcionalmente también parámetros de difusividad en términos de la información secundaria.
El estimador 120 puede estar adaptado para estimar la primera representación de onda a partir de la primera corriente de audio espacial que tiene además un primer parámetro de difusividad y/o para estimar la segunda representación de onda a partir de la segunda corriente de audio espacial que tiene además un segundo parámetro de difusividad, el procesador 130 puede estar adaptado para procesar la medida de campo de onda fusionada, las representaciones de audio primera y segunda y los parámetros de difusividad primero y segundo para obtener el parámetro de difusividad fusionado para la corriente de audio fusionada, y el procesador 130 puede estar adaptado adicionalmente para proporcionar la corriente de audio que comprende el parámetro de difusividad fusionado. Los medios 110 para determinar pueden estar adaptados para determinar el primer parámetro de difusividad para la primera corriente de audio espacial y el segundo parámetro de difusividad para la segunda corriente de audio espacial.
El procesador 130 puede estar adaptado para procesar las corrientes de audio espacial, las representaciones de audio, la DOA y/o los parámetros de difusividad bloque por bloque, es decir en términos de segmentos de muestras o valores. En algunas realizaciones, un segmento puede comprender un número predeterminado de muestras correspondientes a una representación de frecuencia de una determinada banda de frecuencia en un determinado momento de una corriente de audio espacial. Tal segmento puede corresponder a una representación mono y tener asociada una DOA y un parámetro de difusividad.
En realizaciones, los medios 110 para determinar pueden estar adaptados para determinar la primera y segunda representación de audio, la primera y segunda dirección de llegada y los parámetros de difusividad primero y segundo de una manera dependiente del tiempo-frecuencia y/o el procesador 130 puede estar adaptado para procesar las representaciones de onda, parámetros de difusividad y/o medidas de DOA primera y segunda y/o para determinar la representación de audio fusionada, la medida de dirección de llegada fusionada y/o el parámetro de difusividad fusionado de una manera dependiente del tiempo-frecuencia.
En realizaciones, la primera representación de audio puede corresponder a una primera representación mono y la segunda representación de audio puede corresponder a una segunda representación mono y la representación de audio fusionada puede corresponder a una representación mono fusionada. En otras palabras, las representaciones de audio pueden corresponder a un único canal de audio.
En realizaciones, los medios 110 para determinar pueden estar adaptados para determinar y/o el procesador puede estar adaptado para procesar la primera y segunda representación mono, la primera y la segunda DOA y un primer y un segundo parámetro de difusividad y el procesador 130 puede proporcionar la representación mono fusionada, la medida de DOA fusionada y/o el parámetro de difusividad fusionado de una manera dependiente del tiempo-frecuencia. En realizaciones, la primera corriente de audio espacial puede estar ya proporcionada en términos de, por ejemplo, una representación de DirAC, los medios 110 para determinar pueden estar adaptados para determinar la primera y segunda representación mono, la primera y segunda DOA y los parámetros de difusividad primero y segundo simplemente mediante extracción a partir de las corrientes de audio primera y segunda, por ejemplo a partir de la información secundaria de DirAC.
A continuación se expondrá una realización en detalle, debiendo introducirse en primer lugar la notación y el modelo de datos. En realizaciones, los medios 110 para determinar pueden estar adaptados para determinar las representaciones de audio primera y segunda y/o el procesador 130 puede estar adaptado para proporcionar una representación mono fusionada en términos de una señal de presión p(t) o una señal de presión transformada en tiempo-frecuencia P(k,n), donde k denota un índice de frecuencia y n denota un índice de tiempo.
En realizaciones, las medidas de dirección de onda primera y segunda, así como la medida de dirección de llegada fusionada pueden corresponder a cualquier cantidad direccional, tal como por ejemplo un vector, un ángulo, una dirección, etc. y pueden derivarse de cualquier medida direccional que representa una componente de audio, tal como por ejemplo un vector de intensidad, un vector de velocidad de partícula, etc. Las medidas de campo de onda primera y segunda, así como la medida de campo de onda fusionada pueden corresponder a cualquier cantidad física que describe una componente de audio, que puede ser de valor real o complejo, corresponder a una señal de presión, una amplitud o magnitud de velocidad de partícula, intensidad de sonido, etc. Además, las medidas pueden considerarse en el dominio de tiempo y/o de frecuencia.
Algunas realizaciones pueden estar basadas en la estimación de una representación de onda plana para las medidas de campo de onda de las representaciones de onda de las corrientes de entrada, lo que puede llevarse a cabo por el estimador 120 en la figura 1a. En otras palabras, la medida de campo de onda puede modelarse utilizando una representación de onda plana. En general, existen varias descripciones exhaustivas (es decir, completas) equivalentes de una onda u ondas planas en general. A continuación se introducirá una descripción matemática para calcular parámetros de difusividad y direcciones de llegadas o medidas de dirección para diferentes componentes. Aunque solamente algunas descripciones se refieren directamente a cantidades físicas, como por ejemplo presión, velocidad de partícula, etc., existe potencialmente un número infinito de diferentes maneras para describir representaciones de onda, de las cuales se presentará una como un ejemplo posteriormente, sin que se pretenda sin embargo limitarse de ninguna manera a las realizaciones de la presente invención.
Con el fin de detallar adicionalmente diferentes descripciones potenciales se consideran dos números reales a y b. La información contenida en a y b puede transferirse al enviar c y d, cuando
donde Q es una matriz de 2x2 conocida. El ejemplo considera solamente combinaciones lineales, en general cualquier combinación, es decir también una combinación no lineal es concebible.
A continuación, los escalares se representan por letras minúsculas, a, b, c, mientras que los vectores de columna se representan por letras minúsculas en negrita a, b, c. El superíndice ( )T denota la transpuesta, respectivamente,
mientras que 0 J y 0 J* denotan conjugación compleja. La notación de fasor complejo se distingue del temporal. Por ejemplo, la presión p(t) que es un número real y a partir del cual puede derivarse una medida de campo de onda posible, puede expresarse por medio del fasor P, que es un número complejo y a partir del cual puede derivarse otra medida de campo de onda posible, mediante
Ot }
p(t) = Re{ Pe j
Re{}JO= 27 f
donde denota la parte real y es la frecuencia angular. Además, letras mayúsculas usadas para cantidades físicas representan fasores a continuación. Para el siguiente ejemplo introductorio y para evitar confusión, por favor obsérvese que todas las cantidades con el subíndice “PW” consideradas a continuación se refieren a ondas planas.
Para una onda plana monocromática ideal, el vector de velocidad de partícula UPW puede indicarse como
donde el vector unitario apunta hacia la dirección de propagación de la onda, por ejemplo correspondiente a una medida de dirección. Puede demostrarse que
donde Ia denota la intensidad activa, P0 denota la densidad del aire, c denota la velocidad del sonido, E denota la energía del campo de sonido y ' denota la difusividad.
Es interesante observar que, puesto que todas las componentes de ed son números reales, las componentes de UPW
están todas en fase con PPW . La figura 1b ilustra un UPW y PPW ejemplar en el plano gaussiano. Tal como acaba de
mencionarse, todas las componentes de UPW comparten la misma fase que PPW , es decir e. Sus magnitudes, por otra
parte, están limitadas a
PPW
= Ux
2 + U 2 + U
=
.
y z UPW
c
Aun cuando múltiples fuentes de sonido estén presentes, la presión y velocidad de partícula pueden todavía expresarse como una suma de componentes individuales. Sin pérdida de generalidad, puede exponerse el caso de dos fuentes de
P(1)P(2)
sonido. En efecto, la extensión a un mayor número de fuentes es directa. Sean y las presiones que se habrían registrado para la primera y la segunda fuente, respectivamente, por ejemplo que representan las medidas de campo de onda primera y segunda.
U (1)U (2)
De manera similar, sean y los vectores de velocidad de partícula complejos. Dada la linealidad del fenómeno de propagación, cuando las fuentes se reproducen conjuntamente, la presión observada P y la velocidad de partícula U son
(1) (2)
P = P + P
(1) (2)
U = U + U
Por consiguiente, las intensidades activas son
(1) 1 (1) (1)
I = Re{P J U }
a 2
(2) 1 (2)
I = Re{P J U(2) }
a 2
Así,
(1) (2) 1 (1) (2) (2)
I = I + I + Re{P J U + P J U(1) }
aa a
Obsérvese que, aparte de casos especiales,
(1) (2)
Ia * Ia + Ia
Cuando las dos ondas, por ejemplo planas, están exactamente en fase (aunque desplazándose en direcciones diferentes),
(2) (1)
P =rJ P
donde r es un número real. Se desprende que:
(1) 1 (1) (1)
I = Re{P J U }
a 2
(2) 1 (2) (2)
I = Re{P J U }
a 2
2(2) (1)
=r
Ia Ia
y
(1) 1 (2)
I =01+r I + (1+ )I .
aa a
r Cuando las ondas están en fase y se desplazan en la misma dirección pueden ser interpretadas claramente como una onda.
r=-1
Para y cualquier dirección, la presión se desvanece y no puede haber ningún flujo de energía, es decir
= 0
Ia
.
Cuando las ondas están perfectamente en cuadratura, entonces
(2) j7 / 2 (1)
P =rJeP
(2) j7 / 2 (1)
U = rJe U
(2) j7 / 2 (1)
Ux =rJe Ux
(2) j7 / 2 (1)
Uy =rJe Uy
(2) j7 / 2 (1)
Uz =rJe Uz
donde r es un número real. A partir de esto, se desprende que:
(1) 1 (1) (1)
I = Re{P J U }
a 2
(2) 1 (2) (2)
I = Re{P J U }
a 2
2I(a 2) I(a 1)
=r
Y
(1) (2)
I = I + I .
aa a
Utilizando las ecuaciones anteriores, se puede demostrar fácilmente que, para una onda plana, cada una de las
I
eda
cantidades ejemplares U, P y o P y pueden representar una descripción equivalente y exhaustiva, ya que todas las demás cantidades físicas pueden derivarse de ellas, es decir cualquier combinación de las mismas puede usarse en algunas realizaciones en lugar de la medida de campo de onda o medida de dirección de onda. Por ejemplo, en realizaciones, la norma dos del vector de intensidad activa puede usarse como medida de campo de onda.
Una descripción mínima puede identificarse para efectuar la fusión tal como se especifica por las realizaciones. Los vectores de presión y velocidad de partícula para la i-ésima onda pueden expresarse como
(i )
(i) (i)
jLP
P = P e
(i)
P
(i )
(i)
(i) jLP
=
P c e e
U d
0 LP(i)P(i)
donde representa la fase de . Expresando el vector de intensidad fusionado, es decir la medida de campo de onda fusionada y la medida de dirección de llegada fusionada, con respecto a estas variables, se desprende que:
(1) 2 e(1) + 1
(2) 2 (2)
Ia =
P P
e +
d
2P0c
d 2P0c
(2)
P
(1)
1 }
(1)
jLP
(2) -jLP(2) }
+ Re
P e
ede +
P c
0 }
}
(1)
P
(2) (1)
1 }
(2)
jLP
(1) -jLP }
+ Re
P
e e .
e P cd
0 }
}
(1) (2)
Ia Ia
Obsérvese que los primeros dos sumandos son y . La ecuación puede simplificarse adicionalmente a:
(1) 2 e(1) + 1 (2) 2 (2)
Ia = e +
P
P
d
2P0cd 2P0c 1
(1) (2) (2) (1) (2)
+
P
J
P
ed Jcos0LP -LP +
2 P0c 1
(2) (1) (1) (2) (1)
+
P
J
P
ed Jcos0LP -LP .
2P0c
Introduciendo
(1,2) (2) (1)
=LP -LP
se obtiene
P(i) (i) (2) (1)
, e
LP -LP
d
Ia
Esta ecuación muestra que la información requerida para calcular puede reducirse a
,
. En otras palabras, la representación para cada onda, por ejemplo plana, puede reducirse a la amplitud de la onda y la dirección de propagación. Además, la diferencia de fase relativa entre las ondas puede considerarse también. Cuando van a fusionarse más de dos ondas, las diferencias de fase entre todos los pares de ondas pueden considerarse. Claramente, existen otras diversas descripciones que contienen la misma información. Por ejemplo, conocer los vectores de intensidad y la diferencia de fase sería equivalente.
En general, una descripción energética de las ondas planas puede no ser suficiente para llevar a cabo la fusión correctamente. La fusión podría aproximarse suponiendo que las ondas están en cuadratura. Un descriptor exhaustivo de las ondas (es decir todas las cantidades físicas de la onda son conocidas) puede ser suficiente para la fusión, sin
embargo puede no ser necesario en todas las realizaciones. En realizaciones que llevan a cabo una fusión correcta, la amplitud de cada onda, la dirección de propagación de cada onda y la diferencia de fase relativa entre cada par de ondas que van a fusionarse, pueden tenerse en cuenta.
Los medios 110 para determinar pueden estar adaptados para proporcionar y/o el procesador 130 puede estar adaptado para procesar las direcciones de llegada primera y segunda y/o para proporcionar la medida de dirección de llegada
eDOA (k, n) eDOA (k, n) =-eI (k,n)
fusionada en términos de un vector unitario , con y
Ia (k,n) = Ia (k,n) JeI (k,n)
, con
1*
Ia (k,n) = Re{P(k,n) JU (k,n)}
y
T
U0k, n =[U 0k, n ,U 0k, n ,U 0k, n Y
xyz
T
u0t =[u 0t ,u 0t ,u 0t Y
xyz
que denotan el vector de velocidad de partícula transformado en tiempo-frecuencia. En
T
u0t =[u 0t ,u 0t ,u 0t Y
xyz
otras palabras, sea p(t) y el vector de presión y de velocidad de partícula,
J T
[Y
respectivamente, para un punto específico en el espacio, donde denota la transpuesta. Estas señales pueden transformarse a un dominio de tiempo-frecuencia por medio de un banco de filtros apropiado, por ejemplo, una transformada de Fourier de tiempo corto (STFT) como se sugiere por ejemplo por V. Pulkki y C. Faller, Directional audio coding: Filterbank and STFT-based design, en la 120ª Convención de la AES, 20-23 de mayo de 2006, París, Francia, mayo de 2006.
T
U0k, n =[U 0k, n ,U 0k, n ,U 0k, n Y
xyz
Sea P(k,n) y que denotan las señales transformadas, donde k y n son
Ia (k, n)
índices de frecuencia (o banda de frecuencia) y tiempo, respectivamente. El vector de intensidad activo puede definirse como
(J)*Re{}J
donde denota la conjugación compleja y extrae la parte real. El vector de intensidad activo expresa el flujo de energía neto que caracteriza el campo de sonido, por ejemplo cf. F.J. Fahy, Sound Intensity, Essex: Elsevier Science Publishers Ltd., 1989, y puede usarse por tanto como una medida de campo de onda.
Sea c que denota la velocidad del sonido en el medio considerado y E la energía del campo de sonido definida por F.J. Fahy
J
calcula la norma 2. A continuación se detallará el contenido de una corriente de DirAC mono.
La corriente de DirAC mono puede consistir en la señal mono p(t) y en información secundaria. Esta información secundaria puede comprender la dirección de llegada dependiente del tipo-frecuencia y una medida de difusividad donde
eDOA(k, n)
dependiente del tiempo-frecuencia. La primera puede denotarse con que es un vector unitario que apunta hacia la dirección desde la cual llega el sonido. La última, la difusividad, se denota por
'(k,n). En realizaciones, los medios 110 y/o el procesador 130 pueden estar adaptados para proporcionar/procesar las DOA
eDOA (k, n)
primera y segunda y/o la DOA fusionada en términos de un vector unitario . La dirección de llegada puede obtenerse como:
e (k, n) =-e (k, n)
DOA I
eI(k, n)
donde el vector unitario indica la dirección hacia la cual apunta la intensidad activa, es decir
Alternativamente, en realizaciones, la DOA puede expresarse en términos de ángulos de azimut y de elevación en un sistema de coordenadas esférico. Por ejemplo, si q y � son los ángulos de azimut y de elevación, respectivamente, entonces
En realizaciones, los medios 110 para determinar y/o el procesador 130 pueden estar adaptados para proporcionar/procesar los parámetros de difusividad primero y segundo y/o el parámetro de difusividad fusionado mediante '(k,n) de manera dependiente del tiempo-frecuencia. Los medios 110 para determinar pueden estar adaptados para proporcionar los parámetros de difusividad primero y/o segundo y/o el procesador 130 puede estar adaptado para proporcionar un parámetro de difusividad fusionado en términos de:
t
donde indica un promedio temporal.
Existen diferentes estrategias para obtener P(k,n) y U(k,n) en la práctica. Una posibilidad es utilizar un micrófono de formato B, que entrega cuatro señales, es decir w(t), x(t), y(t) y z(t). La primera, w(t), corresponde a la lectura de presión de un micrófono omnidireccional. Las últimas tres son lecturas de presión de micrófonos que tienen patrones de captación en ocho dirigidos hacia los tres ejes de un sistema de coordenadas cartesiano. Estas señales son también proporcionales a la velocidad de partícula. Por consiguiente, en algunas realizaciones:
donde W(k,n), X(k,n), Y(k,n) y Z(k,n) son las señales de formato B transformadas. Obsérvese que el factor 2 en la ecuación (6) viene de la convención usada en la definición de las señales de formato *B, cf. Michael Gerzon, Surround sound psychoacoustics, In WirelessWorld, volumen 80, páginas 483-486, diciembre de 1974.
Alternativamente, P(k,n) y U(k,n) pueden estimarse por medio de una disposición de micrófonos omnidireccionales tal como se sugiere en J. Merimaa, Applications of a 3-D microphonearray, en la 112ª Convención de la AES, Documento 5501, Múnich, mayo de 2002. Las etapas de procesamiento descritas anteriormente se ilustran también en la figura 2.
La figura 2 muestra un codificador 200 de DirAC, que está adaptado para calcular un canal de audio mono e información secundaria a partir de señales de entrada apropiadas, por ejemplo, señales de micrófono. En otras palabras, la figura 2 ilustra un codificador 200 de DirAC para determinar la difusividad y la dirección de llegada a partir de señales de micrófono apropiadas. La figura 2 muestra un codificador 200 de DirAC que comprende una unidad 210 de estimación de P/U. La unidad de estimación de P/U recibe las señales del micrófono como información de entrada, en la que se basa la estimación de P/U. Puesto que toda la información está disponible, la estimación de P/U es directa según las ecuaciones anteriores. Una fase 220 de análisis energético permite la estimación de la dirección de llegada y el parámetro de difusividad de la corriente fusionada.
En realizaciones, pueden fusionarse otras corrientes de audio distintas de las corrientes de audio de DirAC mono. En otras palabras, en algunas realizaciones, los medios 110 para determinar pueden estar adaptados para convertir cualquier otra corriente de audio en las corrientes de audio primera y segunda, tal como por ejemplo datos de audio estéreo o surround. En caso de que algunas realizaciones fusionen corrientes de DirAC distintas de mono, pueden distinguir entre diferentes casos. Si la corriente de DirAC transporta señales de formato B como señales de audio, entonces los vectores de velocidad de partícula serían conocidos y una fusión sería trivial, tal como se detallará posteriormente. Cuando la corriente de DirAC lleva señales de audio distintas de señales de formato B o una señal omnidireccional mono, los medios 110 para determinar pueden estar adaptados para la conversión a dos corrientes de DirAC mono en primer lugar, y una realización puede luego fusionar las corrientes convertidas de correspondiente. En realizaciones, las corrientes de audio espacial primera y segunda pueden por tanto representar corrientes de DirAC mono convertidas.
Algunas realizaciones pueden combinar los canales de audio disponibles para aproximar un patrón de captación omnidireccional. Por ejemplo, en el caso de una corriente de DirAC estéreo, esto puede obtenerse sumando el canal izquierdo L y el canal derecho R.
A continuación se expondrá la física en un campo generado por múltiples fuentes sonido. Cuando múltiples fuentes de sonido están presentes, todavía es posible expresar la presión y velocidad de partícula como una suma de componentes individuales.
P(i)(k, n) U (i)(k, n)
Sea y la presión y la velocidad de partícula que se habrían registrado para la i-ésima fuente, si fuera a reproducirse sola. Suponiendo linealidad del fenómeno de propagación, cuando N fuentes se reproducen conjuntamente, la presión P(k,n) y velocidad de partícula U(k,n) observadas son
y
Las ecuaciones previas muestran que si tanto la presión como la velocidad de partícula fueran conocidas, la obtención de la corriente de DirAC mono fusionada sería directa. Tal situación se ilustra en la figura 3. La figura 3 ilustra una realización que efectúa una fusión optimizada o posiblemente ideal de múltiples corrientes de audio. La figura 3 supone que todos los vectores de presión y velocidad de partícula son conocidos. Desafortunadamente, tal fusión trivial no es
U (i)(k, n)
posible para corrientes de DirAC mono, para las que la velocidad de partícula no es conocida.
La figura 3 ilustra N corrientes, para cada una de las cuales se lleva a cabo una estimación de P/U en los bloques 301, 302-30N. El resultado de los bloques de estimación de P/U son las representaciones de tiempo-frecuencia
P(i)(k, n) U(i)(k, n)
correspondientes de las señales y individuales, que pueden luego combinarse según las ecuaciones anteriores (7) y (8), ilustrada por los dos sumadores 310 y 311. Una vez obtenidas P(k,n) y U(k,n) combinadas, una fase 320 de análisis energético puede determinar el parámetro de difusividad '(k,n) y la dirección de
eDOA(k, n)
llegada de una manera directa.
La figura 4 ilustra una realización para fusionar múltiples corrientes de DirAC mono. Según la descripción anterior, N corrientes van a fusionarse mediante la realización de un aparato 100 ilustrado en la figura 4. Como se ilustra en la figura 4, cada una de las N corrientes de entrada pueden representarse por una representación mono dependiente del
(1)
P(i)(k, n) eDOA(k, n) l (1)(k, n) (1)
tiempo-frecuencia , una dirección de llegada y , donde representa la primera corriente. Una representación correspondiente se ilustra también en la figura 4 para la corriente fusionada.
La tarea de fusionar dos o más corrientes de DirAC mono se ilustra en la figura 4. Dado que la presión P(k,n) puede
( )(
Pik, n)
obtenerse simplemente sumando las cantidades conocidas como en (7), el problema de fusionar dos o más
eDOA(k, n)
corrientes de DirAC mono se reduce a la determinación de y '(k,n). La siguiente realización está basada en la suposición de que el campo de cada fuente consiste en una onda plana sumada a un campo difuso. Por consiguiente, la presión y la velocidad de partícula para la i-ésima fuente pueden expresarse como
donde los subíndices “PW” y “diff” denotan la onda plana y el campo difuso, respectivamente. A continuación se presenta una realización que tiene una estrategia para estimar la dirección de llegada del sonido y la difusividad. Las etapas de procesamiento correspondientes se ilustran en la figura 5.
La figura 5 ilustra otro aparato 500 para fusionar múltiples corrientes de audio que se detallará a continuación. La figura 5 ejemplifica el procesamiento de la primera corriente de audio espacial en términos de una primera representación
(1)
P(1) l (1)
eDOA
mono , una primera dirección de llegada y un primer parámetro de difusividad . Según la figura 5, la
ˆ (1)
PPW(k,n)
primera corriente de audio espacial se descompone en una representación de onda plana aproximada así como la segunda corriente de audio espacial y, potencialmente, otras corrientes de audio espacial de manera
(2) ( N )
Pˆ(k,n)...Pˆ(k,n)
PW PW
correspondiente en . Los valores estimativos están indicados por el sombrero encima de la representación de fórmula respectiva.
Pˆ(i)
(k, n)
El estimador 120 puede estar adaptado para estimar una pluralidad de N representaciones de onda PW y
ˆ() ˆ()
Pi (k, n) Pi(k,n)
representaciones de campo difuso diff como aproximaciones para una pluralidad de N corrientes de
audio espacial, con 1 : i : N . El procesador 130 puede estar adaptado para determinar la dirección de llegada fusionada basándose en un valor estimativo,
con
1*
Iˆ(k, n) = Re{Pˆ(k, n) J Uˆ(k, n)}
a PW PW
N
(i)
Pˆ(k, n) =LPˆ(k, n)
PW PW i=1
(i)(i)(i)
PˆPW (k, n) =a (k, n) J P (k, n)
N
(i)
Uˆ(k, n) =LUˆ(k, n)
PW PW i=1
(i) 1(i)(i)(i)
Uˆ(k, n) =-j (k, n) J P (k, n) Je (k, n)
PW DOA
P0c
(i)(i)
a (k, n), j (k, n)E{0...1}
Con los números reales .
La figura 5 muestra en líneas de puntos el estimador 120 y el procesador 130. En la realización mostrada en la figura 5, los medios 110 para determinar no están presentes, ya que se supone que la primera corriente de audio así como potencialmente otras corrientes de audio, se proporcionan en la representación de DirAC mono, es decir las representaciones mono, la DOA y los parámetros de difusividad simplemente se separan de la corriente. Como se muestra en la figura 5, el procesador 130 puede estar adaptado para determinar la DOA fusionada basándose en un valor estimativo.
eˆDOA (k, n)
La dirección de llegada del sonido, es decir las medidas de dirección, puede estimarse por , que se calcula como
Iˆ a (k, n)
donde es el valor estimativo de la intensidad activa para la corriente fusionada. Puede obtenerse como sigue:
ˆ ˆ*
PPW(k,n) UPW(k, n)
donde y son los valores estimativos de la presión y la velocidad de partícula correspondientes a las ondas planas, por ejemplo como medidas de campo de onda, solamente. Pueden definirse como:
a(i)(k, n) j (i)(k, n)
Los factores y son en general dependientes de la frecuencia y pueden exhibir una
'(i)('(i)(
k, n) k, n)
proporcionalidad inversa a la difusividad . En efecto, cuando la difusividad está próxima a 0, se puede suponer que el campo está compuesto por una única onda plana, de tal manera que
(i)(i)
a (k,n) =j (k,n) = 1
lo que implica que .
a(i)(k, n) j (i)(k, n)
A continuación se presentarán dos realizaciones que determinan y . En primer lugar se consideran consideraciones energéticas de los campos difusos. En realizaciones, el estimador 120 puede estar
a(i)(k, n) j (i)(k, n)
adaptado para determinar los factores y basándose en los campos difusos. Algunas realizaciones pueden suponer que el campo está compuesto por una onda plana sumada a un campo difuso ideal. En
a(i)(k, n) j (i)(k, n)
realizaciones, el estimador 120 puede estar adaptado para determinar y según
P0
estableciendo la densidad del aire igual a 1 y abandonando la dependencia funcional (k,n) por motivos de simplicidad, se puede escribir:
Ediff
donde es la energía del campo difuso. Algunas realizaciones pueden por tanto estimar:
Para calcular valores estimativos instantáneos (es decir para cada loseta de tiempo-frecuencia), algunas realizaciones pueden eliminar los operadores de esperanza, obteniendo:
Aprovechando la suposición de onda plana, el valor estimativo para la velocidad de partícula puede derivarse directamente
En realizaciones, puede aplicarse un modelado simplificado de la velocidad de partícula. En realizaciones, el estimador
a(i)(k, n) j (i)(k, n)
120 puede estar adaptado para aproximar los factores y basándose en el modelado simplificado. Algunas realizaciones pueden utilizar una solución alternativa, que puede derivarse introduciendo un modelado simplificado de la velocidad de partícula:
U(i)(
k, n)
A continuación se proporciona una derivación. La velocidad de partícula se modela como
j (i)(k, n)
El factor puede obtenerse sustituyendo (26) en (5), lo que lleva a
Obsérvese que este procedimiento conduce a direcciones de llegada de sonido similares como la dada en (19), sin
a(i)(k, n)
embargo, con una complejidad computacional más baja dado que el factor es la unidad.
En realizaciones, el procesador 130 puede estar adaptado para estimar la difusividad, es decir para estimar el
l (k, n)
parámetro de difusividad fusionado. La difusividad de la corriente fusionada, denotada por , puede estimarse
l (i)(k, n) P(i)(k, n) Iˆ a (k, n)
directamente a partir de las cantidades conocidas y y del valor estimativo obtenido tal como se describió anteriormente. Siguiendo las consideraciones energéticas introducidas en la sección previa, algunas realizaciones pueden usar el estimador:
ˆ(i) ˆ(i) El conocimiento de PPW y UPW permite el uso de las representaciones alternativas dadas en la ecuación (b) en ˆ(i) ˆ(i) algunas realizaciones. En efecto, la dirección de la onda puede obtenerse por UPW mientras que PPW da la amplitud y (i, j)
fase de la i-ésima onda. A partir de esta última, todas las diferencias de fase pueden calcularse fácilmente. Los parámetros de DirAC de la corriente fusionada pueden calcularse entonces sustituyendo la ecuación (b) en la ecuación (a), (3) y (5).
La figura 6 ilustra una realización de un método para fusionar dos o más corrientes de DirAC. Algunas realizaciones pueden proporcionar un método para fusionar una primera corriente de audio espacial con una segunda corriente de audio espacial para obtener una corriente de audio fusionada. En realizaciones, el método puede comprender una etapa de determinar, para la primera corriente de audio espacial, una primera representación de audio y una primera DOA, así como para la segunda corriente de audio espacial, una segunda representación de audio y una segunda DOA. En realizaciones, las representaciones de DirAC de las corrientes de audio espacial pueden estar disponibles, la etapa de determinación lee entonces simplemente las representaciones correspondientes a partir de las corrientes de audio. En la figura 6, se supone que las dos o más corrientes de DirAC pueden obtenerse simplemente a partir de las corrientes de audio según la etapa 610.
En realizaciones, el método puede comprender una etapa de estimar una primera representación de onda que comprende una primera medida de dirección de onda y una primera medida de campo de onda para la primera corriente de audio espacial basándose en la primera representación de audio, la primera DOA y opcionalmente un primer parámetro de difusividad. Por consiguiente, el método puede comprender una etapa de estimar una segunda representación de onda que comprende una segunda medida de dirección de onda y una segunda medida de campo de onda para la segunda corriente de audio espacial basada en la segunda representación de audio, la segunda DOA y opcionalmente un segundo parámetro de difusividad.
El método puede comprender además una etapa de combinar la primera representación de onda y la segunda representación de onda para obtener una representación de onda fusionada que comprende una medida de campo fusionada y una medida de DOA fusionada y una etapa de combinar la primera representación de audio y la segunda representación de audio para obtener una representación de audio fusionada, que se indica en la figura 6 por la etapa
a(i)(k, n)
620 para canales de audio mono. La realización ilustrada en la figura 6 comprende una etapa de calcular y
j (i)(
k, n)
según (19) y (25) permitiendo la estimación de los vectores de presión y de velocidad de partícula para las representaciones de onda plana en la etapa 640. En otras palabras, las etapas de estimar las representaciones de onda plana primera y segunda se llevan a cabo en las etapas 630 y 640 en la figura 6 en términos de representaciones de onda plana.
La etapa de combinar las representaciones de onda plana primera y segunda se lleva a cabo en la etapa 650, en la que los vectores de presión y de velocidad de partícula de todas las corrientes pueden sumarse.
En la etapa 660 de la figura 6, el cálculo del vector de intensidad activa y la estimación de la DOA se llevan a cabo basándose en la representación de onda plana fusionada.
Algunas realizaciones pueden comprender una etapa de combinar o procesar la medida de campo fusionada, las representaciones mono primera y segunda y los parámetros de difusividad primero y segundo para obtener un parámetro de difusividad fusionado. En la realización ilustrada en la figura 6, el cálculo de la difusividad se lleva a cabo en la etapa 670, por ejemplo basándose en (29).
Algunas realizaciones pueden proporcionar la ventaja de que la fusión de las corrientes de audio espacial se puede efectuar con alta calidad y complejidad moderada.
Dependiendo de determinados requisitos de implementación de los métodos de la invención, los métodos de la invención pueden implementarse en hardware o software. La implementación puede realizarse utilizando un medio de almacenamiento digital y particularmente una memoria flash, un disco, un DVD o un CD con señales de control legibles electrónicamente almacenadas en los mismos, que actúan conjuntamente con un sistema informático programable de tal manera que se llevan a cabo los métodos de la invención. En general, la presente invención es, por consiguiente, un código de programa informático con un código de programa almacenado en un soporte legible por máquina, siendo el código de programa operativo para llevar a cabo los métodos de la invención cuando el programa informático se ejecuta en un ordenador o procesador. En otras palabras, los métodos de la invención son, por consiguiente, un programa informático que tiene un código de programa para llevar a cabo al menos uno de los métodos de la invención, cuando el programa informático se ejecuta en un ordenador.

Claims (15)

  1. REIVINDICACIONES
    1. Aparato (100) para fusionar una primera corriente de audio espacial con una segunda corriente de audio espacial para obtener una corriente de audio fusionada, que comprende: un estimador (120) para estimar una primera representación de onda que comprende una primera medida de
    que es una cantidad direccional de una primera onda y una primera medida de dirección de onda
    que está relacionada con una magnitud de la primera onda para la primera corriente de audio espacial, teniendo la primera corriente de audio espacial una primera representación de audio que comprende una medida de una presión o una magnitud de una primera señal de audio (P (1)) y una primera campo de onda
    dirección de llegada
    y para estimar una segunda representación de onda que comprende una
    y una segunda medida de dirección de onda que es una cantidad direccional de una segunda onda
    que está relacionada con una magnitud de la segunda onda para la segunda corriente de audio espacial, teniendo la segunda corriente de audio espacial una segunda representación de audio que comprende una medida de una presión o una magnitud de una segunda señal de segunda medida de campo de onda
    audio (P(2)) y una segunda dirección de llegada
    y un procesador (130) para procesar la primera representación de onda y la segunda representación de onda para
    obtener una representación de onda fusionada que comprende una medida de campo de onda fusionada (Iˆ) ,
    a
    1'
    (eˆDOA y un parámetro de difusividad fusionado (una medida de dirección de llegada fusionada
    )
    )
    ,
    en el que el parámetro de difusividad fusionado está basado en la medida de campo de onda fusionada (Iˆ) , la
    a
    primera representación de audio (P(1)) y la segunda representación de audio (P(2)), y
    en el que la medida de campo de onda fusionada (Iˆ) está basada en la primera medida de campo de onda, la
    a
    y la segunda medida de segunda medida de campo de onda, la primera medida de dirección de onda
    dirección de onda
    y en el que el procesador (130) está configurado para procesar la primera representación de audio (P(1)) y la segunda representación de audio (P(2)) para obtener una representación de audio fusionada (P), y para proporcionar la corriente de audio fusionada que comprende la representación de audio fusionada (P), la medida
    1'
    de dirección de llegada fusionada (eˆDOA ) y el parámetro de difusividad fusionado (
    )
    .
  2. 2.
    Aparato (100) según la reivindicación 1, en el que el estimador (120) está adaptado para estimar la primera medida de campo de onda en términos de una primera amplitud de campo de onda y para estimar la segunda medida de campo de onda en términos de una segunda amplitud de campo de onda, y para estimar una diferencia de fase entre la primera medida de campo de onda y la segunda medida de campo de onda, y/o para estimar una primera fase de campo de onda y una segunda fase de campo de onda.
  3. 3.
    Aparato según una de las reivindicaciones 1 a 2, que comprende medios (110) para determinar, para la primera corriente de audio espacial, la primera representación de audio, la primera medida de dirección de llegada y el primer parámetro de difusividad y para determinar, para la segunda corriente de audio espacial, la segunda representación de audio, la segunda medida de dirección de llegada y el segundo parámetro de difusividad.
  4. 4.
    Aparato según una de las reivindicaciones 1 a 3, en el que el procesador (130) está adaptado para determinar la representación de audio fusionada, la medida de dirección de llegada fusionada y el parámetro de difusividad fusionado de una manera dependiente del tiempo-frecuencia.
  5. 5.
    Aparato (100) según una de las reivindicaciones 1 a 4, en el que el estimador (120) está adaptado para estimar las representaciones de onda primera y/o segunda, y en el que el procesador (130) está adaptado para proporcionar la representación de audio fusionada en términos de una señal de presión p(t) o una señal de presión transformada en tiempo-frecuencia P(k,n), donde k denota un índice de frecuencia y n denota un índice de tiempo.
  6. 6.
    Aparato (100) según la reivindicación 5, en el que el procesador (130) está adaptado para procesar las medidas de direcciones de llegada primera y segunda y/o para proporcionar la medida de dirección de llegada
    fusionada en términos de un vector unitario eDOA(k, n) , con
    y
    con
    en el que P(k,n) es la presión de la corriente fusionada y U0k,n =[U 0k,n ,U 0k,n ,U 0k,n YT denota el
    xyz
    vector de velocidad de partícula u0t =[u 0t ,u 0t ,u 0t YT transformado en tiempo-frecuencia de la corriente
    xyz
    de audio fusionada, donde Re{}J denota la parte real.
  7. 7. Aparato (100) según una de la reivindicación 6, en el que el procesador (130) está adaptado para procesar los parámetros de difusividad primero y/o segundo y/o para proporcionar el parámetro de difusividad fusionado en términos de
    k, n)}
    y U0k,n =[U 0k,n ,U 0k,n ,U 0k,n YT denota un vector de velocidad de partícula
    xyz
    u0t =[u 0t ,u 0t ,u 0t YT transformado en tiempo-frecuencia, Re{}J denota la parte real, P(k,n) denota
    xyz
    una señal de presión p(t) transformada en tiempo-frecuencia, donde k denota un índice de frecuencia y n denota un índice de tiempo, c es la velocidad del sonido y
    21 2
    P0
    E(k, n) =
    U(k, n)
    +
    P(k, n)
    4P0c2
    denota la energía de campo de sonido, donde P0 denota la densidad del aire y <J> denota un promedio
    t
    temporal.
  8. 8. Aparato (100) según la reivindicación 7, en el que el estimador (120) está adaptado para estimar una
    Pˆ(i) Pˆ(i)
    pluralidad de N representaciones de onda (k, n) y representaciones de campo difuso (k,n) como
    PW diff
    ˆ( )
    aproximaciones para una pluralidad de N corrientes de audio espacial Pi (k, n) , con 1 : i : N , y en el que
    diff
    el procesador (130) está adaptado para determinar la medida de dirección de llegada fusionada basándose en un valor estimativo,
    Iˆ a (k, n)eˆ DOA (k, n) =-Iˆ a (k, n)
    1*
    Iˆ(k, n) = Re{Pˆ(k, n)JUˆ(k, n)}
    a PW PW
    N
    (i)
    Pˆ(k, n) =LPˆ(k, n)
    PW PW i=1
    ˆ(i)(i)(i)
    PPW (k, n) =a (k, n) J P (k, n)
    N
    (i)
    Uˆ(k, n) =LUˆ(k, n)
    PW PW i=1
    (i) 1(i)(i)(i)
    Uˆ(k, n) =-j (k, n) J P (k, n) Je (k, n)
    PW DOA
    P0c
    (i)(i)
    denotando los números reales a(k, n), j (k, n)E{0...1} y U0k, n =[U 0k, n ,U 0k, n ,U 0k, n YT
    xyz
    un vector de velocidad de partícula u0t =[u 0t ,u 0t ,u 0t YT transformado en tiempo-frecuencia, Re{}J
    xyz
    i
    denota la parte real, P(i)(k, n) denota una señal de presión transformada en tiempo-frecuencia p( )(t) , donde k denota un índice de frecuencia y n denota un índice de tiempo, N el número de corrientes de audio espacial, c
    es la velocidad del sonido y P0 denota la densidad del aire.
  9. 9. Aparato (100) según la reivindicación 8, en el que que el estimador (120) está adaptado para
    (i)(j (i)(
    determinar ak, n) y k, n) según
    (i)(i)
    a (k, n) =j (k, n)
    (i) (i)
    j (k, n) = 1-l (k, n)
  10. 10. Aparato (100) según la reivindicación 8, en el que el procesador (130) está adaptado para determinar
    i
    a( )(k, n) y j (i)(k, n) mediante (i)
    a (k, n) =1
    ( i )
    () 1- 1-(1-l (k, n))2
    j i (k, n) =
    (i )
    1-l (k, n)
  11. 11. Aparato (100) según una de las reivindicaciones 9 a 10, en el que el procesador (130) está adaptado para determinar el parámetro de difusividad fusionado mediante
    < Iˆ a (k, n) >tlˆ(k, n) =1
    2(i) (i)
    <
    Iˆ a (k, n)
    +Ll (k, n) J P (k, n)
    >t
    2ci=1
  12. 12. Aparato según la reivindicación 1, en el que la primera corriente de audio espacial comprende
    ˆ (1)
    adicionalmente un primer parámetro de difusividad ( ' ), en el que la segunda corriente de audio espacial
    ˆ (2)
    comprende adicionalmente un segundo parámetro de difusividad ( ' ), y
    en el que el procesador (130) está configurado para calcular el parámetro de difusividad fusionado ( 'ˆ ) '(1)
    basándose adicionalmente en el primer parámetro de difusividad ( ) y el segundo parámetro de difusividad
    '(2)
    ( ).
  13. 13. Método para fusionar una primera corriente de audio espacial con una segunda corriente de audio espacial para obtener una corriente de audio fusionada, que comprende:
    ˆ (1)
    estimar una primera representación de onda que comprende una primera medida de dirección de onda ( UPW )
    ˆ (1)
    que es una cantidad direccional de una primera onda y una primera medida de campo de onda ( PPW ) que está
    relacionada con una magnitud de la primera onda para la primera corriente de audio espacial, teniendo la primera corriente de audio espacial una primera representación de audio que comprende una medida de una presión o una magnitud de una primera señal de audio (P(1)) y una primera dirección de llegada ( (1) );
    eDOA
    ˆ (2)
    estimar una segunda representación de onda que comprende una segunda medida de dirección de onda ( UPW )
    ˆ (2)
    que es una cantidad direccional de una segunda onda y una segunda medida de campo de onda ( PPW ) que
    está relacionada con una magnitud de la segunda onda para la segunda corriente de audio espacial, teniendo la segunda corriente de audio espacial una segunda representación de audio que comprende una medida de una
    (2)
    presión o una magnitud de una segunda señal de audio (P(2)) y una segunda dirección de llegada ( eDOA ); procesar la primera representación de onda y la segunda representación de onda para obtener una representación de onda fusionada que tiene una medida de campo de onda fusionada ( Iˆ ), una medida de
    a
    dirección de llegada fusionada ( eˆ DOA ) y un parámetro de difusividad fusionado ( 'ˆ ), en el que el parámetro de
    difusividad fusionado ( 'ˆ ) está basado en la medida de campo de onda fusionada ( Iˆ ), la primera
    a
    representación de audio (P(1)) y la segunda representación de audio (P(2)), y en el que la medida de campo de onda fusionada ( Iˆ ) está basada en la primera medida de campo de onda, la segunda medida de campo de
    a
    ˆ (1) ˆ (2)
    onda, la primera medida de dirección de onda ( UPW ), y la segunda medida de dirección de onda ( UPW );
    procesar la primera representación de audio (P(1)) y la segunda representación de audio (P(2)) para obtener una representación de audio fusionada (P); y proporcionar la corriente de audio fusionada que comprende la representación de audio fusionada (P), una
    medida de dirección de llegada fusionada ( eˆDOA ) y el parámetro de difusividad fusionado ( 'ˆ ).
  14. 14. Método según la reivindicación 13, en el que la primera corriente de audio espacial comprende
    '(1)
    adicionalmente un primer parámetro de difusividad ( ), en el que la segunda corriente de audio espacial
    '(2)
    comprende adicionalmente un segundo parámetro de difusividad ( ), y en el que el parámetro de difusividad
    fusionado ( 'ˆ ) se calcula en la etapa de procesamiento basándose adicionalmente en el primer parámetro de '(1) '(2)
    difusividad ( ) y el segundo parámetro de difusividad ( ).
  15. 15. Programa informático que tiene un código de programa para realizar el método de la reivindicación 14, cuando el código de programa se ejecuta en un ordenador o un procesador.
ES09806392T 2008-08-13 2009-08-11 Aparato para fusionar corrientes de audio espacial Active ES2382986T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US8852008P 2008-08-13 2008-08-13
US88520P 2008-08-13
EP09001397 2009-02-02
EP09001397A EP2154910A1 (en) 2008-08-13 2009-02-02 Apparatus for merging spatial audio streams
PCT/EP2009/005827 WO2010017966A1 (en) 2008-08-13 2009-08-11 Apparatus for merging spatial audio streams

Publications (1)

Publication Number Publication Date
ES2382986T3 true ES2382986T3 (es) 2012-06-15

Family

ID=40605771

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09806392T Active ES2382986T3 (es) 2008-08-13 2009-08-11 Aparato para fusionar corrientes de audio espacial

Country Status (15)

Country Link
US (1) US8712059B2 (es)
EP (2) EP2154910A1 (es)
JP (1) JP5490118B2 (es)
KR (1) KR101235543B1 (es)
CN (1) CN102138342B (es)
AT (1) ATE546964T1 (es)
AU (1) AU2009281355B2 (es)
BR (1) BRPI0912453B1 (es)
CA (1) CA2734096C (es)
ES (1) ES2382986T3 (es)
HK (1) HK1157986A1 (es)
MX (1) MX2011001653A (es)
PL (1) PL2324645T3 (es)
RU (1) RU2504918C2 (es)
WO (1) WO2010017966A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101415026B1 (ko) * 2007-11-19 2014-07-04 삼성전자주식회사 마이크로폰 어레이를 이용한 다채널 사운드 획득 방법 및장치
EP2375410B1 (en) * 2010-03-29 2017-11-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. A spatial audio processor and a method for providing spatial parameters based on an acoustic input signal
US9456289B2 (en) * 2010-11-19 2016-09-27 Nokia Technologies Oy Converting multi-microphone captured signals to shifted signals useful for binaural signal processing and use thereof
US9055371B2 (en) 2010-11-19 2015-06-09 Nokia Technologies Oy Controllable playback system offering hierarchical playback options
US9313599B2 (en) 2010-11-19 2016-04-12 Nokia Technologies Oy Apparatus and method for multi-channel signal playback
ES2643163T3 (es) 2010-12-03 2017-11-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y procedimiento para codificación de audio espacial basada en geometría
EP2600343A1 (en) * 2011-12-02 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for merging geometry - based spatial audio coding streams
CN104335599A (zh) 2012-04-05 2015-02-04 诺基亚公司 柔性的空间音频捕捉设备
RU2635884C2 (ru) * 2012-09-12 2017-11-16 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для предоставления улучшенных характеристик направленного понижающего микширования для трехмерного аудио
EP2733965A1 (en) * 2012-11-15 2014-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a plurality of parametric audio streams and apparatus and method for generating a plurality of loudspeaker signals
US10635383B2 (en) 2013-04-04 2020-04-28 Nokia Technologies Oy Visual audio processing apparatus
US9706324B2 (en) 2013-05-17 2017-07-11 Nokia Technologies Oy Spatial object oriented audio apparatus
EP2824661A1 (en) 2013-07-11 2015-01-14 Thomson Licensing Method and Apparatus for generating from a coefficient domain representation of HOA signals a mixed spatial/coefficient domain representation of said HOA signals
US9693009B2 (en) 2014-09-12 2017-06-27 International Business Machines Corporation Sound source selection for aural interest
WO2016049106A1 (en) * 2014-09-25 2016-03-31 Dolby Laboratories Licensing Corporation Insertion of sound objects into a downmixed audio signal
BR112018007276A2 (pt) 2016-03-15 2018-10-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. aparelho, método ou programa de computador para gerar uma descrição de campo de som
GB2549532A (en) 2016-04-22 2017-10-25 Nokia Technologies Oy Merging audio signals with spatial metadata
WO2018064296A1 (en) 2016-09-29 2018-04-05 Dolby Laboratories Licensing Corporation Method, systems and apparatus for determining audio representation(s) of one or more audio sources
PT3692523T (pt) * 2017-10-04 2022-03-02 Fraunhofer Ges Forschung Aparelho, método e programa de computador para codificação, descodificação, processamento de cena e outros procedimentos relacionados com codificação de áudio espacial com base em dirac
SG11202004389VA (en) * 2017-11-17 2020-06-29 Fraunhofer Ges Forschung Apparatus and method for encoding or decoding directional audio coding parameters using quantization and entropy coding
GB2574238A (en) 2018-05-31 2019-12-04 Nokia Technologies Oy Spatial audio parameter merging
CA3091150A1 (en) * 2018-07-02 2020-01-09 Dolby Laboratories Licensing Corporation Methods and devices for encoding and/or decoding immersive audio signals
CN110517703B (zh) * 2019-08-15 2021-12-07 北京小米移动软件有限公司 一种声音采集方法、装置及介质
GB2590651A (en) * 2019-12-23 2021-07-07 Nokia Technologies Oy Combining of spatial audio parameters

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7231054B1 (en) * 1999-09-24 2007-06-12 Creative Technology Ltd Method and apparatus for three-dimensional audio display
US6351733B1 (en) 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
FR2847376B1 (fr) * 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
WO2004059643A1 (en) 2002-12-28 2004-07-15 Samsung Electronics Co., Ltd. Method and apparatus for mixing audio stream and information storage medium
FI118247B (fi) 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
WO2005086139A1 (en) * 2004-03-01 2005-09-15 Dolby Laboratories Licensing Corporation Multichannel audio coding
US8843378B2 (en) * 2004-06-30 2014-09-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-channel synthesizer and method for generating a multi-channel output signal
KR20060122694A (ko) * 2005-05-26 2006-11-30 엘지전자 주식회사 두 채널 이상의 다운믹스 오디오 신호에 공간 정보비트스트림을 삽입하는 방법
KR20080046199A (ko) * 2005-09-21 2008-05-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 원거리에 위치한 마이크로폰을 사용한 음성 작동 제어를가진 초음파 이미징 시스템
JP2007269127A (ja) 2006-03-30 2007-10-18 Mitsubishi Fuso Truck & Bus Corp 後車軸の傾斜角調整構造および調整方法
US20080004729A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Direct encoding into a directional audio coding format
EP2112652B1 (en) * 2006-07-07 2012-11-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for combining multiple parametrically coded audio sources
JP5941610B2 (ja) * 2006-12-27 2016-06-29 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute トランスコーディング装置
US8213623B2 (en) * 2007-01-12 2012-07-03 Illusonic Gmbh Method to generate an output audio signal from two or more input audio signals
JP2008184666A (ja) 2007-01-30 2008-08-14 Phyzchemix Corp 成膜装置
EP2128856A4 (en) * 2007-10-16 2011-11-02 Panasonic Corp DEVICE FOR PRODUCING A STREAM AND DECODING DEVICE AND CORRESPONDING METHOD

Also Published As

Publication number Publication date
KR101235543B1 (ko) 2013-02-21
PL2324645T3 (pl) 2012-07-31
ATE546964T1 (de) 2012-03-15
MX2011001653A (es) 2011-03-02
BRPI0912453A2 (pt) 2019-11-19
RU2011106582A (ru) 2012-08-27
CN102138342A (zh) 2011-07-27
BRPI0912453B1 (pt) 2020-12-01
EP2324645B1 (en) 2012-02-22
RU2504918C2 (ru) 2014-01-20
JP5490118B2 (ja) 2014-05-14
AU2009281355A1 (en) 2010-02-18
US8712059B2 (en) 2014-04-29
EP2324645A1 (en) 2011-05-25
EP2154910A1 (en) 2010-02-17
CA2734096C (en) 2015-12-01
KR20110055622A (ko) 2011-05-25
CN102138342B (zh) 2014-03-12
WO2010017966A1 (en) 2010-02-18
JP2011530720A (ja) 2011-12-22
AU2009281355B2 (en) 2014-01-16
US20110216908A1 (en) 2011-09-08
CA2734096A1 (en) 2010-02-18
HK1157986A1 (en) 2012-07-06

Similar Documents

Publication Publication Date Title
ES2382986T3 (es) Aparato para fusionar corrientes de audio espacial
ES2425814T3 (es) Aparato para determinar una señal de audio espacial convertida
ES2907377T3 (es) Aparato, procedimiento y programa informático para la codificación, la decodificación, el procesamiento de escenas y otros procedimientos relacionados con la codificación de audio espacial basada en DirAC
ES2729624T3 (es) Reducción de la correlación entre canales de fondo ambisónicos de orden superior (HOA)
ES2950001T3 (es) Rastreo de cabeza para sistema de salida binaural paramétrica
BR112012021369B1 (pt) Aparelho para gerar um sinal downmix intensificado e método para gerar um sinal downmix intensificado
BR112016022078B1 (pt) Aparelho e método para renderização de áudio empregando uma definição da distância geométrica
BR112020000759A2 (pt) aparelho para gerar uma descrição modificada de campo sonoro de uma descrição de campo sonoro e metadados em relação a informações espaciais da descrição de campo sonoro, método para gerar uma descrição aprimorada de campo sonoro, método para gerar uma descrição modificada de campo sonoro de uma descrição de campo sonoro e metadados em relação a informações espaciais da descrição de campo sonoro, programa de computador, descrição aprimorada de campo sonoro
ES2940286T3 (es) Aparato, método y programa informático para codificación, decodificación, procesamiento de escenas y otros procedimientos relacionados con codificación de audio espacial basada en dirac que utiliza generadores de componentes de bajo, medio y alto orden
KR100829560B1 (ko) 멀티채널 오디오 신호의 부호화/복호화 방법 및 장치,멀티채널이 다운믹스된 신호를 2 채널로 출력하는 복호화방법 및 장치
Takanen et al. Binaural assessment of parametrically coded spatial audio signals
McCormack Parametric reproduction of microphone array recordings