ES2425814T3 - Aparato para determinar una señal de audio espacial convertida - Google Patents

Aparato para determinar una señal de audio espacial convertida Download PDF

Info

Publication number
ES2425814T3
ES2425814T3 ES09001398T ES09001398T ES2425814T3 ES 2425814 T3 ES2425814 T3 ES 2425814T3 ES 09001398 T ES09001398 T ES 09001398T ES 09001398 T ES09001398 T ES 09001398T ES 2425814 T3 ES2425814 T3 ES 2425814T3
Authority
ES
Spain
Prior art keywords
component
audio
edoa
input
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09001398T
Other languages
English (en)
Inventor
Giovanni Del Galdo
Fabian Kuech
Markus Kallinger
Ville Pulkki
Mikko-Ville Laitinen
Richard Schultz-Amling
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2425814T3 publication Critical patent/ES2425814T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

Un aparato (100) para determinar una señal de audio espacial convertida combinada, teniendo la señal de audioespacial convertida un componente de audio omnidirecional (W) y por lo menos un componente direccional (X;Y;Z) deuna señal de audio espacial de entrada, teniendo la señal de audio espacial de entrada una representación de audio deentrada (P), un parámetro de difusividad () dependiente del tiempo y de la frecuencia y una dirección de entrada dellegada (eDOA), que comprende un estimador (110) para estimar una representación de onda que comprende una medidade campo de onda (ß(k,n) P(k,n)), y una dirección de onda de medida de llegada (eDOA,x, eDOA,y, eDOA,z), en el que elestimador está adaptado paraestimar una representación de onda a partir de la representación de audio de entrada (P),el parámetro de difusividad () y la dirección de entrada de llegada (eDOA), en el que el estimador (110) está adaptadopara determinar la medida de campo de onda a partir de una fracción (ß(k,n)) de la representación de audio de entrada(P(k,n)), en el que la fracción (ß(k,n)) y la representación de audio de entrada son dependientes del tiempo y de lafrecuencia, y donde la a fracción (ß(k,n))se calcula a partir del parámetro de difusividad ((k,n)); y un procesador (120) para procesar la medida de campo de onda (ß(k,n) P(k,n)) y la dirección de onda de medida dellegada (eDOA,x, eDOA,y, eDOA,z) para obtener el por lo menos un componente direccional (X;Y;Z), en el que el componentede audio omnidirecional (W) es igual a la representación de audio de entrada.

Description

Aparato para determinar una señal de audio espacial convertida
[0001] La presente invención es concerniente con el campo de procesamiento de audio, especialmente procesamiento de audio espacial y conversión de diferentes formatos de audio espacial.
[0002] La codificación de audio de DirAC (DirAC = Codificación de Audio Direccional) es un procedimiento para la reproducción y procesamiento de audio espacial. Los sistemas convencionales aplican DirAC en la reproducción de alta calidad bidimensional y tridimensional de sonido grabado, aplicaciones de teleconferencia, micrófonos direccionales y mezcla ascendente de estéreo a surround, por ejemplo
V. Pulkki y C. Faller, Directional audio coding: Filterbank and STFT-based design, in 120th AES Convention, May 20-23, 2006, Paris, France May 2006,
V. Pulkki and C. Faller, Directional audio coding in spatial sound reproduction and stereo upmixing, in AES 28th International Conference, Pitea, Sweden, June 2006,
V. Pulkki, Spatial sound reproduction with directional audio coding, Journal of the Audio Engineering Society, 55(6):503516, June 2007,
Jukka Ahonen, V. Pulkki and Tapio Lokki, Teleconference application and B-format microphone array for directional audio coding, in 30th AES International Conference.
[0003] Otras aplicaciones convencionales que usan DirAC son, por ejemplo, el formato de codificación universal y cancelación de ruido. En DirAC, algunas propiedades direccionales del sonido son analizadas en bandas de frecuencia dependientes del tiempo. Los datos de análisis son transmitidos junto con los datos de audio y sintetizados para diferentes propósitos. El análisis se hace comúnmente utilizando señales de formato B, aunque teóricamente DirAC no está limitado a este formato. El formato B, ver Michael Gerzon, Surround sound psychoacoustics, in Wireless World, volume 80, pages 483-486, December 1974, fue desarrollado en el trabajo de Ambisonics, un sistema desarrollado por investigadores británicos en los 70’s para traer el sonido surround a salas de concierto a salas de estar.
El formato B consiste de cuatro señales, es decir w(t),x(t),y(t) y z(t). Las primeras tres corresponden a la presión medida por un micrófono omnidireccional, mientras que las últimas tres son lecturas de presión de micrófonos que tienen patrones de captación de cifra de ocho dirigidos hacia los tres ejes de un sistema de coordenadas Cartesiano. Las señales x(t),y(t) y z(t) son proporcionales a los componentes del vector de velocidad de partículas dirigidos hacia x,y y z respectivamente.
[0004] La corriente de DirAC consiste de 1-4 canales de audio con metadatos direccionales. En teleconferencia y en algunos otros casos, la corriente consiste de solamente un solo canal de audio con metadatos, llamado una corriente de DirAC mono. Esta es una manera muy compacta para describir audio espacial, ya que solamente un solo canal de audio necesita ser transmitido junto con información lateral, que por ejemplo, da buena separación espacial entre los parlantes. Sin embargo, en tales casos algunos tipos de sonido, tales como escenarios de sonido reverberado o sonido ambiente pueden ser reproducidos con calidad limitada. Para producir mejor calidad en estos casos, canales de audio adicionales necesitan ser transmitidos.
[0005] La conversión del formato B a DirAC es descrita en V. Pulkki, A method for reproducing natural or modified spatial impression in multichannel listening, Patent WO 2004/077884 Al, September 2004. La Codificación de Audio Direccional es un procedimiento eficiente para el análisis y reproducción de sonido espacial. DirAC utiliza una representación paramétrica de campos de sonido basados en los elementos que son relevantes para la percepción de sonido espacial, es decir la DOA (DOA = dirección de llegada) y difusividad del campo de sonido en sub-bandas de frecuencia. En efecto, DirAC supone que las diferencias de tiempo interaurales (ITD) y diferencias de nivel interaural (ILD) son percibidas correctamente cuando la DOA de un campo de sonido es reproducida correctamente, mientras que la coherencia interaural (IC) es percibida correctamente, si la difusividad es reproducida exactamente. Estos parámetros, es decir DOA y difusividad, representan información lateral que acompaña una señal mono en lo que es denominada como una corriente de DirAC mono.
[0006] La Figura 7 muestra el codificador de DirAC, del cual señales de micrófono apropiadas calcula un canal de audio mono e información lateral, es decir difusividad ψ(k,n) y dirección de llegada eDOA(k,n). La Figura 7 muestra un codificador de DirAC 200, que es apto para calcular un canal de audio mono e información lateral de señales de micrófono apropiadas. En otras palabras, la Figura 7 ilustra un codificador de DirAC 200 para determinar la difusividad y dirección de llegada de señales de micrófono. La Figura 7 muestra un codificador de DirAC 200 que comprende una unidad de estimación P/U 210, en donde P(k,n) representa una señal de presión y U(k,n) representa un vector de velocidad de partícula. La unidad de estimación de P/U recibe las señales de micrófono como información de entrada, en la cual la estimación de P/U está basada. Una etapa de análisis energético 220 permite la estimación de la dirección de llegada y el parámetro de a difusividad de la corriente de DirAC mono.
[0007] Los parámetros de DirAC, como por ejemplo una representación de audio mono W{k,n), un parámetro de difusividad ψ(k,n) y una dirección de llegada (DOA) eDOA (k,n), pueden ser obtenidos a partir de una representación de frecuencia-tiempo de las señales de micrófono. Por consiguiente, los parámetros son dependientes del tiempo y de la frecuencia. En el lado de reproducción, esta información permite la presentación espacial exacta. Para recrear el sonido espacial en una posición de escucha deseada, se requiere un montaje de múltiples altavoces. Sin embargo, su geometría puede ser arbitraria. En efecto, los canales de los altavoces pueden ser determinados como función de los parámetros de DirAC.
[0008] Hay diferencias sustanciales entre DirAC y codificación de audio de multicanal paramétrica, tal como MPEG Surround, véase Lars Villemocs, Juergen Herre, Jeroen Breebaart, Gerard Hotho, Sascha Disch, Heiko Purnhagen, and Kristofer Kjrling, MPEG surround: The forthcoming ISO standard for spatial audio coding, in AES 28th International Conference, Pitea, Sweden, June 2006, aunque comparten estructuras de procesamiento similares. Mientras que MPEG Surround está basado en un análisis de tiempo/frecuencia de los diferentes canales de altavoces, DirAC toma como entrada los canales de micrófonos coincidentes, que describen efectivamente el campo de sonido en un punto. Así, DirAC también representa una técnica de grabación eficiente para audio espacial.
[0009] Otro sistema que trata con audio espacial es SAOC (SAOC = Codificación de Objeto de Audio Espacial), véase Jonas Engdegard, Barbara Resch, Cornelia Falch, Oliver Hellmuth, Johannes Hilpert, Andreas Hoelzer, Leonid Terentiev, Jeroen Breebaart, Jeroen Koppens, Erik Schuijers, and Werner Oomen, Spatial audio object (SAOC) the upcoming MPEG standard on parametric object based audio coding, in 12th AES Convention, May 17-20, 2008, Amsterdam, The Netherlands, 2008, actualmente bajo normalización de ISO/MPEG. Se integra sobre el motor de presentación de MPEG Surround y trata diferentes fuentes de sonido como objetos. Esta codificación de audio ofrece eficiencia muy alta en términos de proporción de bits y da libertad sin precedentes de interacción en el lado de reproducción. Este procedimiento promete nuevos elementos componentes y funcionalidad en sistemas heredados, también como varias otras nuevas aplicaciones.
[0010] US 2006/0045275 A1 da a conocer un procedimiento para procesar datos de audio y un dispositivo de adquisición de sonido de la aplicación de este método. El procedimiento consiste en la codificación de señales que representan un sonido que se propaga en el espacio tridimensional y proviene de una fuente situada a la primera distancia desde un punto de referencia para obtener una representación del sonido a través de los componentes expresados en una base de armónicos esféricos, y aplicar a dichos componentes una compensación de un efecto de campo cercano.
[0011] La publicación "A Distributed System for the Creation and Delivery of Ambisonic Surround Sound Audio", de R. Foss y A. Smith, AES 16a Conferencia Internacional, 1999, páginas 116-125, describe un sistema para la producción de composiciones sonoras de envolvente ambisónica utilizando una arquitectura cliente-servidor. Los datos de audio monoaurales y las coordenadas tridimensionales se convierten en una representación de audio de formato B, que se descodifica en un conjunto de altavoces con el fin de obtener un sonido envolvente Ambisónico.
[0012] US6.259.795 B1 da a conocer un procedimiento y un aparato para el procesamiento de audio espacializado, en el que se aplica al menos una función de transferencia relativa a la cabeza a cada componente espacial de un campo de sonido que tiene las componentes espaciales de posición para producir una serie de señales de transmisión. Las señales de transmisión se transmiten a múltiples usuarios y, para cada uno de los múltiples usuarios, se determina una orientación actual de un usuario actual y se produce una señal de orientación actual de la indicativa de la misma, que a continuación se utiliza para mezclar la señal de transmisión para la reproducción al usuario . La señal de campo de sonido puede comprender una señal de formato B.
[0013] Es el objeto de la presente invención proporcionar un concepto mejorado para el procesamiento espacial.
[0014] El objetivo se logra mediante un aparato para la determinación de una señal de audio espacial convertida según la reivindicación 1 y un procedimiento correspondiente según la reivindicación 12.
[0015] La presente invención se basa en el hallazgo de que la mejora de procesamiento espacial puede lograrse, por ejemplo, al convertir una señal de audio espacial codificada como una corriente de DirAC mono en una señal en formato
B. En formas de realización la señal en formato B convertida puede ser procesada o presentada antes de ser añadida a algunas otras señales de audio y codificada de nuevo a una corriente de DirAC. Las realizaciones pueden tener diferentes aplicaciones, por ejemplo, la mezcla de diferentes tipos de corrientes basadas en DirAC y formato B, etc . Algunas realizaciones pueden introducir una operación inversa a WO 2004/077884 A1, es decir, la conversión de una corriente de DirAC mono en formato B.
[0016] La presente invención está basada en el descubrimiento de que el procesamiento mejorado puede ser obtenido, si las señales de audio son convertidas a componentes direccionales. En otras palabras, es el descubrimiento de la presente invención de que el procesamiento espacial mejorado puede ser obtenido, cuando el formato de una señal de audio espacial corresponde a componentes direccionales tal como son grabados, por ejemplo, mediante un micrófono direccional de formato B. Además, es un descubrimiento de la presente invención que los compuestos direccionales u omnidireccionales de fuentes diferentes pueden ser procesados conjuntamente y con los mismos con una eficiencia incrementada. En otras palabras, especialmente cuando se procesan señales de audio espacial a partir de múltiples fuentes de audio, el procesamiento se puede llevar a cabo más eficientemente, si las señales de las múltiples fuentes de audio están disponibles en el formato de sus componentes omnidireccionales y direccionales, ya que estos pueden ser procesados conjuntamente. En algunas modalidades, por consiguiente, los generadores de efecto de audio o procesadores de audio pueden ser usados más eficientemente mediante el procesamiento de componentes combinados de múltiples fuentes.
[0017] En algunas modalidades, las señales de audio espacial pueden ser representadas como una corriente de DirAC mono que denota una técnica de flujo de DirAC en donde los datos de los medios están acompañados por solamente un canal de audio en la transmisión. Este formato puede ser convertido, por ejemplo, a una corriente de formato B, que tiene múltiples componentes direccionales. Algunas modalidades pueden habilitar el procesamiento espacial mejorado al convertir las señales de audio espacial a componentes direccionales.
[0018] Algunas modalidades pueden proveer una ventaja con respecto a la descodificación de DirAC, en donde solamente un canal de audio es usado para crear todas las señales de altavoz, en que el procesamiento espacial adicional es habilitado en base a los componentes de audio direccionales, que son determinados antes de crear las señales de altavoz. Algunas modalidades pueden proveer la ventaja de que los problemas en la creación de sonidos reverberantes son reducidos.
[0019] En modalidades, por ejemplo, una corriente de DirAC puede usar una señal de audio estéreo en una señal de audio mono, en donde los canales estéreo son L (L = canal estéreo izquierdo) y R (R = canal de estéreo derecho) y son transmitidos para ser usados en la descodificación de DirAC. Algunas modalidades pueden obtener una mejor calidad para sonido reverberante y proveer una compatibilidad directa con los sistemas de altavoz estéreo, por ejemplo.
[0020] Algunas modalidades pueden proveer la ventaja de que la descodificación de DirAC de micrófono virtual puede ser habilitada. Detalles en cuanto a descodificación de DirAC de micrófono virtual se pueden encontrar en V. Pulkki, Spatial sound reproduction with directional audio coding, Journal of the Audio Engineering Society, 55 (6): 503-516, June 2007. Estas modalidades obtienen las señales de audio para los altavoces colocando micrófonos virtuales orientados hacia la posición de los altavoces y que tienen fuentes de sonido semejantes a punto, cuya posición es determinada por los parámetros de DirAC. Algunas modalidades pueden proveer la ventaja de que, mediante la conversión, se puede habilitar la combinación lineal conveniente de las señales de audio.
[0021] Las modalidades de la presente invención serán detalladas usando las figuras adjuntas, en las cuales:
La Figura 1a muestra una modalidad de un aparato para determinar una señal de audio espacial convertida;
La Figura 1b muestra los componentes de presión de un vector de velocidad de partículas en un plano Gaussiano para una onda plana;
La Figura 2 muestra otra modalidad para convertir una corriente de DirAC mono a una señal de formato B;
La Figura 3 muestra una modalidad para combinar múltiples señales de audio espacial convertidas;
Las Figuras 4a-4d muestran modalidades para combinar múltiples señales de audio espacial basadas en DirAC aplicando diferentes efectos de audio;
La Figura 5 ilustra una modalidad de un generador de efecto de audio;
La Figura 6 muestra una modalidad de un generador de efecto de audio que aplica múltiples efectos de audio sobre componentes direccionales; y
La Figura 7 muestra un codificador de DirAC del estado del arte.
[0022] La Figura 1a muestra un aparato 100 para determinar una señal de audio espacial convertida, la señal de audio espacial convertida tiene un componente omnidireccional y por lo menos un componente direccional (X;Y;Z), a partir de una señal de audio espacial de entrada, la señal de audio espacial de entrada tiene una representación de audio de entrada (W) y una dirección de llegada de entrada (9).
[0023] El aparato 100 comprende un estimador 110 para estimar una representación de ola que comprende una medida de campo de onda y una medida de dirección de llegada de onda basada en la representación de audio de entrada (W) y la dirección de llegada de entrada (9). Además, el aparato 100 comprende un procesador 120 para procesar la medida de campo de onda y la medida de dirección de llegada de onda para obtener el componente omnidireccional y el por lo menos un componente direccional. El estimador 110 puede ser apto para estimar la representación de onda como una representación de onda plana.
[0024] En algunas modalidades, el procesador puede ser apto para proveer la representación de audio de entrada (W) como el componente de audio omnidireccional (W). En otras palabras, el componente de audio omnidireccional W’ es igual a la representación de audio de entrada W. Por consiguiente, de acuerdo con las líneas de puntos de la Figura 1a, la representación de audio de entrada puede omitir el estimador 110, el procesador 120 o ambos. En otras modalidades, el componente de audio omnidireccional W puede estar basado en la intensidad de onda y la dirección de llegada de onda siendo procesada por el procesador 120 junto con la representación de audio de entrada W. En algunas modalidades, múltiples componentes de audio direccionales (X; Y; Z) pueden ser procesados, por ejemplo un primero (X), un segundo (Y) y/o un tercero (Z) componente de audio direccional correspondiente a diferentes direcciones espaciales. En algunas modalidades, por ejemplo tres componentes de audio direccional diferentes (X; Y; Z) pueden ser derivados de acuerdo con las diferentes direcciones de un sistema de coordenadas Cartesiano.
[0025] El estimador 110 puede ser apto para estimar la medida de campo de onda en términos de una amplitud de campo de onda y una fase de campo de onda. En otras palabras, en algunas modalidades, la medida de campo de onda puede ser estimada como una cantidad de valor complejo. La amplitud de campo de onda puede corresponder a una magnitud de presión de sonido y la fase de campo de onda puede corresponder a una fase de presión de sonido en algunas modalidades.
[0026] En algunas modalidades, la medida de dirección de llegada de onda puede corresponder a cualquier cantidad direccional, expresada por ejemplo por un vector, uno o más ángulos, etc. y puede ser derivada de cualquier medida direccional que representa un componente de audio como por ejemplo, un vector de intensidad, un vector de velocidad de partícula, etc. La medida de campo de onda puede corresponder a cualquier cantidad física que describe un componente de audio, que puede ser de valor real o valor complejo, corresponder a una señal de presión, una amplitud de magnitud de velocidad de partícula, volumen, etc. Además, las medidas pueden ser consideradas en el dominio de tiempo y/o dominio de frecuencia.
[0027] Algunas modalidades pueden estar basadas en la estimación de una representación de onda plana para cada una de las corrientes de entrada, que se puede llevar a cabo por el estimador 110 en la Figura 1a. En otras palabras, la medida de campo de onda puede ser modelada utilizando una representación de onda plana. En general, existen varias descripciones exhaustivas (esto es, completas) equivalentes de una onda u ondas planas en general. En lo siguiente, se presentará una descripción matemática para calcular los parámetros de difusividad y direcciones de llegada o medidas de dirección para diferentes componentes. Aunque solamente unas pocas descripciones son concernientes directamente con cantidades físicas, como por ejemplo presión, velocidad de partícula, etc., potencialmente existen un número infinito de diferentes maneras para describir representaciones de onda, de las cuales una será presentado como ejemplo subsecuentemente, sin embargo, no se propone ser limitante de ninguna manera a las modalidades de la presente invención. Cualquier combinación puede corresponder a la medida de campo de onda y la medida de dirección de llegada de onda.
[0028] Con el fin de detallar adicionalmente diferentes descripciones potenciales se consideran dos números reales a y
b. La información contenida en a y b puede ser transferida al enviar c y d, cuando
en donde ω es una matriz de 2x2 conocida. El ejemplo considera solamente combinaciones lineales, en general cualquier combinación, esto es, también una combinación no lineal es concebible. [0029] En lo siguiente, los escalares son representados por letras minúsculas a,b,c, mientras que los vectores de columna son representados por letras minúsculas en negritas a,b,c. El superíndice
denota las transpuesta, respectivamente, mientras que
y denotan conjugación completa. La notación de fasor complejo es distinguida de
la temporal. Por ejemplo, la presión p(t), que es un número real y del cual una medida de campo de onda posible puede ser derivada, puede ser expresada por medio del fasor P, que es un número complejo y del cual otra medida de campo de onda posible puede ser derivada por
en donde Re{·} denota la parte real y ω = 2mf es la frecuencia angular. Además, las letras mayúsculas usadas para cantidades físicas representan fasores en lo siguiente. Para la siguiente notación ejemplar introductoria y para evitar confusión, por favor nótese que todas las cantidades con el subíndice “PW” se refieren a ondas planas.
[0030] Para una onda plana monocromática ideal, el vector de velocidad de partícula UPW puede ser indicado como
en donde el vector unitario ed apunta hacia la dirección de propagación de la onda, por ejemplo, correspondiente a una medida de dirección. Se puede probar que
en donde Ia denota la intensidad activa, 0 denota a densidad de del aire, c denota la velocidad del sonido, E denota la energía del campo de sonido y ' denota la difusividad.
[0031] Es interesante notar que, puesto que todos los componentes de ed son números reales, los componentes de UPW están todos en fase con PPW. La Figura 1b ilustra un UPW y PPW en el plano Gaussiano. Como se mencionó, todos los componentes de UPW comparten la misma fase como PPW, es decir B. Sus magnitudes, por otra parte, están limitadas a
[0032] Algunas modalidades de la presente invención pueden proveer un procedimiento para convertir una corriente de DirAC mono a una señal de formato B. Una corriente de DirAC mono puede ser representada por una señal de presión capturada, por ejemplo por un micrófono omnidireccional y mediante información lateral. La información lateral puede comprender medidas dependientes del tiempo-frecuencia de difusividad y dirección de llegada del sonido.
[0033] En algunas modalidades, la señal de audio espacial de entrada puede comprender adicionalmente un parámetro de difusividad ' y el estimador 110 puede ser apto para estimar la medida de campo de onda basado adicionalmente en el parámetro de difusividad '.
[0034] La dirección de llegada de entrada y la medida de la dirección de llegada de onda se pueden referir a un punto de referencia correspondiente a un sitio de grabación de la señal de audio espacial de entrada, esto es, en otras palabras todas las direcciones se pueden referir al mismo punto de referencia. El punto de referencia puede ser el sitio en donde un micrófono está colocado o múltiples micrófonos direccionales son colocados con el fin de grabar un campo de sonido.
[0035] En algunas modalidades, la señal de audio espacial convertida puede comprender un primero (X), un segundo (Y) y un tercero (Z) componente direccional. El procesador 120 puede ser apto para el procesamiento adicional de la medida de campo de onda y la medida de dirección de llegada de onda para obtener el primero (X) y/o el segundo (Y) y/o el tercero (Z) componentes direccionales y/o los componentes de audio omnidireccionales.
[0036] En las siguientes notaciones un modelo de datos será introducido.
[0037] Sea p(t) y u(t)=[ux(t),uy(t),uz(t)]T el vector depresión y velocidad de partícula, respectivamente, para un punto específico en el espacio, en donde [·]T denota la transpuesta. p(t) puede corresponder a una representación de audio y u(t)=[ux(t),uy(t),uz(t)]T puede corresponder a componentes direccionales. Estas señales pueden ser transformadas a un dominio de tiempo-frecuencia por medio de un banco de filtros apropiado o una STFT (STFT = Transformada de Fourier en el Tiempo Corta) como se sugiere por ejemplo por V. Pulkki and C. Faller, Directional audio coding: Filterbank and STFT-based design, in 120th AES Convention, May 20-23, 2006, Paris, France, May 2006.
[0038] Sea P(k,n) y U(k,n)=[Ux(k,n),Uy(k,n),Uz(k,n)]T que denoten las señales transformadas, en donde k y n son índices para la frecuencia (o banda de frecuencia) y tiempo, respectivamente. El vector de intensidad activa Ia(k,n) puede ser definido como
en donde (·)* denota la conjugación compleja Re{·} extrae la parte real. El vector de intensidad activa puede expresar el flujo neto de energía que caracteriza el campo de sonido, véase F.J. Fahy, Sound Intensity, Essex: Elsevier Science Publishers Ltd., 1989.
[0039] Sea c que denote la velocidad de sonido en el medio considerado y E la energía de campo de sonido definida por
F.J. Fahy
en donde
calcula la 2-norma. En lo siguiente, el contenido de una corriente de DirAC mono será detallado.
[0040] La corriente de DirAC mono puede consistir de la señal mono p(t) o representación de audio y la información lateral, por ejemplo una medida de dirección de llegada. Esta información lateral puede comprender la dirección de llegada dependiente del tiempo-frecuencia y una medida de difusividad dependiente del tiempo-frecuencia. La primera puede ser denotada por eDOA(k,n), que es un vector unitario que apunta hacia la dirección de la cual el sonido llega, esto es, puede ser el modelado de la dirección de llegada. La última, difusividad, puede ser denotada por
[0041] En algunas modalidades, el estimador 110 y/o el procesador 120 pueden ser aptos para estimar/procesar la DOA de entrada y/o la medida de DOA de onda en términos de un vector unitario eDOA(k,n). La dirección de llegada puede ser obtenida como
en donde el vector unitario el(k,n) indica la dirección hacia la cual la intensidad activa apunta, es decir
respectivamente. Alternativamente, en algunas modalidades, la DOA o medida de DOA puede ser expresada en términos de azimut y ángulo de elevación en un sistema de coordenadas esféricas. Por ejemplo, si r(k,n) y
(k,n) son azimut y ángulos de elevación, respectivamente, entonces
en donde eDOA,x(k,n) es un componente del vector unitario eDOA(k,n) de la dirección de llegada de entrada a lo largo de un eje x de un sistema de coordenadas Cartesiano, eDOA,y(k,n) es un componente de eDOA(k,n) a lo largo del eje y y eDOA,z(k,n) es un componente de eDOA(k,n) a lo largo del eje z.
[0042] En algunas modalidades, el estimador 110 puede ser apto para estimar la medida de campo de onda basado adicionalmente en el parámetro de difusividad ', opcionalmente también expresado por '(k,n) de manera dependiente del tiempo-frecuencia. El estimador 110 puede ser apto para estimar en base al parámetro de difusividad en términos de
[0043] Existen diferentes estrategias para obtener P(k,n) y U(k,n) en la práctica. Una posibilidad es usar un micrófono de formato B, que alimenta 4 señales, es decir w(t), x(t), y(t) y z(t). La primera w(t), puede corresponder a la lectura de presión de un micrófono omnidireccional. Las últimas tres pueden corresponder a lecturas de presión de micrófonos que tienen patrones de captación de cifra de ocho dirigidos hacia los tres ejes de un sistema de coordenadas Cartesiano. Estas señales también son proporcionales a la velocidad de partícula. Por consiguiente, en algunas modalidades:
omnidireccional W(k,n) y los tres componentes direccionales X(k,n), Y(k,n), Z(k,n). Nótese que el factor -2 en (6) viene de la convención usada en la definición de señales de formato B, véase Michael Gerzon, Surround sound psychoacoustics, in Wireless World, volume 80, pages 483-486, December 1974.
[0044] Alternativamente, P(k,n) y U(k,n) pueden ser estimados por medio de un arreglo de micrófonos ominidireccionales, como se sugiere en J. Merimaa, Applications of a 3-D microphone array, in 112th AES Convention, Paper 5501, Munich, May 2002. Las etapas de procesamiento descritas anteriormente también son ilustradas en la Figura 7.
[0045] La Figura 7 muestra un codificador de DirAC 200, que es apto para calcular un canal de audio mono e información lateral a partir de señales de micrófono apropiadas. En otras palabras, la Figura 7 ilustra un codificador de DirAC 200 para determinar la difusividad '(k,n) y dirección de llegada eDOA(k,n) a partir de señales de micrófono apropiadas. La Figura 7 muestra un codificador de DirAC 200 que comprende una unidad de estimación de P/U 210. La unidad de estimación de P/U recibe las señales de micrófono como información de entrada, a las cuales está basada la estimación de P/U. Puesto que toda la información está disponible, la estimación de P/U es directa de acuerdo con las ecuaciones anteriores. Una etapa de análisis energético 220 permite la estimación de la dirección de llegada y el parámetro de difusividad de la corriente combinada.
[0046] En algunas modalidades, el estimador 110 puede ser apto para determinar la medida o amplitud del campo de onda en base a una fracción p(k,n) de la representación de audio de entrada P(k,n). La Figura 2 muestra las etapas de procesamiento de una modalidad para calcular las señales de formato B a partir de una corriente de DirAC mono. Todas las cantidades dependen de los índices de tiempo y frecuencia (k,n) y son parcialmente omitidas en lo siguiente por simplicidad.
[0047] En otras palabras, la Figura 2 ilustra otra modalidad. De acuerdo con la Ecuación (6), W(k,n) es igual a la presión P(k,n). Por consiguiente, el problema de sintetizar el formato B a partir de una corriente de DirAC mono se reduce a la estimación de del vector de velocidad de partícula U(k,n), ya que sus componentes son proporcionales a X(k,n), Y(k,n), y Z(k,n).
[0048] Algunas modalidades pueden aproximar la estimación basada en la suposición de que el campo consiste de una onda plana sumada a un campo difuso. Por consiguiente, la presión y velocidad de partícula pueden ser expresados como:
en donde los subíndices “PW” y“diff” denotan la onda plana y el campo difuso, respectivamente.
[0049] Los parámetros de DirAC portan información solamente con respecto a la intensidad activa. Por consiguiente, el vector de velocidad de partícula U(k,n) es estimado con
PW(k,n), que es el estimador para la velocidad de partícula de la onda plana solamente. Puede ser definido como:
en donde el número real p(k,n) es un factor de ponderación apropiado, que en general es dependiente de la frecuencia y puede exhibir una proporcionalidad inversa a la difusividad '(k,n). En efecto, para baja difusividad, esto es '(k,n) cercano a cero, se puede suponer que el campo está compuesto de una sola onda plana, de tal manera que:
implicando que p(k,n) = 1.
[0050] Considerando la ecuación anterior y la Ecuación (6), los componentes omnidireccional y/o el primero y/o segundo y/o tercero componente direccionales pueden ser expresados como:
en donde eDOA,x(k,n) es el componente del vector unitario eDOA(k,n) de la dirección de llegada de entrada a lo largo del eje x de un sistema de coordenadas Cartesiano, eDOA,y(k,n) es el componente de eDOA(k,n) a lo largo del eje y y eDOA,z(k,n) es el componente eDOA(k,n) a lo largo del eje z. En la modalidad mostrada en la Figura 2, la medida de dirección de llegada de onda estimada por el estimador 110 corresponde a eDOA,x(k,n), eDOA,y(k,n) y eDOA,z(k,n) y la medida de campo de onda corresponde a p(k,n)P(k,n). El primer componente direccional tal como es emitido por el procesador 120 puede corresponder a cualquiera de X(k,n), Y(k,n) o Z(k,n) y el segundo componente direccional de acuerdo con cualquiera de X(k,n), Y(k,n) o Z(k,n).
[0051] En lo siguiente, dos modalidades prácticas serán presentadas en como determinar el factor de p(k,n).
[0052] La primera modalidad tiene como objetivo estimar la presión de una onda plana primero, es decir PPW(k,n), y luego, de la misma, derivar el vector de velocidad de partícula.
puede escribir: Dadas las propiedades estadísticas de los campos difusos, se puede introducir una aproximación por:
en donde Ediff es la energía del campo difuso. El estimador puede así ser obtenido mediante:
[0054] Para calcular valores estimativos instantáneos, esto es, para cada mosaico de frecuencia en el tiempo, los operadores de esperanza pueden ser removidos, obteniendo:
[0055] Al aprovechar la suposición de onda plana, el valor estimativo para la velocidad de partícula puede ser derivado
de lo cual se sigue que:
[0056] En otras palabras, el estimador 110 puede ser apto para estimar la fracción p(k,n) en base al parámetro de difusividad '(k,n), de acuerdo con:
y la medida de campo de onda de acuerdo con:
en donde el procesador 120 puede ser apto para obtener la magnitud del primer componente direccional X(k,n) y/o el segundo componente direccional Y(k,n) y/o el tercer componente direccional Z(k,n) y/o el componente de audio omnidireccional W(k,n) mediante
de llegada de onda es representada por el vector unitario , en donde x, y y z indican las direcciones en un sistema de coordenadas
Cartesiano.
[0057] Una solución alternativa en algunas modalidades puede ser derivada al obtener el factor p(k,n) directamente de la expresión de la difusividad '(k,n). Como ya se mencionó, la velocidad de partícula U(k,n) puede ser modelada como
La Ecuación (18) puede ser sustituida en (5) conduciendo a:
10 [0058] Para obtener los valores instantáneos, los operadores de esperanza pueden ser removidos y resolviendo para
[0059] En otras palabras, en algunas modalidades, el estimador 110 puede ser apto para estimar la fracción p(k,n) en 15 base a '(k,n), de acuerdo con:
Algunas modalidades pueden ser extendidas para el procesamiento de otras corrientes. En caso de que la corriente o la
20 señal de audio espacial de entrada no porte un canal omnidireccional, algunas modalidades pueden combinar los canales disponibles para aproximar un patrón de captación omnidireccional. Por ejemplo, en el caso de una corriente de DirAC estéreo como señal de audio espacial de entrada, la señal de presión P en la Figura 2 puede ser aproximada al sumar los canales L y R.
[0061] En lo siguiente, una modalidad con ' = 1 será ilustrada. La Figura 2 ilustra que si la difusividad es igual a uno
25 para ambas modalidades, el sonido es enrutado exclusivamente al canal W ya que p es igual a cero, de tal manera que las señales X, Y y Z, esto es, los componentes direccionales, pueden ser también cero. Si ' = 1 constantemente en el tiempo, el canal de audio mono puede así ser enrutado al canal W sin ningún cálculo adicional. La interpretación física de esto es que la señal de audio es presentada al escucha como un campo reactivo puro, ya que el vector de velocidad de partícula tiene magnitud cero.
30 [0062] Otro caso cuando ' = 1 ocurre considerando una situación en donde una señal de audio está presente solamente en una o cualquier sub-conjunto de señales de dipolo y no en la señal W. En el análisis de difusividad de DirAC, este escenario es analizado para tener ' = 1 con la Ecuación 5, puesto que el vector de intensidad tiene constantemente la duración de cero, ya que la presión P es cero en la Ecuación (1). La interpretación física de esto es también que la señal de audio es presentada al escucha siendo reactiva, ya que esta señal de presión en el tiempo es constantemente cero,
35 mientras que el vector de velocidad de partícula no es cero.
[0063] Debido al hecho de que el formato B es inherentemente una representación independiente de montaje de los altavoces, algunas modalidades pueden usar el formato B como un lenguaje común hablado por diferentes dispositivos de audio, lo que significa que la conversión de uno a otro se puede hacer posible por modalidades vía una conversión intermedia a formato B. Por ejemplo, algunas modalidades pueden unir corrientes de DirAC de diferentes medios
40 ambientes acústicos grabados con diferentes medios ambientes de sonido sintetizados en formato B. La unión de corriente de DirAC mono a corriente de formato B puede también ser habilitada por algunas modalidades.
[0064] Algunas modalidades pueden permitir la unión de señales de audio de multicanal en cualquier formato surround con una corriente de DirAC mono. Además, algunas modalidades pueden permitir la unión de una corriente de DirAC mono con cualquier corriente de formato B. Además, algunas modalidades pueden permitir la unión de una corriente de
45 DirAC mono con una corriente de formato B.
[0065] Estas modalidades pueden proveer una ventaja, por ejemplo, en la creación de reverberación o introducir efectos de audio, como será detallado subsecuentemente. En la producción de música, los reverberadores pueden ser usados como dispositivos de efecto que colocan perceptualmente el audio procesado a un espacio virtual. En realidad virtual, la síntesis de reverberación puede ser necesaria cuando las fuentes virtuales son aurilizadas al interior de un espacio cerrado, por ejemplo en salas o salones de conciertos.
[0066] Cuando una señal para reverberación está disponible, tal auralización puede ser efectuada por algunas modalidades mediante aplicación de sonido seco y sonido reverberado a diferentes corrientes de DirAC. Algunas modalidades pueden usar diferentes procedimientos en cuanto a como procesar la señal reverberada en el contexto de DirAC, en donde algunas modalidades pueden producir el sonido reverberado que es máximamente difuso alrededor del escucha.
[0067] La Figura 3 ilustra una modalidad de un aparato 300 para determinar una señal de audio espacial convertida combinada, la señal de audio espacial convertida combinada tiene por lo menos un primer componente combinado y un segundo componente combinado, en donde la señal de audio espacial convertida combinada es determinada a partir de una primera y una segunda señal de audio espacial de entrada que tiene una primera y una segunda representación de audio de entrada y una primera y una segunda dirección de llegada.
[0068] El aparato 300 comprende una primera modalidad del aparato 101 para determinar una señal de audio espacial convertida de acuerdo con la descripción anterior, para proveer una primera señal convertida que tiene un primer componente omnidireccional y por lo menos un componente direccional del primer aparato 101. Además, el aparato 300 comprende otra modalidad de un aparato 102 para determinar una señal de audio espacial convertida de acuerdo con la descripción anterior para proveer una segunda señal convertida, que tiene un segundo componente omnidireccional y por lo menos un componente direccional del segundo aparato 102.
[0069] En general, algunas modalidades no están limitados a comprender solamente dos de los aparatos 100, en general, una pluralidad de los aparatos descritos anteriormente pueden estar comprendidos en el aparato 300, por ejemplo, el aparato 300 puede ser apto para combinar una pluralidad de señales de DirAC.
[0070] De acuerdo con la Figura 3, el aparato 300 comprende además un generador de efectos de audio 301 para presentar el primer compuesto omnidireccional y el primer componente de audio direccional del primer aparato 101 para obtener un primer componente presentado.
[0071] Además, el aparato 300 comprende un primer combinador 311 para combinar el primer componente presentado con los primeros y segundos componentes omnidireccionales, o para combinar el primer componente presentado con componentes direccionales del primer aparato 101 y el segundo aparato 102 para obtener el primer componente combinado. El aparato 300 comprende además un segundo combinador 312 para combinar los primeros y segundos componentes omnidireccionales o los componentes direccionales a partir del primero o segundo aparato 101 y 102 para obtener el segundo componente combinado.
[0072] En otras palabras, el generador de efectos de audio 301 puede presentar el primer componente omnidireccional, de tal manera que el primer combinador 311 puede luego combinar el primer componente omnidireccional presentado, el primer componente omnidireccional y el segundo componente omnidireccional para obtener el primer componente combinado. El primer componente combinado puede luego corresponder, por ejemplo, a un componente omnidireccional combinado. En esta modalidad, el segundo combinador 312 puede combinar el componente direccional del primer aparato 101 y el componente direccional del segundo aparato para obtener el segundo componente combinado, por ejemplo, correspondiente a un primer componente direccional combinado.
[0073] En otras modalidades, el generador de efectos de audio 301 puede presentar los componentes direccionales. En estas modalidades el combinador 311 puede combinar el componente direccional del primer aparato 101, el componente direccional del segundo aparato 102 y el primer componente presentado para obtener el primer componente combinado, en este caso correspondiente a un componente direccional combinado. En esta modalidad, el segundo combinador 312 puede combinar los primeros y segundos componentes omnidireccionales del primer aparato 101 y el segundo aparato 102 para obtener el segundo componente combinado, esto es, un componente omnidireccional combinado.
[0074] De acuerdo con las modalidades descritas anteriormente, cada uno de los aparatos pueden producir múltiples componentes direccionales, por ejemplo un componente X, un componente Y y un componente Z. En algunas modalidades, se pueden usar múltiples generadores de efecto de audio, lo que se indica en la Figura 3 por los bloques de líneas discontinuas 302, 303 y 304. Estos generadores de efecto de audio opcionales pueden generar componentes presentados correspondientes, basados en señales de entrada omnidireccionales y/o direccionales. En una modalidad, un generador de efecto de audio puede presentar un componente direccional en base a un componente omnidireccional. Además, el aparato 300 puede comprender múltiples combinadores, esto es combinadores 311, 312, 313 y 314 con el fin de combinar un componente combinado omnidireccional y múltiples componentes direccionales combinados, por ejemplo, para las tres dimensiones espaciales.
[0075] Una de las ventajas de la estructura del aparato 300 es que un máximo de cuatro generadores de efecto de audio son necesarios para presentar en general un número ilimitado de fuentes de audio.
[0076] Como se indica por los combinadores de líneas discontinuas 331, 332, 333 y 334 en la Figura 3, un generador de efecto de audio puede ser apto para presentar una combinación de componentes direccionales u omnidireccionales a partir de los aparatos 101 y 102. En una modalidad, el generador de efecto de audio 301 puede ser apto para presentar una combinación de los componentes omnidireccionales del primer aparato 101 y el segundo aparato 102 o para presentar una combinación de los componentes direccionales del primer aparato 101 y el segundo aparato 102 para obtener el primer componente presentado. Como se indica por las trayectorias discontinuas en la Figura 3, se pueden proveer combinaciones de múltiples componentes a los diferentes generadores de efecto de audio.
[0077] En una modalidad, todos los componentes omnidireccionales de todas las fuentes de sonido, en la Figura 3, representadas por el primer aparato 101 y el segundo aparato 102, pueden ser combinados con el fin de generar múltiples componentes presentados. En cada una de las cuatro trayectorias mostradas en la Figura 3, cada generador de efecto de audio puede generar un componente presentado a ser agregado a los componentes direccionales u omnidireccionales correspondientes de las fuentes de sonido.
[0078] Además, como se muestra en la Figura 3, se pueden usar múltiples etapas de retardo y escalamiento 321 y 322. En otras palabras, cada aparato 101 ó 102 puede tener en su trayectoria de salida una etapa de retardo y escalamiento 321 ó 322, con el fin de retardar uno o más de sus componentes de salida. En algunas modalidades, las etapas de retardo y escalamiento pueden retardar y escalar los respectivos componentes omnidireccionales solamente. En general, las etapas de retardo y escalamiento pueden ser usadas para componentes omnidireccionales y direccionales.
[0079] En algunas modalidades, el aparato 300 puede comprender una pluralidad de aparatos 100 que representan fuentes de audio y correspondientemente una pluralidad de generadores de efecto de audio, en donde el número de generadores de efecto de audio es menor que el número de aparatos correspondientes a las fuentes de sonido. Como ya se mencionó anteriormente, en una modalidad, pueden haber hasta cuatro generadores de efecto de audio, con un número básicamente ilimitado de fuentes de sonido. En algunas modalidades, un generador de efecto de audio puede corresponder a un reverberador.
[0080] La Figura 4a muestra otra modalidad de un aparato 300 en más detalle. La Figura 4a muestra dos aparatos 101 y 102 cada uno emitiendo un componente de audio omnidireccional W, y tres componentes direccionales X, Y, Z. De acuerdo con la modalidad mostrada en la Figura 4a, los componentes omnidireccionales de cada uno de los aparatos 101 y 102 son provistos a dos etapas de retardo y escalamiento 321 y 322, que emiten tres componentes retardados y escalados, que son luego agregados por los combinadores 331, 332, 333 y 334. Cada una de las señales combinadas es luego presentada separadamente por uno de los cuatro generadores de efecto de audio 301, 302, 303 y 304, que son implementados como reverberadores en la Figura 4a. Como se indica en la Figura 4a, cada uno de los generadores de efecto de audio emite un componente, correspondiente a un componente omnidireccional y tres componentes direccionales en total. Los combinadores 311, 312, 313 y 314 son luego usados para combinar los respectivos componentes presentados con los componentes originales emitidos por los aparatos 101 y 102, en donde en la Figura 4a en general, pueden haber una multiplicidad de aparatos 100.
[0081] En otras palabras, en el combinador 311 una versión presentada de las señales de salida omnidireccionales combinadas de todos los aparatos puede ser combinada con los componentes de salida omnidireccionales originales o sin presentar. Combinaciones similares se pueden llevar a cabo por otros combinadores con respecto a los componentes direccionales. En la modalidad mostrada en la Figura 4a, los componentes direccionales presentados son creados en base a versiones retardadas y escaladas de los componentes omnidireccionales.
[0082] En general, algunas modalidades pueden aplicar un efecto de audio como por ejemplo una reverberación eficientemente a una o más corrientes de DirAC. Por ejemplo, por lo menos dos corrientes de DirAC son introducidas a la modalidad del aparato 300, como se muestra en la Figura 4a. En algunas modalidades, estas corrientes pueden ser corrientes de DirAC reales o corrientes sintetizadas, por ejemplo al tomar una señal mono y agregar información lateral como dirección y difusividad. De acuerdo con la discusión anterior, los aparatos 101, 102 pueden generar hasta cuatro señales para cada corriente, es decir W, X, Y y Z. En general, las modalidades de los aparatos 101 ó 102 pueden proveer menos de tres componentes direccionales, por ejemplo solamente X o X y Y, o cualquier otra combinación de los mismos.
[0083] En algunas modalidades, los componentes omnidireccionales W pueden ser provistos a generadores de efecto de audio, como por ejemplo reverberadores con el fin de crear los componentes presentados. En algunas modalidades, para cada una de las corrientes de DirAC de entrada, las señales pueden ser copiadas a las cuatro ramas mostradas en la Figura 4a, que pueden ser retardadas independientemente, esto es, individualmente por aparato 101 ó 102 cuatro
retardadas independientemente, por ejemplo por retardos TW,TX,TY,TZ y escaladas, por ejemplo por factores de escalamiento rW,rX,rY,rZ, versiones pueden ser combinadas antes de ser provistas a un generador de efecto de audio.
[0084] De acuerdo con las Figuras 3 y 4a, las ramas de las diferentes corrientes, esto es, las salidas de los aparatos 101 y 102, pueden ser combinadas para obtener cuatro señales combinadas. Las señales combinadas pueden luego ser presentadas independientemente por los generadores de audio, por ejemplo reverberadores mono convencionales. Las señales presentadas resultantes pueden luego ser sumadas a las señales W, X, Y y Z emitidas originalmente de los diferentes aparatos 101 y 102.
[0085] En algunas modalidades, señales de formato B generales pueden ser obtenidas, que pueden luego, por ejemplo, ser reproducidas con un descodificador de formato B y se lleva a cabo por ejemplo en Ambisonics. En otras modalidades, las señales de formato B pueden ser codificadas como por ejemplo con el codificador de DirAC como se muestra en la Figura 7, de tal manera que la corriente de DirAC resultante puede luego ser transmitida, procesada o descodificada adicionalmente con un descodificador de DirAC mono convencional. La etapa de descodificación puede corresponder a calcular señales de altavoz para reproducción.
[0086] La Figura 4b muestra otra modalidad de un aparato 300. La Figura 4b muestra los dos aparatos 101 y 102 con los cuatro componentes de salida correspondientes. En la modalidad mostrada en la Figura 4b, solamente los componentes omnidireccionales W son usados para ser primero retardados individualmente y escalados en las etapas de retardo y escalamiento 321 y 322 antes de ser combinados por el combinador 331. La señal combinada es luego provista al generador de efecto de audio 301, que es otra vez implementado como un reverberador en la Figura 4b. La salida presentada del reverberador 301 es luego combinada con los componentes omnidireccionales originales de los aparatos 101 y 102 por el combinador 311. Los otros combinadores 312, 313 y 314 son usados para combinar los componentes direccionales X, Y y Z de los aparatos 101 y 102 con el fin de obtener componentes direccionales combinados correspondientes.
[0087] En relación con la modalidad ilustrada en la Figura 4a, la modalidad ilustrada en la Figura 4b corresponde a ajustar los factores de escalamiento para las ramas X, Y y Z a 0. En esta modalidad, solamente un generador de efecto de audio o reverberador 301 es usado.
[0088] En general, ya que los aparatos 101, 102 y potencialmente N aparatos correspondientes a N fuentes de sonido, las potencialmente N etapas de retardo y escalamiento 321, que son opcionales, pueden simular las distancias de las fuentes de sonido, un retardo más corto puede corresponder a la percepción de una fuente de sonido virtual más cercana a la escucha. La impresión espacial de un medio ambiente de los alrededores puede luego ser creado por los generadores de efecto de audio correspondiente o reverberadores.
[0089] Las modalidades como se ilustran en las Figuras 3, 4a y 4b pueden ser utilizadas para casos cuando se usa descodificación de DirAC mono para N fuentes de sonido que son luego reverberadas conjuntamente. Ya que se puede suponer que la salida de un reverberador tiene una salida que es totalmente difusa, esto es, puede ser interpretada como una señal omnidireccional W también. Esta señal puede ser combinada con otras señales de formato sintetizadas, tales como las señales de formato B originadas de N fuentes de audio por sí mismas, que representan así la trayectoria directa al escucha. Cuando la señal de formato B resultante es codificada y descodificada por DirAC adicionalmente, el sonido reverberado se puede hacer disponible por algunas modalidades.
[0090] En la Figura 4c, se muestra otra modalidad del aparato 300. En la modalidad mostrada en la Figura 4c, en base a las señales omnidireccionales de salida de los aparatos 101 y 102, se crean componentes presentados reverberados direccionales. Por consiguiente, en base a la salida omnidireccional, las etapas de retardo y escalamiento 321 y 322 crean componentes retardados y escalados individualmente, que son combinados por los combinadores 331, 332 y 333. A cada una de las señales combinadas, diferentes reverberadores 301, 302 y 303 son aplicados, que en general corresponden a diferentes generadores de efecto de audio. De acuerdo con la descripción anterior, los componentes omnidireccionales, direccionales y presentados correspondientes son combinados por los combinadores 311, 312, 313 y 314, con el fin de proveer un componente omnidireccional combinado y componentes direccionales combinados.
[0091] En otras palabras, las señales W o señales omnidireccionales para cada corriente son alimentadas a tres generadores de efecto de audio, como por ejemplo reverberadores, como se muestra en las figuras. En general, también pueden haber solamente dos ramas dependiendo de si una señal de sonido bidimensional o tridimensional va a ser generada. Una vez que se obtiene las señales de formato B, las corrientes pueden ser decodificadas vía un descodificador de DirAC de micrófono virtual. El último es descrito en detalle en V. Pulkki, Spatial Sound Reproduction With Directional Audio Coding, Journal of the Audio Engineering Society, 55 (6): 503-516.
[0092] Con este descodificador, las señales de altavoz Dp(k,n) pueden ser obtenidas como una combinación lineal de las señales W,X,Y y Z, por ejemplo de acuerdo con:
en donde up y pp son el azimut y la elevación del p-ésimo altavoz. El término G(k,n) es una ganancia de toma panorámica dependiente de la dirección de llegada y de la configuración del altavoz.
[0093] En otras palabras, la modalidad mostrada en la Figura 4c puede proveer las señales de audio para los altavoces correspondiente a señales de audio obtenibles al colocar micrófonos virtuales orientados hacia la posición de los altavoces y que tienen fuentes de sonido semejantes a punto, cuya posición es determinada por los parámetros de DirAC. Los micrófonos virtuales pueden tener patrones de captación formados como caridioides, como dipolos o como cualquier patrón direccional de primer orden.
[0094] Los sonidos reverberados pueden por ejemplo ser usados eficientemente como X y Y en la suma de formato B. Tales modalidades pueden ser aplicadas a disposiciones físicas de altavoz horizontales que tienen cualquier número de altavoces, sin crear la necesidad de más reverberadores.
[0095] Como se discute anteriormente, la descodificación de DirAC mono tiene limitaciones en calidad de reverberación, en donde en modalidades la calidad puede ser mejorada con la descodificación de DirAC de micrófono virtual, que toma ventaja también de las señales de dipolo en una corriente de formato B.
[0096] La creación apropiada de señales de formato B para reverberar una señal de audio para la descodificación de DirAC de micrófono virtual se puede llevar a cabo en algunas modalidades. Un concepto simple y efectivo que puede ser usado por algunas modalidades es enrutar diferentes canales de audio diferentes señales de dipolo, por ejemplo, a X y Y canales. Algunas modalidades puede implementar esto por dos reverberadores que producen canales de audio mono incoherentes a partir del mismo canal de entrada, tratando sus salidas como canales de audio dipolo de formato B X y Y, respectivamente, como se muestra en la Figura 4c para los componentes direccionales. Ya que las señales no son aplicadas a W, serán analizadas para ser totalmente difusas en la codificación de DirAC subsecuente. También, la calidad incrementada para reverberación puede ser obtenida en la descodificación de DirAC de micrófono virtual, ya que los canales de dipolo contienen sonido reverberado diferentemente. Algunas modalidades pueden generar con las
mismas una percepción “más amplia” y “más envolvente” de reverberación que con la descodificación de DirAC mono.
Algunas modalidades pueden por consiguiente usar un máximo de dos reverberadores en disposiciones físicas de altavoz horizontales y tres disposiciones físicas de altavoces 3-D en la reverberación basada en DirAC descrita.
[0097] Algunas modalidades pueden no estar limitadas a reverberación de señales, sino que pueden aplicar cualesquier otros efectos de audio que tienen por objetivo, por ejemplo en una percepción totalmente difusa del sonido. Similar a las modalidades descritas anteriormente, la señal de formato B reverberada puede ser sumada a otras señales de formato B sintetizadas en algunas modalidades, tales como las que se originan de las N fuentes de audio por sí mismas, representando así una trayectoria directa al escucha.
[0098] Todavía otra modalidad es mostrada en la Figura 4d. La Figura 4d muestra una modalidad similar como la Figura 4a, sin embargo, ninguna etapa de retardo o escalamiento 321 ó 322 está presente, esto es, las señalados individuales en las ramas son solamente reverberadas, en algunas modalidades solo los componentes omnidireccionales W son reverberados. La modalidad ilustrada en la Figura 4d puede también ser vista como similar a la modalidad ilustrada en la Figura 4a con los retardos y escalamientos o ganancias antes de que los reverberadores sean ajustados a 0 y 1, respectivamente, sin embargo, en esta modalidad, se supone que los reverberadores 301, 302, 303 y 304 no son arbitrarios e independientes. En la modalidad ilustrada en la Figura 4d, los cuatro generadores de efecto de audio son sumados para ser dependiente entre sí teniendo una estructura específica.
[0099] Cada uno de los generadores de efecto de audio o reverberadores pueden ser implementados como una línea de retardo derivada como será detallado subsecuentemente con la ayuda de la Figura 5. Los retardos y ganancias o escalamientos pueden ser escogidos apropiadamente de tal manera que cada una de las derivaciones modela un eco distinto cuya dirección, retardo y potencia pueden ser ajustados a voluntad.
[0100] En tal modalidad, el i-ésimo eco puede ser caracterizado por un factor de ponderación, por ejemplo en referencia a un sonido de DirAC pi, un retardo Ti y una dirección de llegada Bi y 9i, correspondiente a la elevación y azimut respectivamente.
[0101] Los parámetros de los reverberadores pueden ser ajustados como sigue:
TW = TX = TY = TZ = Ti
rW = pi, para el W reverberador,
rX = pi·cos(9i)·cos(Bi), para el X reverberador
rY = pi·sen(9i)·cos(Bi), para el Y reverberador
rZ = pi·sen(Bi), para el reverberador Z
[0102] En algunas modalidades, los parámetros físicos de cada eco pueden ser extraídos de procesos aleatorios o tomados de una respuesta de impulso de espacial de sala. La última podría por ejemplo ser medida o simulada con una herramienta de rastreo de rayos.
[0103] En general, algunas modalidades pueden proveer con las mismas la ventaja de que el número de generadores de efecto de audio es independiente del número de fuentes.
[0104] La Figura 5 ilustra una modalidad que utiliza un esquema conceptual de un efecto de audio mono como por ejemplo usado dentro de un generador de efecto de audio, que es extendido dentro del contexto de DirAC. Por ejemplo, un reverberador puede ser realizado de acuerdo con este esquema. La Figura 5 muestra una modalidad de un reverberador 500. La Figura 5 muestra en principio una estructura de filtro de FIR (FIR = Respuesta de Impulso Finito). Otras modalidades pueden utilizar filtros de IIR (IIR = Respuesta de Impulso Infinito) también. Una entrada señal es retardada por las K etapas de retardo marcadas por 511 a 51K. Las K copias retardadas, para las cuales los retardos son denotados por Tl a TK de la señal, son luego amplificadas por los amplificadores 521 a 52K con factores de amplificación rl a rK antes de que sean sumadas en la etapa de suma 530.
[0105] La Figura 6 muestra otra modalidad con una extensión de la cadena de procesamiento de la Figura 5 dentro del contexto de DirAC. La salida del bloque de procesamiento puede ser una señal de formato B. La Figura 6 muestra una modalidad en donde múltiples etapas de suma 560, 562 y 564 son utilizadas dando como resultado las tres señales de salida W, X y Y. Con el fin de establecer diferentes combinaciones, las copias de señal retardadas pueden ser escaladas diferentemente antes de que sean agregadas en las tres etapas de adición diferentes 560, 562 y 564. Esto se lleva a cabo por los amplificadores adicionales 531 a 53K y 541 a 54K. En otras palabras, la modalidad 600 mostrada en la Figura 6 lleva a cabo reverberación para diferentes componentes de una señal de formato B basada en una corriente de DirAC mono. Tres diferentes copias reverberadas de la señal son generadas utilizando tres filtros de FIR diferentes siendo establecidos por medio de diferentes coeficientes de filtro pl a pK y 7l a 7K.
[0106] La siguiente modalidad se puede aplicar a un reverberador o efecto de audio que puede ser modelado como la Figura 5. Una señal de entrada corre a través de una línea de retardo derivada simple, en donde múltiples copias de la misma son sumadas conjuntamente. La i-ésima de K ramas es retardada y atenuada por Ti y ri, respectivamente.
[0107] Los factores r y T pueden ser obtenidos dependiendo del efecto de audio deseado. En caso de un reverberador, estos factores imitan la respuesta de impulso de la sala que va a ser simulada. De cualquier manera, su determinación no es iluminada y así se supone que es dada.
[0108] Una modalidad es ilustrada en la Figura 6. El esquema en la Figura 5 es extendido de tal manera que dos capas más son obtenidas. En modalidades, a cada rama y ángulo de llegada B puede ser asignados obtenido de un proceso estocástico. Por ejemplo, B puede ser la realización de una distribución uniforme en el intervalo [-m,m]. La i-ésima rama es multiplicada con los factores 7i y pi, que pueden ser definidos como
7i = sen(Bi) (21)
pi = cos(Bi) . (22)
[0109] En algunas modalidades, el i-ésimo eco puede ser percibido como procedente de Bi. La extensión a 3D es directa. En este caso, más capas necesitan ser agregadas y un ángulo de elevación necesita ser considerado. Una vez que la señal de formato B ha sido generada, es decir W, X, Y, y posiblemente Z, la combinación de la misma con otras señales de formato B se pueden llevar a cabo. Luego, puede ser enviada directamente a un descodificador de DirAC de micrófono virtual, o después de la codificación de DirAC la corriente de DirAC mono puede ser enviada a un descodificador de DirAC mono.
[0110] Algunas modalidades pueden comprender un procedimiento para determinar una señal de audio espacial convertida, la señal de audio espacial convertida tiene un primer componente de audio direccional y un segundo componente de audio direccional, a partir de una señal de audio espacial de entrada, la señal de audio espacial de entrada tiene una representación de audio de entrada y una dirección de llegada de entrada. El procedimiento comprende la etapa de estimar la representación de onda que comprende una medida de campo de onda y una medida de dirección de llegada de onda basada en la representación de audio de entrada y la dirección de llegada de entrada. Además, el procedimiento comprende la etapa de procesamiento de la medida de campo de onda y la medida de dirección de llegada de onda para obtener el primer componente direccional y el segundo componente direccional.
[0111] En algunas modalidades, el procedimiento para determinar una señal de audio espacial convertida puede estar comprendido por una obtener una corriente de DirAC mono que va a ser convertida a formato B. Opcionalmente W puede ser obtenido de P, cuando está disponible. Si no, se puede efectuar una etapa de aproximar W como una combinación lineal de las señales de audio disponibles. Subsecuentemente, se puede llevar a cabo una etapa de calcular el factor p como factor de ponderación dependiente de la potencia-tiempo inversamente proporcional a la difusividad, por ejemplo de acuerdo con
[0112] El procedimiento puede comprender además la etapa de calcular las señales X, Y y Z a partir de eDOA.
[0113] Para casos en los cuales ' = 1, la etapa de obtener W a partir de P puede ser reemplazada al obtener W de P con X, Y y Z siendo cero, obteniendo por lo menos una señal dipolo X, Y o Z a partir de P; W es cero, respectivamente. Algunas modalidades de la presente invención pueden llevar a cabo el procesamiento de señales en el dominio de formato B, produciendo la ventaja de que el procesamiento de señal avanzada se puede llevar a cabo antes de que las señales de altavoz sean generadas.
[0114] Dependiendo de ciertos requerimientos de implementación de los procedimientos de la invención, los procedimientos de la invención pueden ser implementados en elementos físicos o elementos de programación. La implementación puede ser efectuada utilizando un medio de almacenamiento digital, y particularmente una memoria instantánea, un disco, un DVD o un CD que tiene señales de control que se pueden leer electrónicamente almacenadas en el mismo, que cooperan con un sistema de ordenador programable, de tal manera que los procedimientos de la invención son efectuados. En general, la presente invención es, por consiguiente un código de programa de ordenador con un código de programa almacenado en un portador que se puede leer por la máquina, el código de programa es operativo para efectuar los procedimientos de la invención cuando el programa de ordenador se ejecuta en una ordenador o procesador. En otras palabras, los procedimientos de la invención son por consiguiente un programa de ordenador que tiene un código de programa para efectuar por lo menos uno de los procedimientos de la invención, cuando el programa de ordenador se ejecuta en una ordenador.

Claims (13)

  1. REIVINDICACIONES
    1.
    Un aparato (100) para determinar una señal de audio espacial convertida combinada, teniendo la señal de audio espacial convertida un componente de audio omnidirecional (W) y por lo menos un componente direccional (X;Y;Z) de una señal de audio espacial de entrada, teniendo la señal de audio espacial de entrada una representación de audio de entrada (P), un parámetro de difusividad (') dependiente del tiempo y de la frecuencia y una dirección de entrada de llegada (eDOA), que comprende un estimador (110) para estimar una representación de onda que comprende una medida de campo de onda (β(k,n) P(k,n)), y una dirección de onda de medida de llegada (eDOA,x, eDOA,y, eDOA,z), en el que el estimador está adaptado paraestimar una representación de onda a partir de la representación de audio de entrada (P), el parámetro de difusividad (') y la dirección de entrada de llegada (eDOA), en el que el estimador (110) está adaptado para determinar la medida de campo de onda a partir de una fracción (β(k,n)) de la representación de audio de entrada (P(k,n)), en el que la fracción (β(k,n)) y la representación de audio de entrada son dependientes del tiempo y de la frecuencia, y donde la a fracción (β(k,n))se calcula a partir del parámetro de difusividad ('(k,n)); y
    un procesador (120) para procesar la medida de campo de onda (β(k,n) P(k,n)) y la dirección de onda de medida de llegada (eDOA,x, eDOA,y, eDOA,z) para obtener el por lo menos un componente direccional (X;Y;Z), en el que el componente de audio omnidirecional (W) es igual a la representación de audio de entrada.
  2. 2.
    El aparato (100) según la reivindicación 1, en el que el estimador (110) es apto para estimar la medida de campo de onda en términos de una amplitud de campo de onda y una fase de campo de onda.
  3. 3.
    El aparato (100) según cualquiera de las reivindicaciones 1 ó 2, en el que la señal de audio espacial de entrada comprende unos componentes direccionales primero (X), segundo (Y) y tercero (Z) y en el que el procesador (120) está adaptado para procesar además la medida de campo de onda y la medida de dirección de llegada de onda para obtener los componentes direccionales primero (X), segundo (Y) y tercero (Z).
  4. 4.
    El aparato (100) de conformidad con la reivindicación 1, en el que el procesador (120) es apto para obtener una medida compleja del primer componente direccional X(k,n) y/o el segundo componente direccional Y(k,n) y/o el tercer componente direccional Z(k,n) y/o el primero o segundo componente de audio omnidireccional W(k,n) mediante
    donde eDOA,x(k,n) es un componente de un vector unitario eDOA(k,n) de la primera o segunda dirección de llegada de entrada a lo largo del eje x de un sistema de coordenadas Cartesiano, eDOA,y(k,n) es un componente de eDOA(k,n) a lo largo del eje y y eDOA,z(k,n) es un componente de eDOA(k,n) a lo largo del eje z, y donde β(k,n) es la fracción y k designa un índice de tiempo y n designa un índice de frecuencia.
  5. 5.
    El aparato de conformidad con cualquiera de las reivindicaciones 1 ó 4, en el que el estimador (110) es apto para estimar la fracción β(k,n) basada en el parámetro de difusividad '(k,n) de acuerdo con:
    frecuencia.
  6. 6.
    El aparato de conformidad con cualquiera de las reivindicaciones 1 ó 4, en el que el estimador es apto para estimar la fracción p(k,n) basada en '(k,n) de acuerdo con:
    donde β(k,n) es la fracción, '(k,n) es el parámetro de difusión y k designa un índice de tiempo y n designa un índice de frecuencia.
  7. 7.
    Aparato (300) para determinar una señal de audio espacial convertida combinada, la señal de audio espacial convertida combinada tiene por lo menos un primer componente combinado y un segundo componente combinado, a partir de una primera y una segunda señal de audio espacial de entrada, la primera señal de audio espacial de entrada tiene una primera representación de audio de entrada y una primera dirección de llegada, y un primer parámetro de difusividad dependiente del tiempo y de la frecuencia, la segunda señal de entrada espacial tiene una segunda representación de audio de entrada y una segunda dirección de llegada y un segundo parámetro de difusividad dependiente del tiempo y de la frecuencia, que comprende:
    un primer aparato (101) según cualquiera de las reivindicaciones 1 a 6, para proporcionar una primera señal convertida, que tiene un primer componente omnidireccional del primer aparato y por lo menos un componente direccional del primer aparato (101);
    un segundo aparato (102) según cualquiera de las reivindicaciones 1 a 6, para proporcionar una segunda señal convertida, que tiene un segundo componente omnidireccional del segundo aparato y por lo menos un componente direccional del segundo aparato (102);
    un generador de efectos de audio (301) para presentar el primer componente omnidireccional del primer aparato o el componente direccional del primer aparato (101) para obtener un primer componente presentado;
    un primer combinador (311) para combinar el primer componente presentado, el primer componente omnidireccional y el segundo componente omnidireccional, o para combinar el primer componente presentado, el primer componente direccional del primer aparato (101), y el componente direccional del segundo aparato (102) para obtener el primer componente combinado; y
    un segundo combinador (312) para combinar el componente direccional del primer aparato (101) y el componente direccional del segundo aparato (102), o para combinar el primer componente omnidireccional y el segundo componente omnidireccional para obtener el segundo componente combinado.
  8. 8. Aparato (300) según la reivindicación 7, en el generador de efectos de audio (301) está adaptado para presentar una combinación del primer componente omnidireccional y el segundo componente omnidireccional, o para presentar una combinación del componente direccional del primer aparato (101) y del componente direccional del segundo aparato
    (102) para obtener un primer componente presentado.
  9. 9.
    Aparato (300) según cualquiera de las reivindicaciones 7 u 8 que comprende además una primera etapa de retardo y escalado (321) para retardar y/o escalar la primera componente omnidireccional y/o direccional del primer aparato (101), y/o una segunda etapa de retardo y escalado (322) para retardar y/o escalar la segunda componente omnidireccional y/o direccional del segundo aparato (102).
  10. 10.
    Aparato (300) según cualquiera de las reivindicaciones 7 a 9 que comprende una pluralidad de aparatos (100) según cualquiera de las reivindicaciones 1 a 10 para convertir una pluralidad de señales de audio espaciales de entrada, comprendiendo además el aparato (300) una pluralidad de generadores de efectos de audio, en el que el número de generadores de efectos de audio es menor que el número de aparatos (100) según una de las reivindicaciones 1 a 8.
  11. 11.
    El aparato (300) según cualquiera de las reivindicaciones 7 a 10, en el que el generador de efecto de audio (301) es apto para reverberar el primer componente omnidireccional o el componente direccional del primer aparato (101) para obtener el primer componente presentado.
  12. 12.
    Procedimiento para determinar una señal de audio espacial convertida, teniendo la señal de audio espacial convertida un componente de audio omnidirecional (W) y por lo menos un componente direccional (X;Y;Z) de una señal de audio espacial de entrada, teniendo la señal de audio espacial de entrada una representación de audio de entrada (P), un parámetro de difusividad (') dependiente del tiempo y de la frecuencia y una dirección de entrada de llegada (eDOA), que comprende las etapas de:
    estimar una representación de onda que comprende una medida de campo de onda (β(k,n) P(k,n)), y una dirección de onda de medida de llegada (eDOA,x, eDOA,y, eDOA,z), en el que la representación de onda se estima a partir de la representación de audio de entrada (P), el parámetro de difusividad (') y la dirección de entrada de llegada (eDOA), en el que la medida de campo de onda se determina a partir de una fracción (β(k,n)) de la representación de audio de entrada (P(k,n)), en el que la fracción (β(k,n)) y la representación de audio de entrada son dependientes del tiempo y de la frecuencia, y donde la a fracción (β(k,n))se calcula a partir del parámetro de difusividad ('(k,n)); y
    procesar la medida de campo de onda (β(k,n) P(k,n)) y la dirección de onda de medida de llegada (eDOA,x, eDOA,y, eDOA,z) para obtener el por lo menos un componente direccional (X;Y;Z), en el que el componente de audio omnidirecional (W) es igual a la representación de audio de entrada.
  13. 13. Un programa de ordenador que tiene un código de programa para efectuar el procedimiento de conformidad con la reivindicación 12, cuando el código de programa se ejecuta en un procesador de ordenador.
ES09001398T 2008-08-13 2009-02-02 Aparato para determinar una señal de audio espacial convertida Active ES2425814T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US8851308P 2008-08-13 2008-08-13
US88513P 2008-08-13
US9168208P 2008-08-25 2008-08-25
US91682P 2008-08-25

Publications (1)

Publication Number Publication Date
ES2425814T3 true ES2425814T3 (es) 2013-10-17

Family

ID=40568458

Family Applications (2)

Application Number Title Priority Date Filing Date
ES09001398T Active ES2425814T3 (es) 2008-08-13 2009-02-02 Aparato para determinar una señal de audio espacial convertida
ES09806394.4T Active ES2523793T3 (es) 2008-08-13 2009-08-12 Aparato para determinar una señal de audio espacial convertida

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES09806394.4T Active ES2523793T3 (es) 2008-08-13 2009-08-12 Aparato para determinar una señal de audio espacial convertida

Country Status (14)

Country Link
US (1) US8611550B2 (es)
EP (2) EP2154677B1 (es)
JP (1) JP5525527B2 (es)
KR (2) KR20130089277A (es)
CN (1) CN102124513B (es)
AU (1) AU2009281367B2 (es)
BR (1) BRPI0912451B1 (es)
CA (1) CA2733904C (es)
ES (2) ES2425814T3 (es)
HK (2) HK1141621A1 (es)
MX (1) MX2011001657A (es)
PL (2) PL2154677T3 (es)
RU (1) RU2499301C2 (es)
WO (1) WO2010017978A1 (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2007207861B2 (en) * 2006-01-19 2011-06-09 Blackmagic Design Pty Ltd Three-dimensional acoustic panning device
KR101795015B1 (ko) 2010-03-26 2017-11-07 돌비 인터네셔널 에이비 오디오 재생을 위한 오디오 사운드필드 표현을 디코딩하는 방법 및 장치
WO2012072787A1 (en) 2010-12-03 2012-06-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatially selective sound acquisition by acoustic triangulation
KR101442446B1 (ko) 2010-12-03 2014-09-22 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. 도달 방향 추정치로부터의 기하학적 정보 추출을 통한 사운드 수집
FR2982111B1 (fr) * 2011-10-27 2014-07-25 Cabasse Enceinte acoustique comprenant un haut-parleur coaxial a directivite controlee et variable.
EP2665208A1 (en) * 2012-05-14 2013-11-20 Thomson Licensing Method and apparatus for compressing and decompressing a Higher Order Ambisonics signal representation
KR102429953B1 (ko) 2012-07-19 2022-08-08 돌비 인터네셔널 에이비 다채널 오디오 신호들의 렌더링을 향상시키기 위한 방법 및 디바이스
AU2014244722C1 (en) 2013-03-29 2017-03-02 Samsung Electronics Co., Ltd. Audio apparatus and audio providing method thereof
TWI530941B (zh) * 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
EP3120353B1 (en) * 2014-03-21 2019-05-01 Dolby International AB Method for compressing a higher order ambisonics (hoa) signal, method for decompressing a compressed hoa signal, apparatus for compressing a hoa signal, and apparatus for decompressing a compressed hoa signal
EP2922057A1 (en) 2014-03-21 2015-09-23 Thomson Licensing Method for compressing a Higher Order Ambisonics (HOA) signal, method for decompressing a compressed HOA signal, apparatus for compressing a HOA signal, and apparatus for decompressing a compressed HOA signal
CN106463124B (zh) 2014-03-24 2021-03-30 三星电子株式会社 用于渲染声信号的方法和设备,以及计算机可读记录介质
BR112016026283B1 (pt) * 2014-05-13 2022-03-22 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Aparelho, método e sistema de panning da amplitude de atenuação da banda
CN105336332A (zh) 2014-07-17 2016-02-17 杜比实验室特许公司 分解音频信号
TWI584657B (zh) * 2014-08-20 2017-05-21 國立清華大學 一種立體聲場錄音以及重建的方法
TWI567407B (zh) * 2015-09-25 2017-01-21 國立清華大學 電子裝置及電子裝置之操作方法
GB2554446A (en) 2016-09-28 2018-04-04 Nokia Technologies Oy Spatial audio signal format generation from a microphone array using adaptive capture
CN108346432B (zh) * 2017-01-25 2022-09-09 北京三星通信技术研究有限公司 虚拟现实vr音频的处理方法及相应设备
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
CA3076703C (en) * 2017-10-04 2024-01-02 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for encoding, decoding, scene processing and other procedures related to dirac based spatial audio coding
CN108845292B (zh) * 2018-06-15 2020-11-27 北京时代拓灵科技有限公司 一种声源定位的方法及装置
DE112019003358T5 (de) * 2018-07-02 2021-03-25 Dolby International Ab Verfahren und vorrichtung zum codieren und/oder decodieren immersiver audiosignale
JP7179079B2 (ja) * 2018-10-09 2022-11-28 ローランド株式会社 効果音発生方法、及び情報処理装置
CN111145793B (zh) * 2018-11-02 2022-04-26 北京微播视界科技有限公司 音频处理方法和装置
MX2021008616A (es) * 2019-01-21 2021-10-13 Fraunhofer Ges Forschung Aparato y método para codificar una representación de audio espacial o aparato y método para decodificar una señal de audio codificada utilizando metadatos de transporte y programas de computadora relacionados.
US20200304933A1 (en) * 2019-03-19 2020-09-24 Htc Corporation Sound processing system of ambisonic format and sound processing method of ambisonic format

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2738099B1 (fr) * 1995-08-25 1997-10-24 France Telecom Procede de simulation de la qualite acoustique d'une salle et processeur audio-numerique associe
AUPO099696A0 (en) * 1996-07-12 1996-08-08 Lake Dsp Pty Limited Methods and apparatus for processing spatialised audio
PL338988A1 (en) * 1997-09-05 2000-12-04 Lexicon Matrix-type 5-2-5 encoder and decoder system
US7231054B1 (en) * 1999-09-24 2007-06-12 Creative Technology Ltd Method and apparatus for three-dimensional audio display
CA2406926A1 (en) * 2000-04-19 2001-11-01 Sonic Solutions Multi-channel surround sound mastering and reproduction techniques that preserve spatial harmonics in three dimensions
JP3810004B2 (ja) * 2002-03-15 2006-08-16 日本電信電話株式会社 ステレオ音響信号処理方法、ステレオ音響信号処理装置、ステレオ音響信号処理プログラム
FR2847376B1 (fr) * 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
FI118247B (fi) 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
CN1771533A (zh) * 2003-05-27 2006-05-10 皇家飞利浦电子股份有限公司 音频编码
JP2005345979A (ja) * 2004-06-07 2005-12-15 Nippon Hoso Kyokai <Nhk> 残響信号付加装置
DE602005003342T2 (de) * 2005-06-23 2008-09-11 Akg Acoustics Gmbh Methode zur Modellierung eines Mikrofons
JP2007124023A (ja) * 2005-10-25 2007-05-17 Sony Corp 音場再現方法、音声信号処理方法、音声信号処理装置
US20080004729A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Direct encoding into a directional audio coding format
RU2420027C2 (ru) * 2006-09-25 2011-05-27 Долби Лэборетериз Лайсенсинг Корпорейшн Улучшенное пространственное разрешение звукового поля для систем многоканального воспроизведения аудио посредством получения сигналов с угловыми членами высокого порядка
US20080232601A1 (en) 2007-03-21 2008-09-25 Ville Pulkki Method and apparatus for enhancement of audio reconstruction
US20090045275A1 (en) * 2007-08-14 2009-02-19 Beverly Ann Lambert Waste Chopper Kit

Also Published As

Publication number Publication date
CN102124513B (zh) 2014-04-09
KR20130089277A (ko) 2013-08-09
EP2311026A1 (en) 2011-04-20
RU2499301C2 (ru) 2013-11-20
BRPI0912451A2 (pt) 2019-01-02
EP2311026B1 (en) 2014-07-30
US20110222694A1 (en) 2011-09-15
WO2010017978A1 (en) 2010-02-18
CN102124513A (zh) 2011-07-13
BRPI0912451B1 (pt) 2020-11-24
ES2523793T3 (es) 2014-12-01
AU2009281367A1 (en) 2010-02-18
CA2733904C (en) 2014-09-02
EP2154677B1 (en) 2013-07-03
RU2011106584A (ru) 2012-08-27
KR20110052702A (ko) 2011-05-18
PL2154677T3 (pl) 2013-12-31
EP2154677A1 (en) 2010-02-17
PL2311026T3 (pl) 2015-01-30
CA2733904A1 (en) 2010-02-18
JP2011530915A (ja) 2011-12-22
JP5525527B2 (ja) 2014-06-18
US8611550B2 (en) 2013-12-17
HK1155846A1 (en) 2012-05-25
HK1141621A1 (en) 2010-11-12
KR101476496B1 (ko) 2014-12-26
AU2009281367B2 (en) 2013-04-11
MX2011001657A (es) 2011-06-20

Similar Documents

Publication Publication Date Title
ES2425814T3 (es) Aparato para determinar una señal de audio espacial convertida
ES2382986T3 (es) Aparato para fusionar corrientes de audio espacial
JP7119060B2 (ja) マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト
ES2643163T3 (es) Aparato y procedimiento para codificación de audio espacial basada en geometría
ES2950001T3 (es) Rastreo de cabeza para sistema de salida binaural paramétrica
BR112020007486A2 (pt) aparelho, método e programa de computador para codificação, decodificação, processamento de cena e outros procedimentos relacionados com a codificação de áudio espacial baseada em dirac
BR112016005956B1 (pt) Método e aparelho para processar um sinal de multimídia
BR112014013336B1 (pt) Aparelho e método para combinar fluxos de codificação de áudio espacial com base em geometria
BRPI0707969A2 (pt) codificador e decodificador de áudio, métodos de codificação e de decodificação de áudio, e para transmitir e receber um sinal de áudio, receptor para receber um sinal de áudio, transmissor e método para transmitir um fluxo de dados de saìda, sistema de transmissão para transmitir um sinal de áudio, produto de programa de computador, dispositivos de gravação e de execução de áudio, e, fluxo de dados de áudio para um sinal, e, meio de armazenamento
BRPI0715559B1 (pt) Codificação aprimorada e representação de parâmetros de codificação de objeto de downmix multicanal
TW201442522A (zh) 屬於第1階保真立體音響訊號且具有第0階和第1階係數的輸入訊號指向性之增進方法及裝置
BR112015011107B1 (pt) aparelho e método para gerar uma pluralidade de fluxos de áudio paramétrico e aparelho e método para gerar uma pluralidade de sinais do auto-falante
BR112020000759A2 (pt) aparelho para gerar uma descrição modificada de campo sonoro de uma descrição de campo sonoro e metadados em relação a informações espaciais da descrição de campo sonoro, método para gerar uma descrição aprimorada de campo sonoro, método para gerar uma descrição modificada de campo sonoro de uma descrição de campo sonoro e metadados em relação a informações espaciais da descrição de campo sonoro, programa de computador, descrição aprimorada de campo sonoro
JP2018529121A (ja) オーディオ・デコーダおよびデコード方法
McCormack Parametric reproduction of microphone array recordings
ES2779603T3 (es) Sistema y método de salida binaural paramétrico
Kaiser A hybrid approach for three-dimensional sound spatialization