ES2729308T3 - Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida - Google Patents

Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida Download PDF

Info

Publication number
ES2729308T3
ES2729308T3 ES17184927T ES17184927T ES2729308T3 ES 2729308 T3 ES2729308 T3 ES 2729308T3 ES 17184927 T ES17184927 T ES 17184927T ES 17184927 T ES17184927 T ES 17184927T ES 2729308 T3 ES2729308 T3 ES 2729308T3
Authority
ES
Spain
Prior art keywords
channel
speaker
channels
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17184927T
Other languages
English (en)
Inventor
Jürgen Herre
Fabian Küch
Michael Kratschmer
Achim Kuntz
Christof Faller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2729308T3 publication Critical patent/ES2729308T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/308Electronic adaptation dependent on speaker or headphone connection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Time-Division Multiplex Systems (AREA)

Abstract

Un aparato (10; 30; 50; 60) para la correspondencia de un primer canal de entrada de altavoz (12) y un segundo canal de entrada de altavoz (14) de una configuración de canales de entrada de altavoz con canales de salida de altavoz (16, 42, 44) de una configuración de canales de salida de altavoz, en el que cada canal de entrada de altavoz y cada canal de salida de altavoz tiene una dirección con respecto a una posición central del oyente (P), en el que los canales de entrada de altavoz primero y segundo (12, 14) tienen diferentes ángulos de elevación con respecto a un plano horizontal del oyente (300), en el que el aparato está caracterizado porque está configurado para: la puesta en correspondencia del primer canal de entrada de altavoz (12) con un primer canal de salida de altavoz (16) de la configuración de canales de salida de altavoz; y pese a que la desviación del ángulo azimutal entre una dirección del segundo canal de entrada de altavoz (14) y una dirección del primer canal de salida de altavoz (16) es menor que la desviación del ángulo azimutal entre una dirección del segundo canal de entrada de altavoz (14) y un segundo canal de salida de altavoz (42) y/o es menor que la desviación del ángulo azimutal entre la dirección del segundo canal de entrada de altavoz (14) y la dirección de un tercer canal de salida de altavoz (44), la puesta en correspondencia del segundo canal de entrada de altavoz (14) con los canales de salida de altavoz segundo y tercero (42, 44) mediante ajuste panorámico (52, 62) entre los canales de salida de altavoz segundo y tercero (42, 44) para generar una fuente fantasma en la posición del altavoz asociado con el primer canal de salida de altavoz.

Description

DESCRIPCIÓN
Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida
[0001] La presente solicitud se refiere a un aparato y un procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida y, en particular, a un aparato y un procedimiento adecuados para su uso en una conversión de formato entre diferentes configuraciones de canales de altavoz.
[0002] Las herramientas de codificación de audio espacial son muy conocidas en la técnica y han sido normalizadas, por ejemplo, en la norma MPEG-ambiente. La codificación de audio espacial se inicia con una pluralidad de entradas originales, por ejemplo, cinco o siete canales de entrada, que se identifican por su ubicación en una configuración de reproducción, por ejemplo, como un canal izquierdo, un canal central, un canal derecho, un canal ambiente izquierdo, un canal ambiente derecho y un canal de intensificación de efectos de baja frecuencia (LFE). Un codificador de audio espacial puede deducir uno o más canales de submezcla de los canales originales y, además, puede deducir datos paramétricos relacionados con indicios espaciales tales como diferencias de nivel entre canales en los valores de coherencia de canales, diferencias de fase entre canales, diferencias de tiempo entre canales, etc. Dichos uno o más canales de submezcla se transmiten junto con la información lateral paramétrica que indica los indicios espaciales a un decodificador de audio espacial para decodificar los canales de submezcla y los datos paramétricos asociados con el fin de obtener, en última instancia, canales de salida que son una versión aproximada de los canales de entrada originales. La ubicación de los canales en la configuración de salida puede ser fija, por ejemplo, un formato 5.1, un formato 7.1, etc.
[0003] Además, las herramientas de codificación de audio espacial son bien conocidas en la técnica y han sido normalizadas, por ejemplo, en la norma MPEG SAOC (SAOC = codificación de objetos de audio espacial). A diferencia de la codificación de audio espacial que parte de los canales originales, la codificación de objetos de audio espacial parte de objetos de audio que no están dedicados automáticamente a una determinada configuración de presentación y reproducción. Por el contrario, la ubicación de los objetos de audio en la escena de reproducción es flexible y puede ser ajustada por un usuario, por ejemplo, introduciendo cierta información de presentación en un decodificador para codificación de objetos de audio espacial. De forma adicional o alternativa, se puede transmitir información de presentación en forma de información lateral adicional o metadatos; la información de presentación puede incluir información sobre en la posición de la configuración de reproducción en que se deben colocar ciertos objetos de audio (por ejemplo, en función del tiempo). Para obtener una determinada compresión de audio, se codifica un número de objetos de audio usando un codificador SAOC que calcula, a partir de los objetos de entrada, uno o más canales de transporte mediante la submezcla de los objetos según cierta información de submezcla. Además, el codificador SAOC calcula información lateral paramétrica que representa indicios entre objetos tales como diferencias de nivel de los objetos (OLD), valores de coherencia de los objetos, etc. En lo que respecta a SAC (SAC = Codificación de audio espacial), se calculan los datos paramétricos entre objetos con respecto a teselas individuales en tiempo/frecuencia. Para una trama determinada (por ejemplo, 1.024 o 2.048 muestras) de la señal de audio se tiene en cuenta una pluralidad de bandas de frecuencia (por ejemplo, 24, 32 o 64 bandas) de manera que se suministran datos paramétricos por cada trama y cada banda de frecuencia. Por ejemplo, cuando una pieza de audio tiene 20 tramas y cuando cada trama está subdividida en 32 bandas de frecuencia, el número de teselas de tiempo/frecuencia es 640.
[0004] Un formato de reproducción deseado, es decir, una configuración de los canales de salida (configuración de altavoz de salida), puede diferir de una configuración de los canales de entrada, en el que el número de canales de salida es generalmente diferente del número de canales de entrada. Por consiguiente, puede ser necesaria la conversión de formato para la correspondencia de los canales de entrada de la configuración de los canales de entrada con los canales de salida de la configuración de los canales de salida.
[0005] El objeto subyacente de la invención es proporcionar un aparato y un procedimiento que permitan una reproducción mejorada del sonido, en particular en el caso de una conversión de formato entre diferentes configuraciones de canales de altavoz.
[0006] Este objeto se consigue mediante un aparato según la reivindicación 1, un procedimiento según la reivindicación 3 y un programa informático según la reivindicación 4.
[0007] Las realizaciones de la invención proporcionan un aparato que comprende el conjunto de características definido en las reivindicaciones 1 y 2.
[0008] Una realización de la invención proporciona un procedimiento que comprende la secuencia de etapas definida en la reivindicación 3.
[0009] Las realizaciones de la invención se basan en el hallazgo de que se puede obtener una reproducción de audio mejorada aun en el caso de un proceso de submezcla de un número de canales de entrada con un número más pequeño de canales de salida si se usa una estrategia destinada a intentar conservar la diversidad espacial de al menos dos canales de entrada que se ponen en correspondencia con al menos un canal de salida. Esto se consigue mediante el procesamiento de uno de los canales de entrada puestos en correspondencia con el mismo canal de salida mediante la aplicación de al menos uno de entre un filtro de ecualización y un filtro de decorrelación. En las realizaciones de la invención, esto se consigue generando una fuente fantasma para uno de los canales de entrada usando dos canales de salida, al menos uno de los cuales tiene una desviación angular con respecto al canal de entrada que es mayor que la desviación angular del canal de entrada con respecto a otro canal de salida.
[0010] Se aplica un filtro de ecualización al segundo canal de entrada y está configurado para incrementar la ganancia de una porción espectral del segundo canal de entrada, conocida por transmitir al oyente la impresión de que el sonido proviene de una posición correspondiente a la posición del segundo canal de entrada. Un ángulo de elevación del segundo canal de entrada puede ser mayor que un ángulo de elevación de dichos uno o más canales de salida con los cuales se pone en correspondencia el canal de entrada. Por ejemplo, un altavoz asociado al segundo canal de entrada puede estar en una posición por encima de un plano horizontal del oyente, en tanto que los altavoces asociados a dichos uno o más canales de salida pueden estar en una posición en el plano horizontal del oyente. El filtro de ecualización puede estar configurado para incrementar la ganancia de una porción espectral del segundo canal en un intervalo de frecuencia de entre 7 kHz y 10 kHz. Procesando de esta manera la segunda señal de entrada, se puede transmitir al oyente la impresión de que el sonido proviene de una posición elevada, incluso si en realidad no procede de una posición elevada.
[0011] El segundo canal de entrada se procesa mediante la aplicación de un filtro de ecualización configurado para procesar el segundo canal de entrada con el fin de compensar las diferencias de timbre causadas por las diferentes posiciones del segundo canal de entrada y dicho al menos un canal de salida con el cual se pone en correspondencia con el segundo canal de entrada. Por consiguiente, el timbre del segundo canal de entrada, que es reproducido por un altavoz en una posición errónea puede ser manipulado de manera que un usuario tenga la impresión de que el sonido proviene de otra posición más cercana a la posición original, es decir, la posición del segundo canal de entrada.
[0012] Se aplica un filtro de decorrelación al segundo canal de entrada. La aplicación de un filtro de decorrelación al segundo canal de entrada también puede transmitir la impresión al oyente de que las señales de sonido reproducidas por el primer canal de salida provienen de diferentes canales de entrada situados en diferentes posiciones en la configuración de canales de entrada. Por ejemplo, el filtro de decorrelación puede estar configurado de manera que introduzca retardos y/o fases aleatorizadas dependientes de la frecuencia en el segundo canal de entrada. El filtro de decorrelación puede ser un filtro de reverberación configurado para introducir porciones de señal con reverberación en el segundo canal de entrada, de manera que un usuario pueda tener la impresión de que las señales de sonido reproducidas a través del primer canal de salida provienen de diferentes posiciones. El filtro de decorrelación puede estar configurado para la convolución del segundo canal de entrada con una secuencia de ruido en caída exponencial con el fin de simular reflexiones difusas en la segunda señal de entrada.
[0013] Los coeficientes del filtro de ecualización y/o el filtro de decorrelación se determinan basándose en una respuesta binaural al impulso (BRIR) medida de un recinto de escucha específico o se establecen basándose en el conocimiento empírico sobre la acústica del recinto (que también puede tener en cuenta una sala de escucha específica). Por consiguiente, el procesamiento respectivo para tener en cuenta la diversidad espacial de los canales de entrada puede ser adaptado a la situación específica, como por ejemplo, la sala de escucha específica en la cual se debe reproducir la señal por medio de la configuración de los canales de salida.
[0014] A continuación se explican las realizaciones de la invención con referencia a las figuras adjuntas, en las que:
la fig. 1 muestra una visión general de un codificador de audio 3D de un sistema de audio 3D;
la fig. 2 muestra una visión general de un decodificador de audio 3D de un sistema de audio 3D;
la fig. 3 muestra un ejemplo para implementar un convertidor de formato que puede ser implementado en el decodificador de audio 3d de la fig. 2;
la fig. 4 muestra una vista superior esquemática de una configuración de altavoz;
la fig. 5 muestra una vista posterior esquemática de otra configuración de altavoz;
las figs. 6a y 6b muestran vistas esquemáticas de un aparato para la correspondencia de los canales de entrada primero y segundo con un canal de salida;
las figs. 7a y 7b muestran vistas esquemáticas de un aparato para la correspondencia de los canales de entrada primero y segundo con varios canales de salida;
la fig. 8 muestra una vista esquemática de un aparato para la correspondencia de los canales primero y segundo con un canal de salida;
la fig. 9 muestra una vista esquemática de un aparato para la correspondencia de los canales de entrada primero y segundo con diferentes canales de salida;
la fig. 10 muestra un diagrama de bloques de una unidad de procesamiento de señales para la correspondencia de canales de entrada de una configuración de canales de entrada con canales de salida de una configuración de canales de salida;
la fig. 11 muestra una unidad de procesamiento de señales; y
la fig. 12 es un diagrama que muestra las denominadas bandas de Blauert.
[0015] Antes de describir en detalle las realizaciones de la estrategia de la invención, se presenta una visión general de un sistema de códec de audio 3D en el cual se puede implementar la estrategia de la invención.
[0016] Las figs. 1 y 2 muestran los bloques algorítmicos de un sistema de audio 3D según las realizaciones. Más específicamente, la fig. 1 muestra una visión general de un codificador de audio 3D 100. El codificador de audio 100 recibe en un circuito de pre-presentación/mezcla 102, que se puede incluir opcionalmente, señales de entrada, más específicamente una pluralidad de canales de entrada que envían al codificador de audio 100 una pluralidad de señales de canales 104, una pluralidad de señales de objeto 106 y sus correspondientes metadatos de objeto 108. Las señales de objeto 106 procesadas por el pre-presentador/mezclador 102 (véanse las señales 110) pueden ser enviadas a un codificador SAOC 112 (SAOC = Codificación de objetos de audio espacial). El codificador SAOC 112 genera los canales de transporte de SAOC 114 proporcionados a las entradas de un codificador USAC 116 (USAC = Codificación Unificada de Voz y Audio). Además, la SAOC-SI de señal 118 (SAOC-SI = información lateral de SAOC) también es enviada a las entradas del codificador USAC 116. El codificador USAC 116 recibe a su vez señales de objeto 120 directamente del pre-presentador/mezclador, así como las señales de canales y señales de objeto pre­ presentadas 122. La información de metadatos de objeto 108 se aplica a un codificador de OAM 124 (OAM = metadatos de objeto) que proporciona la información comprimida de metadatos de objeto 126 al codificador USAC. El codificador USAC 116, sobre la base de las señales de entrada antes mencionadas, genera una señal de salida comprimida MP4, tal como se indica en 128.
[0017] La figs. 2 muestra una visión general de un decodificador de audio 3D 200 del sistema de audio 3D. La señal codificada 128 (MP4) generada por el codificador de audio 100 de la fig. 1 es recibida en el decodificador de audio 200, más específicamente en un decodificador de USAC 202. El decodificador USAC 202 decodifica la señal recibida 128 en las señales de canales 204, las señales de objeto pre-presentadas 206, las señales de objeto 208 y las señales de canales de transporte de SAOC 210. Asimismo, la información comprimida de metadatos de objeto 212 y la SAOC-SI de señal 214 es emitida por el decodificador USAC. Las señales de objeto 208 son enviadas a un presentador de objetos 216 que emite las señales de objeto presentadas 218. Las señales de canales de transporte de SAOC 210 son suministradas al decodificador SAOC 220 que emite las señales de objeto presentadas 222. La metainformación de objeto comprimida 212 es enviada a un decodificador OAM 224 que envía las señales de control respectivas al presentador de objetos 216 y al decodificador SAOC 220 para generar las señales de objeto presentadas 218 y las señales de objeto presentadas 222. El decodificador comprende además un mezclador 226 que recibe, tal como se muestra en la fig. 2, las señales de entrada 204, 206, 218 y 222 para emitir las señales de canales 228. Las señales de canales pueden ser enviadas directamente a un altavoz, por ejemplo, un altavoz de 32 canales, tal como se indica en 230. Alternativamente, las señales 228 pueden ser enviadas a un circuito de conversión de formato 232 que recibe, como entrada de control, una señal de distribución de la reproducción que indica la forma en que se deben convertir las señales de canales 228. En la realización descrita en la fig. 2, se supone que la conversión se debe realizar de tal manera que se pueda enviar las señales a un sistema de altavoz 5.1 tal como se indica en 234. Asimismo, las señales de canal 228 son enviadas a un presentador binaural 236 que genera dos señales de salida, por ejemplo, para un auricular, tal como se indica en 238.
[0018] El sistema de codificación/decodificación ilustrado en las figs. 1 y 2 se puede basar en el códec MPEG-D USAC para la codificación de señales de canal y de objeto (véanse las señales 104 y 106). Para aumentar la eficiencia en la codificación de una gran cantidad de objetos, se puede emplear la tecnología MPEG SAOC. Tres tipos de presentadores pueden ejecutar las tareas de presentación de objetos a canales, presentación de canales a auriculares o presentación de canales a una configuración diferente de altavoz (véase la fig. 2, números de referencia 230, 234 y 238). Cuando las señales de objeto son explícitamente transmitidas o codificadas de forma paramétrica usando SAOC, la información de metadatos de objeto 108 correspondiente es comprimida (véase la señal 126) y multiplexada en el flujo de bits de audio 3D 128.
[0019] Las figs. 1 y 2 muestran los bloques algorítmicos correspondientes a la totalidad del sistema de audio 3d que se describe a continuación con más detalle.
[0020] Se puede incluir opcionalmente el pre-presentador/mezclador 102 para convertir un canal más una escena de entrada de objeto en una escena de canal antes de la codificación. Funcionalmente, es idéntico al presentador/mezclador de objetos que se describe más adelante en detalle. La pre-presentación de objetos puede ser ventajosa para garantizar una entropía de señal determinista a la entrada del codificador que es básicamente independiente del número de señales de objeto activas simultáneamente. Con la pre-presentación de objetos, no es necesaria la transmisión de metadatos de objeto. Se presentan señales de objeto discretas a la distribución de canales que el codificador está configurado para usar. Los pesos de los objetos correspondientes a cada canal se obtienen de los metadatos de objeto (OAM) asociados.
[0021] El codificador USAC 116 es el códec de núcleo para las señales de altavoz-canales, señales de objeto discretas, señales de submezcla de objetos y señales pre-presentadas. Se basa en la tecnología MPEG-D USAC. Se encarga de la codificación de las señales enumeradas generando información de canales y objetos basada en la información geométrica y semántica de la asignación de canales de entrada y objetos. Esta información de correspondencia describe cómo se ponen en correspondencia los canales de entrada y objetos con elementos de canales de USAC, como elementos de pares de canales (CPE), elementos de canales individuales (SCE), efectos de baja frecuencia (LFE) y elementos de cuatro canales (QCE) y CPE, SCE y LFE, y la información correspondiente se transmite al decodificador. Todas las cargas útiles adicionales como los datos de SAOC 114, 118 o los metadatos de objeto 126 se tienen en cuenta en el control de tasa del codificador. La codificación de objetos es posible de maneras diferentes, dependiendo de los requisitos de tasa/distorsión y los requisitos de interactividad impuestos al presentador. Según las realizaciones, son posibles las siguientes variantes de codificación de objetos:
• Objetos pre-presentados: Las señales de objeto son pre-presentadas y mezcladas con las señales de canales 22.2 antes de la codificación. La cadena de codificación subsiguiente ve señales de canales 22.2.
• Formas de onda discretas de objetos: Los objetos son suministrados al codificador a modo de formas de onda monofónicas. El codificador usa elementos de canal individual (SCE) para transmitir los objetos además de las señales de canales. Los objetos decodificados son presentados y mezclados en el lado del receptor. Se transmite información comprimida de metadatos de objeto al receptor/presentador.
• Formas de onda paramétricas de objetos: Las propiedades de los objetos y su relación mutua se describen por medio de parámetros de SAOC. La submezcla de las señales de objeto se codifica con la USAC. La información paramétrica se transmite conjuntamente. El número de canales de submezcla se elige dependiendo del número de objetos y la tasa de datos en general. Se transmite información comprimida de metadatos de objeto al presentador de SAOC.
[0022] El codificador SAOC 112 y el decodificador SAOC 220 para señales de objeto se pueden basar en la tecnología MPEG SAOC. El sistema tiene capacidad para recrear, modificar y presentar un número de objetos de audio basados en un número más pequeño de canales transmitidos y datos paramétricos adicionales, tales como OLD, IOC (Coherencia Entre Objetos), DMG (Ganancias de Submezcla). Los datos paramétricos adicionales muestran una tasa de datos significativamente más baja que la necesaria para transmitir individualmente todos los objetos, lo que aporta gran eficiencia a la codificación. El codificador SAOC 112 toma como entrada las señales de objeto/canales como formas de onda monofónicas y emite como salida información paramétrica (que está incluida en el flujo de bits de audio 3D 128) y los canales de transporte de SAOC (que se codifican usando elementos de canal único y se transmiten). El decodificador SAOC 220 reconstruye las señales de objeto/canales procedentes de los canales de transporte de SAOC decodificados 210 y la información paramétrica 214, y genera la escena de audio de salida sobre la base del trazado de reproducción, la información de metadatos de objeto descomprimida y, opcionalmente, sobre la base de la información de interacción con el usuario.
[0023] El códec de metadatos de objeto (véanse el codificador de OAM 124 y el decodificador de OAM 224) se incluye para que, por cada objeto, los metadatos asociados que especifican la posición geométrica y el volumen de los objetos en el espacio 3D sean codificados de manera eficiente mediante la cuantificación de las propiedades de los objetos en tiempo y espacio. Los metadatos de objeto comprimidos cOAM 126 se transmiten al receptor 200 en forma de información lateral.
[0024] El presentador de objetos 216 usa los metadatos de objeto comprimidos para generar formas de onda de objetos según el formato de reproducción dado. Cada objeto es presentado a un determinado canal de salida 218 según sus metadatos. La salida de este bloque es el resultado de la suma de los resultados parciales. Si se decodifica tanto el contenido basado en los canales como los objetos discretos/paramétricos, las formas de onda basadas en los canales y las formas de onda de objetos presentados son mezcladas por el mezclador 226 antes de emitir las formas de onda obtenidas 228 o antes de suministrarlas a un módulo posprocesador como el módulo presentador binaural 236 o el módulo presentador de altavoz 232.
[0025] El módulo presentador binaural 236 produce una submezcla binaural del material de audio multicanal de tal manera que cada canal de entrada esté representado por una fuente de sonido virtual. El procesamiento se lleva a cabo trama por trama en el dominio de QMF (Banco de Filtros de Cuadratura en Espejo), y la binauralización se basa en respuestas a los impulsos binaurales del recinto medidas.
[0026] El presentador de altavoz 232 realiza la conversión entre la configuración de canales transmitida 228 y el formato de reproducción deseado. También se le puede denominar “convertidor de formato”. El convertidor de formato realiza las conversiones a números menores de canales de salida, es decir, crea submezclas.
[0027] En la fig. 3 se muestra una implementación posible de un convertidor de formato 232. El convertidor de formato 232, al que también se hace referencia como presentador de altavoz, convierte entre la configuración de canales transmisores y el formato de reproducción deseado mediante la correspondencia de los canales transmisores (entrada) de la configuración de canales de transmisión (entrada) con los canales (salida) del formato de reproducción deseado (configuración de canales de salida). El convertidor de formato 232 ejecuta en general las conversiones a un número más bajo de canales de salida, es decir, ejecuta un proceso de submezcla (DMX) 240. El dispositivo de submezcla 240, que opera preferentemente en el dominio QMF, recibe las señales de salida del mezclador 228 y emite las señales del altavoz 234. Se puede incluir un configurador 242, al que también se hace referencia como controlador, que recibe, como entrada de control, una señal 246 indicativa de la distribución de salida del mezclador (configuración de canales de entrada), es decir, la distribución de cuyos datos representados por la señal de salida del mezclador 228 se determina, y la señal 248 indicativa de la distribución de reproducción deseada (configuración de canales de salida). Basándose en esta información, el controlador 242 genera, preferentemente de manera automática, matrices de submezcla correspondientes a la combinación dada de formatos de entrada y salida y aplica estas matrices al dispositivo de submezcla 240. El convertidor de formato 232 permite las configuraciones estándar de altavoz, así como también configuraciones aleatorias con posiciones no estándar de altavoz.
[0028] Las realizaciones de la presente invención se refieren a la implementación del presentador de altavoz 232, es decir, con aparato y procedimientos para implementar parte de la funcionalidad del presentador de altavoz 232.
[0029] A continuación, se hace referencia a las figs. 4 y 5. La fig. 4 muestra una configuración de altavoces que representa un formato 5.1 que comprende seis altavoces que representan un canal izquierdo LC, un canal central CC, un canal derecho RC, un canal izquierdo de ambiente LSC, un canal derecho de ambiente LRC y un canal de intensificación de baja frecuencia LFC. La fig. 5 muestra otra configuración de altavoces que comprende altavoces que representan un canal izquierdo LC, un canal central CC, un canal derecho RC y un canal central elevado ECC.
[0030] En lo sucesivo, no se hace referencia al canal de intensificación de baja frecuencia dado que la posición exacta del altavoz (sub-bajo) asociado al canal de intensificación de baja frecuencia no es importante.
[0031] Los canales están dispuestos en direcciones específicas con respecto a una posición central del oyente P. La dirección de cada canal está definida por un ángulo azimutal a y un ángulo de elevación p, véase la fig. 5. El ángulo azimutal representa el ángulo del canal en un plano horizontal del oyente 300 y puede representar la dirección del canal respectivo con respecto a una dirección central anterior 302. Como se puede ver en la fig. 4, la dirección anterior central 302 se puede definir como la dirección supuesta de visualización de un oyente situado en la posición central del oyente P. Una dirección posterior central 304 comprende un ángulo azimutal de 180° con respecto a la dirección anterior central 300. Todos los ángulos azimutales a la izquierda de la dirección anterior central entre la dirección anterior central y la dirección posterior central están a la izquierda de la dirección anterior central y todos los ángulos azimutales a la derecha de la dirección anterior central entre la dirección anterior central y la dirección posterior central están a la derecha de la dirección anterior central. Los altavoces situados delante de una línea virtual 306, que es ortogonal a la dirección anterior central 302 y pasa por la posición central del oyente, son altavoces delanteros y los altavoces situados detrás de la línea virtual 306 son los altavoces traseros. En el formato 5.1, el ángulo azimutal a del canal LC está 30° a la izquierda, a de CC está a 0°, a de RC está 30° a la derecha, a de LSC está 110° a la izquierda y a de RSC está 110° a la derecha.
[0032] El ángulo de elevación p de un canal define el ángulo entre el plano horizontal del oyente 300 y la dirección de una línea de conexión virtual entre la posición central del oyente y el altavoz asociado al canal. En la configuración mostrada en la fig. 4, todos los altavoces están dispuestos dentro del plano horizontal del oyente 300 y, por lo tanto, todos los ángulos de elevación son iguales a cero. En la fig. 5, los ángulos de elevación p del canal ECC pueden ser de 30°. Un altavoz situado exactamente por encima de la posición central del oyente tendría un ángulo de elevación de 90°. Los altavoces dispuestos por debajo del plano horizontal del oyente 300 tienen ángulos de elevación negativos. En la fig. 5, LC tiene una dirección X1, CC tiene una dirección X2, RC tiene una dirección X3 y ECC tiene una dirección X4.
[0033] La posición de un canal específico en el espacio, es decir, la posición del altavoz asociado al canal específico, está dada por el ángulo azimutal, el ángulo de elevación y la distancia del altavoz desde la posición central del oyente. Cabe señalar que el término “posición de un altavoz” es descrito con frecuencia por los expertos en la materia para referirse al ángulo azimutal y al ángulo de elevación.
[0034] Por lo general, se realiza una conversión de formato entre diferentes configuraciones de canales de altavoz en forma de proceso de submezcla que pone en correspondencia un número de canales de entrada con un número de canales de salida, en el que el número de canales de salida es generalmente menor que el número de canales de entrada, y en la que las posiciones de los canales de salida pueden ser diferentes de las posiciones de los canales de entrada. Uno o más canales de entrada se pueden mezclar entre sí hacia el mismo canal de salida. Al mismo tiempo, uno o más canales de entrada pueden ser presentados a través de más de un canal de salida. Esta correspondencia de los canales de entrada con el canal de salida está determinada por lo general por una serie de coeficientes de submezcla, o alternativamente se formula en forma de matriz de submezcla. La elección de los coeficientes de submezcla afecta significativamente a la calidad del sonido de salida con submezcla que se puede obtener. Las elecciones inadecuadas pueden conducir a una mezcla desequilibrada o a una reproducción espacial deficiente de la escena de sonido de entrada.
[0035] Cada canal tiene asociada una señal de audio que debe ser reproducida por el altavoz asociado. La enseñanza de que se procesa un canal específico (como, por ejemplo, mediante la aplicación de un coeficiente, mediante la aplicación de un filtro de ecualización o mediante la aplicación de un filtro de decorrelación) significa que se procesa la correspondiente señal de audio asociada a este canal. En el contexto de la presente solicitud, el término “filtro de ecualización” debe comprender cualquier medio para aplicar una ecualización a la señal, de tal manera que se obtenga una ponderación dependiente de la frecuencia de porciones de la señal. Por ejemplo, un filtro de ecualización puede estar configurado para aplicar coeficientes de ganancia dependientes de la frecuencia a las bandas de frecuencia de la señal. En el contexto de la presente solicitud, el término “filtro de decorrelación” debe comprender cualquier medio para aplicar una decorrelación a la señal, como por ejemplo, introduciendo retardos dependientes de la frecuencia y/o fases aleatorizadas en la señal. Por ejemplo, un filtro de decorrelación puede estar configurado de manera que aplique coeficientes de retardo dependientes de la frecuencia a las bandas de frecuencia de la señal y/o aplique coeficientes de fase aleatorizados a la señal.
[0036] En las realizaciones de la invención, la correspondencia de un canal de entrada con uno o más canales de salida incluye la aplicación de al menos un coeficiente que se ha de aplicar al canal de entrada por cada canal de salida con el cual se pone en correspondencia el canal de entrada. Dicho al menos un coeficiente puede incluir un coeficiente de ganancia, es decir, un valor de ganancia, que se ha de aplicar a la señal de entrada asociada al canal de entrada, y/o un coeficiente de retardo, es decir, un valor de retardo que se ha de aplicar a la señal de entrada asociada al canal de entrada. En las realizaciones de la invención, la correspondencia puede incluir la aplicación de coeficientes selectivos de la frecuencia, es decir, coeficientes diferentes para diferentes bandas de frecuencia de los canales de entrada. En las realizaciones de la invención, la correspondencia de los canales de entrada con los canales de salida incluye generar una o más matrices de coeficientes con los coeficientes. Cada matriz define un coeficiente que se ha de aplicar a cada canal de entrada de la configuración de canales de entrada por cada canal de salida de la configuración de los canales de salida. En el caso de los canales de salida, con los cuales no se pone en correspondencia el canal de entrada, el coeficiente respectivo de la matriz de coeficientes ha de ser cero. En las realizaciones de la invención, se pueden generar matrices de coeficientes separadas para los coeficientes de ganancia y los coeficientes de retardo. En las realizaciones de la invención, se puede generar una matriz de coeficientes por cada banda de frecuencia en el caso en que los coeficientes sean selectivos de la frecuencia. En las realizaciones de la invención, la correspondencia puede incluir además la aplicación de coeficientes derivados a las señales de entrada asociadas a los canales de entrada.
[0037] Para obtener buenos coeficientes de submezcla, un experto (por ejemplo, un ingeniero de sonido) puede afinar los coeficientes a mano, teniendo en cuenta su conocimiento experto. Otra posibilidad consiste en deducir automáticamente los coeficientes de submezcla correspondientes a una combinación dada de configuraciones de entrada y salida tratando cada canal de entrada como fuentes de sonido virtual cuya posición en el espacio está dada por la posición en el espacio asociada al canal específico, es decir, la posición del altavoz asociado al canal de entrada específico. Cada fuente virtual puede ser reproducida por un algoritmo de ajuste panorámico genérico como el ajuste panorámico de la ley de tangentes en 2D o el ajuste panorámico vectorial basado en amplitud (VBAP) en 3D, véase V. Pulkki: “Virtual Sound Source Positioning Using Vector Base Amplitude Panning”, Journal of the Audio Engineering Society, vol. 45, pág. 456-466, 1997. Otra propuesta para la deducción matemática, es decir automática, de coeficientes de submezcla para una combinación dada de configuraciones de entrada y salida es la ofrecida por A. Ando: “Conversion of Multichannel Sound Signal Maintaining Physical Properties of Sound in Reproduced Sound Field”, IEEE Transactions on Audio, Speech, and Language Processing, vol. 19, n.° 6 , agosto de 2011.
[0038] En consecuencia, las técnicas de submezcla existentes se basan principalmente en tres estrategias para la deducción de coeficientes de submezcla. La primera estrategia es una correspondencia directa de los canales de entrada descartados con canales de salida en una posición azimutal igual o comparable. No se consideran los desplazamientos de elevación. Por ejemplo, una práctica común consiste en presentar los canales de altura directamente con los canales horizontales en una posición azimutal igual o comparable, si la capa de altura no está presente en la configuración de los canales de salida. Una segunda estrategia consiste en el uso de algoritmos de ajuste panorámico genérico, que trata los canales de entrada como fuentes virtuales de sonido y conserva la información de azimut mediante la introducción de fuentes fantasma en la posición de los canales de entrada desechados. No se consideran los desplazamientos de elevación. En los procedimientos de la técnica actual el ajuste panorámico se usa sólo si no existe ningún altavoz de salida disponible en la posición de salida deseada, por ejemplo, en el ángulo azimutal deseado. Una tercera estrategia consiste en la incorporación de conocimiento experto para la deducción de coeficientes de submezcla óptimos en el sentido empírico, artístico o psicoacústico. Se puede emplear una aplicación separada o combinada de diferentes estrategias. Las realizaciones de la invención proporcionan una solución técnica que permite mejorar u optimizar un proceso de submezcla de tal manera que se puedan obtener señales de salida con submezcla de mayor calidad que sin usar esta solución. En las realizaciones, la solución puede mejorar la calidad de la submezcla en los casos en que la diversidad espacial inherente a la configuración de los canales de entrada se perdería durante la submezcla sin aplicar la solución propuesta.
[0039] Para este fin, las realizaciones de la invención permiten conservar la diversidad espacial que es inherente a la configuración de canales de entrada y que no se conserva en la estrategia de submezcla (DMX) estricta. En las situaciones de submezcla en las que el número de canales acústicos es reducido, las realizaciones de la invención persiguen principalmente reducir la pérdida de diversidad y envoltura, que tiene lugar implícitamente cuando se pone en correspondencia un número mayor con un número menor de canales.
[0040] Los autores de la invención han reconocido que, dependiendo de la configuración específica, con frecuencia la diversidad espacial inherente y la envoltura espacial de una configuración de canales de entrada se reducen considerablemente o se pierden por completo en la configuración de los canales de salida. Más aún, si se reproducen simultáneamente eventos auditivos de varios oradores en la configuración de entrada, estos pueden ser más coherentes, condensados y focalizados en la configuración de salida. Esto puede llevar a una impresión espacial perceptualmente más exigente, que con frecuencia parece menos agradable que la configuración de canales de entrada. Las realizaciones de la invención persiguen conservar por primera vez la diversidad espacial en la configuración de los canales de salida. Las realizaciones de la invención persiguen conservar la ubicación percibida de un evento auditivo lo más cerca posible en comparación con el caso en que se usa la configuración original de altavoz de los canales de entrada.
[0041] En consecuencia, las realizaciones de la invención proporcionan una técnica específica para la correspondencia de un primer canal de entrada y un segundo canal de entrada, que están asociados a diferentes posiciones de altavoz de una configuración de canales de entrada y que por lo tanto comprenden una diversidad espacial, con al menos un canal de salida. En las realizaciones de la invención, los canales de entrada primero y segundo están en elevaciones diferentes con respecto a un plano horizontal del oyente. Por consiguiente, se pueden tener en cuenta los desplazamientos de elevación entre el primer canal de entrada y el segundo canal de entrada para mejorar la reproducción de sonido usando los altavoces de la configuración de los canales de salida.
[0042] En el contexto de la presente solicitud, la diversidad se puede describir de la siguiente manera. Los diferentes altavoces de una configuración de canales de entrada dan origen a diferentes canales acústicos desde los altavoces a los oídos, por ejemplo, los oídos del oyente en la posición P. Existe un número de trayectorias acústicas directas y un número de trayectorias acústicas indirectas, también conocidas como reflexiones o reverberación, que surgen de una excitación ambiental de escucha diversa y que añaden cambios adicionales de decorrelación y timbre a las señales percibidas desde los altavoces en diferentes posiciones. Los canales acústicos pueden ser completamente modelados por BRIR, que son característicos por cada recinto de escucha. La experiencia de escucha de una configuración de canales de entrada depende intensamente de una combinación característica de diferentes canales de entrada y diversos BRIR, que corresponden a las posiciones específicas de los altavoces. Por consiguiente, la diversidad y la envoltura surgen de diversas modificaciones de las señales, que son aplicadas de modo inherente a todas las señales de altavoz por el recinto de acústica.
[0043] A continuación se presenta una fundamentación razonada de la necesidad de estrategias de submezcla que conserven la diversidad espacial de una configuración de canales de entrada. Una configuración de canales de entrada puede usar más altavoces que una configuración de los canales de salida o puede usar al menos un altavoz que no esté presente en la configuración de altavoces de salida. Meramente con fines ilustrativos, una configuración de canales de entrada puede usar los altavoces LC, CC, RC, ECC tal como se muestra en la fig. 5, en tanto que una configuración de los canales de salida puede usar sólo los altavoces LC, CC y RC, es decir, no hace uso del altavoz ECC. Por consiguiente, la configuración de canales de entrada puede usar un número mayor de capas de reproducción que la configuración de canales de salida. Por ejemplo, la configuración de canales de entrada puede presentar tanto altavoces horizontales (LC, CC, RC) como de altura (ECC), en tanto que la configuración de salida puede incluir sólo altavoces horizontales (LC, CC, RC). De esa manera, el número de canales acústicos de altavoz a oídos se reduce con la configuración de los canales de salida en situaciones con submezcla. Específicamente, se ven afectadas sobre todo las submezclas 3D (por ejemplo, 22.2) a 2D (por ejemplo, 5.1) (DMX) debido a la falta de diferentes capas de reproducción en la configuración de los canales de salida. Los grados de libertad para obtener una experiencia auditiva similar con la configuración de los canales de salida con respecto a la diversidad y envoltura son reducidos y, por lo tanto, limitados. Las realizaciones de la invención proporcionan estrategias de submezcla que mejoran la conservación de la diversidad espacial de una configuración de canales de entrada, en la que los aparatos y procedimientos descritos no se limitan a ningún tipo específico de estrategia de submezcla y se pueden aplicar en diversos contextos y aplicaciones.
[0044] En lo sucesivo, se describen las realizaciones de la invención con referencia a la situación específica expuesta en la fig. 5. Sin embargo, los problemas y soluciones descritos pueden adaptarse fácilmente a otras situaciones con condiciones similares. Sin perder la generalidad, se suponen las siguientes configuraciones de canales de entrada y salida:
Configuración de canales de entrada: cuatro altavoces LC, CC, RC y ECC en las posiciones xi = (ai, pi), x2 = (a2, pi), x3 = (a3, pi) y x4 = (a4, p2), en la que a2 » a4 o a2 = a4.
[0045] Configuración de canales de salida: tres altavoces en la posición xi = (ai, pi), x2 = (a2, pi) y x3 = (a3, pi), es decir, el altavoz en la posición x4 se descarta en la submezcla, a representa el ángulo azimutal y p representa el ángulo de elevación.
[0046] Tal como se explica en lo anterior, una técnica de DMX simple daría prioridad a la conservación de la información de azimut direccional y sólo omitiría el desplazamiento de elevación. Por consiguiente, las señales del altavoz ECC en la posición x4 pasarían simplemente al altavoz CC en la posición x2. Sin embargo, al hacerlo se perderían algunas características. En primer lugar se pierden las diferencias de timbre debido a diferentes BRIR, que se aplican de modo inherente en las posiciones de reproducción x2 y x4. En segundo lugar se pierde la diversidad espacial de las señales de entrada, que se reproducen en diferentes posiciones x2 y x4. En tercer lugar se pierde una decorrelación inherente de las señales de entrada debido a las diferentes trayectorias de propagación acústica desde las posiciones x2 y x4 a los oídos del oyente.
[0047] Las realizaciones de la invención y los ejemplos adicionales no reivindicados persiguen la conservación o emulación de una o más de las características descritas mediante la aplicación de las estrategias explicadas en la presente memoria de forma separada o en combinación para el proceso de submezcla.
[0048] Las figs. 6a y 6b muestran vistas esquemáticas que explican un aparato 10 para implementar una estrategia en la cual se ponen en correspondencia un primer canal de entrada 12 y un segundo canal de entrada 14 con el mismo canal de salida 16, en la que el procesamiento del segundo canal de entrada se lleva a cabo mediante la aplicación de al menos uno de entre un filtro de ecualización y un filtro de decorrelación al segundo canal de entrada. Este procesamiento está indicado en la fig. 6a por el bloque 18.
[0049] Para los expertos en la materia es evidente que los aparatos explicados y descritos en la presente solicitud pueden ser implementados por medio de ordenadores o procesadores configurados y/o programados para obtener la funcionalidad descrita. Alternativamente, los aparatos pueden ser implementados en forma de otras estructuras de hardware programadas tales como matrices de puertas programables de campo y similares.
[0050] El primer canal de entrada 12 de la fig. 6a puede estar asociado al altavoz central CC en la dirección x2 y el segundo canal de entrada 14 puede estar asociado al altavoz central elevado ECC en la posición x4 (en la configuración de canales de entrada, respectivamente). El canal de salida 16 puede estar asociado al altavoz central ECC en la posición x2 (en la configuración de los canales de salida). La fig. 6b muestra que el canal 14 asociado al altavoz en la posición x4 se pone en correspondencia con el primer canal de salida 16 asociado al altavoz CC en la posición x2 y que esta correspondencia comprende el procesamiento 18 del segundo canal de entrada 14, es decir, el procesamiento de la señal de audio asociada al segundo canal de entrada 14. El procesamiento del segundo canal de entrada comprende la aplicación de al menos uno de entre un filtro de ecualización y un filtro de decorrelación al segundo canal de entrada con el fin de conservar las diferentes características entre los canales de entrada primero y segundo en la configuración de canales de entrada. El filtro de ecualización y/o el filtro de decorrelación pueden estar configurados de manera que conserven las características referentes a las diferencias de timbre debido a los diferentes BRIR, que se aplican de manera inherente en las diferentes posiciones de altavoz x2 y x4 asociadas a los canales de entrada primero y segundo. El filtro de ecualización y/o el filtro de decorrelación están configurados de manera que conserven la diversidad espacial de las señales de entrada, que se reproducen en posiciones diferentes de tal manera que la diversidad espacial de los canales de entrada primero y segundo se mantenga perceptible pese al hecho de que los canales de entrada primero y segundo se ponen en correspondencia con el mismo canal de salida.
[0051] Un filtro de decorrelación está configurado para conservar una decorrelación inherente de las señales de entrada debido a las diferentes trayectorias de propagación acústica desde los altavoces en diferentes posiciones asociados a los canales de entrada primero y segundo hasta los oídos del oyente.
[0052] Se aplica un filtro de ecualización al segundo canal de entrada, es decir, la señal de audio asociada al segundo canal de entrada en la posición x4, si se somete a submezcla hacia el altavoz CC en la posición x2. El filtro de ecualización compensa los cambios de timbre de los diferentes canales acústicos y se puede deducir basándose en el conocimiento experto y/o en datos de BRIR medidos o similares. Por ejemplo, se supone que la configuración de canales de entrada incluye un canal de tipo Voz de Dios (VoG) en una elevación de 90°. Si la configuración de los canales de salida sólo incluye altavoz en una capa y el canal VoG es desechado como, por ejemplo, con una configuración de salida 5.1, una técnica sencilla y directa consiste en distribuir el canal VoG a todos los altavoces de salida para conservar la información direccional del canal VoG al menos en el punto dulce.
[0053] Sin embargo, el altavoz VoG original se percibe de manera bastante diferente debido a una BRIR diferente. Mediante la aplicación de un filtro de ecualización especializado al canal VoG antes de la distribución a todos los altavoces de salida, se puede compensar la diferencia de timbre.
[0054] El filtro de ecualización puede estar configurado para ejecutar una ponderación dependiente de la frecuencia del canal de entrada correspondiente para tener en cuenta hallazgos psicoacústicos sobre la percepción direccional de las señales de audio. Un ejemplo de dichos hallazgos son las denominadas bandas de Blauert, que representan bandas determinantes de la dirección. La fig. 12 muestra tres gráficos 20, 22 y 24 que representan la probabilidad de que se reconozca una dirección específica de las señales de audio. Como se puede apreciar en el gráfico 20, las señales de audio de la parte superior pueden ser reconocidas con alta probabilidad en una banda de frecuencia 1200 entre 7 kHz y 10 kHz. Tal como se puede apreciar en el gráfico 22, las señales de audio procedentes de la parte posterior pueden ser reconocidas con alta probabilidad en una banda de frecuencia 1202 de entre aproximadamente 0,7 kHz y aproximadamente 2 kHz y en una banda de frecuencia 1204 de entre aproximadamente 10 kHz y aproximadamente 12,5 kHz. Como se puede apreciar en el gráfico 24, las señales de audio procedentes de la parte delantera pueden ser reconocidas con alta probabilidad en una banda de frecuencia 1206 de entre aproximadamente 0,3 kHz y 0,6 kHz y en una banda de frecuencia 1208 de entre aproximadamente 2,5 y aproximadamente 5,5 kHz.
[0055] El filtro de ecualización se configura aprovechando este reconocimiento. Dicho de otro modo, el filtro de ecualización puede estar configurado de manera que aplique coeficientes de ganancia más elevados (incremento de ganancia) a bandas de frecuencia conocidas por transmitir a un usuario la impresión de que el sonido llega de diferentes direcciones, en comparación con las otras bandas de frecuencia. En términos más específicos, si se pone en correspondencia un canal de entrada con un canal de salida más bajo, se puede incrementar la ganancia de una porción espectral del canal de entrada en la banda de frecuencia 1200 en el intervalo de entre 7 kHz y 10 kHz en comparación con otras porciones espectrales del segundo canal de entrada de tal manera que el oyente pueda tener la impresión de que la señal correspondiente proviene de una posición elevada. Del mismo modo, el filtro de ecualización puede estar configurado de manera que incremente la ganancia de otras porciones espectrales del segundo canal de entrada tal como se muestra en la fig. 12. Por ejemplo, en el caso en que se pone en correspondencia un canal de entrada con un canal de salida dispuesto en una posición más anterior las ganancias de las bandas 1206 y 1208 pueden ser incrementadas y en el caso de un canal de entrada que se pone en correspondencia con un canal de salida dispuesto en la posición más posterior las ganancias de las bandas 1202 y 1204 pueden ser incrementadas.
[0056] El aparato está configurado para aplicar un filtro de decorrelación al segundo canal de entrada. Por ejemplo, se puede aplicar un filtro de decorrelación/reverberación a la señal de entrada asociada al segundo canal de entrada (asociado al altavoz en la posición x4), si es sometida a submezcla hacia un altavoz en la posición x2. Dicho filtro de decorrelación/reverberación puede ser deducido de mediciones de BRIR o del conocimiento empírico sobre la acústica del recinto o similar. Si se pone en correspondencia el canal de entrada con varios canales de salida, la señal de filtro puede ser reproducida en los varios altavoces, de manera que a cada altavoz se le aplican filtros diferentes. El o los filtros pueden modelizar sólo reflexiones tempranas.
[0057] La fig. 8 muestra una vista esquemática de un aparato 30 que comprende un filtro 32, que puede representar un filtro de ecualización o un filtro de decorrelación. El aparato 30 recibe una serie de canales de entrada 34 y emite un número de canales de salida 36. Los canales de entrada 34 representan una configuración de canales de entrada y los canales de salida 36 representan una configuración de canales de salida. Tal como se muestra en la fig. 8, un tercer canal de entrada 38 se pone en correspondencia directamente con un segundo canal de salida 42 y un cuarto canal de entrada 40 se pone en correspondencia directamente con un tercer canal de salida 44. El tercer canal de entrada 38 puede ser un canal izquierdo asociado al altavoz izquierdo LC. El cuarto canal de entrada 40 puede ser un canal de entrada derecho asociado al altavoz derecho RC. El segundo canal de salida 42 puede ser un canal izquierdo asociado al altavoz izquierdo LC y el tercer canal de salida 44 puede ser un canal derecho asociado al altavoz derecho RC. El primer canal de entrada 12 puede ser el canal horizontal central asociado al altavoz central CC y el segundo canal de entrada 14 puede ser el canal central de altura asociado al altavoz central elevado ECC. El filtro 32 se aplica al segundo canal de entrada 14, es decir el canal central de altura. El filtro 32 puede ser un filtro de decorrelación o reverberación. Después del filtrado, se encamina el segundo canal de entrada hacia el altavoz horizontal central, es decir, el primer canal de salida 16 asociado al altavoz CC en la posición x2. De esta manera, los dos canales de entrada 12 y 14 se ponen en correspondencia con el primer canal de salida 16, tal como se indica en el bloque 46 de la fig. 8. El primer canal de entrada 12 y la versión procesada del segundo canal de entrada 14 pueden añadirse en el bloque 46 y pueden ser enviados al altavoz asociado al canal de salida 16, es decir, el altavoz horizontal central CC en el ejemplo descrito.
[0058] El filtro 32 puede ser un filtro de decorrelación o un filtro de reverberación con el fin de modelizar el efecto ambiental adicional percibido cuando están presentes canales acústicos separados. La decorrelación puede ofrecer el beneficio adicional de que se pueden reducir las alteraciones de cancelación de DMX mediante esta notificación. El filtro 32 puede ser un filtro de ecualización y puede estar configurado de manera que ejecute una ecualización del timbre. Alternativamente se puede aplicar un filtro de decorrelación y un filtro de reverberación con el fin de aplicar la ecualización de timbre antes de someter a submezcla la señal del altavoz elevado. El filtro 32 puede estar configurado para combinar las dos funcionalidades, es decir, la ecualización de timbre y la decorrelación.
[0059] El filtro de decorrelación puede ser implementado en forma de filtro de reverberación que introduce reverberaciones en el segundo canal de entrada. El filtro de decorrelación puede estar configurado para la convolución del segundo canal de entrada con una secuencia de ruido en caída exponencial. En las realizaciones de la invención se puede usar cualquier filtro de decorrelación que decorrelacione el segundo canal de entrada con el fin de conservar la impresión de un oyente de que la señal del primer canal de entrada y el segundo canal de entrada proviene de altavoces en diferentes posiciones. La fig. 7a muestra una vista esquemática de un aparato 50 según otra realización. El aparato 50 está configurado para recibir el primer canal de entrada 12 y el segundo canal de entrada 14. El aparato 50 está configurado para la correspondencia del primer canal de entrada 12 directamente con el primer canal de salida 16. El aparato 50 está configurado asimismo para generar una fuente fantasma mediante el ajuste panorámico entre el segundo y el tercer canal de salida, que pueden ser el segundo canal de salida 42 y el tercer canal de salida 44.
Esto está indicado en la fig. 7a por el bloque 52. De esa manera se genera una fuente fantasma que tiene un ángulo azimutal correspondiente al ángulo azimutal del segundo canal de entrada.
[0060] Cuando se considera el escenario de la fig. 5, el primer canal de entrada 12 puede estar asociado con el altavoz horizontal central CC, el segundo canal de entrada 14 puede estar asociado con el altavoz central elevado ECC, el primer canal de salida 16 puede estar asociado con el altavoz central CC, el segundo canal de salida 42 puede estar asociado con el altavoz izquierdo LC y el tercer canal de salida 44 puede estar asociado con el altavoz derecho RC. Por consiguiente, en la realización mostrada en la fig. 7a, se coloca una fuente fantasma en la posición x2 mediante el ajuste panorámico de los altavoces en las posiciones X1 y x3 en lugar de aplicar directamente la correspondiente señal al altavoz en la posición x2. Por consiguiente, se realiza el ajuste panorámico entre altavoces en las posiciones X1 y x3 aunque exista otro altavoz en la posición x2, que está más próxima a la posición x4 que las posiciones x1 y x3. Dicho de otro modo, el ajuste panorámico entre altavoces en las posiciones x1 y x3 se lleva a cabo aunque las desviaciones del ángulo azimutal Da entre los respectivos canales 42, 44 y el canal 14 sean mayores que la desviación del ángulo azimutal entre los canales 14 y 16, que es de 0°; véase la fig. 7b. Al actuar así se conserva la diversidad espacial introducida por los altavoces en las posiciones x2 y x4 mediante el uso de un altavoz separado en la posición x2 correspondiente a la señal asignada originariamente al canal de entrada correspondiente y una fuente fantasma en la misma posición. La señal de la fuente fantasma corresponde a la señal del altavoz en la posición x4 de la configuración de canales de entrada original.
[0061] La fig. 7b muestra esquemáticamente la correspondencia del canal de entrada asociado al altavoz en la posición x4 mediante el ajuste panorámico 52 entre los altavoces en las posiciones x1 y x3.
[0062] En las realizaciones descritas con respecto a las figs. 7a y 7b, se supone que una configuración de canales de entrada presenta una capa de altura y una horizontal que incluye un altavoz central de altura y un altavoz horizontal central. Más aún, se supone que la configuración de los canales de salida sólo presenta una capa horizontal que incluye un altavoz horizontal central y altavoces horizontales izquierdo y derecho, que pueden generar una fuente fantasma en la posición del altavoz horizontal central. Tal como se explica, en una técnica simple común, el canal de entrada central de altura se reproduciría con el altavoz de salida horizontal central. Por el contrario, según la realización de la invención descrita, se realiza un ajuste panorámico intencionado en el canal de entrada central de altura entre los altavoces horizontales izquierdo y derecho de salida. De esa manera se conserva la diversidad espacial del altavoz central de altura y el altavoz horizontal central de la configuración de canales de entrada mediante el uso del altavoz horizontal central y una fuente fantasma alimentada por el canal de entrada central de altura.
[0063] En las realizaciones de la invención, además del ajuste panorámico, se puede aplicar un filtro de ecualización para compensar los posibles cambios de timbre debido a diferentes BRIR.
[0064] En la fig. 9 se muestra una realización de un aparato 60 que implementa la técnica de ajuste panorámico. En la fig. 9, los canales de entrada y los canales de salida corresponden a los canales de entrada y el canal de salida mostrados en la fig. 8 y se omite una descripción repetida de los mismos. El aparato 60 está configurado para generar una fuente fantasma mediante el ajuste panorámico entre los canales de salida segundo y tercero 42 y 44, tal como se muestra en la fig. 9 por los bloques 62.
[0065] En las realizaciones de la invención, el ajuste panorámico se puede efectuar usando algoritmos de ajuste panorámico comunes, tales como los algoritmos de ajuste panorámico genérico como el ajuste panorámico por ley de tangentes en 2D o el ajuste panorámico vectorial basado en la amplitud en 3D; véase V. Pulkki: “Virtual Sound Source Positioning Using Vector Base Amplitude Panning”, Journal of the Audio Engineering Society, vol. 45, pág. 456-466, 1997, y no es necesario describirlo en más detalle en la presente memoria. Las ganancias de ajuste panorámico de la ley de ajuste panorámico aplicada determinan las ganancias que se aplican a la correspondencia de los canales de entrada con los canales de salida. Las señales respectivas obtenidas se suman a los canales de salida segundo y tercero 42 y 44, véanse los bloques sumadores 64 de la fig. 9. Por consiguiente, se pone en correspondencia el segundo canal de entrada 14 con los canales de salida segundo y tercero 42 y 44 realizando un ajuste panorámico con el fin de generar una fuente fantasma en la posición X2, el primer canal de entrada 12 se pone en correspondencia directamente con el primer canal de salida 16, y también se ponen en correspondencia directamente los canales de entrada tercero y cuarto 38 y 40 con los canales de salida segundo y tercero 42 y 44.
[0066] En realizaciones alternativas, el bloque 62 puede ser modificado para dar lugar también a la funcionalidad de un filtro de ecualización además de la funcionalidad de ajuste panorámico. Por consiguiente, mediante la estrategia de ajuste panorámico se pueden compensar los posibles cambios de timbre debido a diferentes BRIR además de conservar la diversidad espacial.
[0067] La fig. 10 muestra un sistema para generar una matriz de DMX, en la que se puede incorporar la presente invención. El sistema comprende series de reglas que describen correspondencias potenciales de los canales de entrada y salida, bloque 400, y un selector 402 que selecciona las reglas más apropiadas para una determinada combinación de una configuración de canales de entrada 404 y una combinación de configuraciones de los canales de salida 406 basándose en las series de reglas 400. El sistema puede comprender una interfaz apropiada para recibir información sobre la configuración de los canales de entrada 404 y la configuración de los canales de salida 406. La configuración de los canales de entrada define los canales presentes en una disposición de entrada, en la que cada canal de entrada tiene una dirección o posición asociada al mismo. La configuración de los canales de salida define los canales presentes en la configuración de salida, en la que cada canal de salida tiene una dirección o posición asociada. El selector 402 suministra las reglas seleccionadas 408 a un evaluador 410. El evaluador 410 recibe las reglas seleccionadas 408 y evalúa las reglas seleccionadas 408 para deducir coeficientes de DMX 412 sobre la base de las reglas seleccionadas 408. Se puede generar una matriz de DMX 414 a partir de los coeficientes de submezcla derivados. El evaluador 410 puede estar configurado para deducir la matriz de submezcla de los coeficientes de submezcla. El evaluador 410 puede recibir información sobre la configuración de los canales de entrada y la configuración de los canales de salida, como por ejemplo, información sobre la geometría de la configuración de salida (por ejemplo, las posiciones de los canales) e información sobre la geometría de la configuración de entrada (por ejemplo, las posiciones de los canales) y tener en cuenta la información al deducir los coeficientes de DMX. Tal como se muestra en la fig. 11, el sistema puede ser implementado en una unidad de procesamiento de señales 420 que comprende un procesador 422 programado o configurado para actuar como selector 402 y evaluador 410 y una memoria 424 configurada para almacenar al menos parte de las series 400 de reglas de correspondencia. Otra parte de las reglas de correspondencia puede ser verificada por el procesador sin acceder a las reglas almacenadas en la memoria 422. En cualquier caso, las reglas son enviadas al procesador para ejecutar los procedimientos descritos. La unidad de procesamiento de señales puede incluir una interfaz de entrada 426 para recibir las señales de entrada 228 asociadas a los canales de entrada y una interfaz de salida 428 para emitir las señales de salida 234 asociadas a los canales de salida.
[0068] Algunas de las reglas 400 pueden ser diseñadas de manera tal que la unidad de procesamiento de señales 420 implemente una realización de la invención. En la Tabla 1 se enumeran ejemplos de reglas para la correspondencia de un canal de entrada con uno o más canales de salida.
Tabla 1: Re las de corres ondencia
Figure imgf000012_0001
(continuación)
Figure imgf000013_0001
[0069] Los rótulos usados en la Tabla 1 correspondientes a los respectivos canales deben ser interpretados de la siguiente manera. Las letras “CH” significan “Canal”. La letra “M” representa “plano horizontal del oyente”, es decir, un ángulo de elevación de 0°. Este es el plano en el cual están situados los altavoces en la configuración normal 2D tales como estéreo o 5.1. La letra “L” representa un plano inferior, es decir, un ángulo de elevación < 0°. La letra “U” representa un plano superior, es decir, un ángulo de elevación > 0°, como por ejemplo, 30° como altavoz superior en una configuración 3D. La letra “T” representa el canal superior, es decir, un ángulo de elevación de 90°, que también se conoce como canal “la voz de Dios”. Situado después de uno de los rótulos M/L/U/T es un rótulo correspondiente a izquierdo (L) o derecho (R) seguido por el ángulo azimutal. Por ejemplo, CH_M_L030 y CH_M_R030 representan el canal izquierdo y derecho de una configuración estéreo convencional. El ángulo azimutal y el ángulo de elevación correspondientes a cada canal están indicados en la Tabla 1, excepto por los canales LFE y el último canal vacío.
[0070] La Tabla 1 muestra una matriz de reglas en la cual una o más reglas están asociadas a cada canal de entrada (canal de origen). Como se puede ver en la Tabla 1, cada regla define uno o más canales de salida (canales de destino), con los cuales se ha de poner en correspondencia el canal de entrada. Además, cada regla define el valor de ganancia G en su tercera columna. Cada regla define asimismo un índice EQ que indica si se debe aplicar un filtro de ecualización o no, y en caso afirmativo, el filtro de ecualización específico (índice EQ 1 a 4) que se debe aplicar. La correspondencia del canal de entrada con un canal de salida se realiza con la ganancia G dada en la columna 3 de la Tabla 1. La correspondencia del canal de entrada con dos canales de salida (indicado en la segunda columna) se realiza aplicando ajuste panorámico entre los dos canales de salida, en los que las ganancias de ajuste panorámico gi y g2 que surgen como resultado de la aplicación de la ley de ajuste panorámico se multiplican además por la regla respectiva (columna tres de la Tabla 1). Se aplican reglas especiales para el canal superior. Según con una primera regla, se pone en correspondencia el canal superior con todos los canales de salida del plano superior, lo que está indicado por ALL_U, y según una segunda regla (con menos prioridad), el canal superior se pone en correspondencia con todos los canales de salida del plano horizontal del oyente, indicado por ALL_M.
[0071] Al considerar las reglas indicadas en la Tabla 1, las reglas que definen la correspondencia del canal CH_U_000 con los canales izquierdo y derecho representan una implementación de una realización de la invención. Además, las reglas que definen la ecualización que se ha de aplicar representan implementaciones de las realizaciones de la invención.
[0072] Como se puede apreciar en la Tabla 1, se aplica uno de los filtros ecualizadores 1 a 4 si se pone en correspondencia un canal de entrada elevado con uno o más canales inferiores. Los valores de ganancia del ecualizador Geq se pueden determinar de la siguiente manera sobre la base de las frecuencias centrales normalizadas dadas en la Tabla 2 y basándose en los parámetros consignados en la Tabla 3.
Tabla 2: Frecuencias centrales normalizadas de las bandas de 77 bancos de filtros
Figure imgf000014_0001
(continuación)
Figure imgf000015_0003
Tabla 3: Parámetros del ecualizador
Figure imgf000015_0002
Geq consiste en valores de ganancia por banda de frecuencia k y el índice de ecualizador e. Cinco ecualizadores predefinidos son combinaciones de diferentes filtros de pico (o filtros de banda). Como se puede ver en la Tabla 3, los ecualizadores Geq,1, Geq,2 y Geq,5 incluyen un solo filtro de pico, el ecualizador Geq,3 incluye tres filtros de pico y el ecualizador Geq,4 incluye dos filtros de pico. Cada ecualizador es una cascada en serie de uno o más filtros de pico y una ganancia:
Figure imgf000015_0001
en la que banda(k) es la frecuencia central normalizada de la banda de frecuencia j, especificada en la Tabla 4, fs es la frecuencia de muestreo y la función pico () corresponde a G negativo
Figure imgf000016_0001
Ecuación 1
y por otra parte
Figure imgf000016_0002
Ecuación 2
[0073] Los parámetros correspondientes a los ecualizadores están especificados en la Tabla 3 En las Ecuaciones anteriores 1 y 2, b viene dado por banda(k) fs/2, Q viene dado por Pq para el filtro de pico respectivo (1 a n), G viene dado por Pg para el filtro de pico respectivo y f viene dado por Pf para el filtro de pico respectivo.
[0074] A modo de ejemplo, los valores de ganancia del ecualizador Geq,4 correspondientes al ecualizador que tiene el índice 4 se calculan con los parámetros de filtro tomados de la fila pertinente de la Tabla 3. La Tabla 3 enumera dos series de parámetros correspondientes a los filtros de pico para Geq,4, es decir, series de parámetros correspondientes a n=1 y n=2. Los parámetros son la frecuencia de los picos Pf en Hz, el factor de calidad del filtro de pico Pq, la ganancia Pg (en dB) que se aplica a la frecuencia de los picos y una ganancia general g en dB que se aplica a la cascada de los dos filtros de pico (cascada de filtros para los parámetros n=1 y n=2).
[0075] Por consiguiente
■■-1
Figure imgf000016_0003
[0076] La definición del ecualizador antes citada define ganancias Geq,4 de fase cero de modo independiente por cada banda de frecuencia k. Cada banda k está especificada por su banda de frecuencia(k) central normalizada en la que 0<=banda<=1. Obsérvese que la banda de frecuencia normalizada=1 corresponde a la frecuencia no normalizada fs/2, en la que fs denota la frecuencia de muestreo. Por lo tanto, band(k) • fs/2 denota la frecuencia central no normalizada de la banda k en Hz.
[0077] Por consiguiente, se pueden usar filtros ecualizadores diferentes en las realizaciones de la invención que se han descrito. Sin embargo, es obvio que la descripción de estos filtros de ecualización sólo tiene fines ilustrativos y que se pueden usar otros filtros de ecualización o filtros de decorrelación en otras realizaciones.
[0078] La Tabla 4 muestra canales ilustrativos con su ángulo azimutal y su ángulo de elevación respectivos asociados.
Tabla 4: Canales con los corres ondientes án ulos azimutal de elevación
Figure imgf000016_0004
(continuación)
Figure imgf000017_0002
[0079] En las realizaciones de la invención, el ajuste panorámico entre dos canales de destino se puede realizar mediante la aplicación de ajuste panorámico basado en la amplitud por la ley de tangentes. En el ajuste panorámico de un canal de origen con canales de destino primero y segundo se calcula un coeficiente de ganancia G1 correspondiente al primer canal de destino y se calcula un coeficiente de ganancia G2 correspondiente al segundo canal de destino:
G1 = (columna de valores de ganancia de la Tabla 4) * g1
y
G2 = (columna de valores de ganancia de la Tabla 4) * g2.
[0080] Las ganancias g1 y g2 se calculan aplicando el ajuste panorámico basado en amplitud por la ley de tangentes de la siguiente manera:
se repliegan los ángulos azimutales del canal de destino para que sean positivos
1 los ángulos azimutales de los canales de destino son a1 y a2 (véase la Tabla 4).
1 el ángulo azimutal del canal de origen (objetivo de ajuste panorámico) es a Src.
tan tan a + 10 10
Figure imgf000017_0001
donde 9 = tan Oo+tan a+10- I °
[0081] En otras realizaciones, se pueden aplicar diferentes leyes de ajuste panorámico.
[0082] En principio, las realizaciones de la invención pretenden modelizar un mayor número de canales acústicos en la configuración de canales de entrada por medio de correspondencias de canal cambiadas y modificaciones de las señales en la configuración de los canales de salida. En comparación con las técnicas simples que con frecuencia se consideran más exigentes, menos diversas y menos envolventes que la configuración de canales de entrada, mediante el empleo de las realizaciones de la invención se puede mejorar la diversidad espacial y la experiencia auditiva en general y hacerlas más agradables.
[0083] Dicho de otro modo, en las realizaciones de la invención se mezclan dos o más canales de entrada entre sí en una aplicación de submezcla, en la cual se aplica un módulo de procesamiento a una de las señales de entrada para conservar las diferentes características de las diferentes trayectorias de transmisión desde el canal original de entrada a los oídos del oyente. El módulo de procesamiento puede incluir filtros que modifican las características de la señal, por ejemplo, filtros de ecualización o filtros de decorrelación. En particular, los filtros ecualizadores pueden compensar la pérdida de diferentes timbres de los canales de entrada con diferentes elevaciones asignadas a los mismos. En las realizaciones de la invención, el módulo de procesamiento puede encaminar al menos una de las señales de entrada hacia varios altavoces de salida para generar una trayectoria de transmisión diferente hacia el oyente, conservando de esa manera la diversidad espacial de los canales de entrada. En las realizaciones de la invención, se pueden aplicar modificaciones de filtro y encaminamiento por separado o en combinación. En las realizaciones de la invención, el módulo de procesamiento puede ser reproducido a través de uno o varios altavoces.
[0084] Si bien se han descrito algunos aspectos en el contexto de un aparato, es obvio que estos aspectos también representan una descripción del procedimiento correspondiente, en el cual un bloque o dispositivo corresponde a una etapa del procedimiento o a una característica de una etapa del procedimiento. De manera análoga, los aspectos descritos en el contexto de una etapa del procedimiento también representan una descripción de un bloque o elemento correspondiente o de una característica de un aparato correspondiente. Algunas o todas las etapas del procedimiento pueden ser ejecutadas por medio de (o usando) un aparato de hardware, como por ejemplo, un microprocesador, un ordenador programable o un circuito electrónico. En algunas realizaciones, una cualquiera o más de las etapas más importantes del procedimiento pueden ser ejecutadas por dicho aparato. En las realizaciones de la invención, los procedimientos descritos en la presente memoria son implementados por un procesador o implementados por un ordenador.
[0085] Dependiendo de ciertos requisitos de implementación, las realizaciones de la invención pueden ser implementadas en hardware o en software. La implementación se puede realizar empleando un medio de almacenamiento no transitorio tal como un medio de almacenamiento digital, por ejemplo, un disco blando, un DVD, un Blue-Ray, un CD, una ROM, una PROM, una EPROM, una EEPROM o una memoria FLASH, que tiene almacenadas en la misma, señales de control legibles electrónicamente, que cooperan (o tienen capacidad para cooperar) con un sistema informático programable de tal manera que se ejecute el procedimiento respectivo. Por lo tanto, el medio de almacenamiento digital puede ser legible por un ordenador.
[0086] En general, las realizaciones de la presente invención pueden ser implementadas en forma de producto de programa informático con un código de programa, en el que el código de programa cumple la función de ejecutar uno de los procedimientos al ejecutarse el producto de programa informático en un ordenador. El código de programa puede ser almacenado, por ejemplo, en un soporte legible por una máquina.
[0087] Otras realizaciones comprenden el programa informático para ejecutar uno de los procedimientos descritos en la presente memoria, almacenado en un soporte legible por una máquina.
[0088] Dicho de otro modo, una realización del procedimiento de la invención consiste, por lo tanto, en un programa informático que tiene un código de programa para realizar uno de los procedimientos descritos en la presente memoria al ejecutarse el programa informático en un ordenador.
[0089] Una realización adicional comprende un medio de procesamiento, por ejemplo, un ordenador, un dispositivo lógico programable, programado, configurado o adaptado para ejecutar uno de los procedimientos descritos en la presente memoria.
[0090] Una realización adicional comprende un ordenador en el que se ha instalado el programa informático para ejecutar uno de los procedimientos descritos en la presente memoria.
[0091] En algunas realizaciones, se puede usar un dispositivo lógico programable (por ejemplo, una matriz de puertas programables de campo) para ejecutar algunas o todas las funcionalidades de los procedimientos descritos en la presente memoria. En algunas realizaciones, una matriz de puertas programables de campo puede cooperar con un microprocesador con el fin de ejecutar uno de los procedimientos descritos en la presente memoria. Por lo general, los procedimientos son ejecutados preferentemente por cualquier aparato de hardware.
[0092] Las realizaciones descritas anteriormente son meramente ilustrativas de los principios de la presente invención. Se entiende que para los expertos en la materia serán evidentes las modificaciones y variaciones de las disposiciones y detalles descritos en la presente memoria. Por lo tanto, se pretende estar limitado sólo por el alcance de las siguientes reivindicaciones de patente y no por los detalles específicos presentados a modo de descripción y explicación de las realizaciones mostradas en la presente memoria.

Claims (4)

REIVINDICACIONES
1. Un aparato (10; 30; 50; 60) para la correspondencia de un primer canal de entrada de altavoz (12) y un segundo canal de entrada de altavoz (14) de una configuración de canales de entrada de altavoz con canales de salida de altavoz (16, 42, 44) de una configuración de canales de salida de altavoz, en el que cada canal de entrada de altavoz y cada canal de salida de altavoz tiene una dirección con respecto a una posición central del oyente (P), en el que los canales de entrada de altavoz primero y segundo (12, 14) tienen diferentes ángulos de elevación con respecto a un plano horizontal del oyente (300), en el que el aparato está caracterizado porque está configurado para:
la puesta en correspondencia del primer canal de entrada de altavoz (12) con un primer canal de salida de altavoz (16) de la configuración de canales de salida de altavoz; y
pese a que la desviación del ángulo azimutal entre una dirección del segundo canal de entrada de altavoz (14) y una dirección del primer canal de salida de altavoz (16) es menor que la desviación del ángulo azimutal entre una dirección del segundo canal de entrada de altavoz (14) y un segundo canal de salida de altavoz (42) y/o es menor que la desviación del ángulo azimutal entre la dirección del segundo canal de entrada de altavoz (14) y la dirección de un tercer canal de salida de altavoz (44), la puesta en correspondencia del segundo canal de entrada de altavoz (14) con los canales de salida de altavoz segundo y tercero (42, 44) mediante ajuste panorámico (52, 62) entre los canales de salida de altavoz segundo y tercero (42, 44) para generar una fuente fantasma en la posición del altavoz asociado con el primer canal de salida de altavoz.
2. El aparato según la reivindicación 1, configurado para procesar el segundo canal de entrada de altavoz (14) mediante la aplicación de al menos uno de entre un filtro de ecualización y un filtro de decorrelación al segundo canal de entrada de altavoz (14).
3. Un procedimiento para la correspondencia de un primer canal de entrada de altavoz (12) y un segundo canal de entrada de altavoz (14) de una configuración de canales de entrada de altavoz a canales de salida de altavoz de una configuración de canales de salida de altavoz, en el que cada canal de entrada de altavoz y cada canal de salida de altavoz tienen una dirección con respecto a una posición central del oyente (P), en el que los canales de entrada de altavoz primero y segundo (12, 14) tienen diferentes ángulos de elevación con respecto a un plano horizontal del oyente (300), que comprende:
la puesta en correspondencia del primer canal de entrada de altavoz (12) con un primer canal de salida de altavoz (16) de la configuración de canales de salida de altavoz; y
pese a que la desviación del ángulo azimutal entre una dirección del segundo canal de entrada de altavoz (14) y una dirección del primer canal de salida de altavoz (16) es menor que la desviación del ángulo azimutal entre una dirección del segundo canal de entrada de altavoz (14) y un segundo canal de salida de altavoz (42) y/o es menor que la desviación del ángulo azimutal entre la dirección del segundo canal de entrada de altavoz (14) y la dirección de un tercer canal de salida de altavoz (44), la puesta en correspondencia del segundo canal de entrada de altavoz (14) con los canales de salida de altavoz segundo y tercero (42, 44) mediante ajuste panorámico (52, 62) entre los canales de salida de altavoz segundo y tercero (42, 44) para generar una fuente fantasma en la posición del altavoz asociado con el primer canal de salida de altavoz.
4. Programa informático para realizar, durante su ejecución en un ordenador o un procesador, el procedimiento según la reivindicación 3.
ES17184927T 2013-07-22 2014-07-15 Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida Active ES2729308T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP13177360 2013-07-22
EP13189243.2A EP2830335A3 (en) 2013-07-22 2013-10-18 Apparatus, method, and computer program for mapping first and second input channels to at least one output channel

Publications (1)

Publication Number Publication Date
ES2729308T3 true ES2729308T3 (es) 2019-10-31

Family

ID=48874133

Family Applications (5)

Application Number Title Priority Date Filing Date
ES14738862.3T Active ES2645674T3 (es) 2013-07-22 2014-07-15 Procedimiento y unidad de procesamiento de señales para mapear una pluralidad de canales de entrada de una configuración de canales de entrada con canales de salida de una configuración de canales de salida
ES16187406.0T Active ES2688387T3 (es) 2013-07-22 2014-07-15 Procedimiento y unidad de procesamiento de señales para mapear una pluralidad de canales de entrada de una configuración de canales de entrada con canales de salida de una configuración de canales de salida
ES19162579T Active ES2925205T3 (es) 2013-07-22 2014-07-15 Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida
ES17184927T Active ES2729308T3 (es) 2013-07-22 2014-07-15 Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida
ES14738861.5T Active ES2649725T3 (es) 2013-07-22 2014-07-15 Aparato, procedimiento y programa informático para mapear primer y segundo canales de entrada con al menos un canal de salida

Family Applications Before (3)

Application Number Title Priority Date Filing Date
ES14738862.3T Active ES2645674T3 (es) 2013-07-22 2014-07-15 Procedimiento y unidad de procesamiento de señales para mapear una pluralidad de canales de entrada de una configuración de canales de entrada con canales de salida de una configuración de canales de salida
ES16187406.0T Active ES2688387T3 (es) 2013-07-22 2014-07-15 Procedimiento y unidad de procesamiento de señales para mapear una pluralidad de canales de entrada de una configuración de canales de entrada con canales de salida de una configuración de canales de salida
ES19162579T Active ES2925205T3 (es) 2013-07-22 2014-07-15 Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES14738861.5T Active ES2649725T3 (es) 2013-07-22 2014-07-15 Aparato, procedimiento y programa informático para mapear primer y segundo canales de entrada con al menos un canal de salida

Country Status (20)

Country Link
US (6) US9936327B2 (es)
EP (8) EP2830335A3 (es)
JP (2) JP6130599B2 (es)
KR (3) KR101803214B1 (es)
CN (4) CN105556992B (es)
AR (4) AR096996A1 (es)
AU (3) AU2014295309B2 (es)
BR (2) BR112016000999B1 (es)
CA (3) CA2968646C (es)
ES (5) ES2645674T3 (es)
HK (1) HK1248439B (es)
MX (2) MX355588B (es)
MY (1) MY183635A (es)
PL (5) PL3025518T3 (es)
PT (5) PT3258710T (es)
RU (3) RU2635903C2 (es)
SG (3) SG11201600402PA (es)
TW (2) TWI532391B (es)
WO (2) WO2015010961A2 (es)
ZA (1) ZA201601013B (es)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
KR102268836B1 (ko) * 2013-10-09 2021-06-25 소니그룹주식회사 부호화 장치 및 방법, 복호 장치 및 방법, 그리고 프로그램
CN106303897A (zh) 2015-06-01 2017-01-04 杜比实验室特许公司 处理基于对象的音频信号
CN114005454A (zh) 2015-06-17 2022-02-01 三星电子株式会社 实现低复杂度格式转换的内部声道处理方法和装置
US11128978B2 (en) * 2015-11-20 2021-09-21 Dolby Laboratories Licensing Corporation Rendering of immersive audio content
EP3179744B1 (en) * 2015-12-08 2018-01-31 Axis AB Method, device and system for controlling a sound image in an audio zone
KR102358283B1 (ko) * 2016-05-06 2022-02-04 디티에스, 인코포레이티드 몰입형 오디오 재생 시스템
GB201609089D0 (en) * 2016-05-24 2016-07-06 Smyth Stephen M F Improving the sound quality of virtualisation
CN106604199B (zh) * 2016-12-23 2018-09-18 湖南国科微电子股份有限公司 一种数字音频信号的矩阵处理方法及装置
EP3583772B1 (en) * 2017-02-02 2021-10-06 Bose Corporation Conference room audio setup
US10979844B2 (en) 2017-03-08 2021-04-13 Dts, Inc. Distributed audio virtualization systems
GB2561844A (en) * 2017-04-24 2018-10-31 Nokia Technologies Oy Spatial audio processing
MX2019013056A (es) * 2017-05-03 2020-02-07 Fraunhofer Ges Forschung Procesador de audio, sistema, metodo y programa de computadora para reproducir audio.
CN109151704B (zh) * 2017-06-15 2020-05-19 宏达国际电子股份有限公司 音讯处理方法、音频定位系统以及非暂态电脑可读取媒体
US10257623B2 (en) * 2017-07-04 2019-04-09 Oticon A/S Hearing assistance system, system signal processing unit and method for generating an enhanced electric audio signal
JP6988904B2 (ja) * 2017-09-28 2022-01-05 株式会社ソシオネクスト 音響信号処理装置および音響信号処理方法
KR102511818B1 (ko) * 2017-10-18 2023-03-17 디티에스, 인코포레이티드 3d 오디오 가상화를 위한 오디오 신호 사전 설정
US11540075B2 (en) * 2018-04-10 2022-12-27 Gaudio Lab, Inc. Method and device for processing audio signal, using metadata
CN109905338B (zh) * 2019-01-25 2021-10-19 晶晨半导体(上海)股份有限公司 一种串行数据接收器的多级均衡器增益的控制方法
US11568889B2 (en) 2019-07-22 2023-01-31 Rkmag Corporation Magnetic processing unit
JP2021048500A (ja) * 2019-09-19 2021-03-25 ソニー株式会社 信号処理装置、信号処理方法および信号処理システム
KR102283964B1 (ko) * 2019-12-17 2021-07-30 주식회사 라온에이엔씨 인터콤시스템 통신명료도 향상을 위한 다채널다객체 음원 처리 장치
GB2594265A (en) * 2020-04-20 2021-10-27 Nokia Technologies Oy Apparatus, methods and computer programs for enabling rendering of spatial audio signals
TWI742689B (zh) * 2020-05-22 2021-10-11 宏正自動科技股份有限公司 影音處理裝置、影音播放系統及其影音處理方法
CN112135226B (zh) * 2020-08-11 2022-06-10 广东声音科技有限公司 Y轴音频再生方法以及y轴音频再生系统
RU207301U1 (ru) * 2021-04-14 2021-10-21 Федеральное государственное бюджетное образовательное учреждение высшего образования "Санкт-Петербургский государственный институт кино и телевидения" (СПбГИКиТ) Усилительно-преобразовательное устройство
US20220386062A1 (en) * 2021-05-28 2022-12-01 Algoriddim Gmbh Stereophonic audio rearrangement based on decomposed tracks
WO2022258876A1 (en) * 2021-06-10 2022-12-15 Nokia Technologies Oy Parametric spatial audio rendering
CN114866948A (zh) * 2022-04-26 2022-08-05 北京奇艺世纪科技有限公司 一种音频处理方法、装置、电子设备和可读存储介质
KR102671956B1 (ko) * 2022-12-06 2024-06-05 주식회사 라온에이엔씨 인터콤용 실감음향 오디오출력장치

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4308423A (en) 1980-03-12 1981-12-29 Cohen Joel M Stereo image separation and perimeter enhancement
US4748669A (en) * 1986-03-27 1988-05-31 Hughes Aircraft Company Stereo enhancement system
JPS6460200A (en) * 1987-08-31 1989-03-07 Yamaha Corp Stereoscopic signal processing circuit
GB9103207D0 (en) * 1991-02-15 1991-04-03 Gerzon Michael A Stereophonic sound reproduction system
JPH04281700A (ja) * 1991-03-08 1992-10-07 Yamaha Corp 多チャンネル再生装置
JP3146687B2 (ja) 1992-10-20 2001-03-19 株式会社神戸製鋼所 高耐食性表面改質TiまたはTi基合金部材
JPH089499B2 (ja) 1992-11-24 1996-01-31 東京窯業株式会社 焼成マグネシア・ドロマイトれんが
JP2944424B2 (ja) * 1994-06-16 1999-09-06 三洋電機株式会社 音響再生回路
US6128597A (en) * 1996-05-03 2000-10-03 Lsi Logic Corporation Audio decoder with a reconfigurable downmixing/windowing pipeline and method therefor
US6421446B1 (en) 1996-09-25 2002-07-16 Qsound Labs, Inc. Apparatus for creating 3D audio imaging over headphones using binaural synthesis including elevation
JP4304401B2 (ja) 2000-06-07 2009-07-29 ソニー株式会社 マルチチャンネルオーディオ再生装置
US20040062401A1 (en) * 2002-02-07 2004-04-01 Davis Mark Franklin Audio channel translation
US7660424B2 (en) * 2001-02-07 2010-02-09 Dolby Laboratories Licensing Corporation Audio channel spatial translation
TW533746B (en) * 2001-02-23 2003-05-21 Formosa Ind Computing Inc Surrounding sound effect system with automatic detection and multiple channels
ES2271654T3 (es) * 2002-08-07 2007-04-16 Dolby Laboratories Licensing Corporation Conversion espacial de canales de audio.
WO2004047489A1 (en) * 2002-11-20 2004-06-03 Koninklijke Philips Electronics N.V. Audio based data representation apparatus and method
JP3785154B2 (ja) * 2003-04-17 2006-06-14 パイオニア株式会社 情報記録装置、情報再生装置及び情報記録媒体
US7394903B2 (en) 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
KR101079066B1 (ko) 2004-03-01 2011-11-02 돌비 레버러토리즈 라이쎈싱 코오포레이션 멀티채널 오디오 코딩
US8046217B2 (en) 2004-08-27 2011-10-25 Panasonic Corporation Geometric calculation of absolute phases for parametric stereo decoding
CN101010726A (zh) 2004-08-27 2007-08-01 松下电器产业株式会社 音频解码器、方法以及程序
JP4369957B2 (ja) * 2005-02-01 2009-11-25 パナソニック株式会社 再生装置
US7991272B2 (en) * 2005-07-11 2011-08-02 Lg Electronics Inc. Apparatus and method of processing an audio signal
KR100619082B1 (ko) 2005-07-20 2006-09-05 삼성전자주식회사 와이드 모노 사운드 재생 방법 및 시스템
US20080221907A1 (en) * 2005-09-14 2008-09-11 Lg Electronics, Inc. Method and Apparatus for Decoding an Audio Signal
US20070080485A1 (en) 2005-10-07 2007-04-12 Kerscher Christopher S Film and methods of making film
TWI469133B (zh) 2006-01-19 2015-01-11 Lg Electronics Inc 媒體訊號處理方法及裝置
TWI342718B (en) 2006-03-24 2011-05-21 Coding Tech Ab Decoder and method for deriving headphone down mix signal, receiver, binaural decoder, audio player, receiving method, audio playing method, and computer program
US8712061B2 (en) * 2006-05-17 2014-04-29 Creative Technology Ltd Phase-amplitude 3-D stereo encoder and decoder
US8027479B2 (en) 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
FR2903562A1 (fr) * 2006-07-07 2008-01-11 France Telecom Spatialisation binaurale de donnees sonores encodees en compression.
AU2007312597B2 (en) * 2006-10-16 2011-04-14 Dolby International Ab Apparatus and method for multi -channel parameter transformation
US8050434B1 (en) * 2006-12-21 2011-11-01 Srs Labs, Inc. Multi-channel audio enhancement system
RU2406165C2 (ru) 2007-02-14 2010-12-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства для кодирования и декодирования объектно-базированных аудиосигналов
AU2008215232B2 (en) * 2007-02-14 2010-02-25 Lg Electronics Inc. Methods and apparatuses for encoding and decoding object-based audio signals
US8290167B2 (en) * 2007-03-21 2012-10-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for conversion between multi-channel audio formats
TWM346237U (en) * 2008-07-03 2008-12-01 Cotron Corp Digital decoder box with multiple audio source detection function
US8483395B2 (en) 2007-05-04 2013-07-09 Electronics And Telecommunications Research Institute Sound field reproduction apparatus and method for reproducing reflections
US20080298610A1 (en) * 2007-05-30 2008-12-04 Nokia Corporation Parameter Space Re-Panning for Spatial Audio
JP2009077379A (ja) * 2007-08-30 2009-04-09 Victor Co Of Japan Ltd 立体音響再生装置、立体音響再生方法及びコンピュータプログラム
CN101889307B (zh) * 2007-10-04 2013-01-23 创新科技有限公司 相位-幅度3d立体声编码器和解码器
JP2009100144A (ja) * 2007-10-16 2009-05-07 Panasonic Corp 音場制御装置、音場制御方法およびプログラム
EP2258120B1 (en) * 2008-03-07 2019-08-07 Sennheiser Electronic GmbH & Co. KG Methods and devices for reproducing surround audio signals via headphones
US8306233B2 (en) * 2008-06-17 2012-11-06 Nokia Corporation Transmission of audio signals
US8315396B2 (en) * 2008-07-17 2012-11-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating audio output signals using object based metadata
CA2820199C (en) * 2008-07-31 2017-02-28 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Signal generation for binaural signals
EP2398257B1 (en) * 2008-12-18 2017-05-10 Dolby Laboratories Licensing Corporation Audio channel spatial translation
EP2214161A1 (en) 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for upmixing a downmix audio signal
JP4788790B2 (ja) * 2009-02-27 2011-10-05 ソニー株式会社 コンテンツ再生装置、コンテンツ再生方法、プログラム、及びコンテンツ再生システム
AU2013206557B2 (en) 2009-03-17 2015-11-12 Dolby International Ab Advanced stereo coding based on a combination of adaptively selectable left/right or mid/side stereo coding and of parametric stereo coding
WO2010115850A1 (en) 2009-04-08 2010-10-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for upmixing a downmix audio signal using a phase value smoothing
US8699849B2 (en) * 2009-04-14 2014-04-15 Strubwerks Llc Systems, methods, and apparatus for recording multi-dimensional audio
KR20100121299A (ko) 2009-05-08 2010-11-17 주식회사 비에스이 다기능 마이크로 스피커
US8848952B2 (en) * 2009-05-11 2014-09-30 Panasonic Corporation Audio reproduction apparatus
SG177277A1 (en) 2009-06-24 2012-02-28 Fraunhofer Ges Forschung Audio signal decoder, method for decoding an audio signal and computer program using cascaded audio object processing stages
TWI413110B (zh) * 2009-10-06 2013-10-21 Dolby Int Ab 以選擇性通道解碼的有效多通道信號處理
EP2326108B1 (en) 2009-11-02 2015-06-03 Harman Becker Automotive Systems GmbH Audio system phase equalizion
WO2011072729A1 (en) 2009-12-16 2011-06-23 Nokia Corporation Multi-channel audio processing
KR101673232B1 (ko) 2010-03-11 2016-11-07 삼성전자주식회사 수직 방향 가상 채널을 생성하는 장치 및 그 방법
WO2011152044A1 (ja) * 2010-05-31 2011-12-08 パナソニック株式会社 音響再生装置
KR102033071B1 (ko) * 2010-08-17 2019-10-16 한국전자통신연구원 멀티 채널 오디오 호환 시스템 및 방법
CN103210668B (zh) * 2010-09-06 2016-05-04 杜比国际公司 用于多通道音频再生的向上混合方法及系统
US8903525B2 (en) * 2010-09-28 2014-12-02 Sony Corporation Sound processing device, sound data selecting method and sound data selecting program
KR101756838B1 (ko) 2010-10-13 2017-07-11 삼성전자주식회사 다채널 오디오 신호를 다운 믹스하는 방법 및 장치
KR20120038891A (ko) 2010-10-14 2012-04-24 삼성전자주식회사 오디오 시스템 및 그를 이용한 오디오 신호들의 다운 믹싱 방법
US20120093323A1 (en) * 2010-10-14 2012-04-19 Samsung Electronics Co., Ltd. Audio system and method of down mixing audio signals using the same
EP2450880A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
US9154896B2 (en) 2010-12-22 2015-10-06 Genaudio, Inc. Audio spatialization and environment simulation
EP2673956B1 (en) * 2011-02-10 2019-04-24 Dolby Laboratories Licensing Corporation System and method for wind detection and suppression
WO2012122035A2 (en) 2011-03-04 2012-09-13 Third Millennium Metals, Llc Aluminum-carbon compositions
WO2012140525A1 (en) * 2011-04-12 2012-10-18 International Business Machines Corporation Translating user interface sounds into 3d audio space
US9031268B2 (en) * 2011-05-09 2015-05-12 Dts, Inc. Room characterization and correction for multi-channel audio
TW202339510A (zh) * 2011-07-01 2023-10-01 美商杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
TWM416815U (en) * 2011-07-13 2011-11-21 Elitegroup Computer Sys Co Ltd Output/input module for switching audio source and audiovisual playback device thereof
EP2560161A1 (en) * 2011-08-17 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optimal mixing matrices and usage of decorrelators in spatial audio processing
TWI479905B (zh) * 2012-01-12 2015-04-01 Univ Nat Central Multi-channel down mixing device
EP2645749B1 (en) 2012-03-30 2020-02-19 Samsung Electronics Co., Ltd. Audio apparatus and method of converting audio signal thereof
KR101915258B1 (ko) * 2012-04-13 2018-11-05 한국전자통신연구원 오디오 메타데이터 제공 장치 및 방법, 오디오 데이터 제공 장치 및 방법, 오디오 데이터 재생 장치 및 방법
US9479886B2 (en) * 2012-07-20 2016-10-25 Qualcomm Incorporated Scalable downmix design with feedback for object-based surround codec
KR101676634B1 (ko) * 2012-08-31 2016-11-16 돌비 레버러토리즈 라이쎈싱 코오포레이션 오브젝트―기반 오디오를 위한 반사된 사운드 렌더링
PL2896221T3 (pl) * 2012-09-12 2017-04-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Urządzenie do i sposób zapewniania rozszerzonych możliwości kierowanego downmixu dla 3D audio
KR101407192B1 (ko) * 2012-09-28 2014-06-16 주식회사 팬택 사운드 출력을 제어하는 휴대 단말 및 사운드 출력 제어 방법
US8638959B1 (en) 2012-10-08 2014-01-28 Loring C. Hall Reduced acoustic signature loudspeaker (RSL)

Also Published As

Publication number Publication date
KR101803214B1 (ko) 2017-11-29
CA2918843C (en) 2019-12-03
EP3518563B1 (en) 2022-05-11
KR101858479B1 (ko) 2018-05-16
PL3133840T3 (pl) 2019-01-31
CN107040861A (zh) 2017-08-11
SG11201600475VA (en) 2016-02-26
ZA201601013B (en) 2017-09-27
EP3025518B1 (en) 2017-09-13
EP2830332A3 (en) 2015-03-11
KR101810342B1 (ko) 2018-01-18
EP3133840B1 (en) 2018-07-04
US20180192225A1 (en) 2018-07-05
AU2014295310B2 (en) 2017-07-13
EP3025519A2 (en) 2016-06-01
JP6227138B2 (ja) 2017-11-08
TW201519663A (zh) 2015-05-16
CA2918811C (en) 2018-06-26
AU2014295309A1 (en) 2016-02-11
KR20160061977A (ko) 2016-06-01
RU2672386C1 (ru) 2018-11-14
US11877141B2 (en) 2024-01-16
JP2016527806A (ja) 2016-09-08
CA2918811A1 (en) 2015-01-29
EP3025518A2 (en) 2016-06-01
AU2017204282A1 (en) 2017-07-13
PT3258710T (pt) 2019-06-25
PL3025519T3 (pl) 2018-02-28
SG11201600402PA (en) 2016-02-26
CN105556991B (zh) 2017-07-11
AR109897A2 (es) 2019-02-06
US11272309B2 (en) 2022-03-08
MY183635A (en) 2021-03-04
US10798512B2 (en) 2020-10-06
EP3258710B1 (en) 2019-03-20
WO2015010962A3 (en) 2015-03-26
EP4061020A1 (en) 2022-09-21
BR112016000999A2 (es) 2017-07-25
US20160142853A1 (en) 2016-05-19
ES2649725T3 (es) 2018-01-15
ES2688387T3 (es) 2018-11-02
KR20170141266A (ko) 2017-12-22
RU2016105648A (ru) 2017-08-29
US9936327B2 (en) 2018-04-03
US20210037334A1 (en) 2021-02-04
US20190075419A1 (en) 2019-03-07
WO2015010962A2 (en) 2015-01-29
CN105556991A (zh) 2016-05-04
RU2635903C2 (ru) 2017-11-16
BR112016000999B1 (pt) 2022-03-15
TWI562652B (en) 2016-12-11
RU2016105608A (ru) 2017-08-28
EP2830332A2 (en) 2015-01-28
JP6130599B2 (ja) 2017-05-17
TW201513686A (zh) 2015-04-01
US20160134989A1 (en) 2016-05-12
US20200396557A1 (en) 2020-12-17
JP2016527805A (ja) 2016-09-08
ES2925205T3 (es) 2022-10-14
EP3025519B1 (en) 2017-08-23
RU2640647C2 (ru) 2018-01-10
CN106804023A (zh) 2017-06-06
SG10201605327YA (en) 2016-08-30
PT3025519T (pt) 2017-11-21
PL3518563T3 (pl) 2022-09-19
WO2015010961A2 (en) 2015-01-29
AU2014295310A1 (en) 2016-02-11
CA2918843A1 (en) 2015-01-29
CA2968646A1 (en) 2015-01-29
EP3133840A1 (en) 2017-02-22
PL3025518T3 (pl) 2018-03-30
KR20160034962A (ko) 2016-03-30
EP3518563A2 (en) 2019-07-31
MX355273B (es) 2018-04-13
AR097004A1 (es) 2016-02-10
CA2968646C (en) 2019-08-20
AU2014295309B2 (en) 2016-10-27
ES2645674T3 (es) 2017-12-07
US10154362B2 (en) 2018-12-11
BR112016000990B1 (pt) 2022-04-05
AR116606A2 (es) 2021-05-26
TWI532391B (zh) 2016-05-01
WO2015010961A3 (en) 2015-03-26
AU2017204282B2 (en) 2018-04-26
US10701507B2 (en) 2020-06-30
MX2016000911A (es) 2016-05-05
EP2830335A3 (en) 2015-02-25
PT3133840T (pt) 2018-10-18
MX2016000905A (es) 2016-04-28
EP2830335A2 (en) 2015-01-28
CN107040861B (zh) 2019-02-05
AR096996A1 (es) 2016-02-10
PL3258710T3 (pl) 2019-09-30
PT3025518T (pt) 2017-12-18
HK1248439B (zh) 2020-04-09
CN105556992A (zh) 2016-05-04
CN105556992B (zh) 2018-07-20
BR112016000990A2 (es) 2017-07-25
MX355588B (es) 2018-04-24
EP3258710A1 (en) 2017-12-20
EP3518563A3 (en) 2019-08-14
CN106804023B (zh) 2019-02-05
PT3518563T (pt) 2022-08-16

Similar Documents

Publication Publication Date Title
ES2729308T3 (es) Aparato y procedimiento para la correspondencia de un primer y un segundo canal de entrada con al menos un canal de salida
JP6950014B2 (ja) 2dセットアップを使用したオーディオ再生のためのアンビソニックス・オーディオ音場表現を復号する方法および装置
KR102294767B1 (ko) 고채널 카운트 멀티채널 오디오에 대한 멀티플렛 기반 매트릭스 믹싱
JP6047240B2 (ja) 空間オーディオ信号の異なる再生スピーカ設定に対するセグメント毎の調整
ES2524428T3 (es) Decodificador de señales de audio, procedimiento para decodificar una señal de audio y programa de computación que utiliza etapas en cascada de procesamiento de objetos de audio
ES2610223T3 (es) Aparato y método para proveer funciones mejoradas de mezcla descendente guiada para audio 3D
JP6663490B2 (ja) スピーカシステム、音声信号レンダリング装置およびプログラム
Tarzan et al. Assessment of sound spatialisation algorithms for sonic rendering with headsets