ES2446245T3 - Método y aparato para procesar una señal de medios - Google Patents
Método y aparato para procesar una señal de medios Download PDFInfo
- Publication number
- ES2446245T3 ES2446245T3 ES07701036.1T ES07701036T ES2446245T3 ES 2446245 T3 ES2446245 T3 ES 2446245T3 ES 07701036 T ES07701036 T ES 07701036T ES 2446245 T3 ES2446245 T3 ES 2446245T3
- Authority
- ES
- Spain
- Prior art keywords
- information
- rendering
- signal
- channel
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/02—Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/007—Two-channel systems in which the audio signals are in digital form
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Abstract
Método de procesamiento de una señal de audio, que comprende las etapas siguientes: recibir una señal de submezcla e información espacial, incluyendo la información espacial por lo menos unosparámetros "CLD" de diferencia de nivel de canal, y siendo la señal de submezcla generada realizando lasubmezcla de una señal de audio multicanal; generar información de mapeado de fuentes utilizando información espacial; generar información de subrenderización aplicando información de filtro de función de transferencia relacionadacon la cabeza "HRTF" para obtener un efecto de sonido envolvente en la información de mapeado de fuentes;generar información de renderización integrando la información de subrenderización; y generar una señal de sonido envolvente que presenta el efecto del sonido envolvente aplicando la información derenderización a la señal de submezcla, en el que la señal de submezcla incluye un canal de entrada izquierdo y un canal de entrada derecho, y la señal de sonidoenvolvente generada incluye un canal de salida izquierdo y un canal de salida derecho, y la información de renderización comprende una primera información de renderización y una segunda informaciónde renderización, estando la primera información de renderización destinada a generar el canal de salidaizquierdo mediante su aplicación al canal de entrada izquierdo o a generar el canal de salida derecho mediantesu aplicación al canal de entrada derecho, y estando la segunda información de renderización destinada agenerar el canal de salida derecho mediante su aplicación al canal de entrada izquierdo o a generar el canal desalida izquierdo mediante su aplicación al canal de entrada derecho.
Description
Método y aparato para procesar una señal de medios.
5 Campo técnico
La presente invención se refiere a un aparato para procesar una señal de medios y un método del mismo, y más particularmente a un aparato para generar una señal de sonido envolvente mediante información espacial de la señal de medios y un método del mismo.
Antecedentes de la técnica
En general, diversos tipos de aparatos y métodos han gozado de un uso muy extendido en la generación de una señal de medios multicanal mediante la información espacial para la señal de medios multicanal y una señal de
15 submezcla (en inglés, “dwonmix signal”), en la que la señal de submezcla se genera realizando la submezcla de la señal de medios multicanal para su conversión como señal mono o estéreo.
Sin embargo, los métodos y aparatos anteriores no pueden utilizarse en entornos inadecuados para generar una señal multicanal. Por ejemplo, no pueden utilizarse para un dispositivo capaz de generar solo una señal estéreo. En
20 otras palabras, no existe ningún método o aparato para generar una señal de sonido envolvente, en los que la señal de sonido envolvente presente características multicanal en un entorno incapaz de generar una señal multicanal mediante la información espacial de la señal multicanal.
El documento "New use cases for spatial audio coding", de Pasi Ojala, ITU STUDY GROUP 16 - VIDEO CODING
25 EXPERTS GROUP -ISO/JEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q6), se refiere a una descripción genérica de un decodificador SAC. Una señal de entrada que consiste en uno o dos canales de audio sometidos a submezcla se transforma primero al dominio QMF, tras lo cual se aplican los parámetros espaciales para reconstruir audio multicanal que se transforma después al dominio del tiempo mediante síntesis QMF.
30 El documento WO 2004/028204 A2 se refiere a un método y un sistema de medios para generar por lo menos una señal de salida a partir de por lo menos una señal de entrada de un segundo conjunto de señales de sonido que presentan un segundo conjunto relacionado de funciones "Head Related Transfer Functions".
35 En consecuencia, dado que no existe ningún método o aparato para generar una señal de sonido envolvente en un dispositivo capaz de generar solo una señal mono o estéreo, es difícil procesar con eficacia la señal de medios.
Exposición de la invención
40 Problema técnico
En consecuencia, la presente invención se dirige a un aparato para procesar una señal de audio y un método según las reivindicaciones 1 y 6, que evitan sustancialmente uno o más de los problemas debidos a las limitaciones y desventajas de la técnica relacionada.
45 Uno de los objetivos de la presente invención es ofrecer un aparato para procesar una señal de medios y un método del mismo, por medio de los cuales la señal de medios puede convertirse en una señal de sonido envolvente mediante la información espacial para la señal de medios.
50 En la descripción siguiente, se exponen características y ventajas adicionales de la presente invención, que en parte resultarán evidentes a partir de la presente descripción o se podrán deducir mediante la puesta en práctica de la presente invención. Los objetivos y otras ventajas de la presente invención se llevarán a cabo y alcanzarán mediante la estructura especialmente señalada en la descripción y las reivindicaciones, así como los dibujos adjuntos, del presente documento.
55 Solución técnica
Para obtener estas y otras ventajas y conforme al propósito de la presente invención, un método de procesamiento de una señal según la presente invención comprende las etapas siguientes: generación de información de mapeado
60 de fuente correspondiente a cada fuente de las diversas fuentes mediante información espacial que indica características entre las diversas fuentes; generación de información de subrenderización aplicando información de filtro que produce un efecto de sonido envolvente a la información de mapeado de fuente de cada fuente; generación de información de renderización para generar una señal de sonido envolvente integrando por lo menos una de las informaciones de subrenderización y generación de la señal de sonido envolvente aplicando la información de
65 renderización a una señal de submezcla generada realizando la submezcla de las diversas fuentes.
Para obtener además estas y otras ventajas y conforme al propósito de la presente invención, un aparato para procesar una señal comprende una unidad de mapeado de fuentes que genera información de mapeado de fuente correspondiente a cada fuente de las diversas fuentes mediante información espacial que indica características entre las diversas fuentes; una unidad de generación de información de subrenderización que genera información de
5 subrenderización aplicando información de filtro que presenta un efecto de sonido envolvente a la información de mapeado de fuente de cada fuente; una unidad de integración que genera información de renderización para generar una señal de sonido envolvente integrando la por lo menos una de las informaciones de subrenderización; y una unidad de renderización que genera la señal de sonido envolvente aplicando la información de renderización a una señal de submezcla generada realizando la submezcla de las diversas fuentes.
10 Debe tenerse en cuenta que tanto la descripción general anterior como la descripción detallada siguiente son ejemplificativas e ilustrativas y pretenden ofrecer más detalles de la invención reivindicada.
Efectos ventajosos
15 Un aparato y método de procesamiento de señales según la presente invención permiten que un decodificador, que recibe un tren de bits que comprende una señal de submezcla generada realizando la submezcla de una señal multicanal e información espacial de la señal multicanal, para generar una señal que presenta un efecto de sonido envolvente en entornos incapaces de recuperar la señal multicanal.
Breve descripción de los dibujos
Los dibujos adjuntos, que se facilitan para permitir una mayor comprensión de la presente invención y que se incorporan a la presente memoria y forman parte de esta, ilustran formas de realización de la presente invención y, 25 junto con la descripción, sirven para explicar los principios de la presente invención.
En los dibujos:
la figura 1 es un diagrama de bloques de un aparato de codificación de señales de audio y un aparato de 30 decodificación de señales de audio según una forma de realización de la presente invención;
la figura 2 es un diagrama estructural de un tren de bits de una señal de audio según una forma de realización de la presente invención;
35 la figura 3 es un diagrama de bloques detallado de una unidad de conversión de información espacial según una forma de realización de la presente invención;
las figuras 4 y 5 son diagramas de bloque de las configuraciones de canales utilizadas para el método de mapeado de fuentes según una forma de realización de la presente invención;
40 las figuras 6 y 7 son diagramas de bloque detallados de una unidad de renderización para una señal de submezcla estéreo según una forma de realización de la presente invención;
la figuras 8 y la figura 9 son diagramas de bloques detallados de una unidad de renderización para una señal de 45 submezcla mono según una forma de realización de la presente invención;
las figuras 10 y 11 son diagramas de bloque de una unidad de suavizado y una unidad de expansión según una forma de realización de la presente invención;
50 la figura 12 es un gráfico para describir un primer método de suavizado según una forma de realización de la presente invención;
la figura 13 es un gráfico para describir un segundo método de suavizado según una forma de realización de la presente invención;
55 la figura 14 es un gráfico para describir un tercer método de suavizado según una forma de realización de la presente invención;
la figura 15 es un gráfico para describir un cuarto método de suavizado según una forma de realización de la 60 presente invención;
la figura 16 es un gráfico para describir un quinto método de suavizado según una forma de realización de la presente invención;
65 la figura 17 es un diagrama para describir la información de filtro prototipo correspondiente a cada canal;
la figura 18 es un diagrama de bloques para un primer método de generación de información de filtro de renderización en una unidad de conversión de información espacial según una forma de realización de la presente invención;
la figura 19 es un diagrama de bloques para un segundo método de generación de información de filtro de renderización en una unidad de conversión de información espacial según una forma de realización de la presente invención;
la figura 20 es un diagrama de bloques para un tercer método de generación de información de filtro de renderización en una unidad de conversión de información espacial según una forma de realización de la presente invención;
la figura 21 es un diagrama para describir un método de generación de una señal de sonido envolvente en una unidad de renderización según una forma de realización de la presente invención;
la figura 22 es un diagrama para un primer método de interpolación según una forma de realización de la presente invención;
la figura 23 es un diagrama para un segundo método de interpolación según una forma de realización de la presente invención;
la figura 24 es un diagrama para un método de conmutación de bloques según una forma de realización de la presente invención;
la figura 25 es un diagrama de bloques para una posición a la cual se aplica una longitud de ventana elegida por una unidad de elección de longitud de ventana según una forma de realización de la presente invención;
la figura 26 es un diagrama para unos filtros de diversas longitudes utilizados en el procesamiento de una señal de audio según una forma de realización de la presente invención;
la figura 27 es un diagrama para un método de procesamiento de una señal de audio de forma dividida mediante una pluralidad de subfiltros según una forma de realización de la presente invención;
la figura 28 es un diagrama de bloques para un método de renderización de información de renderización de partición generada por una pluralidad de subfiltros para una señal de submezcla mono según una forma de realización de la presente invención;
la figura 29 es un diagrama de bloques para un método de renderización de información de renderización de partición generada por una pluralidad de subfiltros para una señal de submezcla estéreo según una forma de realización de la presente invención;
la figura 30 es un diagrama para un primer método de conversión de dominio de una señal de submezcla según una forma de realización de la presente invención y
la figura 31 es un diagrama de bloques para un segundo método de conversión de dominio de una señal de submezcla según una forma de realización de la presente invención.
Mejor modo de poner en práctica la invención
A continuación, se hará referencia detallada a las formas de realización preferidas de la presente invención, ejemplos de las cuales se ilustran en los dibujos adjuntos.
la figura 1 es un diagrama de bloques de un aparato de codificación de señales de audio y un aparato de decodificación de señales de audio según una forma de realización de la presente invención.
Con referencia a la figura 1, un aparato de codificación 10 comprende una unidad de submezcla 100, una unidad de generación de información espacial 200, una unidad de codificación de señales de submezcla 300, una unidad de codificación de información espacial 400 y una unidad de multiplexación 500.
Si se aplica una señal de audio multifuente (X1, X2,..., Xn) a la unidad de submezcla 100, la unidad de submezcla 100 realiza la submezcla de la señal aplicada y la convierte en una señal de submezcla. En este caso, la señal de submezcla comprende una señal de audio mono, estéreo y multifuente.
La fuente comprende un canal y, por conveniencia, se representa como un canal en la descripción siguiente. En la presente memoria, se toma como referencia la señal de submezcla mono o estéreo. Sin embargo, la presente invención no se limita a la señal de submezcla mono o estéreo.
El aparato de codificación 10 es capaz de utilizar opcionalmente una señal de submezcla arbitraria directamente facilitada desde un entorno externo.
La unidad de generación de información espacial 200 genera información espacial a partir de una señal de audio multicanal. La información espacial puede generarse en el transcurso de un método de submezcla. La unidad de codificación de señales de submezcla 300 y la unidad de codificación de información espacial 400, respectivamente, codifican la señal de submezcla generada y la información espacial y, a continuación, estas se transfieren a la unidad de multiplexación 500.
En la presente invención, "información espacial" se refiere a la información necesaria para generar una señal multicanal mediante la aplicación de aumento de mezcla a una señal de submezcla por un aparato de decodificación, en la que la señal de submezcla se genera mediante la aplicación de submezcla a la señal multicanal por un aparato de codificación y se transfiere al aparato de decodificación. La información espacial comprende parámetros espaciales. Los parámetros espaciales comprenden la CLD (diferencia de nivel de los canales) que indica una diferencia de energía entre los canales, las ICC (coherencias intercanal) que indican una correlación entre los canales, los CPC (coeficientes de predicción de canales) utilizados en la generación de tres canales a partir de dos canales, etc.
En la presente invención, "unidad de codificación de señales de submezcla" o "unidad de decodificación de señales de submezcla" se refieren a un códec que codifica o decodifica una señal de audio en lugar de información espacial. En la presente memoria, se toma como ejemplo de señal de audio una señal de audio de submezcla en lugar de la información espacial. La unidad de codificación o decodificación de señales de submezcla puede comprender una unidad de MP3, AC-3, DTS o AAC. Por otra parte, la unidad de codificación o de decodificación de señales de submezcla puede comprender un códec diseñado en el futuro, así como el códec de diseño anterior.
La unidad de multiplexación 500 genera un tren de bits multiplexando la señal de submezcla y la información espacial y, a continuación, transfiere el tren de bits generado al aparato de decodificación 20. La estructura del tren de datos se describirá en relación con la figura 2 más adelante.
Un aparato de decodificación 20 comprende una unidad de demultiplexación 600, una unidad de decodificación de señales de submezcla 700, una unidad de decodificación de información espacial 800, una unidad de renderización 900 y una unidad de conversión de información espacial 1000.
La unidad de demultiplexación 600 recibe un tren de bits y, a continuación, separa una señal de submezcla codificada y una información espacial codificada del tren de bits. Subsiguientemente, la unidad de decodificación de señales de submezcla 700 decodifica la señal de submezcla codificada, y la unidad de decodificación de información espacial 800 decodifica la información espacial codificada.
La unidad de conversión de información espacial 1000 genera información de renderización aplicable a una señal de submezcla mediante la información espacial y la información de filtro decodificadas. En este caso, la información de renderización se aplica a la señal de submezcla para generar una señal de sonido envolvente.
Por ejemplo, la señal de sonido envolvente se genera de la manera siguiente. En primer lugar, un método para generar una señal de submezcla a partir de una señal de audio multicanal llevado a cabo por el aparato de codificación 10 puede comprender varias etapas en las que se utiliza una caja OTT (uno a dos) o TTT (tres a tres). En este caso, puede generarse información espacial de cada una de las etapas. La información espacial se transfiere al aparato de decodificación 20. El aparato de decodificación 20 genera entonces una señal de sonido envolvente convirtiendo la información espacial y, a continuación, reproduciendo la información espacial convertida con una señal de submezcla. En lugar de generar una señal multicanal mediante el aumento de mezcla de una señal de submezcla, la presente invención se refiere a un método de renderización que comprende las etapas de extracción de información espacial para cada etapa de aumento de mezcla y de renderización mediante la información espacial extraída. Por ejemplo, el filtrado HRTF (Head-Related Transfer Functions) puede utilizarse en el método de renderización.
En este caso, la información espacial es un valor aplicable a un dominio híbrido también. Por lo tanto, la renderización puede clasificarse en los siguientes tipos conforme a los dominios.
En el primer tipo la renderización se ejecuta en un dominio híbrido haciendo pasar una señal de submezcla a través de un banco de filtros híbrido. En este caso, la conversión del dominio para la información espacial es innecesaria.
En el segundo tipo la renderización se ejecuta en el dominio del tiempo. En este caso, el segundo tipo aprovecha la modelización del filtro HRTF como filtro FIR (de respuesta finita inversa) o filtro IIR (de respuesta infinita inversa) en el dominio del tiempo. En consecuencia, es necesario un método para convertir información espacial en un coeficiente de filtro del dominio del tiempo.
En el tercer tipo la renderización se ejecuta en un dominio de frecuencia diferente. Por ejemplo, la renderización se ejecuta en el dominio de la DFT (transformada discreta de Fourier). En este caso, es necesario un método para transformar información espacial en un dominio correspondiente. En particular, el tercer tipo permite un funcionamiento rápido mediante la sustitución del filtrado en el dominio del tiempo por una operación en el dominio de la frecuencia.
En la presente invención, la información de filtro es la información necesaria para que un filtro procese una señal de audio y comprende un coeficiente de filtro facilitado a un filtro específico. A continuación se describen ejemplos de información de filtro. En primer lugar, la información de filtro prototipo es información de filtro original de un filtro específico y puede representarse como GL_L o de una forma similar. La información de filtro convertida indica un coeficiente de filtro una vez que la información de filtro prototipo se ha convertido y puede representarse como GL_L
o de una forma similar. La información de subrenderización se refiere a la información de filtro resultante de la espacialización de la información de filtro prototipo para generar una señal de sonido envolvente y puede representarse como FL_L1 o de una forma similar. La información de renderización se refiere a la información de filtro necesaria para la ejecución de la renderización y puede representarse como HL_L o de una forma similar. La información de renderización interpolada/suavizada se refiere a la información de filtro resultante de la interpolación/suavizado de la información de renderización y puede representarse como HL_L o de una forma similar. En la presente memoria se hace referencia a las informaciones de filtro anteriores. Sin embargo, la presente invención no está restringida por los nombres de las informaciones de filtro. En particular, las funciones HRTF se toman como ejemplo de información de filtro. Sin embargo, la presente invención no se limita a las funciones HRTF.
La unidad de renderización 900 recibe la señal de submezcla decodificada y la información de renderización y, entonces, genera una señal de sonido envolvente mediante la señal de submezcla decodificada y la información de renderización. La señal de sonido envolvente puede ser la señal para facilitar un efecto envolvente a un sistema de audio capaz de generar solo una señal estéreo. Además, la presente invención puede aplicarse a diversos sistemas, así como al sistema de audio capaz de generar solo la señal estéreo.
La figura 2 es un diagrama estructural para un tren de bits de una señal de audio según una forma de realización de la presente invención, en la que el tren de bits comprende una señal de submezcla codificada e información espacial codificada.
Con referencia a la figura 2, la carga útil de audio de 1 trama comprende un campo de señal de submezcla y un campo de datos auxiliares. La información espacial codificada puede almacenarse en el campo de datos auxiliares. Por ejemplo, si una carga útil de audio es de 48~128 kb/s, la información espacial puede presentar un rango de 5~32 kb/s. Sin embargo, los rangos de la carga útil de audio y la información espacial no están sujetos a ninguna limitación.
La figura 3 es un diagrama de bloques detallado de una unidad de conversión de información espacial según una forma de realización de la presente invención.
Con referencia a la figura 3, una unidad de conversión de información espacial 1000 comprende una unidad de mapeado de fuentes 1010, una unidad de generación de información de subrenderización 1020, una unidad de integración 1030, una unidad de procesamiento 1040 y una unidad de conversión de dominio 1050.
La unidad de mapeado de fuentes 101 genera información de mapeado de fuentes correspondiente a cada fuente de una señal de audio ejecutando el mapeado de fuentes mediante información espacial. En este caso, la información de mapeado de fuentes se refiere a información de cada fuente generada para corresponderse con cada fuente de una señal de audio mediante información espacial y similares. La fuente comprende un canal y, en este caso, se genera la información de mapeado de fuente correspondiente a cada canal. La información de mapeado de fuentes puede representarse como un coeficiente. El método de mapeado de fuentes se describirá en detalle más adelante con referencia a la figura 4 y la figura 5.
La unidad de generación de información de subrenderización 1020 genera información de subrenderización correspondiente a cada fuente mediante la información de mapeado de fuentes y la información de filtro. Por ejemplo, si la unidad de renderización 900 es el filtro HRTF, la unidad de generación de información de subrenderización 1020 es capaz de generar información de subrenderización mediante información de filtro HRTF.
La unidad de integración 1030 genera información de renderización integrando la información de subrenderización para que se corresponda con cada fuente de una señal de submezcla. La información de renderización, que se genera mediante la información espacial y la información de filtro, se refiere a la información para generar una señal de sonido envolvente mediante su aplicación a la señal de submezcla.
La información de renderización comprende un tipo de coeficiente de filtro. La integración puede omitirse para reducir la cantidad de operaciones del método de renderización. Subsiguientemente, la información de renderización se transfiere a la unidad de procesamiento 1042.
La unidad de procesamiento 1042 comprende una unidad de interpolación 1041 y/o una unidad de suavizado 1042. La información de renderización es interpolada por la unidad de interpolación 1041 y/o suavizada por la unidad de suavizado 1042.
La unidad de conversión de dominio 1050 convierte el dominio de la información de renderización al dominio de la señal de submezcla utilizada por la unidad de renderización 900. La unidad de conversión de dominio 1050 puede disponerse en una de diversas posiciones posibles, incluida la posición representada en la figura 3. Por consiguiente, si la información de renderización se genera en el mismo dominio que la unidad de renderización 900, se puede omitir la unidad de conversión de dominio 1050. La información de renderización de dominio convertido se transfiere a la unidad de renderización 900.
La unidad de conversión de información espacial 1000 puede comprender una unidad de conversión de información de filtro 1060. En la figura 3 la unidad de conversión de información de filtro 1060 está dispuesta dentro de la unidad de conversión de información espacial 100. Como alternativa, la unidad de conversión de información de filtro 1060 `puede estar dispuesta fuera de la unidad de conversión de información espacial 100. La unidad de conversión de información de filtro 1060 se convierte a fin de que resulte adecuada para generar información de subrenderización o información de renderización a partir de información de filtro aleatoria, por ejemplo, HRTF. El método de conversión de la información de filtro puede comprender las etapas siguientes.
En primer lugar, se incluye una etapa de adaptación de dominio para permitir su aplicación. Si el dominio de la información de filtro no coincide con el dominio para la ejecución de la renderización, es necesaria la etapa de adaptación de dominio. Por ejemplo, se necesita una etapa de conversión de información HRTF del dominio del tiempo al dominio DFT, QMF o un dominio híbrido para generar la información de renderización.
En segundo lugar, puede incluirse una etapa de reducción de coeficientes. En este caso, es fácil guardar la información HRTF de dominio convertido y aplicar la HRTF de dominio convertido a la información espacial. Por ejemplo, si un coeficiente de filtro prototipo tiene una respuesta de número de muestras (longitud) elevado, deberá almacenarse en la memoria un correspondiente coeficiente que corresponde a una respuesta que equivale a una correspondiente longitud total de 10 en el caso de los canales 5.1. Esto incrementa la carga de la memoria y la cantidad de operaciones. Para prevenir este problema, puede utilizarse un método para reducir el coeficiente de filtro que se va a almacenar y mantener al mismo tiempo las características de filtro en el método de conversión de dominio. Por ejemplo, la respuesta HRTF puede convertirse en varios valores de parámetros. En este caso, el método de generación de un parámetro y un valor de parámetro pueden diferir conforme al dominio aplicado.
La señal de submezcla pasa a través de una unidad de conversión de dominio 1110 y/o una unidad de decorrelación 1200 antes de reproducirse con la información de renderización. En caso de que el dominio de la información de renderización sea diferente del de la señal de submezcla, la unidad de conversión de dominio 1110 convierte el dominio de la señal de submezcla a fin de hacer corresponder los dos dominios.
La unidad de decorrelación 1200 se aplica a la señal de submezcla de dominio convertido. Esto puede conllevar una cantidad de operaciones relativamente superior a la de un método de aplicación de un decorrelador a la información de renderización. Sin embargo, permite evitar que se produzcan distorsiones en el método de generación de información de renderización. La unidad de decorrelación 1200 puede comprender una pluralidad de decorreladores que difieren entre sí en características si la cantidad de operaciones es admisible. Si la señal de submezcla es una señal estéreo, la unidad de decorrelación 1200 puede no utilizarse. En la figura 3, en caso de que en el método de renderización se utilice una señal de submezcla mono de dominio convertido, es decir, una señal de submezcla mono en un domino de frecuencia, híbrido, QMF o DFT, se utilizará un decorrelador en el correspondiente dominio. La presente invención comprende un decorrelador utilizado en el dominio del tiempo también. En este caso, una señal de submezcla mono anterior a la unidad de conversión de dominio 1100 se introduce directamente en la unidad de decorrelación 1200. Como decorrelador puede utilizarse un filtro IIR (o un filtro FIR) de primer orden o de orden superior.
Subsiguientemente, la unidad de renderización 900 genera una señal de sonido envolvente mediante la señal de submezcla, la señal de submezcla decorrelacionada y la información de renderización. Si la señal de submezcla es una señal estéreo, no es necesario utilizar la señal de submezcla decorrelacionada. Los detalles del método de renderización se facilitan más adelante con referencia a las figuras 6 a 9.
La señal de sonido envolvente es convertida al dominio del tiempo por una unidad de conversión de dominio inversa 1300 y, a continuación, se emite. En tal caso, el usuario puede oír un sonido que tiene un efecto multicanal a través de auriculares estereofónicos o similares.
Las figuras 4 y 5 son diagramas de bloques de las configuraciones de canales utilizadas para el método de mapeado de fuentes según una forma de realización de la presente invención. Un método de mapeado de fuentes es un método para generar información de mapeado de fuente correspondiente a cada fuente de una señal de audio mediante información espacial. Como se ha mencionado en la descripción anterior, la fuente comprende un canal, y puede generarse información de mapeado de fuentes de tal forma que se corresponda con los canales representados en la figura 4 y la figura 5. Se genera información de mapeado de fuentes de un tipo adecuado para un método de renderización.
Por ejemplo, si una señal de submezcla es una señal mono, puede generarse información de mapeado de fuentes 5 mediante información espacial, tal como CLD1~CLD5, ICC1~ICC5 y similares.
La información de mapeado de fuentes puede representarse como un valor tal como D_L (=DL), D_R (=DR), D_C (=DC), D_LFE (DLFE), D_Ls (=DLs), D_Rs (=DRs) y similares. En este caso, el método para generar la información de mapeado de fuentes es variable conforme a una estructura en árbol correspondiente a la información espacial, el
10 rango de información espacial que se va a utilizar y similares. En la presente memoria, la señal de submezcla es una señal mono, por ejemplo, que no impone ningún límite a la presente invención.
Las salidas del canal derecho e izquierdo obtenidas de la unidad de renderización 900 pueden expresarse como la figura matemática 1. 15
En este caso, el operador "*" indica un producto en un dominio DFT y puede sustituirse por una convolución en el dominio QMF o del tiempo.
20 La presente invención comprende un método de generación de los valores L, C, R, Ls y Rs sometiendo la información a mapeado de fuentes mediante información espacial o sometiendo la información a mapeado de fuentes mediante información espacial e información de filtro. Por ejemplo, puede generarse información de mapeado de fuentes mediante la CLD de la información espacial solo o la CLD y la ICC de la información espacial. A
25 continuación se describe el método de generación de información de mapeado de fuentes mediante la CLD solo.
En caso de que la estructura en árbol presente la estructura representada en la figura 4, un primer método de obtención de información de mapeado de fuentes mediante la CLD solo puede expresarse como la figura matemática 2.
En este caso:
y "m" indica una señal de submezcla mono.
En caso de que la estructura en árbol presente la estructura representada en la figura 5, un segundo método de obtención de información de mapeado de fuentes mediante la CLD solo puede expresarse como la figura matemática 3.
Si se genera información de mapeado de fuentes mediante la CLD solo, puede reducirse el efecto tridimensional.
10 Por lo tanto, se puede generar información de mapeado de fuentes mediante la ICC y/o el decorrelador. Una señal multicanal generada mediante el uso de una señal de salida de decorrelador dx(m) puede expresarse como la figura matemática 4.
15 En este caso, "A", "B" y "C" son valores que pueden representarse mediante la CLD y la ICC. Los valores "d0" a "d3" indican decorreladores. El valor "m" indica una señal de submezcla mono. Sin embargo, este método es incapaz de generar información de mapeado de fuentes, tal como D_L, D_R y similares.
20 Por consiguiente, el primer método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores para la señal de submezcla contempla dx(m) (x=0, 1, 2) como una entrada independiente. En este caso, el valor "dx" puede utilizarse para un método para generar información de filtro de subrenderización conforme a la figura matemática 5.
La información de renderización puede generarse conforme a la figura matemática 6 mediante el resultado de la figura matemática 5.
5 Se ofrecen detalles del método de generación de información de renderización más adelante. El primer método de generación de la información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores procesa un valor de salida dx, es decir, "dx(m)" como una entrada independiente, lo cual puede incrementar la cantidad de operaciones.
10 Un segundo método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores emplea decorreladores aplicados al dominio de la frecuencia. En este caso, la información de mapeado de fuentes puede expresarse como la figura matemática 7.
15 En este caso, aplicando los decorreladores al dominio de la frecuencia, puede generarse la misma información de mapeado de fuentes, tal como D_L, D_R y similares antes de la aplicación de los decorreladores. Por consiguiente, la implementación tiene lugar de una manera sencilla.
20 Un tercer método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores emplea decorreladores que presentan la característica "pasa todo" de los decorreladores del segundo método. En este caso, la característica pasa todo se refiere a que el tamaño es fijo y solo se produce variación de la fase. La presente invención puede utilizar decorreladores que presentan la característica pasa todo de los decorreladores del primer método.
25 Un cuarto método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores lleva a cabo la decorrelación mediante decorreladores para los respectivos canales (por ej., L, R, C, Ls, Rs, etc.) en lugar de utilizar los decorreladores "d0" a "d3" del segundo método. En este caso, la información de mapeado de fuentes puede expresarse como la figura matemática 8.
30 En este caso, "k" es un valor de energía de una señal decorrelacionada determinada a partir de valores de CLD e ICC. Los valores "d_L", "d_R", "d_C", "d_Ls" y "d_Rs" indican decorreladores aplicados a los respectivos canales.
5 Un quinto método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores aumenta al máximo el efecto de decorrelación configurando los decorreladores "d_L" y "d_R" para que sean simétricos en el cuarto método y configurando los decorreladores "d_Ls" y "d_Rs" para que sean simétricos en el cuarto método. En particular, suponiendo que d_R=f(d_L) y d_Rs=f(d_Ls), es necesario diseñar los
10 decorreladores "d_L", "d_C" y "d_Ls" solamente.
Un sexto método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores consiste en configurar los decorreladores "d_L" y "d_Ls" para que presenten una correlación en el quinto método. Los decorreladores "d_L" y "d_C" pueden configurarse de tal forma que presenten un mapeado
15 también.
Un séptimo método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores consiste en utilizar los decorreladores del tercer método como una estructura en serie o anidada de los filtros pasa todo. El séptimo método aprovecha la ventaja que supone que la característica pasa todo se
20 mantenga aun cuando el filtro pasa todo se utilice como una estructura en serie o anidada. En caso de que se utilice el filtro pasa todo como la estructura en serie o anidada, será posible obtener una mayor diversidad de tipos de respuestas de fase. En consecuencia, el efecto de decorrelación puede aumentar al máximo.
Un octavo método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los
25 decorreladores consiste en utilizar conjuntamente el decorrelador de técnica relacionada y el decorrelador del dominio de la frecuencia del segundo método. En este caso, la señal multicanal puede expresarse como la figura matemática 9.
30 En este caso, un método de generación de coeficientes de filtro utiliza el mismo método descrito en el primer método, excepto en que "A" se transforma en "A+Kd".
Un noveno método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los decorreladores consiste en generar un valor sometido a decorrelación adicional mediante la aplicación de un
35 decorrelador del dominio de la frecuencia a la salida del decorrelador de técnica relacionada en caso de que se utilice el decorrelador de técnica relacionada. Por lo tanto, es posible generar información de mapeado de fuentes con una pequeña cantidad de operaciones superando la limitación del decorrelador del dominio de la frecuencia.
Un décimo método de generación de información de mapeado de fuentes mediante la CLD, la ICC y/o los 40 decorreladores se expresa como la figura matemática 10.
En este caso, "di_(m)" (i=L, R, C, Ls, Rs) es un valor de salida del decorrelador aplicado a un canal i. El valor de salida puede procesarse en el dominio del tiempo, el dominio de la frecuencia, el dominio QMF, un dominio híbrido o
5 similares. Si el valor de salida se procesa en un dominio que difiere del dominio procesado actualmente, este puede convertirse mediante conversión del dominio. Es posible utilizar el mismo valor "d" para los decorreladores d_L, d_R, d_C, d_Ls y d_Rs. En este caso, la figura matemática 10 puede expresarse de una manera muy sencilla.
Si la figura matemática 10 se aplica a la figura matemática 1, la figura matemática 1 puede expresarse como la 10 figura matemática 11.
En este caso, la información de renderización HM_L es el valor resultante de combinar información espacial e
15 información de filtro para generar una señal de sonido envolvente Lo con una entrada m. La información de renderización HM_R es un valor resultante de combinar información espacial e información de filtro para generar una señal de sonido envolvente Ro con una entrada m. Por otra parte, "d(m)" es el valor de salida de un decorrelador generado transfiriendo el valor de salida del decorrelador de un dominio arbitrario al valor del dominio actual, o el valor de salida del decorrelador generado tras ser procesado en el dominio actual. La Información de renderización
20 HMD_L es un valor que indica en qué medida se ha añadido el valor de salida del decorrelador d(m) a la señal "Lo" al representar el valor d(m), y también el valor resultante de combinar información espacial e información de filtro. La Información de renderización HMD_R es un valor que indica en qué medida se ha añadido el valor de salida del decorrelador d(m) a la señal "Ro" al representar el valor d(m).
25 Por lo tanto, a fin de aplicar un método de renderización a una señal de submezcla mono, la presente invención propone un método de generación de una señal de sonido envolvente mediante la renderización de la información de renderización generada combinando información espacial e información de filtro (por ejemplo, el coeficiente de filtro HRTF) para una señal de submezcla y una señal de submezcla decorrelacionada. El método de renderización puede ejecutarse independientemente de los dominios. Si "d(m)" se expresa como "d*m" (operador de producto)
30 ejecutado en el dominio de la frecuencia, la figura matemática 11 puede expresarse como la figura matemática 12.
Por lo tanto, en caso de aplicar un método de renderización a una señal de submezcla en el dominio de la 35 frecuencia, es posible reducir al mínimo la cantidad de operaciones en la manera de representar el valor resultante de combinar correctamente información espacial, información de filtro y los decorreladores como un producto.
Las figuras 6 y 7 son diagramas de bloques detallados de una unidad de renderización para una señal de submezcla estéreo según una forma de realización de la presente invención.
40 Con referencia a la figura 6, la unidad de renderización 900 comprende una unidad de renderización A 910 y una unidad de renderización B 920.
Si una señal de submezcla es una señal estéreo, la unidad de conversión de información espacial 1000 genera información de renderización para los canales izquierdo y derecho de la señal de submezcla. La unidad de renderización A 910 genera una señal de sonido envolvente reproduciendo la información de renderización para el canal izquierdo de la señal de submezcla para el canal izquierdo de la señal de submezcla. La unidad de renderización B 920 genera una señal de sonido envolvente representando la información de renderización para el canal derecho de la señal de submezcla para el canal derecho de la señal de submezcla. Los nombres de los canales constituyen solo ejemplos y no imponen ninguna limitación a la presente invención.
La información de renderización puede comprender información de renderización facilitada a un mismo canal e información de renderización facilitada a otro canal.
Por ejemplo, la unidad de conversión de información espacial 1000 es capaz de generar información de renderización HL_L y HL_R introducida en la unidad de renderización para el canal izquierdo de la señal de submezcla, facilitándose la información de renderización HL_L a una salida izquierda correspondiente al mismo canal y facilitándose la información de renderización HL_R a una salida derecha correspondiente al otro canal. La unidad de conversión de información espacial 1000 es capaz de generar información de renderización HL_R y HL_L introducida en la unidad de renderización para el canal derecho de la señal de submezcla, facilitándose la información de renderización HL_R a una salida derecha correspondiente al mismo canal y facilitándose la información de renderización HL_L a una salida izquierda correspondiente al otro canal.
Con referencia a la figura 7, la unidad de renderización 900 comprende una unidad de renderización 1A 911, una unidad de renderización 2A 912, una unidad de renderización 1B 921 y una unidad de renderización 2B 922.
La unidad de renderización 900 recibe una señal de submezcla estéreo e información de renderización desde la unidad de conversión de información espacial 1000. Subsiguientemente, la unidad de renderización 900 genera una señal de sonido envolvente reproduciendo la información de renderización para la señal de submezcla estéreo.
En particular, la unidad de renderización 1A 911 lleva a cabo la renderización mediante la información de renderización HL_L facilitada a un mismo canal, procedente de la información de renderización para el canal izquierdo de la señal de submezcla. La unidad de renderización 2A 912 lleva a cabo la renderización mediante la información de renderización HL_R facilitada a otro canal, procedente de la información de renderización para el canal izquierdo de la señal de submezcla. La unidad de renderización 1B 921 lleva a cabo la renderización mediante la información de renderización HR_R facilitada a un mismo canal, procedente de la información de renderización para el canal derecho de la señal de submezcla. La unidad de renderización 2B 922 lleva a cabo la renderización mediante la información de renderización HR_L facilitada a otro canal, procedente de la información de renderización para el canal derecho de la señal de submezcla.
En la siguiente descripción, la información de renderización facilitada a otro canal se denomina "información de renderización cruzada". La información de renderización cruzada HL_R o HR_L se aplica a un mismo canal y, a continuación, se añade a otro canal por medio de un dispositivo de adición. En este caso, la información de renderización cruzada HL_R y/o HR_L puede ser igual a cero. Si la información de renderización cruzada HL_R y/o HR_L es igual a cero, significa que no se ha realizado ninguna aportación a la correspondiente trayectoria.
A continuación se describe un ejemplo del método de generación de la señal de sonido envolvente representado en la figura 6 o la figura 7.
En primer lugar, si la señal de submezcla es una señal estéreo, la señal de submezcla definida como "x", la información de mapeado de fuentes generada mediante información espacial definida como "D", la información de filtro prototipo definida como "G", una señal multicanal definida como "p" y una señal de sonido envolvente definida como "y" pueden representarse mediante las matrices representadas en la figura matemática 13.
En este caso, si los valores anteriores se encuentran en el dominio de la frecuencia, estos podrán resolverse de la manera indicada a continuación.
En primer lugar, la señal multicanal p, representada en la figura matemática 14, puede expresarse como un producto entre la información de mapeado de fuentes D generada mediante la información espacial y la señal de submezcla x.
10 La señal de sonido envolvente y, representada en la figura matemática 15, puede generarse representando la información de filtro prototipo G para la señal multicanal p.
Figura matemática 15
15 y = G.p
En este caso, si se inserta la figura matemática 14 en p, puede generarse la figura matemática 16.
Figura matemática 16 20 y = GDx
En este caso, si la información de renderización H se define como H=GD, la señal de sonido envolvente y la señal de submezcla x pueden tener la relación de la figura matemática 17. 25
Por lo tanto, una vez que se ha generado la información de renderización H mediante procesamiento del producto entre la información de filtro y la información de mapeado de fuentes, la señal de submezcla x se multiplica por la 30 información de renderización H para generar la señal de sonido envolvente y.
Conforme a la definición de la información de renderización H, la información de renderización H puede expresarse como la figura matemática 18.
Las figuras 8 y 9 son diagramas de bloques detallados de una unidad de renderización para una señal de submezcla mono según una forma de realización de la presente invención.
Con referencia a la figura 8, la unidad de renderización 900 comprende una unidad de renderización A 930 y una unidad de renderización B 940.
Si la señal de submezcla es una señal mono, la unidad de conversión de información espacial 1000 genera la información de renderización HM_L y HM_R, siendo utilizada la información de renderización HM_L en la renderización de la señal mono para un canal izquierdo y siendo utilizada la información de renderización HM_R en la renderización de la señal mono para un canal derecho.
La unidad de renderización A 930 aplica la información de renderización HM_L a la señal de submezcla mono para generar una señal de sonido envolvente del canal izquierdo. La unidad de renderización B 940 aplica la información de renderización HM_R a la señal de submezcla mono para generar una señal de sonido envolvente del canal derecho.
En la unidad de renderización 900 del dibujo no se utiliza ningún decorrelador. Sin embargo, si la unidad de renderización A 930 y la unidad de renderización B 940 llevan a cabo la renderización mediante las respectivas informaciones de renderización y Hmoverall_L Hmoverall_R definidas en la figura matemática 12, es posible obtener las respectivas salidas a las cuales se aplica el decorrelador.
Mientras tanto, en caso de que se trate de obtener una salida de una señal estéreo en lugar de una señal de sonido envolvente una vez terminada la renderización aplicada a una señal de submezcla mono, pueden ponerse en práctica los dos métodos indicados a continuación.
El primer método consiste en utilizar un valor utilizado para una salida estéreo en lugar de utilizar la información de renderización para un efecto envolvente. En este caso, es posible obtener una señal estéreo modificando solo la información de renderización en la estructura representada en la figura 3.
El segundo método consiste en un método de decodificación para generar una señal multicanal mediante una señal de submezcla e información espacial que permite obtener una señal estéreo aplicando el método de decodificación solo a una correspondiente etapa para obtener un número de canales específico.
Con referencia a la figura 9, la unidad de renderización 900 corresponde a un caso en el que la señal decorrelacionada se representa como una (figura matemática 11). La unidad de renderización 900 comprende una unidad de renderización 1A 931, una unidad de renderización 2A 932, una unidad de renderización 1B 941 y una unidad de renderización 2B 942. La unidad de renderización 900 es similar a la unidad de renderización para la señal de submezcla estéreo, excepto en que la unidad de renderización 900 comprende las unidades de renderización 941 y 942 para una señal decorrelacionada.
En el caso de la señal de submezcla estéreo, puede interpretarse que uno de los dos canales es una señal decorrelacionada. Por lo tanto, sin emplear decorreladores adicionales, es posible realizar un método de renderización mediante los cuatro tipos de información de renderización definidos anteriormente HL_L, HL_R, etc. En particular, la unidad de renderización 1A 931 genera una señal que se va a facilitar a un mismo canal aplicando la información de renderización HM_L a una señal de submezcla mono. La unidad de renderización 2A 932 genera una señal que se va a facilitar a otro canal aplicando la información de renderización HM_R a la señal de submezcla mono. La unidad de renderización 1B 941 genera una señal que se va a facilitar a un mismo canal aplicando la información de renderización HMD_R a una señal decorrelacionada. La unidad de renderización 2B 942 genera una señal que se va a facilitar a otro canal aplicando la información de renderización HMD_L a la señal decorrelacionada.
Si la señal de submezcla es una señal mono, la señal de submezcla definida como x, la información de canal de fuente definida como D, la información de filtro prototipo definida como G, la señal multicanal definida como p y la señal de sonido envolvente definida como y pueden representarse mediante las matrices indicadas en la figura matemática 19.
En este caso, la relación entre las matrices es similar a la del caso en el que la señal de submezcla es la señal estéreo. Por este motivo, se omiten los detalles de esta.
5 Mientras tanto, la información de mapeado de fuentes descrita con referencia a la figura 4 y la figura 5 y la información de renderización generada mediante la información de mapeado de fuentes presentan valores diferentes dependiendo de la banda de frecuencias, la banda de parámetros y/o el intervalo de tiempo transmitido. En este caso, si el valor de la información de mapeado de fuentes y/o la información de renderización presenta una
10 diferencia considerable entre bandas o entre intervalos de tiempo adyacentes, podría producirse distorsión en el método de renderización. Para evitar la distorsión, es necesario aplicar un método de suavizado en el dominio de la frecuencia y/o en el dominio del tiempo. Además del suavizado en el dominio de la frecuencia y/o el suavizado en el dominio del tiempo puede utilizarse otro método de suavizado adecuado para la renderización. Es posible utilizar el valor resultante de multiplicar la información de mapeado de fuentes o la información de renderización por una
15 ganancia específica.
Las figuras 10 y 11 son diagramas de bloques de una unidad de suavizado y una unidad de expansión según una forma de realización de la presente invención.
20 Un método de suavizado según la presente invención, tal como el representado en la figura 10 y la figura 11, es aplicable a la información de renderización y/o la información de mapeado de fuentes. No obstante, el método de suavizado es aplicable a otro tipo información. La descripción siguiente se refiere al suavizado en el dominio de la frecuencia. Sin embargo, la presente invención comprende suavizado en el dominio del tiempo y suavizado en el dominio de la frecuencia.
25 Con referencia a la figura 10 y la figura 11, la unidad de suavizado 1042 es capaz de aplicar el suavizado a la información de renderización y/o la información de mapeado de fuentes. Más adelante se describirá un ejemplo detallado de la posición del suavizado con referencia a las figuras 18 a 20.
30 La unidad de suavizado 1042 puede configurarse con una unidad de expansión 1043, en la que la información de renderización y/o la información de mapeado de fuentes puede expandirse hasta un rango más amplio que el de una banda de parámetros, por ejemplo, una banda de filtros. En particular, la información de mapeado de fuentes puede ampliarse hasta una resolución de frecuencia (p. ej., banda de filtros) correspondiente a la información de filtro que se va a multiplicar por la información del filtro (por ejemplo, el coeficiente de filtro HRTF). El suavizado según la
35 presente invención se ejecuta antes o junto con la expansión. Cuando el suavizado tiene lugar junto con la expansión, se puede emplear uno de los métodos representados en las figuras 12 a 16.
La figura 12 es un gráfico para ilustrar un primer método de suavizado según una forma de realización de la presente invención.
40 Con referencia a la figura 12, un primer método de suavizado utiliza un valor que tiene el mismo tamaño que la información espacial de cada banda de parámetro. En este caso, es posible conseguir un efecto de suavizado mediante una función de suavizado adecuada.
45 La figura 13 es un gráfico para describir un segundo método de suavizado según una forma de realización de la presente invención.
Con referencia a la figura 13, un segundo método de suavizado consiste en obtener un efecto de suavizado conectando posiciones representativas de la banda de parámetros. La posición representativa es el centro justo de
50 cada una de las bandas de parámetros, una posición central proporcional a una escala logarítmica, una escala Bark
o similares, un valor de la frecuencia más baja o una posición determinada previamente mediante un método diferente.
La figura 14 es un gráfico para describir un tercer método de suavizado según una forma de realización de la presente invención.
Con referencia a la figura 14, un tercer método de suavizado consiste en aplicar suavizado en forma de una curva o una línea recta para conectar con suavidad los límites de conexión de los parámetros. En este caso, el tercer método de suavizado utiliza una curva de suavizado de bordes predefinida o un filtrado pasabaja por el filtro IIR o el filtro FIR de primer orden o superior.
La figura 15 es un gráfico para describir un cuarto método de suavizado según una forma de realización de la presente invención.
Con referencia a la figura 15, un cuarto método de suavizado consiste en conseguir un efecto de suavizado añadiendo una señal, tal como un ruido aleatorio, a un contorno de información espacial. En este caso, puede utilizarse un valor que difiere en canal o en banda como ruido aleatorio. En caso de añadir un ruido aleatorio en el dominio de la frecuencia, es posible añadir solo un valor de tamaño dejando intacto un valor de fase. El cuarto método de suavizado permite obtener un efecto de decorrelación intercanal, así como un efecto de suavizado en el dominio de la frecuencia.
La figura 16 es un gráfico para describir un quinto método de suavizado según una forma de realización de la presente invención.
Con referencia a la figura 16, un quinto método de suavizado consiste en utilizar una combinación de los métodos de suavizado segundo a cuarto. Por ejemplo, una vez que se han conectado las posiciones representativas de las respectivas bandas de parámetros, se añade el ruido aleatorio y a continuación se aplica filtrado pasa baja. Al hacerlo, la secuencia puede modificarse. El quinto método de suavizado reduce al mínimo los puntos discontinuos en el dominio de la frecuencia y el efecto de decorrelación intercanal puede mejorarse.
En los métodos de suavizado primero a quinto, el total de potencias para los valores de información espacial (por ejemplo, los valores de CLD) en los respectivos dominios de frecuencia de cada canal debe ser tan uniforme como una constante. Por ello, tras realizarse el método de suavizado en cada canal, deberá realizarse la normalización de las potencias. Por ejemplo, si una señal de submezcla es una señal mono, los valores de nivel de los respectivos canales deberían satisfacer la relación de las figura matemática 20.
En este caso, "pb = 0~número total de bandas de parámetros 1", y "C" es una constante arbitraria.
La figura 17 es un diagrama para describir la información de filtro prototipo de cada canal.
Con referencia a la figura 17, para la renderización, una señal que ha pasado a través del filtro GL_L para una fuente de canal izquierdo se envía a una salida izquierda, mientras que una señal que ha pasado a través del filtro GL_R se envía a una salida derecha.
Subsiguientemente, una salida final izquierda (por ejemplo, Lo) y una salida final derecha (por ejemplo, Ro) se generan combinando todas las señales recibidas desde los respectivos canales. En particular, las salidas de canal izquierdo/derecho reproducidas pueden expresarse como la figura matemática 21.
En la presente invención, las salidas de canal izquierdo/derecho reproducidas pueden generarse mediante los valores L, R, C, Ls y Rs generados decodificando la señal de submezcla en la señal multicanal mediante la información espacial. La presente invención es capaz de generar las salidas de canal izquierdo/derecho reproducidas mediante la información de renderización sin generar los valores L, R, C, Ls y Rs, generándose la información de renderización mediante la información espacial y la información de filtro.
A continuación se describe un método para generar información de renderización mediante información espacial, con referencia a las figuras 18 a 20.
5 La figura 18 es un diagrama de bloques para un primer método de generación de información de renderización en una unidad de conversión de información espacial 900 según una forma de realización de la presente invención.
Con referencia a la figura 18, tal como se ha mencionado en la descripción anterior, la unidad de conversión de información espacial 900 comprende la unidad de mapeado de fuentes 1010, la unidad de generación de
10 información de subrenderización 1020, la unidad de integración 1030, la unidad de procesamiento 1040 y la unidad de conversión de dominio 1050. La unidad de conversión de información espacial 900 presenta la misma configuración representada en la figura 3.
La unidad de generación de información de subrenderización 1020 comprende por lo menos una o más unidades de 15 generación de información de subrenderización (1.ª unidad de generación de información de subrenderización a N.ª unidad de generación de información de subrenderización).
La unidad de generación de información de subrenderización 1020 genera información de subrenderización mediante la información de filtro y la información de mapeado de fuentes.
20 Por ejemplo, si una señal de submezcla es una señal mono, la primera unidad de generación de información de subrenderización es capaz de generar información de subrenderización correspondiente a un canal izquierdo del multicanal. La información de subrenderización puede representarse como la figura matemática 22 mediante la información de mapeado de fuentes D_L y la información de filtro convertida GL_L' y GL_R'.
En este caso, el valor D_L se genera mediante la información espacial en la unidad de mapeado de fuentes 1010. Sin embargo, un método para generar el valor D_L puede seguir la estructura en árbol.
30 La segunda unidad de generación de información de subrenderización es capaz de generar información de subrenderización FR_L y FR_R correspondiente a un canal derecho del multicanal. La N.ª unidad de generación de información de subrenderización es capaz de generar información de subrenderización FRs_L y FRs_R correspondiente a un canal derecho de sonido envolvente del multicanal.
35 Si una señal de submezcla es una señal estéreo, la primera unidad de generación de información de subrenderización es capaz de generar información de subrenderización correspondiente al canal izquierdo del multicanal. La información de subrenderización puede representarse como la figura matemática 23 mediante la información de mapeado de fuentes D_L1 y D_L2.
En la figura matemática 23, la información FL_R1 se explica por ejemplo de la siguiente manera.
5 En primer lugar, en la FL_R1, "L" indica una posición del multicanal, "R" indica un canal de salida de una señal de sonido envolvente y "1" indica un canal de la señal de submezcla. En concreto, la FL_R1 indica la información de subrenderización utilizada en la generación del canal de salida derecho de la señal de sonido envolvente a partir del canal izquierdo de la señal de submezcla.
10 En segundo lugar, los valores D_L1 y D_L2 se generan mediante la información espacial en la unidad de mapeado de fuentes 1010.
Si la señal de submezcla es una señal estéreo, es posible generar una pluralidad de informaciones de subrenderización a partir de por lo menos una unidad de generación de información de subrenderización de la
15 misma manera que en el caso en que la señal de submezcla es la señal mono. Los tipos de informaciones de subrenderización generadas por una pluralidad de las unidades de generación de información de subrenderización son ejemplos no limitativos de la presente invención.
La información de subrenderización generada por la unidad de generación de información de subrenderización 1020
20 se transfiere a la unidad de renderización 900 por medio de la unidad de integración 1030, la unidad de procesamiento 1040 y la unidad de conversión de dominio 1050.
La unidad de integración 1030 integra las informaciones de subrenderización generadas para cada canal como información de renderización (por ejemplo, HL_L, HL_R, HR_L, HR_R) para un método de renderización. A
25 continuación se describe un método de integración efectuado en la unidad de integración 1030 para el caso de una señal mono y el caso de una señal estéreo.
En primer lugar, si la señal de submezcla es una señal mono, la información de renderización puede expresarse como la figura matemática 24.
En segundo lugar, si la señal de submezcla es una señal estéreo, la información de renderización puede expresarse como la figura matemática 25.
Subsiguientemente, la unidad de procesamiento 1040 comprende una unidad de interpolación 1041 y/o una unidad de suavizado 1042 y realiza la interpolación y/o el suavizado para la información de renderización. La interpolación 5 y/o el suavizado pueden ejecutarse en el dominio del tiempo, el dominio de la frecuencia o el dominio QMF. En la presente memoria, el dominio del tiempo es un ejemplo que no impone ninguna limitación a la presente invención.
La interpolación se realiza para obtener información de renderización no existente entre las informaciones de renderización si la información de renderización transmitida presenta un amplio intervalo en el dominio del tiempo.
10 Por ejemplo, en el supuesto de que existan informaciones de renderización en un n-ésimo intervalo de tiempo y un (n+k)-ésimo intervalo de tiempo (k>1), respectivamente, será posible realizar la interpolación lineal en un intervalo de tiempo no transmitido mediante las informaciones de renderización generadas (por ejemplo, HL_L, HR_L, HL_R, HR_R).
15 La información de renderización generada a partir de la interpolación se describe con referencia al caso en que la señal de submezcla es una señal mono y al caso en que la señal de submezcla es una señal estéreo.
Si la señal de submezcla es la señal mono, la información de renderización interpolada puede expresarse como la figura matemática 26.
Si la señal de submezcla es la señal estéreo, la información de renderización interpolada puede expresarse como la figura matemática 27.
En este caso, es 0 <j<k. "j" y "k" son números enteros. Y "a" es un número real correspondiente a "0<a<1" que se expresará como la figura matemática 28.
30 Figura matemática 28
a = j/k
35 Entonces, sería posible obtener un valor correspondiente al intervalo de tiempo no transmitido en una línea recta que conecta los valores en los dos intervalos de tiempo según la figura matemática 27 y la figura matemática 28. Los detalles de la interpolación se facilitarán más adelante con referencia a la figura 22 y la figura 23.
En caso de que un valor de filtro varíe bruscamente entre dos intervalos de tiempo adyacentes en el dominio del
40 tiempo, la unidad de suavizado 1042 ejecuta el suavizado para prevenir un problema de distorsión debido a la presencia de un punto discontinuo. El suavizado en el dominio del tiempo puede llevarse a cabo mediante el método de suavizado descrito con referencia a las figuras 12 a 16. El suavizado puede realizarse junto con la expansión. El suavizado puede variar según la posición aplicada. Si la señal de submezcla es una señal mono, el suavizado en el dominio del tiempo puede representarse como la figura matemática 29.
En concreto, el suavizado puede ejecutarse mediante el tipo de filtro IIR de 1 polo obtenido multiplicando la información de renderización HM_L(n-1) o HM_R(n-1) suavizada en un intervalo de tiempo anterior n-1 por (1-b), multiplicando la información de renderización HM_L(n) o HM_R(n) generada en un intervalo de tiempo actual n por b
10 y sumando las dos multiplicaciones. En este caso, "b" es una constante para 0<b<1. Si "b" disminuye, el efecto de suavizado aumenta. Si "b" aumenta, el efecto de suavizado disminuye. El resto de los filtros puede aplicarse de la misma manera.
La interpolación y el suavizado pueden representarse como la expresión de la figura matemática 30 mediante la 15 figura matemática 29 para el suavizado en el dominio del tiempo.
Si la unidad de interpolación 1041 realiza la interpolación y/o si la unidad de suavizado 1042 realiza el suavizado, 20 puede obtenerse información de renderización que presenta un valor de energía diferente al de la información de renderización prototipo. Para prevenir este problema, puede llevarse a cabo también la normalización de la energía.
Por último, la unidad de conversión de dominio 1050 aplica conversión de dominio a la información de renderización de un dominio para ejecutar la renderización. Si el dominio para ejecutar la renderización es idéntico al dominio de la 25 información de renderización, no es necesario ejecutar la conversión del dominio. A continuación, la información de renderización de dominio convertido se transfiere a la unidad de renderización 900.
La figura 19 es un diagrama de bloques para un segundo método de generación de información de renderización en una unidad de conversión de información espacial según una forma de realización de la presente invención.
30 El segundo método es similar al primer método en la medida en que una unidad de conversión de información espacial 1000 comprende una unidad de mapeado de fuentes 1010, una unidad de generación de información de subrenderización 1020, una unidad de integración 1030, una unidad de procesamiento 1040 y una unidad de conversión de dominio 1050, y en la medida en que la unidad de generación de información de subrenderización
35 1020 comprende por lo menos una unidad de generación de información de subrenderización.
Con referencia a la figura 19, el segundo método de generación de la información de renderización difiere del primer método en la posición de la unidad de procesamiento 1040. Por lo tanto, la interpolación y/o el suavizado puede aplicarse en cada canal a las informaciones de subrenderización (por ejemplo, FL_L y FL_R en caso de que la señal
40 sea mono o FL_L1, FL_L2, FL_R1, FL_R2 en caso de que la señal sea estéreo) generadas para cada canal en la unidad de generación de información de subrenderización 1020.
Subsiguientemente, la unidad de integración 1030 integra las informaciones de subrenderización interpoladas y/o suavizadas en información de renderización.
45 La información de renderización generada se transfiere a la unidad de renderización 900 por medio de la unidad de conversión de dominio 1050.
La figura 20 es un diagrama de bloques para un tercer método de generación de información de filtro de 50 renderización en una unidad de conversión de información espacial según una forma de realización de la presente invención.
El tercer método es similar al primer o al segundo métodos en la medida en que una unidad de conversión de información espacial 1000 comprende una unidad de mapeado de fuentes 1010, una unidad de generación de 55 información de subrenderización 1020, una unidad de integración 1030, una unidad de procesamiento 1040 y una
unidad de conversión de dominio 1050, y en la medida en que la unidad de generación de información de subrenderización 1020 comprende por lo menos una unidad de generación de información de subrenderización.
Con referencia a la figura 20, el tercer método de generación de la información de renderización difiere del primer o el segundo método en la medida en que la unidad de procesamiento 1040 está situada junto a la unidad de mapeado de fuentes 1010. Por consiguiente, la interpolación y/o el suavizado pueden aplicarse en cada canal a la información de mapeado de fuentes generada mediante información espacial en la unidad de mapeado de fuentes 1010.
Subsiguientemente, la unidad de generación de información de subrenderización 1020 genera información de subrenderización mediante la información de mapeado de fuentes interpolada y/o suavizada e información de filtro.
La información de subrenderización se integra en la información de renderización en la unidad de integración 1030. La información de renderización generada se transfiere a la unidad de renderización 900 por medio de la unidad de conversión de dominio 1050.
La figura 21 es un diagrama para describir un método de generación de una señal de sonido envolvente en una unidad de renderización según una forma de realización de la presente invención. La figura 21 representa un método de renderización ejecutado en el dominio DFT. Sin embargo, el método de renderización puede implementarse también en un dominio diferente de una manera similar. La figura 21 representa un caso en el que la señal de entrada es una señal de submezcla mono. Sin embargo, la figura 21 es aplicable a otros canales de entrada, incluida una señal de submezcla estéreo y similares, de la misma manera.
Con referencia a la figura 21, una señal de submezcla mono en el dominio del tiempo ejecuta preferentemente un enventanado que presenta un intervalo de superposición OL en la unidad de conversión de dominio. La figura 21 representa un caso en el que se utiliza un 50% de superposición. Sin embargo, la presente invención comprende casos en los que se utilizan otras superposiciones.
Una función ventana para la ejecución del enventanado puede emplear una función que presenta una buena selectividad en frecuencia en el dominio DFT gracias a su conexión sin interrupción ni discontinuidad en el dominio del tiempo. Por ejemplo, como función ventana puede utilizarse una función ventana seno cuadrado.
Subsiguientemente, se aplica relleno de ceros a la izquierda ZL, de una longitud de muestras [exactamente, (longitud de muestras) -1] de un filtro de renderización mediante información de renderización convertida en la unidad de conversión de dominio, a una señal de submezcla mono de una longitud OL*2 obtenida por enventanado. A continuación, se realiza una conversión de dominio al dominio DFT. La figura 20 representa cómo se realiza la conversión de dominio al dominio DFT de una señal de submezcla de bloque k.
La señal de submezcla de dominio convertido se reproduce mediante un filtro de renderización que utiliza información de renderización. El método de renderización puede representarse como un producto de la señal de submezcla y la información de renderización. La señal de submezcla reproducida se somete a IDFT (transformada discreta de Fourier inversa) en la unidad de conversión de dominio inversa y, a continuación, se superpone a la señal de submezcla (bloque k-1 en la figura 20) ejecutada previamente con un retardo de longitud OL para generar una señal de sonido envolvente.
Puede aplicarse interpolación a cada uno de los bloques que se someten al método de renderización. El método de interpolación se describe a continuación.
La figura 22 es un diagrama para un primer método de interpolación según una forma de realización de la presente invención. La interpolación según la presente invención puede ejecutarse en diversas posiciones. Por ejemplo, la interpolación puede ejecutarse en diversas posiciones en la unidad de conversión de información espacial representada en las figuras 18 a 20 o puede ejecutarse en la unidad de renderización. La información espacial, la información de mapeado de fuentes, la información de filtro y similares pueden utilizarse como valores para interpolar. En la presente memoria, la información se utiliza a título de ejemplo para la descripción. Sin embargo, la presente invención no se limita a la información espacial. La interpolación se ejecuta después o junto con la expansión a una banda más amplia.
Con referencia a la figura 22, la información espacial transferida desde un aparato de codificación puede transferirse desde una posición aleatoria en lugar de transmitirse en cada intervalo de tiempo. Una trama espacial puede contener una pluralidad de conjuntos de información espacial (por ejemplo, los conjuntos de parámetros n y n+1 de la figura 22). En el caso de una tasa de bits baja, una trama espacial puede contener un único conjunto nuevo de información espacial. Por lo tanto, la interpolación se realiza para un intervalo de tiempo no transmitido mediante los valores de un conjunto de información espacial transmitido adyacente. El intervalo entre ventanas para ejecutar la renderización no siempre coincide con el intervalo de tiempo. Por consiguiente, se halla y utiliza un valor interpolado en el centro de las ventanas de renderización (K-1, K, K+1, K+2, etc.), tal como se representa en la figura 22. Aunque la figura 22 representa la aplicación de interpolación lineal entre intervalos de tiempo cuando se dispone de
un conjunto de información espacial, la presente invención no se limita al método de interpolación. Por ejemplo, la interpolación no se realiza en un intervalo de tiempo en el que no se dispone de un conjunto de información espacial. En su lugar, puede utilizarse un valor anterior o predeterminado.
La figura 23 es un diagrama para un segundo método de interpolación según una forma de realización de la presente invención.
Con referencia a la figura 23, un segundo método de interpolación según una forma de realización de la presente invención presenta una estructura en la que se combinan un intervalo que utiliza un valor anterior, un intervalo que utiliza un valor predeterminado y similares. Por ejemplo, la interpolación puede realizarse mediante por lo menos uno de los siguientes métodos: un método de mantenimiento de un valor anterior, un método de utilización de un valor por omisión preestablecido y un método de ejecución de interpolación lineal en un intervalo de una trama espacial. En caso de que existan por lo menos dos nuevos conjuntos de información espacial en una ventana, puede producirse distorsión. La siguiente descripción se refiere a la conmutación de bloques para prevenir la distorsión.
La figura 24 es un diagrama para un método de conmutación de bloques según una forma de realización de la presente invención.
En relación con la referencia (a) representada en la figura 24, puesto que la longitud de la ventana es superior a la longitud del intervalo de tiempo, pueden existir por lo menos dos conjuntos de información espacial (por ejemplo, los conjuntos de parámetros n y n+1 de la figura 24) en un intervalo de ventana. En ese caso, cada uno de los conjuntos de información espacial debería aplicarse a un intervalo de tiempo diferente. Sin embargo, si se aplica el valor resultante de la interpolación de los por lo menos dos conjuntos de información espacial, puede producirse distorsión. Es decir, puede producirse distorsión atribuida a la falta de resolución temporal según la longitud de la ventana.
Para resolver este problema puede utilizarse un método de conmutación de variación del tamaño de la ventana para adaptar la resolución de un intervalo de tiempo. Por ejemplo, el tamaño de ventana representado mediante la referencia (b) en la figura 24 puede cambiarse por un tamaño de ventana más corto cuando un intervalo requiere alta resolución. En este caso, en la parte inicial y la parte final de las ventanas conmutadas, se utiliza la conexión de ventanas para evitar que se produzcan discontinuidades en el dominio del tiempo de las ventanas conmutadas.
La longitud de la ventana puede elegirse utilizando información espacial en un aparato de decodificación, en lugar de transferirse como información adicional separada. Por ejemplo, la longitud de la ventana puede determinarse utilizando un plazo de un intervalo de tiempo para actualizar la información espacial. En concreto, si el plazo para actualizar la información espacial es corto, se utiliza una función de ventana de poca longitud. Si el plazo para actualizar la información espacial es largo, se utiliza una función de ventana de gran longitud. En este caso, cuando se utiliza una ventana de longitud variable durante la renderización, resulta ventajoso no utilizar bits para enviar información de longitud de ventana por separado. En la referencia (b) de la figura 24 se representan dos tipos de longitud de ventana. Sin embargo, pueden utilizarse ventanas de diversas longitudes según la frecuencia de transmisión y las relaciones de la información espacial. La información de longitud de ventana elegida es aplicable a las diversas etapas para generar una señal de sonido envolvente como se describe a continuación.
La figura 25 es un diagrama de bloques para una posición a la cual se aplica una longitud de ventana elegida por una unidad de elección de longitud de ventana según una forma de realización de la presente invención.
Con referencia a la figura 25, una unidad de elección de longitud de ventana 1400 es capaz de elegir la longitud de una ventana mediante información espacial. La información para la longitud de ventana elegida es aplicable a una unidad de mapeado de fuentes 1010, una unidad de integración 1030, una unidad de procesamiento 1040, unas unidades de conversión de dominio 1050 y 1100 y una unidad de conversión de dominio inversa 1300. La figura 25 representa un caso en el que se utiliza una señal de submezcla estéreo. Sin embargo, la presente invención no se limita a la señal de submezcla estéreo solo. Como se menciona en la descripción anterior, aunque la longitud de la ventana se reduzca, la longitud de relleno de ceros elegida según el número de muestras del filtro no es ajustable. Por este motivo, a continuación se describe una solución al problema.
La figura 26 es un diagrama para los filtros de diversas longitudes utilizados en el procesamiento de una señal de audio según una forma de realización de la presente invención. Como se ha indicado en la descripción anterior, si la longitud de relleno de ceros elegida según el número de muestras del filtro no está ajustada, se produce una superposición sustancial que equivale a una correspondiente longitud que provoca un descenso de la resolución temporal. Una solución para el problema consiste en reducir la longitud del relleno de ceros restringiendo la longitud de una toma del filtro. Un método de reducción de la longitud del relleno de ceros puede consistir en truncar una parte posterior de una respuesta (por ejemplo, un intervalo de difusión correspondiente a la reverberación). En este caso, un método de renderización puede ser menos preciso que cuando no se realiza el truncamiento de la parte posterior de la respuesta del filtro. Sin embargo, los valores de coeficiente de filtro en el dominio del tiempo son muy pequeños como para tener un efecto importante sobre la reverberación. Por consiguiente, la calidad del sonido no se ve significativamente afectada por el truncamiento.
Con referencia a la figura 26, pueden utilizarse cuatro tipos de filtro. Los cuatro tipos de filtro pueden utilizarse en el dominio de la DFT, lo cual no impone ninguna limitación a la presente invención.
Un filtro N indica un filtro que presenta una longitud de filtro FL elevada y una longitud 2*OL de relleno de ceros elevada cuyo número de muestras de filtro no está restringido. Un filtro N2 indica un filtro que presenta una longitud de relleno de ceros 2*OL más corta que la del filtro N1 gracias a la restricción del número de muestras del filtro con la misma longitud de filtro FL. Un filtro N3 indica un filtro que tiene una longitud de relleno de ceros 2*OL larga gracias a la no limitación del número de muestras del filtro con una longitud de filtro FL más corta que la del filtro N1. Y un filtro N4 indica un filtro que presenta una longitud de ventana FL más corta que la del filtro N1 con una longitud de relleno de ceros 2*OL corta gracias a la restricción del número de muestras del filtro.
Como se ha mencionado en la descripción anterior, es posible resolver el problema de la resolución temporal mediante los cuatro ejemplos de clases de filtros anteriores. Para la parte posterior de la respuesta del filtro, puede utilizarse un coeficiente de filtro diferente para cada dominio.
La figura 27 es un diagrama para un método de procesamiento de una señal de audio de forma dividida mediante una pluralidad de subfiltros según una forma de realización de la presente invención. Un filtro puede dividirse en subfiltros que presentan coeficientes de filtro que difieren entre sí. Después de procesar la señal de audio mediante los subfiltros, puede utilizarse un método de adición de los resultados del método. En caso de que se aplique información espacial a una parte posterior de una respuesta de filtro que presenta poca energía, es decir, en caso de que se realice la renderización mediante un filtro con una muestra de filtro larga, el método ofrece una función para procesar de forma dividida la señal de audio según una unidad de longitud predeterminada. Por ejemplo, puesto que la parte posterior de la respuesta del filtro no varía de forma considerable en cada HRTF correspondiente a cada canal, es posible realizar la renderización extrayendo un coeficiente común a una pluralidad de ventanas. En la presente memoria, se describe un caso de ejecución en el dominio DFT. Sin embargo, la presente invención no se limita al dominio DFT.
Con referencia a la figura 27, una vez que un filtro FL se ha dividido en una pluralidad de subáreas, la pluralidad de subáreas puede procesarse mediante una pluralidad de subfiltros (filtro A y filtro B) que presentan coeficientes de filtro diferentes.
Subsiguientemente, una salida procesada por el filtro A y una salida procesada por el filtro B se combinan. Por ejemplo, se aplica IDFT (transformada discreta de Fourier inversa) a cada salida procesada por el filtro A y la salida procesada por el filtro B para generar una señal del dominio del tiempo. Y las señales generadas se combinan. En este caso, se aplica, a la posición a la cual se añade la salida procesada por el filtro B, un retardo que supera en FL a la posición de la salida procesada por el filtro A. De esta manera, la señal procesada por una pluralidad de subfiltros produce el mismo efecto que en el caso de una señal procesada por un único filtro.
La presente invención comprende un método de renderización de la salida procesada por el filtro B para una señal de submezcla directamente. En este caso, es posible representar la salida para la señal de submezcla mediante coeficientes que extraen una parte de la información espacial o sin utilizar la información espacial.
El método se caracteriza porque un filtro que presenta un número de muestras elevado puede aplicarse de forma dividida, y porque una parte posterior del filtro que presenta poca energía puede aplicarse sin conversión mediante información espacial. En este caso, si no se aplica la conversión mediante información espacial, tampoco se aplica un filtro diferente a cada ventana procesada. Por consiguiente, no es necesario aplicar el mismo sistema que en la conmutación de bloques. La figura 26 representa las dos áreas en las que se divide el filtro. Sin embargo, la presente invención permite dividir el filtro en una pluralidad de áreas.
La figura 28 es un diagrama de bloques para un método de renderización de información de renderización de partición generada por una pluralidad de subfiltros para una señal de submezcla mono según una forma de realización de la presente invención. La figura 28 se refiere a un coeficiente de renderización. El método puede ejecutarse para cada coeficiente de renderización.
Con referencia a la figura 28, la información de filtro A de la figura 27 corresponde a una primera información de renderización de partición HM_L_A, y la información de filtro B de la figura 27 corresponde a una segunda información de renderización de partición HM_L_B. La figura 28 representa una forma de realización de una partición en dos subfiltros. Sin embargo, la presente invención no se limita a los dos subfiltros. Los dos subfiltros pueden obtenerse por medio de una unidad de división 1500 con la información de procesamiento HM_L generada en la unidad de generación de información espacial 1000. Como alternativa, los dos los subfiltros pueden obtenerse mediante información de filtro HRTF prototipo o información elegida conforme a una selección del usuario. La información elegida conforme a la selección del usuario puede comprender información espacial seleccionada según las preferencias del usuario, por ejemplo. En este caso, HM_L_A es la información de renderización basada en la información espacial recibida, y HM_L_B puede ser la información de renderización para dar un efecto tridimensional aplicado de forma generalizada a las señales.
Como se ha mencionado en la descripción anterior, el procesamiento con una pluralidad de subfiltros es aplicable al dominio de tiempo y al dominio QMF, así como al dominio DFT. En particular, los valores de coeficiente divididos por el filtro A y el filtro B se aplican a la señal de submezcla mediante renderización en el dominio del tiempo o en el dominio QMF y a continuación se combinan para generar una señal definitiva.
La unidad de renderización 900 comprende una primera unidad de renderización de partición 950 y una segunda unidad de renderización de partición 960. La primera unidad de renderización de partición 950 realiza un método de renderización mediante la información HM_L_A, mientras que la segunda unidad de renderización de partición 960 realiza un método de renderización mediante la información HM_L_B.
Si el filtro A y el filtro B representados en la figura 27 son divisiones de un mismo filtro en función del tiempo, es posible tomar en consideración un retardo adecuado para que se corresponda con el intervalo de tiempo. La figura 28 representa un ejemplo de señal de submezcla mono. En caso de que se utilice una señal de submezcla mono y un decorrelador, la parte correspondiente al filtro B no se aplica al decorrelador, sino a la señal de submezcla mono directamente.
La figura 29 es un diagrama de bloques para un método de renderización de información de renderización de partición generada por una pluralidad de subfiltros para una señal de submezcla estéreo según una forma de realización de la presente invención.
Un método de renderización de partición representado en la figura 29 es similar al de la figura 28, en la medida en que se obtienen dos subfiltros en un divisor 1500 mediante información de renderización generada por la unidad de conversión de información espacial 1000, información de filtro HRTF prototipo o información de elección por el usuario. La diferencia respecto de la figura 28 radica en que un método de renderización de partición correspondiente al filtro B se aplica de manera generalizada a las señales L/R.
En particular, el divisor 1500 genera una primera información de renderización de partición correspondiente al filtro A, una segunda información de renderización de partición y una tercera información de renderización de partición correspondiente a la información del filtro B. En este caso, la tercera información de renderización de partición puede generarse mediante información de filtro o información espacial aplicable de forma generalizada a las señales L/R.
Con referencia a la figura 29, una unidad de renderización 900 comprende una primera unidad de renderización de partición 970, una segunda unidad de renderización de partición 980 y una tercera unidad de renderización de partición 990.
La tercera información de renderización de partición generada se aplica a una señal de suma de las señales L/R en la tercera unidad de renderización de partición 990 para generar una señal de salida. La señal de salida se añade a las señales de salida L/R que un filtro A1 y un filtro A2 de la primera y la segunda unidades de renderización de partición 970 y 980, respectivamente, reproducen de manera independiente para generar señales de sonido envolvente. En este caso, la señal de salida de la tercera unidad de renderización de partición 990 se puede añadir después de un retardo adecuado. En la figura 29, la expresión de información de renderización cruzada aplicada a otro canal a partir de entradas L/R se omite de la descripción por conveniencia.
La figura 30 es un diagrama de bloques para un primer método de conversión de dominio de una señal de submezcla según una forma de realización de la presente invención. El método de renderización ejecutado en el dominio DFT se ha descrito ya. Como se ha mencionado en la descripción anterior, el método de renderización es ejecutable en otros dominios, así como en el dominio DFT. La figura 30 representa el método de renderización ejecutado en el dominio DFT. Una unidad de conversión de dominio 1100 comprende un filtro QMF y un filtro DFT. Una unidad de conversión de dominio inversa 1300 comprende un filtro IDFT y un filtro IQMF. La figura 30 se refiere a una señal de submezcla mono que no impone ninguna limitación a la presente invención.
Con referencia a la figura 30, una señal de submezcla del dominio del tiempo de p muestras pasa a través de un filtro QMF para generar P muestras de subbanda. Se reúnen W muestras por cada banda. Una vez que se ha aplicado enventanado a las muestras reunidas, se realiza el relleno de ceros. A continuación se ejecuta DFT de M puntos (FFT). En este caso, la DFT permite un procesamiento mediante el tipo de enventanado citado anteriormente. Un valor que conecta los M/2 valores del dominio de frecuencia de cada banda obtenidos mediante aplicación de la DFT de M puntos a P bandas puede considerarse como un valor aproximado de un espectro de frecuencias obtenido mediante DFT de M/2*P puntos. Por lo tanto, un coeficiente de filtro representado en el dominio DFT de M/2*P puntos se multiplica por el espectro de frecuencias para llevar el mismo efecto del método de renderización al dominio DFT.
En este caso, la señal que ha pasado a través del filtro QMF presenta fugas, por ejemplo, solapamiento entre bandas adyacentes. En particular, un valor que corresponde a una banda adyacente se esparce por la banda actual y una parte de un valor existente en la banda actual se desplaza hasta la banda adyacente. En este caso, si se ejecuta la integración QMF, puede recuperarse una señal original debido a las características QMF. Sin embargo, si
se aplica un método de filtrado a la señal de la correspondiente banda como en el caso de la presente invención, la señal se distorsiona debido a la fuga. Para reducir al mínimo este problema, puede añadirse un método para recuperar una señal original, de tal manera que se hace pasar una señal a través de una mariposa B para reducir al mínimo las fugas antes de aplicar la DFT a cada banda después de la QMF en la unidad de conversión de dominio 100 y realizar un método de inversión V después de la IDFT en la unidad de conversión de dominio inversa 1300.
Mientras tanto, para hacer coincidir el método de generación de la información de renderización generada en la unidad de conversión de información espacial 1000 con el método de generación de la señal de submezcla, puede aplicarse DFT a una señal de paso QMF para información de filtro prototipo en lugar de ejecutar la DFT de M/2*P puntos al principio. En este caso, puede producirse retardo y dispersión de datos debida al filtro QMF.
La figura 31 es un diagrama de bloques para un segundo método de conversión de dominio de una señal de submezcla según una forma de realización de la presente invención. La figura 31 representa un método de renderización aplicado al dominio QMF.
Con referencia a la figura 31, una unidad de conversión de dominio 1100 comprende una unidad de conversión de dominio QMF, y una unidad de conversión de dominio inversa 1300 comprende una unidad de conversión de dominio IQMF. La configuración representada en la figura 31 es igual a la del caso en el que se utiliza la DFT solo excepto en que la unidad de conversión de dominio es un filtro QMF. En la siguiente descripción, el término QMF comprende un QMF y un QMF híbrido que presentan el mismo ancho de banda. La diferencia con el caso en el que se utiliza solo la DFT radica en que la generación de la información de renderización se realiza en el dominio QMF y en que el método de renderización se representa como una convolución en lugar del producto en el dominio de la DFT, puesto que el método de renderización realizado por un reproductor M 3012 se ejecuta en el dominio QMF.
Suponiendo que el filtro QMF disponga de B bandas, un coeficiente de filtro puede representarse como un conjunto de coeficientes de filtro que presentan diferentes características (coeficientes) para la B bandas. Ocasionalmente, si el número de muestras de filtro se convierte en un número de primer orden (es decir, se multiplica por una constante), un método de renderización en el dominio DFT de B espectros de frecuencias y un método operativo coincidirán. La figura matemática 31 representa un método de renderización ejecutado en una banda QFM (b) para una trayectoria a fin de realizar el método de renderización mediante información de renderización HM_L.
En este caso, k indica un orden temporal en la banda QMF, es decir, una unidad de intervalo de tiempo. El método de renderización ejecutado en el dominio QMF es ventajoso en la medida en que, si la información espacial transmitida es un valor aplicable al dominio QMF, la aplicación de los correspondientes datos se facilita mucho, y en la medida en que permite reducir al mínimo la distorsión en el transcurso de la aplicación. Sin embargo, en el caso de la conversión en el dominio QMF del método de conversión de la información de filtro prototipo (por ejemplo, el coeficiente de filtro prototipo), se necesita una cantidad de operaciones considerable para un método de aplicación del valor convertido. En este caso, la cantidad de operaciones puede reducirse al mínimo mediante el método de parametrización del coeficiente HRTF en el método de conversión de información de filtro.
Aplicabilidad industrial
En consecuencia, el método y el aparato de procesamiento de señales según la presente invención utilizan información espacial facilitada por un codificador para generar las señales de sonido envolvente mediante información de filtro HRTF o información de filtro conforme a un usuario en un aparato de decodificación capaz de generar multicanales. La presente invención es aplicable de forma ventajosa a diversos tipos de decodificadores capaces de reproducir señales estéreo solo.
Aunque la presente invención se ha descrito e ilustrado con referencia a las formas de realización preferidas de la misma, resultará evidente para los expertos en la materia que es posible realizar diversas modificaciones y variantes sin abandonar el alcance de la presente invención. Por lo tanto, la presente invención pretende cubrir las modificaciones y variantes de la invención que entran dentro del alcance de las reivindicaciones adjuntas y sus equivalentes.
Claims (7)
- REIVINDICACIONES1. Método de procesamiento de una señal de audio, que comprende las etapas siguientes:5 recibir una señal de submezcla e información espacial, incluyendo la información espacial por lo menos unos parámetros "CLD" de diferencia de nivel de canal, y siendo la señal de submezcla generada realizando la submezcla de una señal de audio multicanal;generar información de mapeado de fuentes utilizando información espacial;generar información de subrenderización aplicando información de filtro de función de transferencia relacionada con la cabeza “HRTF” para obtener un efecto de sonido envolvente en la información de mapeado de fuentes;generar información de renderización integrando la información de subrenderización; y15 generar una señal de sonido envolvente que presenta el efecto del sonido envolvente aplicando la información de renderización a la señal de submezcla, en el quela señal de submezcla incluye un canal de entrada izquierdo y un canal de entrada derecho, y la señal de sonido envolvente generada incluye un canal de salida izquierdo y un canal de salida derecho, yla información de renderización comprende una primera información de renderización y una segunda información de renderización, estando la primera información de renderización destinada a generar el canal de salida izquierdo mediante su aplicación al canal de entrada izquierdo o a generar el canal de salida derecho mediante25 su aplicación al canal de entrada derecho, y estando la segunda información de renderización destinada a generar el canal de salida derecho mediante su aplicación al canal de entrada izquierdo o a generar el canal de salida izquierdo mediante su aplicación al canal de entrada derecho.
-
- 2.
- Método según la reivindicación 1, en el que la información espacial incluye además parámetros de correlación intercanal.
-
- 3.
- Método según las reivindicaciones 1 o 2, en el que la información de mapeado de fuentes es información correspondiente a cada canal de la señal de audio multicanal.
35 4. Método según cualquiera de las reivindicaciones 1 a 3, en el que la información de subrenderización incluye información generada aplicando la información de filtro HRTF por lo menos a dos informaciones de mapeado de fuentes. -
- 5.
- Método según cualquiera de las reivindicaciones 1 a 4, en el que la información de filtro HRTF es sometida a conversión de dominio para convertirla en información del dominio de la señal de sonido envolvente generada.
-
- 6.
- Aparato para procesar una señal de audio que comprende:
una unidad de demultiplexación (600) que recibe una señal de submezcla e información espacial, incluyendo la45 información espacial por lo menos unos parámetros "CLD" de diferencia de nivel de canal, y siendo la señal de submezcla generada realizando la submezcla de una señal de audio multicanal;una unidad de mapeado de fuentes (1010) que genera información de mapeado de fuentes utilizando la información espacial;una unidad de generación de información de subrenderización (1020) que genera información de subrenderización aplicando información de filtro de función de transferencia relacionada con la cabeza “HRTF para obtener un efecto de sonido envolvente en la información de mapeado de fuentes;55 una unidad de integración (1030) que genera información de renderización integrando dicha por lo menos una información de subrenderización; yuna unidad de renderización (900) que genera una señal de sonido envolvente que presenta el efecto del sonido envolvente aplicando la información de renderización a la señal de submezcla, en el quela señal de submezcla incluye un canal de entrada izquierdo y un canal de entrada derecho, y la señal de sonido envolvente generada incluye un canal de salida izquierdo y un canal de salida derecho, yla información de renderización comprende una primera información de renderización y una segunda información65 de renderización, estando la primera información de renderización destinada a generar el canal de salida izquierdo mediante su aplicación al canal de entrada izquierdo o a generar el canal de salida derecho mediante su aplicación al canal de entrada derecho, y estando la segunda información de renderización destinada a generar el canal de salida derecho mediante su aplicación al canal de entrada izquierdo o a generar el canal de salida izquierdo mediante su aplicación al canal de entrada derecho.5 7. Aparato según la reivindicación 6, en el que la información espacial incluye además parámetros de correlación intercanal. - 8. Aparato según las reivindicaciones 6 o 7, en el que la información de mapeado de fuentes es informacióncorrespondiente a cada canal de la señal de multicanal. 10
- 9. Aparato según cualquiera de las reivindicaciones 6 a 8, en el que la información de subrenderización incluye información generada aplicando la información de filtro HRTF por lo menos a dos informaciones de mapeado de fuentes.15 10. Aparato según cualquiera de las reivindicaciones 6 a 9, en el que la información de filtro es sometida a conversión de dominio para su conversión en información del dominio de la señal de sonido envolvente generada.
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US75998006P | 2006-01-19 | 2006-01-19 | |
US759980P | 2006-01-19 | ||
US77672406P | 2006-02-27 | 2006-02-27 | |
US776724P | 2006-02-27 | ||
US77944106P | 2006-03-07 | 2006-03-07 | |
US77941706P | 2006-03-07 | 2006-03-07 | |
US77944206P | 2006-03-07 | 2006-03-07 | |
US779417P | 2006-03-07 | ||
US779442P | 2006-03-07 | ||
US779441P | 2006-03-07 | ||
US78717206P | 2006-03-30 | 2006-03-30 | |
US787172P | 2006-03-30 | ||
US78751606P | 2006-03-31 | 2006-03-31 | |
US787516P | 2006-03-31 | ||
PCT/KR2007/000349 WO2007083959A1 (en) | 2006-01-19 | 2007-01-19 | Method and apparatus for processing a media signal |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2446245T3 true ES2446245T3 (es) | 2014-03-06 |
Family
ID=38287846
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07708531.4T Active ES2513265T3 (es) | 2006-01-19 | 2007-01-19 | Procedimiento y aparato para procesar una señal de medios |
ES07708529.8T Active ES2496571T3 (es) | 2006-01-19 | 2007-01-19 | Método y aparato para procesar una señal de medios |
ES07701036.1T Active ES2446245T3 (es) | 2006-01-19 | 2007-01-19 | Método y aparato para procesar una señal de medios |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07708531.4T Active ES2513265T3 (es) | 2006-01-19 | 2007-01-19 | Procedimiento y aparato para procesar una señal de medios |
ES07708529.8T Active ES2496571T3 (es) | 2006-01-19 | 2007-01-19 | Método y aparato para procesar una señal de medios |
Country Status (11)
Country | Link |
---|---|
US (6) | US8521313B2 (es) |
EP (6) | EP1974348B1 (es) |
JP (6) | JP4695197B2 (es) |
KR (8) | KR100953641B1 (es) |
AU (1) | AU2007206195B2 (es) |
BR (1) | BRPI0707136A2 (es) |
CA (1) | CA2636494C (es) |
ES (3) | ES2513265T3 (es) |
HK (1) | HK1127433A1 (es) |
TW (7) | TWI329462B (es) |
WO (6) | WO2007083960A1 (es) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE0400998D0 (sv) | 2004-04-16 | 2004-04-16 | Cooding Technologies Sweden Ab | Method for representing multi-channel audio signals |
US8521313B2 (en) * | 2006-01-19 | 2013-08-27 | Lg Electronics Inc. | Method and apparatus for processing a media signal |
GB2452021B (en) * | 2007-07-19 | 2012-03-14 | Vodafone Plc | identifying callers in telecommunication networks |
KR101464977B1 (ko) * | 2007-10-01 | 2014-11-25 | 삼성전자주식회사 | 메모리 관리 방법, 및 멀티 채널 데이터의 복호화 방법 및장치 |
ES2391801T3 (es) * | 2008-01-01 | 2012-11-30 | Lg Electronics Inc. | Procedimiento y aparato para procesar una señal de audio |
US8670576B2 (en) | 2008-01-01 | 2014-03-11 | Lg Electronics Inc. | Method and an apparatus for processing an audio signal |
KR101061129B1 (ko) * | 2008-04-24 | 2011-08-31 | 엘지전자 주식회사 | 오디오 신호의 처리 방법 및 이의 장치 |
CN102138176B (zh) * | 2008-07-11 | 2013-11-06 | 日本电气株式会社 | 信号分析装置、信号控制装置及其方法 |
EP2175670A1 (en) | 2008-10-07 | 2010-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Binaural rendering of a multi-channel audio signal |
MX2011011399A (es) * | 2008-10-17 | 2012-06-27 | Univ Friedrich Alexander Er | Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto. |
EP2214162A1 (en) * | 2009-01-28 | 2010-08-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Upmixer, method and computer program for upmixing a downmix audio signal |
TWI404050B (zh) * | 2009-06-08 | 2013-08-01 | Mstar Semiconductor Inc | 多聲道音頻信號解碼方法與裝置 |
KR20120062758A (ko) * | 2009-08-14 | 2012-06-14 | 에스알에스 랩스, 인크. | 오디오 객체들을 적응적으로 스트리밍하기 위한 시스템 |
KR101692394B1 (ko) * | 2009-08-27 | 2017-01-04 | 삼성전자주식회사 | 스테레오 오디오의 부호화, 복호화 방법 및 장치 |
JP4917189B2 (ja) | 2009-09-01 | 2012-04-18 | パナソニック株式会社 | デジタル放送送信装置、デジタル放送受信装置およびデジタル放送送受信システム |
JP5719372B2 (ja) | 2009-10-20 | 2015-05-20 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | アップミックス信号表現を生成する装置及び方法、ビットストリームを生成する装置及び方法、並びにコンピュータプログラム |
TWI557723B (zh) * | 2010-02-18 | 2016-11-11 | 杜比實驗室特許公司 | 解碼方法及系統 |
JP5243620B2 (ja) | 2010-06-09 | 2013-07-24 | パナソニック株式会社 | 帯域拡張方法、帯域拡張装置、プログラム、集積回路およびオーディオ復号装置 |
US20120035940A1 (en) * | 2010-08-06 | 2012-02-09 | Samsung Electronics Co., Ltd. | Audio signal processing method, encoding apparatus therefor, and decoding apparatus therefor |
US8948403B2 (en) * | 2010-08-06 | 2015-02-03 | Samsung Electronics Co., Ltd. | Method of processing signal, encoding apparatus thereof, decoding apparatus thereof, and signal processing system |
US8908874B2 (en) * | 2010-09-08 | 2014-12-09 | Dts, Inc. | Spatial audio encoding and reproduction |
ES2854998T3 (es) * | 2010-09-09 | 2021-09-23 | Mk Systems Usa Inc | Control de tasa de bits de vídeo |
KR20120040290A (ko) * | 2010-10-19 | 2012-04-27 | 삼성전자주식회사 | 영상처리장치, 영상처리장치에 사용되는 음성처리방법, 및 음성처리장치 |
US9026450B2 (en) | 2011-03-09 | 2015-05-05 | Dts Llc | System for dynamically creating and rendering audio objects |
KR101842257B1 (ko) * | 2011-09-14 | 2018-05-15 | 삼성전자주식회사 | 신호 처리 방법, 그에 따른 엔코딩 장치, 및 그에 따른 디코딩 장치 |
US9317458B2 (en) * | 2012-04-16 | 2016-04-19 | Harman International Industries, Incorporated | System for converting a signal |
EP2717262A1 (en) | 2012-10-05 | 2014-04-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoder, decoder and methods for signal-dependent zoom-transform in spatial audio object coding |
TWI618051B (zh) | 2013-02-14 | 2018-03-11 | 杜比實驗室特許公司 | 用於利用估計之空間參數的音頻訊號增強的音頻訊號處理方法及裝置 |
KR101729930B1 (ko) | 2013-02-14 | 2017-04-25 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 업믹스된 오디오 신호들의 채널간 코히어런스를 제어하기 위한 방법 |
TWI618050B (zh) | 2013-02-14 | 2018-03-11 | 杜比實驗室特許公司 | 用於音訊處理系統中之訊號去相關的方法及設備 |
US9830917B2 (en) | 2013-02-14 | 2017-11-28 | Dolby Laboratories Licensing Corporation | Methods for audio signal transient detection and decorrelation control |
CN105264600B (zh) | 2013-04-05 | 2019-06-07 | Dts有限责任公司 | 分层音频编码和传输 |
EP3020042B1 (en) | 2013-07-08 | 2018-03-21 | Dolby Laboratories Licensing Corporation | Processing of time-varying metadata for lossless resampling |
EP2830332A3 (en) | 2013-07-22 | 2015-03-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method, signal processing unit, and computer program for mapping a plurality of input channels of an input channel configuration to output channels of an output channel configuration |
KR101829822B1 (ko) * | 2013-07-22 | 2018-03-29 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 다채널 오디오 디코더, 다채널 오디오 인코더, 방법, 컴퓨터 프로그램 및 렌더링된 오디오 신호들의 역상관을 사용하는 인코딩된 오디오 표현 |
EP2830051A3 (en) * | 2013-07-22 | 2015-03-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals |
EP2830333A1 (en) | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-channel decorrelator, multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a premix of decorrelator input signals |
ES2660778T3 (es) * | 2013-10-21 | 2018-03-26 | Dolby International Ab | Reconstrucción paramétrica de señales de audio |
EP2866227A1 (en) | 2013-10-22 | 2015-04-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
CN104681034A (zh) | 2013-11-27 | 2015-06-03 | 杜比实验室特许公司 | 音频信号处理 |
US10373711B2 (en) | 2014-06-04 | 2019-08-06 | Nuance Communications, Inc. | Medical coding system with CDI clarification request notification |
EP2980789A1 (en) | 2014-07-30 | 2016-02-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for enhancing an audio signal, sound enhancing system |
EP3291582A4 (en) * | 2015-06-17 | 2018-05-09 | Samsung Electronics Co., Ltd. | Device and method for processing internal channel for low complexity format conversion |
US10490197B2 (en) * | 2015-06-17 | 2019-11-26 | Samsung Electronics Co., Ltd. | Method and device for processing internal channels for low complexity format conversion |
US10366687B2 (en) * | 2015-12-10 | 2019-07-30 | Nuance Communications, Inc. | System and methods for adapting neural network acoustic models |
EP3516560A1 (en) | 2016-09-20 | 2019-07-31 | Nuance Communications, Inc. | Method and system for sequencing medical billing codes |
US11133091B2 (en) | 2017-07-21 | 2021-09-28 | Nuance Communications, Inc. | Automated analysis system and method |
US11024424B2 (en) | 2017-10-27 | 2021-06-01 | Nuance Communications, Inc. | Computer assisted coding systems and methods |
CN109859766B (zh) * | 2017-11-30 | 2021-08-20 | 华为技术有限公司 | 音频编解码方法和相关产品 |
WO2019241760A1 (en) | 2018-06-14 | 2019-12-19 | Magic Leap, Inc. | Methods and systems for audio signal filtering |
Family Cites Families (187)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5166685A (en) * | 1990-09-04 | 1992-11-24 | Motorola, Inc. | Automatic selection of external multiplexer channels by an A/D converter integrated circuit |
US5632005A (en) * | 1991-01-08 | 1997-05-20 | Ray Milton Dolby | Encoder/decoder for multidimensional sound fields |
DE4217276C1 (es) | 1992-05-25 | 1993-04-08 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung Ev, 8000 Muenchen, De | |
DE4236989C2 (de) | 1992-11-02 | 1994-11-17 | Fraunhofer Ges Forschung | Verfahren zur Übertragung und/oder Speicherung digitaler Signale mehrerer Kanäle |
US5561736A (en) * | 1993-06-04 | 1996-10-01 | International Business Machines Corporation | Three dimensional speech synthesis |
DE69428939T2 (de) | 1993-06-22 | 2002-04-04 | Thomson Brandt Gmbh | Verfahren zur Erhaltung einer Mehrkanaldekodiermatrix |
DE69433258T2 (de) | 1993-07-30 | 2004-07-01 | Victor Company of Japan, Ltd., Yokohama | Raumklangsignalverarbeitungsvorrichtung |
TW263646B (en) | 1993-08-26 | 1995-11-21 | Nat Science Committee | Synchronizing method for multimedia signal |
AU691252B2 (en) * | 1994-02-25 | 1998-05-14 | Dorte Hammershoi | Binaural synthesis, head-related transfer functions, and uses thereof |
JPH07248255A (ja) | 1994-03-09 | 1995-09-26 | Sharp Corp | 立体音像生成装置及び立体音像生成方法 |
JPH07288900A (ja) * | 1994-04-19 | 1995-10-31 | Matsushita Electric Ind Co Ltd | 音場再生装置 |
EP0760197B1 (en) * | 1994-05-11 | 2009-01-28 | Aureal Semiconductor Inc. | Three-dimensional virtual audio display employing reduced complexity imaging filters |
US5703584A (en) * | 1994-08-22 | 1997-12-30 | Adaptec, Inc. | Analog data acquisition system |
GB9417185D0 (en) * | 1994-08-25 | 1994-10-12 | Adaptive Audio Ltd | Sounds recording and reproduction systems |
JP3395807B2 (ja) | 1994-09-07 | 2003-04-14 | 日本電信電話株式会社 | ステレオ音響再生装置 |
US6072877A (en) | 1994-09-09 | 2000-06-06 | Aureal Semiconductor, Inc. | Three-dimensional virtual audio display employing reduced complexity imaging filters |
JPH0884400A (ja) | 1994-09-12 | 1996-03-26 | Sanyo Electric Co Ltd | 音像制御装置 |
JPH08123494A (ja) | 1994-10-28 | 1996-05-17 | Mitsubishi Electric Corp | 音声符号化装置、音声復号化装置、音声符号化復号化方法およびこれらに使用可能な位相振幅特性導出装置 |
US5668924A (en) * | 1995-01-18 | 1997-09-16 | Olympus Optical Co. Ltd. | Digital sound recording and reproduction device using a coding technique to compress data for reduction of memory requirements |
JPH0974446A (ja) | 1995-03-01 | 1997-03-18 | Nippon Telegr & Teleph Corp <Ntt> | 音声通信制御装置 |
IT1281001B1 (it) | 1995-10-27 | 1998-02-11 | Cselt Centro Studi Lab Telecom | Procedimento e apparecchiatura per codificare, manipolare e decodificare segnali audio. |
US5956674A (en) | 1995-12-01 | 1999-09-21 | Digital Theater Systems, Inc. | Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels |
JP3088319B2 (ja) | 1996-02-07 | 2000-09-18 | 松下電器産業株式会社 | デコード装置およびデコード方法 |
JPH09224300A (ja) | 1996-02-16 | 1997-08-26 | Sanyo Electric Co Ltd | 音像位置の補正方法及び装置 |
JP3483086B2 (ja) * | 1996-03-22 | 2004-01-06 | 日本電信電話株式会社 | 音声電話会議装置 |
US5970152A (en) | 1996-04-30 | 1999-10-19 | Srs Labs, Inc. | Audio enhancement system for use in a surround sound environment |
US6252965B1 (en) | 1996-09-19 | 2001-06-26 | Terry D. Beard | Multichannel spectral mapping audio apparatus and method |
US5886988A (en) * | 1996-10-23 | 1999-03-23 | Arraycomm, Inc. | Channel assignment and call admission control for spatial division multiple access communication systems |
US6711266B1 (en) * | 1997-02-07 | 2004-03-23 | Bose Corporation | Surround sound channel encoding and decoding |
US6721425B1 (en) * | 1997-02-07 | 2004-04-13 | Bose Corporation | Sound signal mixing |
TW429700B (en) | 1997-02-26 | 2001-04-11 | Sony Corp | Information encoding method and apparatus, information decoding method and apparatus and information recording medium |
US6449368B1 (en) | 1997-03-14 | 2002-09-10 | Dolby Laboratories Licensing Corporation | Multidirectional audio decoding |
JP3594281B2 (ja) | 1997-04-30 | 2004-11-24 | 株式会社河合楽器製作所 | ステレオ拡大装置及び音場拡大装置 |
JPH1132400A (ja) | 1997-07-14 | 1999-02-02 | Matsushita Electric Ind Co Ltd | デジタル信号再生装置 |
US6307941B1 (en) * | 1997-07-15 | 2001-10-23 | Desper Products, Inc. | System and method for localization of virtual sound |
US5890125A (en) * | 1997-07-16 | 1999-03-30 | Dolby Laboratories Licensing Corporation | Method and apparatus for encoding and decoding multiple audio channels at low bit rates using adaptive selection of encoding method |
EP1025743B1 (en) * | 1997-09-16 | 2013-06-19 | Dolby Laboratories Licensing Corporation | Utilisation of filtering effects in stereo headphone devices to enhance spatialization of source around a listener |
US7085393B1 (en) * | 1998-11-13 | 2006-08-01 | Agere Systems Inc. | Method and apparatus for regularizing measured HRTF for smooth 3D digital audio |
US6081783A (en) | 1997-11-14 | 2000-06-27 | Cirrus Logic, Inc. | Dual processor digital audio decoder with shared memory data transfer and task partitioning for decompressing compressed audio data, and systems and methods using the same |
US6414290B1 (en) * | 1998-03-19 | 2002-07-02 | Graphic Packaging Corporation | Patterned microwave susceptor |
US6122619A (en) * | 1998-06-17 | 2000-09-19 | Lsi Logic Corporation | Audio decoder with programmable downmixing of MPEG/AC-3 and method therefor |
JP3781902B2 (ja) * | 1998-07-01 | 2006-06-07 | 株式会社リコー | 音像定位制御装置および音像定位制御方式 |
DE19846576C2 (de) | 1998-10-09 | 2001-03-08 | Aeg Niederspannungstech Gmbh | Plombierbare Verschließeinrichtung |
DE19847689B4 (de) | 1998-10-15 | 2013-07-11 | Samsung Electronics Co., Ltd. | Vorrichtung und Verfahren zur dreidimensionalen Tonwiedergabe |
US6574339B1 (en) | 1998-10-20 | 2003-06-03 | Samsung Electronics Co., Ltd. | Three-dimensional sound reproducing apparatus for multiple listeners and method thereof |
JP3346556B2 (ja) | 1998-11-16 | 2002-11-18 | 日本ビクター株式会社 | 音声符号化方法及び音声復号方法 |
US6611212B1 (en) * | 1999-04-07 | 2003-08-26 | Dolby Laboratories Licensing Corp. | Matrix improvements to lossless encoding and decoding |
GB2351213B (en) * | 1999-05-29 | 2003-08-27 | Central Research Lab Ltd | A method of modifying one or more original head related transfer functions |
KR100416757B1 (ko) | 1999-06-10 | 2004-01-31 | 삼성전자주식회사 | 위치 조절이 가능한 가상 음상을 이용한 스피커 재생용 다채널오디오 재생 장치 및 방법 |
US6226616B1 (en) * | 1999-06-21 | 2001-05-01 | Digital Theater Systems, Inc. | Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility |
US6175631B1 (en) * | 1999-07-09 | 2001-01-16 | Stephen A. Davis | Method and apparatus for decorrelating audio signals |
US7031474B1 (en) | 1999-10-04 | 2006-04-18 | Srs Labs, Inc. | Acoustic correction apparatus |
US6931370B1 (en) | 1999-11-02 | 2005-08-16 | Digital Theater Systems, Inc. | System and method for providing interactive audio in a multi-channel audio environment |
US6633648B1 (en) | 1999-11-12 | 2003-10-14 | Jerald L. Bauck | Loudspeaker array for enlarged sweet spot |
US20010030736A1 (en) | 1999-12-23 | 2001-10-18 | Spence Stuart T. | Film conversion device with heating element |
AUPQ514000A0 (en) * | 2000-01-17 | 2000-02-10 | University Of Sydney, The | The generation of customised three dimensional sound effects for individuals |
JP4281937B2 (ja) | 2000-02-02 | 2009-06-17 | パナソニック株式会社 | ヘッドホンシステム |
US7266501B2 (en) * | 2000-03-02 | 2007-09-04 | Akiba Electronics Institute Llc | Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process |
US6973130B1 (en) * | 2000-04-25 | 2005-12-06 | Wee Susie J | Compressed video signal including information for independently coded regions |
TW468182B (en) | 2000-05-03 | 2001-12-11 | Ind Tech Res Inst | Method and device for adjusting, recording and playing multimedia signals |
JP2001359197A (ja) | 2000-06-13 | 2001-12-26 | Victor Co Of Japan Ltd | 音像定位信号の生成方法、及び音像定位信号生成装置 |
JP3576936B2 (ja) | 2000-07-21 | 2004-10-13 | 株式会社ケンウッド | 周波数補間装置、周波数補間方法及び記録媒体 |
JP4645869B2 (ja) | 2000-08-02 | 2011-03-09 | ソニー株式会社 | ディジタル信号処理方法、学習方法及びそれらの装置並びにプログラム格納媒体 |
EP1211857A1 (fr) | 2000-12-04 | 2002-06-05 | STMicroelectronics N.V. | Procédé et dispositif d'estimation des valeurs successives de symboles numériques, en particulier pour l'égalisation d'un canal de transmission d'informations en téléphonie mobile |
WO2004019656A2 (en) * | 2001-02-07 | 2004-03-04 | Dolby Laboratories Licensing Corporation | Audio channel spatial translation |
JP3566220B2 (ja) | 2001-03-09 | 2004-09-15 | 三菱電機株式会社 | 音声符号化装置、音声符号化方法、音声復号化装置及び音声復号化方法 |
US6504496B1 (en) * | 2001-04-10 | 2003-01-07 | Cirrus Logic, Inc. | Systems and methods for decoding compressed data |
US20030007648A1 (en) * | 2001-04-27 | 2003-01-09 | Christopher Currell | Virtual audio system and techniques |
US7292901B2 (en) | 2002-06-24 | 2007-11-06 | Agere Systems Inc. | Hybrid multi-channel/cue coding/decoding of audio signals |
US20030035553A1 (en) | 2001-08-10 | 2003-02-20 | Frank Baumgarte | Backwards-compatible perceptual coding of spatial cues |
US7583805B2 (en) * | 2004-02-12 | 2009-09-01 | Agere Systems Inc. | Late reverberation-based synthesis of auditory scenes |
US7302068B2 (en) * | 2001-06-21 | 2007-11-27 | 1 . . .Limited | Loudspeaker |
JP2003009296A (ja) | 2001-06-22 | 2003-01-10 | Matsushita Electric Ind Co Ltd | 音響処理装置および音響処理方法 |
SE0202159D0 (sv) | 2001-07-10 | 2002-07-09 | Coding Technologies Sweden Ab | Efficientand scalable parametric stereo coding for low bitrate applications |
JP2003111198A (ja) | 2001-10-01 | 2003-04-11 | Sony Corp | 音声信号処理方法および音声再生システム |
WO2003042981A1 (en) | 2001-11-14 | 2003-05-22 | Matsushita Electric Industrial Co., Ltd. | Audio coding and decoding |
EP1315148A1 (en) | 2001-11-17 | 2003-05-28 | Deutsche Thomson-Brandt Gmbh | Determination of the presence of ancillary data in an audio bitstream |
TWI230024B (en) | 2001-12-18 | 2005-03-21 | Dolby Lab Licensing Corp | Method and audio apparatus for improving spatial perception of multiple sound channels when reproduced by two loudspeakers |
EP1470550B1 (en) | 2002-01-30 | 2008-09-03 | Matsushita Electric Industrial Co., Ltd. | Audio encoding and decoding device and methods thereof |
EP1341160A1 (en) | 2002-03-01 | 2003-09-03 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for encoding and for decoding a digital information signal |
US7707287B2 (en) * | 2002-03-22 | 2010-04-27 | F5 Networks, Inc. | Virtual host acceleration system |
BR0304231A (pt) | 2002-04-10 | 2004-07-27 | Koninkl Philips Electronics Nv | Métodos para codificação de um sinal de canais múltiplos, método e disposição para decodificação de informação de sinal de canais múltiplos, sinal de dados incluindo informação de sinal de canais múltiplos, meio legìvel por computador, e, dispositivo para comunicação de um sinal de canais múltiplos |
ATE354161T1 (de) | 2002-04-22 | 2007-03-15 | Koninkl Philips Electronics Nv | Signalsynthese |
KR100635022B1 (ko) * | 2002-05-03 | 2006-10-16 | 하만인터내셔날인더스트리스인코포레이티드 | 다채널 다운믹싱 장치 |
JP4296752B2 (ja) | 2002-05-07 | 2009-07-15 | ソニー株式会社 | 符号化方法及び装置、復号方法及び装置、並びにプログラム |
DE10228999B4 (de) | 2002-06-28 | 2006-12-14 | Advanced Micro Devices, Inc., Sunnyvale | Konstellationsmanipulation zur Frequenz/Phasenfehlerkorrektur |
BRPI0305434B1 (pt) | 2002-07-12 | 2017-06-27 | Koninklijke Philips Electronics N.V. | Methods and arrangements for encoding and decoding a multichannel audio signal, and multichannel audio coded signal |
US7542896B2 (en) | 2002-07-16 | 2009-06-02 | Koninklijke Philips Electronics N.V. | Audio coding/decoding with spatial parameters and non-uniform segmentation for transients |
CN1328707C (zh) | 2002-07-19 | 2007-07-25 | 日本电气株式会社 | 音频解码设备以及解码方法 |
US7502743B2 (en) * | 2002-09-04 | 2009-03-10 | Microsoft Corporation | Multi-channel audio encoding and decoding with multi-channel transform selection |
CN100594744C (zh) * | 2002-09-23 | 2010-03-17 | 皇家飞利浦电子股份有限公司 | 声音信号的生成 |
ES2283815T3 (es) | 2002-10-14 | 2007-11-01 | Thomson Licensing | Metodo para codificar y decodificar la anchura de una fuente de sonido en una escena de audio. |
KR20050049549A (ko) | 2002-10-14 | 2005-05-25 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 신호 필터링 |
WO2004036955A1 (en) | 2002-10-15 | 2004-04-29 | Electronics And Telecommunications Research Institute | Method for generating and consuming 3d audio scene with extended spatiality of sound source |
WO2004036954A1 (en) | 2002-10-15 | 2004-04-29 | Electronics And Telecommunications Research Institute | Apparatus and method for adapting audio signal according to user's preference |
KR100542129B1 (ko) * | 2002-10-28 | 2006-01-11 | 한국전자통신연구원 | 객체기반 3차원 오디오 시스템 및 그 제어 방법 |
KR20050085017A (ko) * | 2002-11-20 | 2005-08-29 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 오디오에 기초한 데이터 표시 장치 및 방법 |
US8139797B2 (en) | 2002-12-03 | 2012-03-20 | Bose Corporation | Directional electroacoustical transducing |
US6829925B2 (en) * | 2002-12-20 | 2004-12-14 | The Goodyear Tire & Rubber Company | Apparatus and method for monitoring a condition of a tire |
US7519530B2 (en) * | 2003-01-09 | 2009-04-14 | Nokia Corporation | Audio signal processing |
KR100917464B1 (ko) | 2003-03-07 | 2009-09-14 | 삼성전자주식회사 | 대역 확장 기법을 이용한 디지털 데이터의 부호화 방법,그 장치, 복호화 방법 및 그 장치 |
US7391877B1 (en) * | 2003-03-31 | 2008-06-24 | United States Of America As Represented By The Secretary Of The Air Force | Spatial processor for enhanced performance in multi-talker speech displays |
JP4196274B2 (ja) | 2003-08-11 | 2008-12-17 | ソニー株式会社 | 画像信号処理装置および方法、プログラム、並びに記録媒体 |
CN1253464C (zh) | 2003-08-13 | 2006-04-26 | 中国科学院昆明植物研究所 | 安丝菌素苷类化合物及其药物组合物,其制备方法及其应用 |
US20050063613A1 (en) | 2003-09-24 | 2005-03-24 | Kevin Casey | Network based system and method to process images |
US7447317B2 (en) | 2003-10-02 | 2008-11-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V | Compatible multi-channel coding/decoding by weighting the downmix channel |
US6937737B2 (en) * | 2003-10-27 | 2005-08-30 | Britannia Investment Corporation | Multi-channel audio surround sound from front located loudspeakers |
KR101217649B1 (ko) * | 2003-10-30 | 2013-01-02 | 돌비 인터네셔널 에이비 | 오디오 신호 인코딩 또는 디코딩 |
US7680289B2 (en) * | 2003-11-04 | 2010-03-16 | Texas Instruments Incorporated | Binaural sound localization using a formant-type cascade of resonators and anti-resonators |
US7949141B2 (en) | 2003-11-12 | 2011-05-24 | Dolby Laboratories Licensing Corporation | Processing audio signals with head related transfer function filters and a reverberator |
EP1685742A1 (en) * | 2003-11-17 | 2006-08-02 | 1... Limited | Loudspeaker |
KR20050060789A (ko) | 2003-12-17 | 2005-06-22 | 삼성전자주식회사 | 가상 음향 재생 방법 및 그 장치 |
US7932953B2 (en) | 2004-01-05 | 2011-04-26 | Koninklijke Philips Electronics N.V. | Ambient light derived from video content by mapping transformations through unrendered color space |
JP2007521774A (ja) | 2004-01-05 | 2007-08-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 未レンダリング色空間を経由してマッピングされる環境光ビデオ内容から導かれる環境光のためのちらつきのない適応閾値処理 |
US7394903B2 (en) | 2004-01-20 | 2008-07-01 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal |
US7492915B2 (en) * | 2004-02-13 | 2009-02-17 | Texas Instruments Incorporated | Dynamic sound source and listener position based audio rendering |
US7613306B2 (en) * | 2004-02-25 | 2009-11-03 | Panasonic Corporation | Audio encoder and audio decoder |
DE602005022641D1 (de) | 2004-03-01 | 2010-09-09 | Dolby Lab Licensing Corp | Mehrkanal-Audiodekodierung |
US7805313B2 (en) * | 2004-03-04 | 2010-09-28 | Agere Systems Inc. | Frequency-based coding of channels in parametric multi-channel coding systems |
US7668712B2 (en) * | 2004-03-31 | 2010-02-23 | Microsoft Corporation | Audio encoding and decoding with intra frames and adaptive forward error correction |
PL1735779T3 (pl) * | 2004-04-05 | 2014-01-31 | Koninklijke Philips Nv | Urządzenie kodujące, dekodujące, sposoby z nimi powiązane oraz powiązany system audio |
TWI253625B (en) | 2004-04-06 | 2006-04-21 | I-Shun Huang | Signal-processing system and method thereof |
SE0400998D0 (sv) | 2004-04-16 | 2004-04-16 | Cooding Technologies Sweden Ab | Method for representing multi-channel audio signals |
US20050276430A1 (en) | 2004-05-28 | 2005-12-15 | Microsoft Corporation | Fast headphone virtualization |
US7283065B2 (en) * | 2004-06-02 | 2007-10-16 | Research In Motion Limited | Handheld electronic device with text disambiguation |
KR100636144B1 (ko) | 2004-06-04 | 2006-10-18 | 삼성전자주식회사 | 오디오 신호 부호화/복호화 장치 및 방법 |
KR100636145B1 (ko) * | 2004-06-04 | 2006-10-18 | 삼성전자주식회사 | 확장된 고해상도 오디오 신호 부호화 및 복호화 장치 |
US20050273324A1 (en) * | 2004-06-08 | 2005-12-08 | Expamedia, Inc. | System for providing audio data and providing method thereof |
JP2005352396A (ja) * | 2004-06-14 | 2005-12-22 | Matsushita Electric Ind Co Ltd | 音響信号符号化装置および音響信号復号装置 |
JP4594662B2 (ja) | 2004-06-29 | 2010-12-08 | ソニー株式会社 | 音像定位装置 |
US8843378B2 (en) * | 2004-06-30 | 2014-09-23 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Multi-channel synthesizer and method for generating a multi-channel output signal |
US7617109B2 (en) * | 2004-07-01 | 2009-11-10 | Dolby Laboratories Licensing Corporation | Method for correcting metadata affecting the playback loudness and dynamic range of audio information |
WO2006003813A1 (ja) * | 2004-07-02 | 2006-01-12 | Matsushita Electric Industrial Co., Ltd. | オーディオ符号化及び復号化装置 |
TW200603652A (en) * | 2004-07-06 | 2006-01-16 | Syncomm Technology Corp | Wireless multi-channel sound re-producing system |
KR20060003444A (ko) * | 2004-07-06 | 2006-01-11 | 삼성전자주식회사 | 모바일 기기에서 크로스토크 제거 장치 및 방법 |
US7391870B2 (en) * | 2004-07-09 | 2008-06-24 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V | Apparatus and method for generating a multi-channel output signal |
ES2387256T3 (es) | 2004-07-14 | 2012-09-19 | Koninklijke Philips Electronics N.V. | Método, dispositivo, aparato codificador, aparato decodificador y sistema de audio |
KR100773539B1 (ko) | 2004-07-14 | 2007-11-05 | 삼성전자주식회사 | 멀티채널 오디오 데이터 부호화/복호화 방법 및 장치 |
JP4641751B2 (ja) * | 2004-07-23 | 2011-03-02 | ローム株式会社 | ピークホールド回路、それを備えるモータ駆動制御回路、及びそれを備えるモータ装置 |
TWI498882B (zh) * | 2004-08-25 | 2015-09-01 | Dolby Lab Licensing Corp | 音訊解碼器 |
TWI393121B (zh) | 2004-08-25 | 2013-04-11 | Dolby Lab Licensing Corp | 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式 |
DE102004042819A1 (de) * | 2004-09-03 | 2006-03-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines codierten Multikanalsignals und Vorrichtung und Verfahren zum Decodieren eines codierten Multikanalsignals |
KR20060022968A (ko) | 2004-09-08 | 2006-03-13 | 삼성전자주식회사 | 음향재생장치 및 음향재생방법 |
US7634092B2 (en) * | 2004-10-14 | 2009-12-15 | Dolby Laboratories Licensing Corporation | Head related transfer functions for panned stereo audio content |
US7720230B2 (en) * | 2004-10-20 | 2010-05-18 | Agere Systems, Inc. | Individual channel shaping for BCC schemes and the like |
SE0402650D0 (sv) | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Improved parametric stereo compatible coding of spatial audio |
WO2006054360A1 (ja) | 2004-11-22 | 2006-05-26 | Mitsubishi Denki Kabushiki Kaisha | 音像生成装置及び音像生成プログラム |
KR101236259B1 (ko) * | 2004-11-30 | 2013-02-22 | 에이저 시스템즈 엘엘시 | 오디오 채널들을 인코딩하는 방법 및 장치 |
US7787631B2 (en) * | 2004-11-30 | 2010-08-31 | Agere Systems Inc. | Parametric coding of spatial audio with cues based on transmitted channels |
EP1817767B1 (en) * | 2004-11-30 | 2015-11-11 | Agere Systems Inc. | Parametric coding of spatial audio with object-based side information |
KR100682904B1 (ko) * | 2004-12-01 | 2007-02-15 | 삼성전자주식회사 | 공간 정보를 이용한 다채널 오디오 신호 처리 장치 및 방법 |
US7903824B2 (en) | 2005-01-10 | 2011-03-08 | Agere Systems Inc. | Compact side information for parametric coding of spatial audio |
US7573912B2 (en) * | 2005-02-22 | 2009-08-11 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. | Near-transparent or transparent multi-channel encoder/decoder scheme |
US20060195981A1 (en) * | 2005-03-02 | 2006-09-07 | Hydro-Industries Tynat Ltd. | Freestanding combination sink and hose reel workstation |
KR100608025B1 (ko) * | 2005-03-03 | 2006-08-02 | 삼성전자주식회사 | 2채널 헤드폰용 입체 음향 생성 방법 및 장치 |
WO2006103581A1 (en) * | 2005-03-30 | 2006-10-05 | Koninklijke Philips Electronics N.V. | Scalable multi-channel audio coding |
DE602006004959D1 (de) * | 2005-04-15 | 2009-03-12 | Dolby Sweden Ab | Zeitliche hüllkurvenformgebung von entkorrelierten signalen |
US7961890B2 (en) | 2005-04-15 | 2011-06-14 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. | Multi-channel hierarchical audio coding with compact side information |
US7983922B2 (en) * | 2005-04-15 | 2011-07-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing |
US7751572B2 (en) | 2005-04-15 | 2010-07-06 | Dolby International Ab | Adaptive residual audio coding |
KR101251426B1 (ko) * | 2005-06-03 | 2013-04-05 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 디코딩 명령으로 오디오 신호를 인코딩하기 위한 장치 및방법 |
EP1908057B1 (en) * | 2005-06-30 | 2012-06-20 | LG Electronics Inc. | Method and apparatus for decoding an audio signal |
US8081764B2 (en) | 2005-07-15 | 2011-12-20 | Panasonic Corporation | Audio decoder |
US7880748B1 (en) | 2005-08-17 | 2011-02-01 | Apple Inc. | Audio view using 3-dimensional plot |
JP5108767B2 (ja) * | 2005-08-30 | 2012-12-26 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号をエンコーディング及びデコーディングするための装置とその方法 |
WO2007031906A2 (en) * | 2005-09-13 | 2007-03-22 | Koninklijke Philips Electronics N.V. | A method of and a device for generating 3d sound |
KR100739776B1 (ko) | 2005-09-22 | 2007-07-13 | 삼성전자주식회사 | 입체 음향 생성 방법 및 장치 |
JP5536335B2 (ja) * | 2005-10-20 | 2014-07-02 | エルジー エレクトロニクス インコーポレイティド | マルチチャンネルオーディオ信号の符号化及び復号化方法とその装置 |
DK1980132T3 (da) * | 2005-12-16 | 2013-02-18 | Widex As | Fremgangsmåde og system til overvågning af en trådløs forbindelse i et høreapparat-tilpasningssystem |
DE602006016017D1 (de) * | 2006-01-09 | 2010-09-16 | Nokia Corp | Steuerung der dekodierung binauraler audiosignale |
WO2007080211A1 (en) * | 2006-01-09 | 2007-07-19 | Nokia Corporation | Decoding of binaural audio signals |
KR100803212B1 (ko) * | 2006-01-11 | 2008-02-14 | 삼성전자주식회사 | 스케일러블 채널 복호화 방법 및 장치 |
US8521313B2 (en) * | 2006-01-19 | 2013-08-27 | Lg Electronics Inc. | Method and apparatus for processing a media signal |
US8190425B2 (en) * | 2006-01-20 | 2012-05-29 | Microsoft Corporation | Complex cross-correlation parameters for multi-channel audio |
JP2009526263A (ja) | 2006-02-07 | 2009-07-16 | エルジー エレクトロニクス インコーポレイティド | 符号化/復号化装置及び方法 |
KR100773562B1 (ko) * | 2006-03-06 | 2007-11-07 | 삼성전자주식회사 | 스테레오 신호 생성 방법 및 장치 |
PL1999999T3 (pl) * | 2006-03-24 | 2012-07-31 | Dolby Int Ab | Generowanie downmixów przestrzennych na podstawie parametrycznych reprezentacji sygnałów wielokanałowych |
WO2007111568A2 (en) | 2006-03-28 | 2007-10-04 | Telefonaktiebolaget L M Ericsson (Publ) | Method and arrangement for a decoder for multi-channel surround sound |
ES2362920T3 (es) | 2006-03-28 | 2011-07-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Método mejorado para la conformación de señales en reconstrucción de audio multicanal. |
JP4778828B2 (ja) | 2006-04-14 | 2011-09-21 | 矢崎総業株式会社 | 電気接続箱 |
US8027479B2 (en) * | 2006-06-02 | 2011-09-27 | Coding Technologies Ab | Binaural multi-channel decoder in the context of non-energy conserving upmix rules |
US7876904B2 (en) * | 2006-07-08 | 2011-01-25 | Nokia Corporation | Dynamic decoding of binaural audio signals |
US20080235006A1 (en) * | 2006-08-18 | 2008-09-25 | Lg Electronics, Inc. | Method and Apparatus for Decoding an Audio Signal |
AU2007300810B2 (en) * | 2006-09-29 | 2010-06-17 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
JP5270566B2 (ja) * | 2006-12-07 | 2013-08-21 | エルジー エレクトロニクス インコーポレイティド | オーディオ処理方法及び装置 |
JP2009044268A (ja) * | 2007-08-06 | 2009-02-26 | Sharp Corp | 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、及び、記録媒体 |
JP5056530B2 (ja) | 2008-03-27 | 2012-10-24 | 沖電気工業株式会社 | 復号システム、方法及びプログラム |
-
2007
- 2007-01-19 US US12/161,329 patent/US8521313B2/en active Active
- 2007-01-19 TW TW096102406A patent/TWI329462B/zh active
- 2007-01-19 KR KR1020087005978A patent/KR100953641B1/ko active IP Right Grant
- 2007-01-19 AU AU2007206195A patent/AU2007206195B2/en active Active
- 2007-01-19 JP JP2008551199A patent/JP4695197B2/ja active Active
- 2007-01-19 EP EP07708534.8A patent/EP1974348B1/en active Active
- 2007-01-19 ES ES07708531.4T patent/ES2513265T3/es active Active
- 2007-01-19 WO PCT/KR2007/000350 patent/WO2007083960A1/en active Application Filing
- 2007-01-19 TW TW98105568A patent/TWI469133B/zh not_active IP Right Cessation
- 2007-01-19 EP EP07701036.1A patent/EP1974345B1/en active Active
- 2007-01-19 ES ES07708529.8T patent/ES2496571T3/es active Active
- 2007-01-19 ES ES07701036.1T patent/ES2446245T3/es active Active
- 2007-01-19 US US12/161,563 patent/US8488819B2/en active Active
- 2007-01-19 KR KR1020087005977A patent/KR100953640B1/ko active IP Right Grant
- 2007-01-19 US US12/161,560 patent/US20090028344A1/en not_active Abandoned
- 2007-01-19 WO PCT/KR2007/000342 patent/WO2007083953A1/en active Application Filing
- 2007-01-19 KR KR1020087005980A patent/KR100953643B1/ko active IP Right Grant
- 2007-01-19 US US12/161,337 patent/US8351611B2/en active Active
- 2007-01-19 JP JP2008551196A patent/JP4787331B2/ja active Active
- 2007-01-19 US US12/161,558 patent/US8411869B2/en active Active
- 2007-01-19 JP JP2008551195A patent/JP4801174B2/ja active Active
- 2007-01-19 EP EP07701033.8A patent/EP1979897B1/en active Active
- 2007-01-19 KR KR1020087005981A patent/KR100953644B1/ko active IP Right Grant
- 2007-01-19 CA CA2636494A patent/CA2636494C/en active Active
- 2007-01-19 KR KR1020087005979A patent/KR100953642B1/ko active IP Right Grant
- 2007-01-19 EP EP07701037.9A patent/EP1974346B1/en active Active
- 2007-01-19 TW TW096102405A patent/TWI329461B/zh active
- 2007-01-19 EP EP07708531.4A patent/EP1974347B1/en active Active
- 2007-01-19 WO PCT/KR2007/000340 patent/WO2007083952A1/en active Application Filing
- 2007-01-19 EP EP07708529.8A patent/EP1979898B1/en active Active
- 2007-01-19 WO PCT/KR2007/000345 patent/WO2007083955A1/en active Application Filing
- 2007-01-19 WO PCT/KR2007/000346 patent/WO2007083956A1/en active Application Filing
- 2007-01-19 WO PCT/KR2007/000349 patent/WO2007083959A1/en active Application Filing
- 2007-01-19 BR BRPI0707136-1A patent/BRPI0707136A2/pt not_active IP Right Cessation
- 2007-01-19 KR KR1020087005982A patent/KR100953645B1/ko active IP Right Grant
- 2007-01-19 TW TW096102410A patent/TWI344638B/zh active
- 2007-01-19 KR KR1020070006281A patent/KR20070077134A/ko not_active Application Discontinuation
- 2007-01-19 JP JP2008551193A patent/JP4814343B2/ja active Active
- 2007-01-19 KR KR1020087021417A patent/KR20080086548A/ko not_active Application Discontinuation
- 2007-01-19 TW TW096102407A patent/TWI333642B/zh active
- 2007-01-19 US US12/161,334 patent/US8208641B2/en active Active
- 2007-01-19 TW TW096102403A patent/TWI315864B/zh active
- 2007-01-19 JP JP2008551200A patent/JP4806031B2/ja active Active
- 2007-01-19 TW TW096102411A patent/TWI333386B/zh active
- 2007-01-19 JP JP2008551194A patent/JP4814344B2/ja active Active
-
2009
- 2009-06-05 HK HK09105049.1A patent/HK1127433A1/xx not_active IP Right Cessation
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2446245T3 (es) | Método y aparato para procesar una señal de medios | |
ES2940283T3 (es) | Filtración eficiente con un banco de filtros modulado complejo | |
US8577686B2 (en) | Method and apparatus for decoding an audio signal | |
ES2511390T3 (es) | Aparato, procedimiento y programa de computación para mezclar en forma ascendente una señal de audio con mezcla descendente utilizando una suavización de valor de fase | |
ES2339888T3 (es) | Codificacion y decodificacion de audio. | |
ES2609449T3 (es) | Decodificación de audio | |
ES2687952T3 (es) | Reducción de fallas de filtro peine en mezcla descendente de canales múltiples con alineación de fase adaptativa | |
US9595267B2 (en) | Method and apparatus for decoding an audio signal | |
RU2395854C2 (ru) | Способ и устройство для обработки медиасигнала |